最近一兩年各種幾可亂真的 Deepfake 技術迅速發展,也讓 AI 犯罪、假訊息正以驚人效率在世上迅速蔓延。為此防止有人濫用 Deepfake 企圖影響美國大選,微軟推出反 Deepfake 檢測工具「Microsoft Video Authenticator」,可以判讀影片或靜態圖片是否Deepfake 修改,幫助媒體與大眾判別真偽。
這個工具主要會仔細分析影片或靜態圖片中,人臉跟周遭皮膚或脖子等肉眼難以判斷的邊界處色澤、像素,是否跟臉部吻合,並且給予基於百分比的可信度分數來幫助大家辨別。
為了製作這套反 Deepfake 工具,微軟使用約 1,000 組 Deepfake 公開資料庫訓練出自己的機器學習模型,並且拿 Facebook 的 DeepFake Detection Challenge 資料庫進行交叉測試。
不過這套工具目前並未向所有人開源,為了在美國大選這段期間確保不被人再度破解,微軟會先提供工具給有公信力的第三方組織 AI Foundation 的 RD2020,由 RD2020 審核後免費提供給媒體或政治活動者。
另外除 RD2020 之外,微軟也跟 BBC、CBC、紐約時報等在 Origin 計畫內的幾間媒體合作,讓他們協助測試 Microsoft Video Authenticator 是否堪用並幫助將其發展成日後標準。
除了 Microsoft Video Authenticator 之外,微軟還將透過 Azure 為新聞、影片添加專屬雜湊值與憑證在原始碼內,以確保內容未遭惡意修改。
日前台灣年初總統大選如火如荼之際也曾發生過「新店周星馳、景美吳孟達」的 Deepfake 假影片事件,由於片中 Deepfake 了周星馳、吳孟達、梁家輝等港星,以及國民黨總統候選人韓國瑜並公開討論總統大選賭盤,被不少人認為是一支企圖影響本屆總統大選的 Deepfake 影片。
核稿編輯:Mia