深度偽造( Deepfake )被視為詐騙的新伎倆,而且技術愈趨成熟,更容易瞞天過海。為對抗這類由人工智能( AI )產生、像真度極高的相片及影像,微軟發布影像驗證工具(Video Authenticator),可分析靜態相片及影片,透過影像上的褪色及灰度元素等判斷相片或影片是否人為合成。微軟強調,這些細微之處都是人眼難於分辨,透過同屬人工智能技術的影像驗證工具就較容易找到答案。
根據微軟的資料,此影像驗證工具以 Face Forensic ++ 的公共數據集建立,並在 DeepFake Detection Challenge 數據集上進行測試。這兩個都是用於訓練和測試 Deepfake 檢測技術的模型。
微軟更強調,無論是 Deepfake 或是合成媒體,都可透過人工智能技術幾可亂真,在美國大選前透過檢測技術將可成為識別 Deepfake 的有用工具,對確保真實資訊極為重要。