文/陳根
2017 年底,國外論壇出現(xiàn)的一個ID 為“deepfakes”的用戶發(fā)布了通過機器學習來更換視頻人臉的人工智能算法,一腳踢開了人工智能換臉大門。不過當時該技術的使用門檻還比較高,需要編譯代碼等操作。
而一個月后,有人將他公開的的算法加以改造推出簡易版人工智能換臉工具“FakeApp”,這次,就算是普通用戶,也能夠順利操作。
隨著換臉技術的升級及相關應用的開源,換臉用途也從最初的娛樂逐漸演變成犯罪工具,引發(fā)了人們越來越多對人工智能換臉的擔憂。
首先是對于信息的真實性形成嚴峻的挑戰(zhàn)。PS 發(fā)明后,有圖不再有真相;而人工智能換臉技術的出現(xiàn),則讓圖像也開始變得鏡花水月了起來:這對于本來就假消息滿天飛的互聯(lián)網(wǎng)來說,無疑會造成進一步的信任崩壞。
其次,這會大大增加侵犯肖像權的可能,沒人愿意自己的臉龐出現(xiàn)在莫名其妙的視頻當中,此前就有在某成人視頻網(wǎng)站上,某女星的臉被“安”在了成人視頻女主角臉上的報道,這將給女星的名譽帶來極大的負面影響。
鑒于這項技術所帶來的倫理問題和潛在威脅,先進的 DeepFake 檢測技術將非常重要。
在以前的研究中,DeepFake 視頻檢測主要專注于在具備強監(jiān)督標注的情況下,如何較好地檢測到 DeepFake 圖像或者人臉。
現(xiàn)在,阿里安全圖靈實驗室和中科院計算所合作完成的一項研究更加關注現(xiàn)實中廣泛存在的問題:部分攻擊(篡改)的視頻,即視頻中只有部分人臉被篡改了。
具體來說,該研究提出了基于多實例學習的 DeepFake 檢測框架,將人臉和輸入視頻分別當作多實例學習 (Multiple Instance Learning, MIL) 里的實例和包進行檢測。
然而,傳統(tǒng)的多實例學習存在梯度消失問題。為此,研究人員提出了 Sharp-MIL (S-MIL),將多個實例的聚合由輸出層提前到特征層,一方面使得聚合更加靈活,另一方面也利用偽造檢測的目標函數(shù)直接指導實例級深度表征的學習,從而緩解傳統(tǒng)多實例學習面臨的梯度消失難題。該研究通過理論證明了 S-MIL 可以緩解傳統(tǒng) MIL 存在的梯度消失問題。
研究人員表示,除了部分換臉檢測任務之外,該研究成果對于一般性的視頻多實例學習與標注技術研究也具有重要的啟發(fā)意義,而人工智能換臉技術及其檢測技術也值得我們持續(xù)關注。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )