關上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

誕生之初,Deepfake是一項有趣的圖像處理技術,僅僅帶來搞笑和娛樂視頻,但殊不知,潘多拉魔盒就此被打開,催生出 黑產(chǎn)、惡搞政客“操縱”民意,Deepfake正逐步進化為一種新型“病毒”,人類倫理道德的“遮羞布”也被無情揭開。

圖:Saturday Night Live中凱特·麥金農換臉伊麗莎白·沃倫

面對因新技術而引發(fā)的公眾恐慌,相關監(jiān)管機構也加快采取行動,出臺“打假”策略,旨在打擊Deepfake虛假音視頻,控制“造假病毒”的傳播。同時,國內也迎來了“最嚴數(shù)據(jù)管理”的一年。

11月29日,中國國家網(wǎng)信辦也正式發(fā)布《網(wǎng)絡音視頻信息服務管理規(guī)定》,指出自2020年1月1日起,AI造假視頻不得隨意發(fā)布。新規(guī)定中關于AI造假音視頻的規(guī)定主要有四條:“按照國家有關規(guī)定開展安全評估”、“以顯著方式予以標識”非真實音頻信息、不得利用AI造假技術發(fā)布虛假新聞、部署AI造假音視頻鑒別技術和健全辟謠機制等。

新規(guī)中不難發(fā)現(xiàn),有效抑制Deepfake及類似造假需要“兩手抓”,除了利用法律法規(guī)嚴控“別有用心者”作惡,更要從源頭加強安全評估、鑒別技術等能力,借助技術手段提前布局,在檢測方面領先一步。

近日,來自清華大學的人工智能企業(yè)——RealAI正式發(fā)布了一款深度偽造視頻檢測工具,可一鍵實現(xiàn)對深度偽造(Deepfake)視頻的自動精準識別。

一、 一鍵換臉到一鍵“打假”

RealAICEO田天表示,盡管需求達成一致,但目前大規(guī)模應用的打假方法面臨諸多困難。

首先,Deepfake的開源技術讓AI換臉的使用門檻降低到手機美顏、P圖的水平,一鍵換臉帶來了“造謠”成本的降低、爆炸式的傳播。可是在防御層,相應標準化的檢測工具卻幾乎沒有,人工鑒別不僅專業(yè)性要求高,且效率低。所以,無論對于個人、平臺還是第三方機構而言,打假辟謠的時間窗口很短,難度卻很高。

圖:雷佳音(左)換臉郭德綱(右)

另外,更嚴重的問題在于,很多情況下,Deepfake“以假亂真”的程度極高,人眼難以察覺。加之其算法目前還無法建模分析,檢測技術的研究被嚴重影響,而造假方的適應速度卻很快,新技術日益迭代。

RealAI基于第三代AI技術推出的深度偽造視頻檢測產(chǎn)品,通過采用“數(shù)據(jù)增廣”的方式,用偽造的視頻訓練出一個新的模型,從而讓模型能夠更好識別出偽造痕跡,分辨出造假視頻,可謂“魔高一尺,道高一丈”。該產(chǎn)品支持圖像、視頻內容鑒別,用戶基于API接口將待檢測的圖片、視頻上傳,一鍵即可反饋真?zhèn)巍?/p>

事實上,開展針對Deepfake的“打假”研究的團隊早就存在,但相關的成果僅停留在算法層面,更多的是為學術研究提供使用,無法應對真實環(huán)境下大范圍傳播的虛假內容,所以,RealAI推出的這款標準化自動檢測工具可以說給規(guī)模化的“打假”行動帶來了新希望。

二、檢測準確率達99%,Deepfake“在劫難逃”

作為清華大學人工智能研究院核心孵化企業(yè),以及國內首家安全可控人工智能系統(tǒng)提供商,RealAI在AI安全與攻防技術領域擁有業(yè)界領先優(yōu)勢。在今年剛結束的GeekPwn2019國際安全極客大賽中,其與清華大學聯(lián)合戰(zhàn)隊一舉獲得“CAAD CTF 圖像對抗樣本挑戰(zhàn)賽”以及“CAAD 隱身挑戰(zhàn)賽”兩項比賽的冠軍。

深厚的技術積累也讓RealAI安全研究團隊對“造假方”的攻擊原理有著更深刻的理解,能夠更有針對性地開發(fā)檢測工具。本次推出的深度偽造視頻檢測產(chǎn)品,將原本高難度的檢測過程大幅簡化,只需接入SDK即可一鍵實時檢測,調用簡單快捷。

Deepfake視頻檢測產(chǎn)品流程圖

與目前市面上已有的檢測技術相比,RealAI的視頻檢測工具利用深度學習算法、大量數(shù)據(jù)集訓練模型,能夠檢測出絕大多數(shù)AI換臉假視頻,準確率達99%(內部測試數(shù)據(jù)集上)。在面對算法的換臉效果越來越逼真的情況,RealAI的研發(fā)團隊也集中研發(fā)新型的檢測算法,以迭代和更新RealAI的檢測算法庫。

更值得注意的是,該產(chǎn)品適用于復雜視頻內容檢測,支持多種格式和多人臉檢測模式,1S識別,最高可支持10人以上同屏。

三、Deepfake的潘多拉魔盒終將被關上

隨著Deepfake技術被濫用,傳統(tǒng)意義上“真實”與“虛假”的界限被模糊,這對于社會生活的影響之大此前未被預想到,但如今技術作惡所帶來的負面影響正全面爆發(fā)。

比如,網(wǎng)絡上肆意傳播的視頻、圖片內容,內容平臺傳統(tǒng)的審核機制無法辨別Deepfake生成內容,若采用人工審核,需要投入額外的時間、人力成本;特定對象被編造虛假信息在社交平臺上廣泛傳播,處于輿論中心的當事人由于找不到能夠證實“謠言”是捏造的有效途徑,個人聲譽因此受損;案件調查、法庭辯論中涉及的視頻、圖像等證據(jù)材料,警察、律師等人員無法單憑肉眼識別證據(jù)是否是基于Deepfake偽造,需要專業(yè)工具鑒定真?zhèn)?事故中真?zhèn)坞y辨的影像資料,保險公司的審查人員缺乏Deepfake造假認知以及不配備專業(yè)鑒別能力,存在被詐騙理賠的風險……

“人人都怕?lián)Q臉術”的恐慌,讓反Deepfake的檢測需求變的異常迫切,本次RealAI檢測工具的推出,通過與內容平臺、執(zhí)法機構、保險公司等機構開展合作,能夠在虛假內容甄別、線上資料審核以及影像物證真實性檢驗等實際應用場景發(fā)揮作用,并幫助企業(yè)與個人更好的進行信息管控與風險預警。

最后,在這場AI軍備競賽中,Deepfake將持續(xù)演化,RealAI也將持續(xù)迭代技術、打磨產(chǎn)品。RealAICEO田天表示,未來AI必然是安全可控的AI,一鍵“打假”終將超越一鍵換臉的速度,Deepfake的潘多拉魔盒也終將被關上。

(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2019-12-18
關上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具
誕生之初,Deepfake是一項有趣的圖像處理技術,僅僅帶來搞笑和娛樂視頻,但殊不知,潘多拉魔盒就此被打開,催生出 黑產(chǎn)、惡搞政客“操縱”民意,Deepfake正逐步進化為一種新型“病毒”,人類倫理道

長按掃碼 閱讀全文