破局“眼見為假”: 誰在磨礪刺破Deepfakes之劍?

自從攝影術發(fā)明的那一刻起,人們便開始孜孜不倦地進行著技術改造。在今天,沒有一家手機廠商不在追求更多的攝像頭、更高的像素、更先進的成像算法,似乎只為追求一張更逼真的影像。

我們真的在追求“真”么?這幾乎是一個完全無法驗證的玄學問題。而我們卻很誠實地在做一些“去真存假”的事情。比如為照片添加濾鏡、為自拍磨皮美白、為視頻增添特效。再比如,我們興致盎然地把自己的臉替換到夢想中的明星身上。

看來追求“真實自我”其實成了一種自欺,而騙過眼睛讓大腦愉悅才是人們“真香”的追求,至少在視覺層面尤為明顯。以前,當我們說到“以假亂真”、“惟妙惟肖”這些字眼的時候,往往帶有一種對藝術的敬意,因為這意味著常人難以實現(xiàn)的難度和巨大的成本。

然而,隨著人工智能中GAN(對抗式生成網(wǎng)絡)的進化,讓靜態(tài)圖像、音視頻中人物生成變得日益逼真且廉價,類似Deepfakes這類AI換臉技術普及后,那么問題真的就來了。

2017年,一個名為“DeepFakes”的開發(fā)者把AI換臉技術開源,打開了AI造假的潘多拉盒子。Deepfakes成為了這一技術的專有名詞。2019年初,隨著一段“楊冪換臉朱茵”的視頻火爆網(wǎng)絡,又開啟了中國的AI換臉元年。緊隨其后,各類AI換臉作品和應用不斷出現(xiàn),AI換臉隨著普通人的 “嘗鮮”徹底走向了技術普及和產業(yè)失控。

首先,最顯著的影響就是AI換臉所掀起的一場色情視頻造假的黑產狂歡。不僅針對公眾人物、明星,甚至于只要在社交媒體多次上傳自拍照,每個人都要面對這一威脅。

更嚴重的是對于政治選舉、公共安全以及經(jīng)濟體系的威脅。一段關于政客受傷、重病的假視頻可能引起國內的金融動蕩甚至嚴重沖突。一段假冒權威人士發(fā)布恐怖襲擊、疾病災害等假消息的視頻會引起群眾恐慌甚至暴力沖突。

最為深遠的影響就是對于整個社會公信力的影響。越來越多的人從社交媒體獲得第一手信息。假視頻泛濫讓信息真?zhèn)坞y辨,比如刻意偽造的假新聞,模仿領導人、權威專家的權威信息。數(shù)以億計沒有專業(yè)辨識能力的普羅大眾會更容易輕信而被欺騙,引發(fā)更大的公信力危機。

作為一項日趨成熟且普遍應用的技術,AI換臉已成不容忽視的存在。

似乎除了色情造假產業(yè)的黑產狂歡外,受這一技術影響的相關幾方都亟需從當前困境中突圍。對于政府來說,如何合理立法以限制造假內容的生產和傳播又不越界妨礙民眾的言論自由?對于商業(yè)應用來說,如何合理商用這項技術又避免侵權或引發(fā)信任危機?對于社交媒體來說,如何合理地限制這類造假音視頻內容的傳播又不限制用戶的使用體驗?

這些問題的解決,仍然亟待AI技術本身先行給出一套檢測和控制假視頻的解決方案。

無限游戲:擊敗Deepfakes的AI檢測技術困境

由技術引發(fā)的災難只能由更先進的技術來解決,這似乎是AI研究者的唯一邏輯。AI換臉的造假檢測技術,似乎成為這場技術困境突圍的最佳解決方案。

但由于AI換臉的驗證檢測技術具有嚴重依賴以往模型的反應機制,即當前方法無法檢測新的Deepfakes算法。因此,AI換臉的檢測技術與造假技術將長期處在攻防賽狀態(tài)。

最早向Deepfakes發(fā)難的是美國國防部DAPRA。早在2018年5月,他們就設立了“媒體鑒證”項目,并與紐約州立大學開發(fā)出一款“反換臉”AI刑偵工具,通過有效地預測眼睛是否眨動的狀態(tài),當時準確率達到 99%。然而這款工具還沒推廣就失效了,因為Deepfakes技術進化了。

2019年6月,加州大學伯克利分校和南加州大學的研究人員打造的AI檢測系統(tǒng)構建了高度個人化的“軟生物識別指標”,對于當時的假視頻的總體識別率超過了95%。但該技術也存在一些破綻,面臨被新的Deepfake算法反制的挑戰(zhàn)。

因此,這場攻防戰(zhàn)的第一個困境就是技術演進的悖論。研究人員如果要提出一個更好的檢測技術之前,必須提出一種能夠勝過當前市面上流行的AI換臉技術的新方法。也就是說,就要先造出更鋒利的“矛”,才能有資格造出更可靠的“盾”。

因為即使研究人員不如此做,隨著AI算力越發(fā)易得,GAN算法的不斷增強,AI換臉技術也在不斷升級完善。比如,近期英偉達公開了第二代人臉生成算法StyleGAN2的源代碼,它可以根據(jù)五官、發(fā)色生成自定義風格的人臉圖像。基于StyleGAN2也可以結合多張人臉圖像進行人臉融合,生成的合成圖像同時具備模板圖像特征與目標圖像特征,已經(jīng)達到騙過眾多人臉識別系統(tǒng)的程度。

第二個困境就是對抗AI造假的數(shù)據(jù)合法性的牽制。雖然網(wǎng)絡黑產有著龐大的Deepfakes假視頻數(shù)據(jù),但因其違法和侵權屬性不可能用于研究。而AI換臉檢測需要大量的原始目標人臉以及替換后的人臉數(shù)據(jù),因此,研究團隊必須花費時間和巨大成本創(chuàng)建合規(guī)的數(shù)據(jù)集。

這一嘗試已經(jīng)開始,2019年初,來自德國和意大利兩所大學的AI研究者基于YouTube視頻生成了一段包含1000段假視頻的FaceForensics++數(shù)據(jù)集,用于訓練鑒別造假視頻的神經(jīng)網(wǎng)絡。9月底,谷歌宣布開源的包含3000段真假視頻的大型 Deepfakes 數(shù)據(jù)集,納入FaceForensics基準當中,供研究社區(qū)免費獲取并用于開發(fā)合成視頻檢測方法。

面對當前這兩種技術困境,AI研究者有哪些方法可以應對呢?

釜底抽薪與飽和攻擊: AI換臉檢測解題新思路

近日,來自中國的兩個研究團隊給出了不同的解決以上技術困境的解決方案。一種方案類似釜底抽薪,即針對AI換臉的底層邏輯去開發(fā)新的算法,即使不需要更多的數(shù)據(jù),也能取得很好的驗證效果。另一種解決方案則類似飽和攻擊,他們從現(xiàn)有的數(shù)據(jù)集為基礎,將數(shù)據(jù)集擴充到一個新的更大規(guī)模、更高質量的程度,從而應對更多樣化的人臉造假視頻的檢測。

2020年1月,來自微軟研究院與北京大學的研究小組共同提出了一種全新的 AI 換臉框架FaceShifter,以及一種檢測偽造人臉圖像的方法Face X-Ray。前者可以極大提高換臉的高保真度,而后者則用于檢測出復雜偽造人臉圖像。

FaceShifter生成的高保真度換臉圖像,可以很好保留目標人臉的頭部姿態(tài)、面部表情、光線、顏色、強度、背景以及其他遮擋物。其優(yōu)勢之處在于該模型無需人工標注數(shù)據(jù)的訓練下即可生成任何人臉。

簡單來說,F(xiàn)aceShifter與之前的AI換臉方法相比,效果表現(xiàn)更優(yōu)異。那這意味著,研究者同時提出的人臉造假的檢測工具必須更加強悍。

為此,F(xiàn)ace X-ray提出了一種全新的人臉偽造的圖像檢測方法。它通過顯示偽造圖像的混合邊界和真實圖像沒有混合來實現(xiàn)是否存在造假的檢測。這一方法就像是給被檢測的圖像拍攝了一張X光片一樣,讓其混合輪廓顯露原型。

同時,相較于之前有監(jiān)督的人臉檢測方法會存在過度擬合的問題,F(xiàn)ace X-Ray不需要依賴于與特定人臉操作技術相關的偽造圖像的知識。由于是無監(jiān)督訓練,它的算法可以支持在不使用任何方法生成假圖像知識的情況下進行訓練。因此,它可以從更通用性的意義上來進行有效檢測。

Face X-Ray在人臉造假的圖像檢測上采取了一種更根本的解決問題的思路,即我們與其知道一個圖像是如何造假,不如知道一個圖像如何才是真的。Face X-Ray的解題邏輯就是:真圖像不會合成。

但可以預見的是AI換臉的技術演化也不會停步。比如說,AI換臉本身不再是A、B兩個面部圖像的混合疊加,而就是人臉生成算法基于A、B面部特征的直接生成新的一張面孔C。這樣Face X-Ray也面臨失效的嚴峻考驗。

緊接著,商湯科技也加入這場攻防賽,他們則采用了類似飽和攻擊的戰(zhàn)術。據(jù)報道,商湯聯(lián)手新加坡南洋理工,推出了迄今為止最大的Deepfakes檢測數(shù)據(jù)集,DeeperForensics-1.0。該數(shù)據(jù)集包含60000個視頻,是現(xiàn)有同類數(shù)據(jù)集的10倍。

研究者意識到,之前數(shù)據(jù)集中的視頻存在著數(shù)量少、質量低以及過于人為化的特點;同時在一些假視頻檢測中,訓練視頻和測試視頻存在高度相似性,這些讓人臉造假檢測的實際效力有待檢驗。所以,他們提出的解決方案就是提供一個盡可能包含了潛在變化的真實世界詳盡可能的數(shù)據(jù)集,用于增強人臉造假檢測模型的打造。當然,最終結果也驗證了質量好、數(shù)據(jù)量大、多樣性高的數(shù)據(jù)集可以明顯提高視頻人臉偽造的基準測試結果。

在這個信奉暴力計算的時代,商湯實力演繹了一次“大力出奇跡”的策略,用飽和攻擊的方式去迎戰(zhàn)Deepfakes層出不窮的狡計,而這一工作確實給后面的研究者提供了研究的便利。

目前,AI換臉的檢測技術仍是少數(shù)研究機構的實驗品。但隨著AI換臉技術的日臻完善,社交媒體以及眾多互聯(lián)網(wǎng)平臺如何利用AI檢測工具做好換臉圖像以及假視頻的甄別,已經(jīng)是迫在眉睫的事情。

被技術重塑的未來:反Deepfakes的商業(yè)化可能

AI換臉帶來的技術挑戰(zhàn),除了以上AI研究機構和研究者的努力,還需要更多利益相關方的參與和支持。

正如同這場“對抗賽”并非來自實驗室中華山論劍,背后還有像Facebook、Twitter、YouTube、這類平臺型機構,作為支持者和主導者。比如,去年9月,F(xiàn)acebook宣布啟動一項“Deepfakes視頻檢測挑戰(zhàn)賽”(DFDC),懸賞1000萬美元以期找到有效檢測利用Deepfakes技術生成的假視頻的方案。大賽提供一個數(shù)據(jù)集和排行榜,通過撥款和獎勵方式以刺激行業(yè)創(chuàng)造新的檢測工具,從而防止被AI操縱的媒體誤導普通用戶。這無疑給中小AI研究機構很大的鼓勵和資金支持。

要說其背后原因,自然是因為社交媒體是造假視頻傳播的主要陣地,也是放大其不良影響的重要因素。人們常說造謠一張嘴、辟謠跑斷腿,當Deepfakes制造的虛假視頻在Facebook、Twitter上瘋狂傳播時,就已經(jīng)造成了不可挽回的損失。而苦主想要追責時,第一步要做的就是問責平臺方。為了保證平臺上內容的真實可控,社交媒體企業(yè)必然要找到Deepfakes視頻的甄別方式。

因為Deepfakes帶來的負面效應與名人政客、社交媒體平臺有著切實的利益關聯(lián),所以Deepfakes檢測技術也有著很明晰的商業(yè)前景。例如在未來,社交媒體采購Deepfakes甄別技術,將其加入平臺視頻發(fā)布審核流程當中,很可能會成為一種常態(tài)。同時面對假視頻泛濫的情況,或許還有可能出現(xiàn)權威的“視頻檢驗機構”,幫助受害者證實視頻的真假。

更重要的是,AI換臉代表的造假技術的狂潮不可逆轉,我們也必須學會更好地適應這一趨勢。就像PS的普及讓我們對圖像的造假已經(jīng)基本免疫一樣,AI造假視頻的普及也會讓人們逐漸適應,只不過,對于大多數(shù)人而言,需要付出的學習成本和認知轉變的成本有些高昂。在這一過程中,不論是技術開發(fā)者還是傳播平臺,都有責任向用戶進行宣教。

當“眼見為實”的邊界真正被打破,我們看待世界的規(guī)則需要重新被塑造。首先,向大眾普及Deepfake這項技術也變得非常重要。就如同身體對抗病毒的最好方式,就是通過注射疫苗先增強身體的抵抗力。其次,當人們意識到眼見的一切視頻都有可能為假的時候,人們又可能會更重視有公信力和權威性的媒體信息平臺。

這也許是“眼見為假”時代帶給人們的更多的文明副產品之一。

免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2020-02-25
破局“眼見為假”: 誰在磨礪刺破Deepfakes之劍?
然而,隨著人工智能中GAN(對抗式生成網(wǎng)絡)的進化,讓靜態(tài)圖像、音視頻中人物生成變得日益逼真且廉價,類似Deepfakes這類AI換臉技術普及后,那么問題真的就來了。

長按掃碼 閱讀全文