“AI換臉”騙走2億港元 專家支招如何防范

4月19日消息,過去一年,AI成為火爆全網(wǎng)的熱詞。圍繞AI的應(yīng)用不斷涌現(xiàn),爭議也隨之而來,尤其是AI詐騙,頻頻登上熱搜。

日前,香港警方披露,一家跨國公司香港分公司的財(cái)務(wù)人員,在參加一場內(nèi)部“多人視頻會議”后,被騙2億港元。原來,除了受害人是“真人”,視頻會議里的其他“同事”均是用AI換臉技術(shù)冒充的。今年央視315晚會上也曝光了多起利用AI擬聲、換臉進(jìn)行詐騙的案例。

這幾起詐騙事件背后都有著深度偽造技術(shù)Deepfake的身影。這不是一項(xiàng)新技術(shù),但過去一年生成式AI技術(shù)的爆發(fā)大大降低了其門檻,使制作難以辨識的換臉視頻越來越容易,“有圖有真相”變得不再靠譜,騙術(shù)更是防不勝防。

那么,我們該如何保護(hù)自己的個(gè)人信息?又該如何識別對話視頻中的是“真人”還是“數(shù)字人”?

防不勝防的Deepfake

所謂Deepfake,其實(shí)是“deep learning”(深度學(xué)習(xí))和“fake”(偽造)的合成詞,指的是基于深度學(xué)習(xí)算法,從大量的視頻和圖像數(shù)據(jù)中學(xué)習(xí),偽造出逼真的面部動(dòng)畫和語音。Deepfake技術(shù)最常見,也是我們最熟知的應(yīng)用,就是AI換臉。

人們最初認(rèn)識這項(xiàng)技術(shù)是在2017年12月,一位名叫“deepfakes”的網(wǎng)友在Reddit網(wǎng)站發(fā)布了一條視頻,利用AI技術(shù)將成人電影女主角的臉換成了《神奇女俠》主演蓋爾·加朵,引發(fā)廣泛關(guān)注。后來人們開始用他的網(wǎng)名deepfakes命名這項(xiàng)技術(shù)。

在國內(nèi),deepfakes也深受一些技術(shù)宅的喜歡。網(wǎng)上不乏售賣AI換臉軟件的學(xué)習(xí)教程,除了詳細(xì)的操作指導(dǎo),甚至還附贈(zèng)合成視頻成品大禮包、明星臉部素材庫、合成輔助工具等。2019年2月,B站UP主“換臉哥”用AI技術(shù)把朱茵飾演的黃蓉?fù)Q成了楊冪的臉,也曾引發(fā)熱議。

deepfakes小有名氣之后,同名算法在GitHub開源,越來越多的換臉視頻在網(wǎng)上流傳。清華大學(xué)人工智能研究院等機(jī)構(gòu)發(fā)布的《深度合成十大趨勢報(bào)告(2022)》顯示,2021年新發(fā)布的深度合成視頻的數(shù)量,較2017年已增長10倍以上。

2023年ChatGPT突然爆火刷屏,生成式AI“飛入尋常百姓家”,尤其是視頻生成模型Sora的問世,大大降低了AI換臉技術(shù)的門檻。OpenAI CEO阿爾特曼近日在出席活動(dòng)時(shí)表示,“OpenAI 可以將非常高質(zhì)量的 AI 技術(shù)成本降至接近零”。

但技術(shù)的使用是把雙刃劍,過去一年,利用Deepfake技術(shù)偽造虛假的圖像、視頻和音頻來冒充他人身份進(jìn)行詐騙的事件越來越多,“AI詐騙成功率接近100%”、“AI換臉騙走香港男子2億港元”、“公司老板被AI詐騙430萬”等相關(guān)話題頻頻登上熱搜,對公眾財(cái)產(chǎn)、隱私等權(quán)益造成侵害。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,當(dāng)前,深度偽造技術(shù)相對成熟,使用成本在逐漸降低,速度和擬真程度不斷提升,技術(shù)的檢測需求逐漸增大,但檢測難度不斷提升。比如,Sora生成的視頻,很難用肉眼辨別真假。

如何識破“AI變臉”?

AI換臉騙走香港男子2億港元的事件傳開后,如何識別對話視頻中的是真人還是數(shù)字人再度成為熱議焦點(diǎn)。

有專家表示,可以讓對方摁鼻子、摁臉,觀察其面部變化。如果是真人,臉部會變形,如果是數(shù)字人,則不會,或出現(xiàn)破綻。隨后,“懷疑對方AI換臉可以讓對方摁鼻子”登上微博熱搜,目前閱讀量高達(dá)1.3億。

不過,也有業(yè)內(nèi)人士認(rèn)為這個(gè)方法不一定奏效。螞蟻集團(tuán)天璣實(shí)驗(yàn)室安全算法專家朱凱在接受《解放日報(bào)》采訪時(shí)表示,這個(gè)做法有一定的參考價(jià)值,但未必完全奏效。

因?yàn)榇蠖鄶?shù)的生成算法(AIGC)生成的都是干凈的臉,而摁鼻子或者摁臉,意味著給人臉增加了遮擋,相關(guān)算法可能因?yàn)橛?xùn)練時(shí)數(shù)據(jù)不夠,從而在生成有遮擋的臉時(shí)出現(xiàn)破綻。

但是,一些比較先進(jìn)的算法已經(jīng)可以在靜態(tài)場景下、有局部遮擋的情況下生成畫面。也就是說,如果只是摁鼻子或者摁臉,有些算法也能給出以假亂真的效果。

就目前來看,朱凱建議,在摁鼻子或摁臉的同時(shí)左右搖晃頭部,這樣一種動(dòng)起來的方式識別AI換臉。因?yàn)槟壳昂芏郃I換臉的基礎(chǔ)是被模仿者的照片,照片是平面的,生成的“數(shù)字人”也是以正面、平面為主。當(dāng)人臉動(dòng)起來時(shí),會產(chǎn)生破綻。

此外,中國計(jì)算機(jī)學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟(jì)與安全工作組成員方宇在接受央視采訪時(shí)表示,可以要求對方在視頻通話的時(shí)候,在臉前通過揮手來識別。這種方式會造成面部數(shù)據(jù)的干擾,偽造視頻會出現(xiàn)抖動(dòng)或閃現(xiàn)等異常情況。在點(diǎn)對點(diǎn)的溝通中,則可以問一些只有對方知道的問題,來驗(yàn)證對方的真實(shí)性。

以AI對抗AI

值得一提的是,Deepfake攻和防是一個(gè)相對且不斷精進(jìn)的過程,你在進(jìn)步,Deepfake也在進(jìn)步,“我們要做的就是跑在它的前面”,ZOLOZ產(chǎn)品總監(jiān)陶冶這樣說道。以AI對抗AI,也就是所謂的“用魔法打敗魔法”,是業(yè)內(nèi)在積極踐行的。

百度、阿里、騰訊、字節(jié)跳動(dòng)、螞蟻集團(tuán)以及科大訊飛等AI頭部企業(yè),均在通過開發(fā)先進(jìn)的AI算法和工具,積極提升對深度偽造內(nèi)容的識別能力。比如,阿里通過分析視頻細(xì)微特征開發(fā)多種算法,字節(jié)跳動(dòng)和科大訊飛則結(jié)合內(nèi)容分析和語音識別技術(shù)來維護(hù)網(wǎng)絡(luò)空間的真實(shí)性。

此外,螞蟻數(shù)科旗下科技品牌ZOLOZ最近還發(fā)布了深度偽造綜合防控產(chǎn)品ZOLOZ Deeper,以攔截用戶刷臉過程中的“AI換臉”風(fēng)險(xiǎn),目前已率先應(yīng)用在身份安全領(lǐng)域。

據(jù)介紹,ZOLOZ早在2019年就啟動(dòng)了Deepfake算法研發(fā),彼時(shí)主要應(yīng)對一些簡單的人臉攻擊,比如把圖片、視頻、面具等虛假內(nèi)容呈現(xiàn)在攝像頭前面,攻破人臉識別系統(tǒng)。ZOLOZ Deeper是針對注入式、活化等復(fù)雜攻擊手段迭代而來的產(chǎn)品,在服務(wù)印尼某頭部銀行后,產(chǎn)品上線一個(gè)月時(shí)間內(nèi)實(shí)現(xiàn)了Deepfake風(fēng)險(xiǎn)“0漏過”。

陶冶披露,ZOLOZ聯(lián)合螞蟻安全響應(yīng)中心設(shè)立了超百萬的獎(jiǎng)金池,支持安全極客來挖掘ZOLOZ Deeper的漏洞,通過“螞蟻集團(tuán)安全響應(yīng)中心”官網(wǎng)提交漏洞情報(bào)?!盎ヂ?lián)網(wǎng)世界沒有絕對的安全,希望聯(lián)合外部的安全技術(shù)人才持續(xù)提升ZOLOZ的安全水位,守護(hù)用戶的安全感。”

漏洞懸賞獎(jiǎng)金是科技公司“化被動(dòng)為主動(dòng)”的安全策略。例如今年有黑客發(fā)現(xiàn)特斯拉系統(tǒng)漏洞,贏得20萬美元獎(jiǎng)金和一輛Model 3;微軟曾在2019年送出史上最高一筆漏洞挖掘獎(jiǎng)勵(lì),總額高達(dá)20萬美元,稱發(fā)現(xiàn)這一漏洞為數(shù)十億用戶提供了保護(hù)。

普通人能做什么?

隨著衣食住行都跟各種互聯(lián)網(wǎng)APP結(jié)合,必然會造成對個(gè)人信息的采集和收集。2023年8月15日,我國正式施行《生成式人工智能服務(wù)管理暫行辦法》,從多個(gè)方面“劃下紅線”,其中也提到“不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個(gè)人信息權(quán)益”。

對于普通人來說,除了一些辨別AI換臉詐騙的小訣竅,我們都應(yīng)該注意個(gè)人信息的保護(hù),尤其要注意圖像、聲音、指紋等生物信息的保護(hù),因?yàn)锳I換臉的數(shù)據(jù)基礎(chǔ)就是被模仿人的照片、視頻等。

中國信通院人工智能研究中心安全與元宇宙部主任石霖向TechWeb等表示,在個(gè)人信息保護(hù)方面,首先建議大家優(yōu)先使用一些大廠或擁有多年品牌經(jīng)驗(yàn)的技術(shù)產(chǎn)品,它們在遵守監(jiān)管落實(shí)上會比較嚴(yán)格,也有比較好的一些個(gè)人信息保護(hù)記錄和管理經(jīng)驗(yàn)。

第二,使用APP時(shí)盡量減少對個(gè)人資料的留存,比如個(gè)人照片的上傳,尤其是發(fā)到社交平臺上,所以少發(fā)一些朋友圈確實(shí)可以減少一些個(gè)人信息的采集和搜集。

此外,我們在日常購物或者是去買房租房時(shí),可能也會被采集個(gè)人信息。比如,去看下裝修,信息一登記,一個(gè)月之內(nèi)各種電話打來推銷。這種時(shí)候留一個(gè)假電話,也能夠規(guī)避個(gè)人信息被泄露的風(fēng)險(xiǎn)。

需要注意的是,在涉及轉(zhuǎn)賬匯款、資金往來等場景時(shí),務(wù)必第一時(shí)間提高警惕,通過回?fù)軐Ψ绞謾C(jī)號等額外通信方式核實(shí)確認(rèn),未經(jīng)核實(shí)不要輕易轉(zhuǎn)賬。(周小白)

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2024-04-19
“AI換臉”騙走2億港元 專家支招如何防范
4月19日消息,過去一年,AI成為火爆全網(wǎng)的熱詞。圍繞AI的應(yīng)用不斷涌現(xiàn),爭議也隨之而來,尤其是AI詐騙,頻頻登上熱搜。

長按掃碼 閱讀全文