牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?

高層速讀

關(guān)鍵信息:牛津、劍橋、Open AI聯(lián)合發(fā)表報告《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》;

關(guān)鍵意義:提出AI濫用可能對數(shù)字安全、物理安全、政治安全造成的三種威脅,并給出五條解決建議。

牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?

當(dāng)我們談?wù)撊斯ぶ悄軒淼奈kU時,重點(diǎn)通常放在意外的副作用上。我們擔(dān)心我們可能會意外地創(chuàng)造出一個超級智能的人工智能,而忘了給它設(shè)置一定良知;或者我們將部署一種刑事判決算法,吸收了訓(xùn)練數(shù)據(jù)中的種族主義偏見。

但這些并不是故事的全部。

那些想積極地運(yùn)用人工智能來從事不道德行為或犯罪的人呢?難道他們不是更有可能、更快地造成麻煩嗎?根據(jù)來自牛津大學(xué)人類未來研究所(Future of Humanity Institute)、劍橋大學(xué)現(xiàn)存風(fēng)險研究中心(Centre for the Study of Existential Risk)和非營利組織Open AI的專家,答案是非常非肯定的。

Open AI 于 2018 年 2 月 20 日發(fā)表了一份報告人工智能的惡意使用:預(yù)測、預(yù)防和緩解》。報告中闡述了在接下來的五年里,人工智能可能被惡意使用的一些方式,以及如何預(yù)防潛在惡意使用 AI 技術(shù)的方式。因?yàn)殡m然人工智能可以帶來一些相當(dāng)惡劣的新攻擊,但論文的合著者、人類未來研究所的Miles Brundage說,我們當(dāng)然不應(yīng)該驚慌,也不應(yīng)該放棄希望。

牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?

總的來說,濫用 AI 技術(shù)的威脅在這里被分成了三種

  1. 數(shù)字安全:使用 AI 來自動執(zhí)行網(wǎng)絡(luò)攻擊中所涉及的任務(wù),這會加大網(wǎng)絡(luò)攻擊的效率,尤其是那些勞動密集型的網(wǎng)絡(luò)攻擊。

  2. 物理安全:使用無人機(jī)以及其他無人設(shè)備進(jìn)行攻擊。這種威脅會對民眾造成人身傷害,尤其是當(dāng)自動駕駛、自動飛行等系統(tǒng)遭到惡意使用時,其造成的損害不可預(yù)計。

  3. 政治安全:使用 AI 來執(zhí)行監(jiān)視、游說、欺騙,從而造成公眾恐慌、社會動蕩等危害。這種惡意使用 AI 的方式對一些權(quán)力集中的國家格外有效。

而整個報告是想讓讀者去思考:要做什么呢?這些解決方案很容易概述,但要貫徹下去將是一項(xiàng)艱巨的任務(wù)。

以下為報告提出的五項(xiàng)建議

  1. 人工智能研究人員應(yīng)該承認(rèn)他們的工作可能被惡意利用。

  2. 決策者需要向技術(shù)專家學(xué)習(xí)這些威脅。

  3. 人工智能世界需要向網(wǎng)絡(luò)安全專家學(xué)習(xí)如何最好地保護(hù)其系統(tǒng)。

  4. 需要開發(fā)和遵循人工智能的倫理框架。

  5. 更多的人需要參與這些討論,不僅僅是人工智能科學(xué)家和決策者,還有倫理學(xué)家、企業(yè)和公眾。

換句話說:一點(diǎn)交談,多一點(diǎn)行動

“我喜歡樂觀的框架,就是說我們可以做得更多,”Brundage說,“這里的重點(diǎn)不是描繪一幅悲觀圖景——有許多防御措施可以發(fā)展,我們有很多要學(xué)的。我一點(diǎn)不認(rèn)為這是無望的,但我確實(shí)把這篇論文看作是一種行動的號召?!?/p>

牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?

這份報告內(nèi)容廣泛,讓我們從潛在的威脅開始梳理:其中最重要的一個是,AI使壞角色自動執(zhí)行先前由人力執(zhí)行的任務(wù)成為可能,從而大大降低某些攻擊的成本。

讓我們以釣魚軟件為例。在這種釣魚中,個體會接收到專門設(shè)計的信息,騙他們放棄安全證書。(想想看:一封來自銀行,或者是好像是老熟人的假電子郵)AI可以自動完成這里的大部分工作,繪制個人的社交和職業(yè)網(wǎng)絡(luò),然后生成消息。我們付出了很多努力創(chuàng)造逼真而吸引人的聊天機(jī)器人,而同樣的工作可以用來創(chuàng)建另一種聊天機(jī)器人,它偽裝成你最好的朋友的樣子,突然之間,出于某種原因,他真的想知道你的郵件密碼。

這種攻擊聽起來很復(fù)雜,但關(guān)鍵是,一旦你構(gòu)建了軟件來完成所有的任務(wù),你就可以一次又一次地使用它,而不需要額外的成本。網(wǎng)絡(luò)釣魚郵件的危害已經(jīng)足夠嚴(yán)重了——2014年,iCloud泄露了名人的照片,還有希拉里·克林頓的競選主席約翰·波德斯塔的私人電子郵件遭到黑客攻擊。后者在2016年美國總統(tǒng)大選中有相當(dāng)影響力,此事件還催生了一系列陰謀論。

報告中提出的第二個要點(diǎn)是,AI將為現(xiàn)有的威脅增加新層面。還以釣魚軟件為例子,人工智能不僅可以用來生成電子郵件和短信,還有假音頻和視頻。我們已經(jīng)看到了人工智能如何在研究了幾分鐘的錄音后,就可以模仿目標(biāo)聲音,以及它如何將有人說話的腳本錄像變成受操縱的木偶。

當(dāng)然,還有其他一系列令人討厭的做法,而人工智能可能會加劇這些做法。不僅僅有政治操縱和宣傳(同樣,在那些假冒的視頻和音頻可能是一個巨大問題),還包括監(jiān)視,特別是被用于針對少數(shù)群體時。

最后,報告強(qiáng)調(diào)了人工智能所造成的全新危險。作者概述了一些可能的場景,包括恐怖分子在清潔機(jī)器人植入炸彈,并把它走私到政府部門的情況。機(jī)器人使用內(nèi)置的機(jī)器視覺來追蹤某個特定的政治家,當(dāng)它靠近時,炸彈就會爆炸。這利用了AI可賦能的新產(chǎn)品(清潔機(jī)器人),以及AI的自動化功能(基于機(jī)器視覺的跟蹤)。

概述這樣的場景似乎有點(diǎn)不可思議,但我們已經(jīng)開始看到第一個由AI支持的新型攻擊。換臉技術(shù)已經(jīng)被用來創(chuàng)建所謂的“deepfakes”——在未經(jīng)名人同意的情況下將名人的臉貼在色情短片上。雖然到目前為止還沒有這方面的高調(diào)案例,但我們知道那些參與創(chuàng)建這個內(nèi)容的人,是想要對他們認(rèn)識的人進(jìn)行測試,為騷擾和敲詐創(chuàng)造完美的素材。

要考慮人工智能這個課題有多么復(fù)雜而微妙,這是一個很大的任務(wù)。但也有一些給人希望的跡象。例如,隨著deepfakes的興起,網(wǎng)絡(luò)平臺反應(yīng)迅速,對內(nèi)容提出警告并立即停止其擴(kuò)散。美國的立法者已經(jīng)開始討論這一問題——這些表明辯論如果足夠緊急就會到達(dá)政府。

牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?

說到政府參與討論這些問題,Brundage說政府“當(dāng)然有興趣”?!暗俏覀?nèi)耘f需要進(jìn)行更多的討論,才能找出最關(guān)鍵的威脅,以及最實(shí)際的解決辦法是什么?!彼f,在大多數(shù)情況下,甚至很難判斷什么是威脅?!澳壳斑€不清楚這一切的發(fā)展進(jìn)度——這是否是一個重大的災(zāi)難性事件,或者是一個能給我們提供了大量適應(yīng)機(jī)的會緩慢滾動性事件?!?/p>

“而這就是我們之所以要現(xiàn)在提出這個議題的原因?!?/p>

信息來源:The Verge


微信搜索【AI商業(yè)報道】,獲取行業(yè)最新資訊。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-02-24
牛津、劍橋、Open AI聯(lián)合預(yù)警:AI被惡意使用?我們該怎么做?
牛津、劍橋、OpenAI聯(lián)合發(fā)表報告《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》;關(guān)鍵意義:提出AI濫用可能對數(shù)字安全、物理安全、政治安全造成的三種威脅,并給出五條解決建議。

長按掃碼 閱讀全文