高層速讀
關鍵信息:牛津、劍橋、Open AI聯合發(fā)表報告《人工智能的惡意使用:預測、預防和緩解》;
關鍵意義:提出AI濫用可能對數字安全、物理安全、政治安全造成的三種威脅,并給出五條解決建議。
當我們談論人工智能帶來的危險時,重點通常放在意外的副作用上。我們擔心我們可能會意外地創(chuàng)造出一個超級智能的人工智能,而忘了給它設置一定良知;或者我們將部署一種刑事判決算法,吸收了訓練數據中的種族主義偏見。
但這些并不是故事的全部。
那些想積極地運用人工智能來從事不道德行為或犯罪的人呢?難道他們不是更有可能、更快地造成麻煩嗎?根據來自牛津大學人類未來研究所(Future of Humanity Institute)、劍橋大學現存風險研究中心(Centre for the Study of Existential Risk)和非營利組織Open AI的專家,答案是非常非肯定的。
Open AI 于 2018 年 2 月 20 日發(fā)表了一份報告《人工智能的惡意使用:預測、預防和緩解》。報告中闡述了在接下來的五年里,人工智能可能被惡意使用的一些方式,以及如何預防潛在惡意使用 AI 技術的方式。因為雖然人工智能可以帶來一些相當惡劣的新攻擊,但論文的合著者、人類未來研究所的Miles Brundage說,我們當然不應該驚慌,也不應該放棄希望。
總的來說,濫用 AI 技術的威脅在這里被分成了三種:
數字安全:使用 AI 來自動執(zhí)行網絡攻擊中所涉及的任務,這會加大網絡攻擊的效率,尤其是那些勞動密集型的網絡攻擊。
物理安全:使用無人機以及其他無人設備進行攻擊。這種威脅會對民眾造成人身傷害,尤其是當自動駕駛、自動飛行等系統(tǒng)遭到惡意使用時,其造成的損害不可預計。
政治安全:使用 AI 來執(zhí)行監(jiān)視、游說、欺騙,從而造成公眾恐慌、社會動蕩等危害。這種惡意使用 AI 的方式對一些權力集中的國家格外有效。
而整個報告是想讓讀者去思考:要做什么呢?這些解決方案很容易概述,但要貫徹下去將是一項艱巨的任務。
以下為報告提出的五項建議:
人工智能研究人員應該承認他們的工作可能被惡意利用。
決策者需要向技術專家學習這些威脅。
人工智能世界需要向網絡安全專家學習如何最好地保護其系統(tǒng)。
需要開發(fā)和遵循人工智能的倫理框架。
更多的人需要參與這些討論,不僅僅是人工智能科學家和決策者,還有倫理學家、企業(yè)和公眾。
換句話說:多一點交談,多一點行動。
“我喜歡樂觀的框架,就是說我們可以做得更多,”Brundage說,“這里的重點不是描繪一幅悲觀圖景——有許多防御措施可以發(fā)展,我們有很多要學的。我一點不認為這是無望的,但我確實把這篇論文看作是一種行動的號召?!?/p>
這份報告內容廣泛,讓我們從潛在的威脅開始梳理:其中最重要的一個是,AI使壞角色自動執(zhí)行先前由人力執(zhí)行的任務成為可能,從而大大降低某些攻擊的成本。
讓我們以釣魚軟件為例。在這種釣魚中,個體會接收到專門設計的信息,騙他們放棄安全證書。(想想看:一封來自銀行,或者是好像是老熟人的假電子郵)AI可以自動完成這里的大部分工作,繪制個人的社交和職業(yè)網絡,然后生成消息。我們付出了很多努力創(chuàng)造逼真而吸引人的聊天機器人,而同樣的工作可以用來創(chuàng)建另一種聊天機器人,它偽裝成你最好的朋友的樣子,突然之間,出于某種原因,他真的想知道你的郵件密碼。
這種攻擊聽起來很復雜,但關鍵是,一旦你構建了軟件來完成所有的任務,你就可以一次又一次地使用它,而不需要額外的成本。網絡釣魚郵件的危害已經足夠嚴重了——2014年,iCloud泄露了名人的照片,還有希拉里·克林頓的競選主席約翰·波德斯塔的私人電子郵件遭到黑客攻擊。后者在2016年美國總統(tǒng)大選中有相當影響力,此事件還催生了一系列陰謀論。
報告中提出的第二個要點是,AI將為現有的威脅增加新層面。還以釣魚軟件為例子,人工智能不僅可以用來生成電子郵件和短信,還有假音頻和視頻。我們已經看到了人工智能如何在研究了幾分鐘的錄音后,就可以模仿目標聲音,以及它如何將有人說話的腳本錄像變成受操縱的木偶。
當然,還有其他一系列令人討厭的做法,而人工智能可能會加劇這些做法。不僅僅有政治操縱和宣傳(同樣,在那些假冒的視頻和音頻可能是一個巨大問題),還包括監(jiān)視,特別是被用于針對少數群體時。
最后,報告強調了人工智能所造成的全新危險。作者概述了一些可能的場景,包括恐怖分子在清潔機器人植入炸彈,并把它走私到政府部門的情況。機器人使用內置的機器視覺來追蹤某個特定的政治家,當它靠近時,炸彈就會爆炸。這利用了AI可賦能的新產品(清潔機器人),以及AI的自動化功能(基于機器視覺的跟蹤)。
概述這樣的場景似乎有點不可思議,但我們已經開始看到第一個由AI支持的新型攻擊。換臉技術已經被用來創(chuàng)建所謂的“deepfakes”——在未經名人同意的情況下將名人的臉貼在色情短片上。雖然到目前為止還沒有這方面的高調案例,但我們知道那些參與創(chuàng)建這個內容的人,是想要對他們認識的人進行測試,為騷擾和敲詐創(chuàng)造完美的素材。
要考慮人工智能這個課題有多么復雜而微妙,這是一個很大的任務。但也有一些給人希望的跡象。例如,隨著deepfakes的興起,網絡平臺反應迅速,對內容提出警告并立即停止其擴散。美國的立法者已經開始討論這一問題——這些表明辯論如果足夠緊急就會到達政府。
說到政府參與討論這些問題,Brundage說政府“當然有興趣”?!暗俏覀內耘f需要進行更多的討論,才能找出最關鍵的威脅,以及最實際的解決辦法是什么。”他說,在大多數情況下,甚至很難判斷什么是威脅。“目前還不清楚這一切的發(fā)展進度——這是否是一個重大的災難性事件,或者是一個能給我們提供了大量適應機的會緩慢滾動性事件?!?/p>
“而這就是我們之所以要現在提出這個議題的原因?!?/p>
信息來源:The Verge
微信搜索【AI商業(yè)報道】,獲取行業(yè)最新資訊。
- 世間將再無松下電視:松下官宣解散家電子公司并徹底放棄電視機業(yè)務
- 雅迪集團與南都電源簽署協(xié)議:攜手共繪固態(tài)電池未來藍圖
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準AI機器人
- 微信零錢通新政策:銀行卡轉入資金提現免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領先技術與深度整合是關鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關注
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。