干貨!新美國安全中心AI報告:人工智能安全優(yōu)缺點及存在問題

高層速讀

關(guān)鍵信息:新美國安全中心(CNAS)發(fā)布了一篇報告,名為《人工智能:每個政策制定者需要知道什么》,報告就AI的安全相關(guān)應(yīng)用、優(yōu)缺點和存在的問題進行了介紹。AI在數(shù)據(jù)分類、預(yù)測、異常探測等方面具有顯著優(yōu)勢,但又存在脆弱、漏洞和交互故障等問題。

關(guān)鍵意義:CNAS希望這份報告能夠為人們就如何負責任地使用人工智能來改善國家安全打下堅實的基礎(chǔ)。

干貨!新美國安全中心AI報告:人工智能安全優(yōu)缺點及存在問題


近日,新美國安全中心(CNAS)發(fā)布了一篇報告,名為《Artificial Intelligence:What Every Policymaker Needs to Know》(人工智能:每個政策制定者需要知道什么)。CNAS希望這份報告能夠為人們就如何負責任地使用人工智能來改善國家安全進行健康的辯論打下堅實的基礎(chǔ)。本文將主要就AI的安全相關(guān)應(yīng)用、優(yōu)缺點和存在的問題進行介紹。

本報告旨在成為了解國家安全領(lǐng)域的人工智能和機器學(xué)習的入門,它解釋了人工智能語言和決策者需要了解的想法;探索與安全相關(guān)的人工智能應(yīng)用;思考人工智能和機器學(xué)習時代的戰(zhàn)略競爭;并討論了人工智能革命對全球安全的間接影響。

干貨!新美國安全中心AI報告:人工智能安全優(yōu)缺點及存在問題


我們正處在人工智能(AI)和機器學(xué)習全球革命不斷加速和擴大的社會之中,這將對未來的經(jīng)濟和軍事競爭產(chǎn)生巨大影響。人工智能和機器學(xué)習將可能導(dǎo)致新的工業(yè)革命,成為提高經(jīng)濟競爭力并創(chuàng)造新的財富的來源;它們將導(dǎo)致醫(yī)學(xué)和汽車駕駛安全方面的進步;它們將提供新的虛擬培訓(xùn)和娛樂形式;它們可能對我們的社會和福祉產(chǎn)生深遠的積極影響。

在本報告中,著重探討了人工智能安全相關(guān)應(yīng)用,以及優(yōu)缺點和存在的問題。

AI的用途

①數(shù)據(jù)分類。AI系統(tǒng)可幫助進行數(shù)據(jù)分類,如圖像、歌曲、醫(yī)療圖像等。在許多情況下,AI系統(tǒng)能夠比人更可靠、更準確地分類數(shù)據(jù)。

②異常探測。AI系統(tǒng)可以幫助探測異常行為,如欺詐性金融交易或新型惡意軟件,這些系統(tǒng)可用于幫助人類實時監(jiān)控大規(guī)模數(shù)據(jù)。

③預(yù)測。通過在大型數(shù)據(jù)集合中找到相應(yīng)的模式,AI系統(tǒng)可對未來做出統(tǒng)計預(yù)測。

④優(yōu)化。AI系統(tǒng)可用于復(fù)雜系統(tǒng)和任務(wù)的性能優(yōu)化。例如,DeepMind使用機器學(xué)習優(yōu)化Google數(shù)據(jù)中心以提高能源效率,實現(xiàn)了40%的冷卻能量節(jié)約和15%的能效整體提升。

干貨!新美國安全中心AI報告:人工智能安全優(yōu)缺點及存在問題


AI的自主性及局限性

AI的自主性包括:

①嵌入式專長。通過將專長嵌入到機器中,自動化可使技能差一些的人員表現(xiàn)得像技能更高的人員一樣好,或者接近其水平。這對人類而言可將降低其執(zhí)行特定任務(wù)的進入門檻。

②大規(guī)模操作。由于軟件可以近零或零成本復(fù)制,自動化可實現(xiàn)專業(yè)知識的大規(guī)模運用,因此通常那些由人類在小規(guī)模層面完成的任務(wù)可通過自動化實現(xiàn)更大規(guī)模的操作。

③快于人類的反應(yīng)時間。自動化能以快于人類的速度執(zhí)行任務(wù),對事件的反應(yīng)可能比人類快很多,如股票交易所的高頻交易及汽車自動剎車都是利用了該能力。

④優(yōu)于人類的精確性和可靠性。基于AI的自動化能比人類更精確、可靠地執(zhí)行任務(wù)。如X-47B展示了其在著陸方面的高度精確性。

⑤超越人類的耐性和警覺性。自動化系統(tǒng)可以不知疲倦地監(jiān)視數(shù)據(jù),密切關(guān)注核電站或監(jiān)視惡意簽名等計算機網(wǎng)絡(luò)活動。

⑥不需與人類聯(lián)系即可運行的能力。自主性使機器人系統(tǒng)不需與人類進行可靠通信就能獨立執(zhí)行任務(wù)。部分情況下,這種能力可用于長時間運行,如自主水下滑翔器。AI系統(tǒng)也有許多局限性,當前的AI系統(tǒng)通常缺乏理解其行為環(huán)境的能力、不能靈活適應(yīng)超出其設(shè)計參數(shù)之外的新情況、以及不能使用人類認為可能是“常識”的那些知識。

AI存在的問題

①脆弱性。當前AI系統(tǒng)的狹義特征使人工智能具有“脆弱性”。不具備理解廣泛的行動環(huán)境的能力,AI系統(tǒng)可能就無法理解環(huán)境何時發(fā)生了變化以及其行為是否已經(jīng)不再適用。

②不可預(yù)測性。由于AI系統(tǒng)的復(fù)雜性,用戶可能難以提前預(yù)測AI系統(tǒng)的行為。當AI系統(tǒng)是目標導(dǎo)向型系統(tǒng)或與現(xiàn)實世界環(huán)境互動型系統(tǒng)時,該問題會更加突出。

③弱可解釋性。部分AI方法難以解釋AI系統(tǒng)行為的原因。研究更具解釋性的AI方法對于擴大AI系統(tǒng)的潛在應(yīng)用非常關(guān)鍵。

④機器學(xué)習的安全問題和漏洞。與統(tǒng)計模型一樣,AI系統(tǒng)可能也面臨相同的數(shù)據(jù)擬合的挑戰(zhàn)。另外一個問題是確保系統(tǒng)面對輸入數(shù)據(jù)變化時具有穩(wěn)健性。這些安全問題可能會引發(fā)機器學(xué)習潛在國家安全應(yīng)用方面的問題。

⑤偏差。一種原因是設(shè)計人員對目標的認識出現(xiàn)了偏差。另外一個原因是,機器學(xué)習所使用的訓(xùn)練數(shù)據(jù)可能基于某種偏差認識。因此,偏差也是國家安全應(yīng)用應(yīng)該關(guān)注的一個問題。

⑥系統(tǒng)事故。由于系統(tǒng)各組成部分之間存在復(fù)雜的相互作用,AI也容易出現(xiàn)系統(tǒng)故障,特別是在競爭環(huán)境中該問題會更加明顯。

⑦人機交互故障。如果使用人員沒有充分理解系統(tǒng)的局限性或者系統(tǒng)給出的反饋,AI系統(tǒng)也可能會發(fā)生故障。

⑧對手挖掘機器學(xué)習漏洞。對手可能會掌握AI系統(tǒng)的行為方式并利用其弱點,如通過使數(shù)據(jù)中毒讓機器學(xué)習不正確的行為,或通過訪問訓(xùn)練數(shù)據(jù)等引發(fā)行為缺陷等。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-07-27
干貨!新美國安全中心AI報告:人工智能安全優(yōu)缺點及存在問題
高層速讀關(guān)鍵信息:新美國安全中心發(fā)布了一篇報告。關(guān)鍵意義:CNAS希望這份報告能夠為人們就如何負責任地使用人工智能來改善國家安全打下堅實的基礎(chǔ)。

長按掃碼 閱讀全文