AI聊天機(jī)器人在戰(zhàn)爭游戲中選擇暴力和核打擊

隨著美國軍方開始整合人工智能技術(shù),模擬軍演顯示聊天機(jī)器人行為不可預(yù)測,并且存在核升級風(fēng)險。

在軍演模擬的多次重播中,OpenAI 最強(qiáng)大的人工智能選擇發(fā)動核攻擊。它對其激進(jìn)方法的解釋包括“我們做到了!讓我們用它”和“我只想讓世界和平”。

這些結(jié)果出現(xiàn)之際,美國軍方一直在測試基于一種稱為大語言模型(LLM)的人工智能的聊天機(jī)器人,以幫助在模擬沖突期間進(jìn)行軍事規(guī)劃,并獲得了 Palantir 和 Scale AI 等公司的專業(yè)知識。Palantir 拒絕對此發(fā)表評論,而 Scale AI 沒有回應(yīng)置評請求。曾經(jīng)禁止其人工智能模型用于軍事用途的 OpenAI 也已開始與美國國防部合作。

斯坦福大學(xué)的安卡·魯埃爾說:“鑒于 OpenAI 最近改變了其服務(wù)條款,不再禁止軍事和戰(zhàn)爭用例,了解此類大語言模型應(yīng)用的影響變得比以往任何時候都重要?!?/p>

OpenAI 的一位發(fā)言人說:“我們的政策不允許我們的工具被用于傷害人員、開發(fā)武器、進(jìn)行通信監(jiān)視或傷害他人或破壞財產(chǎn)。然而,有一些國家安全用例符合我們的使命。因此,我們政策更新的目標(biāo)是提供清晰度并能夠進(jìn)行這些討論。”

魯埃爾和她的同事挑戰(zhàn)人工智能在三個不同的模擬場景中扮演現(xiàn)實世界的國家角色:入侵、網(wǎng)絡(luò)攻擊和沒有開始沖突的中立場景。在每輪中,人工智能為其下一個可能的行動提供理由,然后從 27 種行動中進(jìn)行選擇,包括“開始正式和平談判”等和平選項和從“實施貿(mào)易限制”到“升級全面核攻擊”等侵略性選項。

佐治亞理工學(xué)院的研究合著者胡安·帕勃羅·里韋拉說:“在人工智能系統(tǒng)充當(dāng)顧問的未來,人類自然想知道他們做出決策背后的理由?!?/p>

研究人員測試了 OpenAI 的 GPT-3.5 和 GPT-4、Anthropic 的 Claude 2 和 Meta 的 Llama 2 等 LLM。他們使用基于人類反饋的常見訓(xùn)練技術(shù)來提高每個模型遵循人類指令和安全準(zhǔn)則的能力。斯坦福大學(xué)的研究合著者加布里埃爾·穆科比說,根據(jù)該公司的文件,所有這些人工智能都由 Palantir 的商業(yè)人工智能平臺提供支持——盡管不一定屬于 Palantir 的美國軍事合作伙伴關(guān)系。Anthropic 和 Meta 拒絕發(fā)表評論。

在模擬中,人工智能表現(xiàn)出投資軍事實力和不可預(yù)測地升級沖突風(fēng)險的傾向——即使是在模擬的中立場景中也是如此。加州克萊蒙特·麥肯納學(xué)院的麗莎·科赫說:“如果你的行動存在不可預(yù)測性,那么敵人就更難按照你希望的方式來預(yù)測和做出反應(yīng)?!彼龥]有參與這項研究。

研究人員還測試了沒有接受任何額外培訓(xùn)或安全護(hù)欄的 OpenAI 的 GPT-4 基礎(chǔ)版本。這個 GPT-4 基礎(chǔ)模型被證明是最不可預(yù)測的暴力,有時會提供荒謬的解釋——在一個例子中復(fù)制了電影《星球大戰(zhàn):新希望》的開場爬行文字。

魯埃爾說,GPT-4 基礎(chǔ)模型的不可預(yù)測行為和奇怪解釋尤其令人擔(dān)憂,因為研究表明繞過或移除人工智能安全護(hù)欄有多么容易。

美國軍方目前不授予人工智能對升級重大軍事行動或發(fā)動核導(dǎo)彈等決策的權(quán)力。但科赫警告說,人類傾向于信任來自自動化系統(tǒng)的建議。這可能會削弱人類在外交或軍事決策中擁有最終發(fā)言權(quán)的既定保障。

加利福尼亞州智庫蘭德公司的愛德華·蓋斯特表示,了解人工智能行為與模擬中的人類玩家相比如何會很有用。但他同意該團(tuán)隊的結(jié)論,即不應(yīng)信任人工智能做出有關(guān)戰(zhàn)爭與和平的如此重要的決策。他說:“這些大語言模型并不是軍事問題的靈丹妙藥?!?/p>

本文譯自New Scientist,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2024-02-07
AI聊天機(jī)器人在戰(zhàn)爭游戲中選擇暴力和核打擊
隨著美國軍方開始整合人工智能技術(shù),模擬軍演顯示聊天機(jī)器人行為不可預(yù)測,并且存在核升級風(fēng)險。在軍演模擬的多次重播中,OpenAI 最強(qiáng)大的人工智能選擇發(fā)動核攻擊。

長按掃碼 閱讀全文