機器人三定律需要更新了:第四條用來限制人工智能

隨著人工智能的快速發(fā)展,特別是生成式AI在文本和圖像領(lǐng)域的突破,艾薩克·阿西莫夫(Isaac Asimov)提出的三條機器人法則已難以應(yīng)對新挑戰(zhàn),我們需要制定第四條定律來規(guī)范AI與人類的交互。

1942年,科幻大師艾薩克·阿西莫夫在他的短篇小說《Runaround》中首次提出了三項機器人定律,后來在合集作品《我,機器人》中廣為人知。

* 第一條:機器人不得傷害人類,或因不作為而使人類遭受傷害。
* 第二條:機器人必須服從人類的命令,除非此命令違背了第一條定律。
* 第三條:機器人必須保護(hù)自身的生存,但前提是這種保護(hù)不違反第一或第二條定律。

盡管這些法則源于虛構(gòu)作品,但在人工智能技術(shù)日益成熟和普及的今天,它們?nèi)詫C器人倫理學(xué)的研究具有重要意義。

然而,現(xiàn)有的三條定律不足以應(yīng)對我們所處的時代。如今,人類與人工智能正在進(jìn)入前所未有的合作階段,阿西莫夫難以想象的生成式AI能力的快速發(fā)展帶來了新的挑戰(zhàn)。

深度偽造、虛假信息和詐騙泛濫

人工智能驅(qū)動的欺騙行為日益猖獗,對社會造成嚴(yán)重威脅。聯(lián)邦調(diào)查局2024年的網(wǎng)絡(luò)犯罪報告顯示,涉及數(shù)字操縱和社會工程的網(wǎng)絡(luò)犯罪造成的損失超過103億美元。歐洲網(wǎng)絡(luò)安全署于2023年發(fā)布的威脅態(tài)勢報告特別指出,深度偽造(看似真實的合成媒體)正成為數(shù)字身份和信任的新興威脅。

社交媒體上的虛假信息正在蔓延。我曾在疫情期間對此進(jìn)行了深入研究,可以肯定地說,生成式AI工具的普及使得其檢測難度越來越大。更糟糕的是,由人工智能生成的文章與傳統(tǒng)宣傳手段一樣具有說服力,甚至更加具有說服力,而且使用人工智能創(chuàng)建令人信服的內(nèi)容只需要很少的努力。

深度偽造現(xiàn)象在社會各個領(lǐng)域都在抬頭。僵尸網(wǎng)絡(luò)可以使用人工智能生成文本、語音和視頻來制造任何政治議題廣泛支持的虛假印象。機器人現(xiàn)在能夠進(jìn)行電話通話并冒充他人。模擬熟悉聲音的人工智能詐騙電話越來越常見,不久我們就會迎來基于AI渲染疊加頭像的視頻電話詐騙的繁榮景象,騙子將利用這種技術(shù)冒充親人來攻擊最脆弱的人群。我甚至親身經(jīng)歷過這種情況,我的父親看到了一段我用流利的西班牙語說話的視頻后感到驚奇,因為他知道我在學(xué)習(xí)這門語言(在Duolingo上已經(jīng)堅持了400天)。不用說,這段視頻是AI編輯過的。

更令人擔(dān)憂的是,兒童和青少年與人工智能代理建立起情感聯(lián)系,有時無法區(qū)分與真實朋友在線互動還是與機器人互動。已經(jīng)有自殺案例被歸因于與人工智能聊天機器人的互動。

在2019年的著作《人與合作者》中,著名計算機科學(xué)家 Stuart Russell 論述了人工智能系統(tǒng)欺騙人類的能力對社會信任構(gòu)成了根本性的挑戰(zhàn)。這種擔(dān)憂體現(xiàn)在最近的政策措施中,特別是歐盟的 AI 法規(guī),其中包括要求人工智能交互透明化和明確披露人工智能生成內(nèi)容的規(guī)定。

在阿西莫夫時代,人們無法想象人工智能代理將如何利用在線溝通工具和虛擬形象來欺騙人類。

因此,我們需要為阿西莫夫的定律添加第四條:

第四條:機器人或人工智能不得通過冒充人類來欺騙人類。

實現(xiàn)可信賴的人工智能

我們亟需明確界限。盡管人與人工智能的合作可以是建設(shè)性的,但人工智能的欺騙行為會破壞信任,導(dǎo)致時間浪費、情感困擾和資源濫用。人工智能代理必須自我識別,以確保我們與他們的互動是透明且有效的。除非已由人類進(jìn)行重大編輯和改編,否則應(yīng)明確標(biāo)記人工智能生成的內(nèi)容。

第四條定律的實施需要:
* 在直接交互中強制要求人工智能披露;
* 明確標(biāo)記人工智能生成內(nèi)容;
* 制定人工智能識別的技術(shù)標(biāo)準(zhǔn);
* 建立執(zhí)行法律框架;
* 推展教育舉措以提高對人工智能的認(rèn)識。

當(dāng)然,這一切都 Easier said than done. 現(xiàn)在已經(jīng)開始了大量的研究工作,努力尋找可靠的方法來為人工智能生成的文本、音頻、圖像和視頻進(jìn)行水印或檢測。實現(xiàn)我所呼吁的透明度還遠(yuǎn)未解決。

但人類與人工智能合作的未來取決于維持人類與人工智能代理之間清晰的界限。正如 IEEE 在2022年的《以倫理為導(dǎo)向的設(shè)計》框架中所指出的那樣,在人工智能系統(tǒng)中的透明度是建立公眾信任和確保人工智能負(fù)責(zé)任發(fā)展的基礎(chǔ)。阿西莫夫的復(fù)雜故事表明,即使試圖遵循規(guī)則的機器人也經(jīng)常發(fā)現(xiàn)其行為的意外后果。然而,擁有努力遵守阿西莫夫倫理準(zhǔn)則的人工智能系統(tǒng)將會是一個很好的開始。

本文譯自 IEEE Spectrum,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
1970-01-01
機器人三定律需要更新了:第四條用來限制人工智能
隨著人工智能的快速發(fā)展,特別是生成式AI在文本和圖像領(lǐng)域的突破,艾薩克·阿西莫夫(Isaac Asimov)提出的三條機器人法則已難以應(yīng)對新挑戰(zhàn),我們需要制定第四條定律來規(guī)范AI與人類的交互。

長按掃碼 閱讀全文