如何賦予AI機(jī)器人同理心,從而不會想要?dú)⑺牢覀?/h1>


開發(fā)代表體內(nèi)平衡、情感和同理心的人工代理。(A)代理通過對未來狀態(tài)的預(yù)測模型以及內(nèi)部和顯示情感的近似,通過尋求獎勵和避免有害障礙來維護(hù)其在環(huán)境中的完整性。(B)代理必須利用這些模型來解碼和預(yù)測其他代理的行為結(jié)果和內(nèi)部情感狀態(tài)。

南加州大學(xué)的社會科學(xué)家、神經(jīng)學(xué)家和精神病學(xué)家與高級意識研究所、中佛羅里達(dá)大學(xué)和UCLA的David Geffen醫(yī)學(xué)院的同事們一起,在《科學(xué)機(jī)器人》雜志上發(fā)表了一篇觀點(diǎn)文章,概述了一種賦予機(jī)器人同理心的新方法。在他們的文章中,他們認(rèn)為傳統(tǒng)的方法可能行不通。

從幾乎任何方面來看,ChatGPT和其他類似的AI應(yīng)用程序已經(jīng)影響了現(xiàn)代社會。它們被用于廣泛的目的,但引發(fā)了限制其發(fā)展的討論,因為它們可能對人類構(gòu)成威脅。為了反駁這樣的論點(diǎn),AI領(lǐng)域的一些人建議防止出現(xiàn)這種情況的方法很簡單,就是讓這些應(yīng)用程序具備同理心。在這篇新論文中,作者們同意這種方法,但在如何在機(jī)器中模擬這種神秘的人類品質(zhì)方面存在差異。

目前賦予AI模型同理心的方法集中在教導(dǎo)它們觀察人類在道德可議的場景下的行為,然后按照這種行為方式進(jìn)行模仿,并通過將一些規(guī)則硬編碼到它們的機(jī)器中。但作者們認(rèn)為,這種方法忽略了自我保護(hù)在人類同理心中的作用。例如,如果一個機(jī)器人觀看一個人因摔倒而經(jīng)歷痛苦的反應(yīng)的視頻,它可以被教導(dǎo)模仿這樣的反應(yīng),作為與受害人聯(lián)系的一種方式,但這只是一種表演,因為它不會感到任何同情心。

為了實現(xiàn)這一點(diǎn),機(jī)器人必須經(jīng)歷因跌倒而引起的那種疼痛。研究人員建議,這就是讓機(jī)器人理解為什么傷害別人是不好的原因,而不是將規(guī)則編碼到它們的邏輯電路中。他們并不建議將機(jī)器人編程為感受真正的疼痛,盡管這可能有一天成為一種選擇,而是讓它們看到它們的行為可能會產(chǎn)生負(fù)面后果。例如,如果它們殺死了它們的人類伴侶,它們可能不得不面對沒有人類伴侶的生活。或者因為它們所做的事情而被“殺死”。他們認(rèn)為,這樣做將涉及賦予機(jī)器人感受痛苦的能力,而這是一種自我約束的有效手段。

本文譯自 techxplore,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-07-21
如何賦予AI機(jī)器人同理心,從而不會想要?dú)⑺牢覀?/div>
南加州大學(xué)的社會科學(xué)家、神經(jīng)學(xué)家和精神病學(xué)家與高級意識研究所、中佛羅里達(dá)大學(xué)和UCLA的David Geffen醫(yī)學(xué)院的同事們一起,在《科學(xué)機(jī)器人》雜志上發(fā)表了一篇觀點(diǎn)文章,概述了一種賦予機(jī)器人同理心

長按掃碼 閱讀全文