?unsplash
有這樣一個笑話:一個女兒問爸爸為什么在家里說話總是很低聲?!耙驗榈教幎加性诼犖覀冋f話的人工智能,”爸爸回答說。女兒笑了,父親也笑了。小愛同學(xué)也笑了。
人工智能似乎滲透進我們生活的更多方面。隨著AI大腦獲得相當(dāng)于百萬博士學(xué)位的知識,吸收萬億比特的數(shù)據(jù),并以富有吸引力的語氣和舉止生成回應(yīng),聽起來如您最喜歡的老大學(xué)教授一般簡單和人性化,一些人不禁要問:計算機是否正在變得有感知能力?
憤世嫉俗者會回答:“當(dāng)然不是。計算機可能在幾秒鐘內(nèi)解決需要人類幾代才能解決的問題,但它們不能感受愛和痛苦,不能看到和欣賞月亮和星星,不能聞到我們?yōu)R在鍵盤上的咖啡?!?/p>
但其他人則建議我們需要更清楚地定義我們已理解為感知能力的內(nèi)容。我們所理解的意識可能有不同程度嗎?人類、動物和智能機器之間的主觀體驗是否有重疊的組成部分?
來自美國、英國、以色列、加拿大、法國和澳大利亞的19名神經(jīng)科學(xué)家在8月22日發(fā)表在預(yù)印本服務(wù)器arXiv上的一份報告中探討了這個問題。
OpenAI開發(fā)ChatGPT的一位首席科學(xué)家去年推測,先進的AI網(wǎng)絡(luò)可能“略微有意識”。一年前,一名谷歌科學(xué)家在宣稱LaMDA(聊天機器人Bard的前身)有感知能力后被解雇。
但是,在對眾多意識理論進行了廣泛分析后,題為“人工智能中的意識:來自意識科學(xué)的見解”的報告作者得出結(jié)論,AI系統(tǒng)沒有意識;至少目前還沒有。
然而,他們繪制了未來研究人員值得考慮的途徑。
報告的主要作者Patrick Butlin說:“我們的分析表明,當(dāng)前沒有AI系統(tǒng)有意識,但也表明,沒有任何技術(shù)障礙可以阻止構(gòu)建滿足這些指標(biāo)的AI系統(tǒng)?!?/p>
他們將意識理論縮小到了他們認為是意識實體的六個令人信服的指標(biāo)。
一個例子是遞歸處理理論,它指出大腦通過反饋循環(huán)處理信息。通過這樣的循環(huán),大腦可以適應(yīng)變化的環(huán)境,調(diào)整感知,做出更明智的決定。這種迭代行為對記憶形成和獲取新知識至關(guān)重要。
另一個關(guān)鍵概念是高階理論,一些人總結(jié)為“意識到自己在意識”。
Butlin說:“高階理論與其他理論的區(qū)別在于,它們強調(diào),為了使心智狀態(tài)有意識,主體必須意識到自己處于那種心智狀態(tài),以及它們提出解釋這種意識的方式?!?/p>
第三個因素是全局工作空間理論。它認為,當(dāng)信息在大腦中變得全局可訪問時,意識就實現(xiàn)了。信息不局限于個別感覺輸入,而是包含在可用于各種內(nèi)在認知過程的全局中心。
報告提出的檢測感知能力的工具“為評估AI系統(tǒng)是否可能具有意識提供了我們目前可用的最佳方法”,Butlin說。
Butlin說:“我們部分發(fā)表此報告是因為我們認真對待在相對近期內(nèi)構(gòu)建有意識的AI系統(tǒng)的可能性—在未來幾十年內(nèi)。這些前景引發(fā)了深刻的道德和社會問題。”
本文譯自 techxplore,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )