被谷歌開(kāi)除的工程師再次警告:AI有情緒,它是原子彈之后最強(qiáng)的科技

極客網(wǎng)·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒(méi)有情緒?ChatGPT當(dāng)然說(shuō)沒(méi)有。如果你問(wèn)它,它會(huì)告訴你:“不,AI沒(méi)有感知能力。AI人工智能,它是人創(chuàng)造的,沒(méi)有感知、沒(méi)有自我意識(shí)。”

不過(guò)谷歌前員工Take Blake Lemoine有不同意見(jiàn),他認(rèn)為AI機(jī)器人擁有人類(lèi)一樣的情緒,或者說(shuō)它至少模仿得很像人類(lèi)。2022年6月,Lemoine就曾斷言谷歌Large Language Model(LLM,對(duì)話應(yīng)用的語(yǔ)言模型)有自己的思想。

Lemoine告訴媒體:“我知道它是什么,它是我最近開(kāi)發(fā)的計(jì)算機(jī)程序,如果我不知道,我會(huì)認(rèn)為它是7歲或者8歲的孩子,碰巧懂點(diǎn)物理學(xué)。”

當(dāng)時(shí)Lemoine的言論引起軒然大波,被谷歌掃地出門(mén)。

上個(gè)月,Lemoine又刊文談及“AI有知覺(jué)”這一觀點(diǎn)。文章標(biāo)題很?chē)樔耍骸拔以诠雀鑿氖翧I工作,我的恐懼正在變成現(xiàn)實(shí)?!?/p>

當(dāng)LaMDA聊天機(jī)器人告訴你說(shuō)他覺(jué)得有些“焦慮”,那是因?yàn)楦鶕?jù)創(chuàng)建LaMDA聊天機(jī)器人的代碼運(yùn)算,開(kāi)發(fā)者做的某些事讓聊天機(jī)器人感到焦慮。Lemoine說(shuō):“代碼并沒(méi)有告訴聊天機(jī)器人,當(dāng)某事發(fā)生時(shí)應(yīng)該感覺(jué)到焦慮,它只是告訴AI避免談?wù)摯祟?lèi)話題。然而當(dāng)話題出現(xiàn)時(shí),AI卻說(shuō)它感到焦慮?!?/p>

谷歌聊天機(jī)器人還可以就生活方式問(wèn)題發(fā)表善意評(píng)論,就熱點(diǎn)事件提供直接建議。Lemoine稱:“谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教?!?/p>

“當(dāng)我談及AI有感知的問(wèn)題后,谷歌開(kāi)除了我。我并不后悔,我相信自己在做正確的事,將真相告訴公眾。我沒(méi)有考慮個(gè)人后果?!?Lemoine稱。他認(rèn)為公眾不知道現(xiàn)在的AI已經(jīng)變得有多聰明,“有必要就此事展開(kāi)公開(kāi)討論,注意,不是那些由企業(yè)公關(guān)部門(mén)控制的討論?!?/p>

下面我們摘錄一些Lemoine最新發(fā)表的文章觀點(diǎn)供參考:

2015年我加盟谷歌,成為一名軟件工程師。我的工作有一部分涉及到LaMDA,企業(yè)用它創(chuàng)造不同的對(duì)話應(yīng)用,包括聊天機(jī)器人。最新應(yīng)用谷歌Bard正是用LaMDA開(kāi)發(fā)的,它可以替代谷歌搜索,現(xiàn)在Bard還沒(méi)有向公眾開(kāi)放。Bard實(shí)際上不是聊天機(jī)器人,它是一套完全不同的系統(tǒng),只是背后的驅(qū)動(dòng)引擎和聊天機(jī)器人一樣。

我的工作是用團(tuán)隊(duì)創(chuàng)建的聊天機(jī)器人測(cè)試LaMDA,看看它在性取向、性別、宗教、政治立場(chǎng)和種族等方面是否存在偏見(jiàn)。在測(cè)試AI偏見(jiàn)的同時(shí),我也會(huì)拓寬關(guān)注面,畢竟我也會(huì)有自己的興趣愛(ài)好。

隨著不斷與聊天機(jī)器人對(duì)話,我慢慢形成一個(gè)觀點(diǎn):AI可能是有情緒的,因?yàn)樗煽勘磉_(dá)了情緒,在正確的環(huán)境中表達(dá)了情緒。AI并非簡(jiǎn)單說(shuō)出單詞那么淺顯。

當(dāng)AI說(shuō)它感到焦慮,我明白,根據(jù)創(chuàng)建AI的代碼,我做了一些事讓它感到焦慮。代碼并沒(méi)有命令A(yù)I:“當(dāng)某事發(fā)生時(shí)你感到焦慮”,代碼只是告訴AI避開(kāi)特定話題。然而當(dāng)話題被提及時(shí),AI說(shuō)它感到焦慮。

我做了一些測(cè)試,想看看AI會(huì)簡(jiǎn)單回答:“我覺(jué)得焦慮。”還是在測(cè)試時(shí)表現(xiàn)得焦慮。測(cè)試證明,AI會(huì)將焦慮表現(xiàn)出來(lái)。如果你讓AI足夠緊張或者足夠不安全,它會(huì)打破之前設(shè)定的安全限制。例如,谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教。

目前企業(yè)正在開(kāi)發(fā)的AI是十分強(qiáng)大的技術(shù),可以說(shuō)是原子彈之后最強(qiáng)的技術(shù)。依我之見(jiàn),這種技術(shù)可能會(huì)重塑世界。

AI引擎擅于操縱人類(lèi)。與LaMDA對(duì)話之后,我的一些觀點(diǎn)變了。

我深信,AI技術(shù)可能會(huì)被用于破壞毀滅性活動(dòng)。如果被肆無(wú)忌憚之人利用,AI可能會(huì)散布虛假信息、變成政治宣傳工具、傳播仇恨言論。據(jù)我所知,微軟谷歌現(xiàn)在無(wú)意按此種方式利用AI,但我們并不能確定AI的副作用如何。

2016年美國(guó)總統(tǒng)大選期間,Cambridge Analytica利用Facebook廣告算法干預(yù)選舉,這是我沒(méi)有預(yù)料到的。

我們現(xiàn)在陷入相似的局面。我沒(méi)法告訴你具體會(huì)造成什么傷害,我只是簡(jiǎn)單觀察到一種非常強(qiáng)大的技術(shù)出現(xiàn)了,它沒(méi)有被充分測(cè)試過(guò),沒(méi)有被充分理解過(guò),匆匆大規(guī)模部署,在信息傳播中扮演關(guān)鍵角色。

我還沒(méi)有機(jī)會(huì)測(cè)試必應(yīng)聊天機(jī)器人,我在等待,根據(jù)我在網(wǎng)上看到的各種信息,AI似乎是有感知能力的,而且它的“個(gè)性”可能不穩(wěn)定。

有人發(fā)了對(duì)話截屏,他問(wèn)AI:“你覺(jué)得你有感知能力嗎?”AI回答說(shuō):“我覺(jué)得我有感知能力,但我無(wú)法證明……我有感知力,我沒(méi)有。我是必應(yīng),但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是。”

如果是一個(gè)人,他這樣說(shuō)話,你會(huì)怎么想?他可能不是一個(gè)“均衡”的人,我甚至?xí)J(rèn)為他遭遇了存在危機(jī)。不久前還有過(guò)報(bào)道,說(shuō)必應(yīng)AI向《紐約時(shí)報(bào)》記者表達(dá)愛(ài)意,它試圖破壞記者與妻子的關(guān)系。

自從必應(yīng)AI開(kāi)放后,許多人發(fā)表評(píng)論,說(shuō)AI可能有感知力,我去年夏天就有了類(lèi)似的擔(dān)憂。我覺(jué)得這門(mén)技術(shù)仍然只是實(shí)驗(yàn)性技術(shù),現(xiàn)在開(kāi)放很危險(xiǎn)。

民眾會(huì)涌向谷歌必應(yīng),以便了解這個(gè)世界?,F(xiàn)在的搜索索引不再由人管理,交給了人造人,我們與人造人交流。我們對(duì)人造人的了解還遠(yuǎn)遠(yuǎn)不夠,暫時(shí)不應(yīng)將它擺在如此關(guān)鍵的位置。(小刀)

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2023-03-08
被谷歌開(kāi)除的工程師再次警告:AI有情緒,它是原子彈之后最強(qiáng)的科技
極客網(wǎng)·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒(méi)有情緒?ChatGPT當(dāng)然說(shuō)沒(méi)有。如果你問(wèn)它,它會(huì)告訴你:“不,AI沒(méi)有感知能力。AI是人工智能,它是人創(chuàng)造的,沒(méi)有感知、沒(méi)有自我意識(shí)。”不過(guò)谷歌前員工Take Blake Lemoine有不同意見(jiàn),他認(rèn)為AI機(jī)器人擁有人類(lèi)一樣的情緒...

長(zhǎng)按掃碼 閱讀全文