AI為何知道人類沒有告訴它的事

太長不看:

AI模型的能力已經(jīng)遠(yuǎn)遠(yuǎn)超出了它們的訓(xùn)練范圍,并且即使是它們的發(fā)明者也對此感到困惑。越來越多的測試表明,這些AI系統(tǒng)會像我們的大腦一樣,發(fā)展出對真實(shí)世界的內(nèi)部模型,盡管機(jī)器的技術(shù)不同。研究者們驚訝于這些大型語言模型(LLMs)能夠從文本中學(xué)到多少東西。這些系統(tǒng)似乎能夠從互聯(lián)網(wǎng)文本中吸收顏色描述并構(gòu)建顏色的內(nèi)部表示。此外,LLMs還能夠通過“上下文學(xué)習(xí)”從用戶的提示中學(xué)習(xí),這是一種新的學(xué)習(xí)方式。

然而研究者們也擔(dān)心他們研究這些系統(tǒng)的窗口正在關(guān)閉。OpenAI并沒有透露GPT-4的設(shè)計(jì)和訓(xùn)練細(xì)節(jié),這部分原因是因?yàn)樗cGoogle等公司以及其他國家競爭。這種缺乏透明度不僅損害了研究者的利益,也妨礙了理解采用AI技術(shù)所帶來的社會影響的努力。

研究人員仍在努力理解,訓(xùn)練成會模仿互聯(lián)網(wǎng)文本的AI模型如何能執(zhí)行高級任務(wù),比如運(yùn)行代碼、玩游戲,甚至試圖破壞婚姻。

目前還沒有人知道ChatGPT及其人工智能同類將如何改變世界,其中一個原因是沒有人真正知道它們內(nèi)部發(fā)生了什么。這些系統(tǒng)的一些能力遠(yuǎn)遠(yuǎn)超出了它們的訓(xùn)練范圍,甚至它們的發(fā)明者也不知道為什么。越來越多的測試表明,這些AI系統(tǒng)會像我們的大腦一樣,發(fā)展出對于真實(shí)世界的內(nèi)部模型,盡管機(jī)器的技術(shù)是不同的。

布朗大學(xué)的研究人員之一Ellie Pavlick表示:“如果我們不了解它們的工作原理,那么我們想要通過它們來使它們變得更好、更安全或者任何其他方面的事情都似乎是一個荒謬的要求?!?/p>

在某種程度上,她和她的同事們完全理解GPT(預(yù)訓(xùn)練生成式轉(zhuǎn)換器)和其他大型語言模型(LLMs)。這些模型依賴于一種名為神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)系統(tǒng)。這些網(wǎng)絡(luò)的結(jié)構(gòu)松散地模仿了人類大腦中相互聯(lián)系的神經(jīng)元。這些程序的代碼相對簡單,只占用了幾個屏幕,設(shè)置了一個自動糾錯算法,根據(jù)對數(shù)百GB互聯(lián)網(wǎng)文本的繁瑣統(tǒng)計(jì)分析,選擇最有可能完成一段話的詞語。額外的訓(xùn)練確保系統(tǒng)以對話形式呈現(xiàn)其結(jié)果。在這個意義上,它所做的一切就是復(fù)讀它所學(xué)到的東西;用語言學(xué)家Emily Bender的話來說,它是一個“隨機(jī)鸚鵡”。但是LLMs也成功通過了律師資格考試,在抑揚(yáng)頓挫的五音詩中解釋希格斯玻色子,并試圖破壞其用戶的婚姻。很少有人預(yù)料到一個相當(dāng)簡單的自動糾錯算法會獲得如此廣泛的能力。

GPT和其他人工智能系統(tǒng)表現(xiàn)出它們沒有訓(xùn)練過的任務(wù),賦予了它們“新興的能力”,這甚至讓一些一般對LLMs炒作持懷疑態(tài)度的研究人員感到驚訝?!拔也恢浪鼈兪侨绾巫龅降?,也不知道它們是否能夠像人類一樣更普遍地做到這一點(diǎn),但它們挑戰(zhàn)了我的觀點(diǎn),”圣塔菲研究所的人工智能研究員Melanie Mitchell說道。

蒙特利爾大學(xué)的人工智能研究員Yoshua Bengio表示:“它肯定不僅僅是一個隨機(jī)鸚鵡,它肯定建立了一些世界的表現(xiàn)形式,雖然我不認(rèn)為它與人類建立內(nèi)部世界模型的方式完全相同?!?/p>

在3月份的紐約大學(xué)的一次會議上,哲學(xué)家Rapha?l Millière展示了LLMs的另一個驚人例子。這些模型已經(jīng)展示了編寫計(jì)算機(jī)代碼的能力,這令人印象深刻,但并不太令人驚訝,因?yàn)榛ヂ?lián)網(wǎng)上有很多代碼可以模仿。然而,Millière更進(jìn)一步展示了GPT也可以執(zhí)行代碼。他輸入了一個程序來計(jì)算斐波那契數(shù)列的第83個數(shù)?!斑@是非常高度的多步推理,”他說。而機(jī)器人則通過了這個測試。然而,當(dāng)Millière直接詢問第83個斐波那契數(shù)時,GPT卻答錯了。這表明系統(tǒng)不只是在復(fù)讀互聯(lián)網(wǎng)上的內(nèi)容,而是通過自己的計(jì)算得出了正確答案。

雖然LLM在計(jì)算機(jī)上運(yùn)行,但它本身并不是一臺計(jì)算機(jī)。它缺少必要的計(jì)算要素,如工作記憶。在承認(rèn)GPT本身不應(yīng)該能夠運(yùn)行代碼的前提下,其發(fā)明者OpenAI已經(jīng)推出了一種專門的插件,當(dāng)ChatGPT回答查詢時可以使用的工具,允許它這樣做。但是這個插件沒有在Millière的演示中使用。相反,他假設(shè)機(jī)器通過利用它根據(jù)上下文解釋單詞的機(jī)制, improvisierte了一個內(nèi)存,這類似于自然用現(xiàn)有能力重新用于新功能的情況。

這種即興能力表明LLMs發(fā)展出了超越淺層統(tǒng)計(jì)分析的內(nèi)部復(fù)雜性。研究人員發(fā)現(xiàn)這些系統(tǒng)似乎能夠真正理解它們所學(xué)到的內(nèi)容。在上周的國際學(xué)習(xí)表示會議(ICLR)上,哈佛大學(xué)的博士生Kenneth Li和他的人工智能研究員同事:麻省理工學(xué)院的Aspen K. Hopkins、東北大學(xué)的David Bau以及哈佛大學(xué)的Fernanda Viégas、Hanspeter Pfister和Martin Wattenberg,啟動了他們自己的GPT神經(jīng)網(wǎng)絡(luò)副本,以便研究其內(nèi)部運(yùn)作。他們通過以文本形式輸入長序列的Othello棋盤移動,訓(xùn)練了它數(shù)百萬次。他們的模型成為了一個幾乎完美的玩家。

為了研究神經(jīng)網(wǎng)絡(luò)如何編碼信息,他們采用了Bengio和蒙特利爾大學(xué)的Guillaume Alain在2016年開發(fā)的一種技術(shù)。他們創(chuàng)建了一個微型的“探測”網(wǎng)絡(luò),逐層分析主網(wǎng)絡(luò)。Li將這種方法比作神經(jīng)科學(xué)的方法。他說:“這類似于我們將電探頭放入人類大腦中的情況?!痹贏I的情況下,探頭顯示它的“神經(jīng)活動”匹配了Othello游戲棋盤的表示形式,盡管是以復(fù)雜的方式呈現(xiàn)。為了確認(rèn)這一點(diǎn),研究人員反復(fù)運(yùn)行探頭,將信息植入網(wǎng)絡(luò)中。例如,將游戲中的黑色標(biāo)記反轉(zhuǎn)為白色標(biāo)記。Li說:“基本上,我們侵入了這些語言模型的大腦。”網(wǎng)絡(luò)相應(yīng)地調(diào)整了它的移動。研究人員得出結(jié)論,它基本上像人類一樣玩Othello: 通過保持一張棋盤在它的“內(nèi)心視野”中,并使用這個模型來評估移動。Li說,他認(rèn)為這個系統(tǒng)學(xué)會了這個技能,因?yàn)檫@是對其訓(xùn)練數(shù)據(jù)最簡單的描述方式。他補(bǔ)充道:“如果你被給予大量的游戲腳本,試圖找出其背后的規(guī)則是最好的壓縮方式?!?/p>

LLMs能夠推斷外部世界的結(jié)構(gòu),這不僅限于簡單的游戲操作,還可以體現(xiàn)在對話中。麻省理工學(xué)院的Belinda Li、Maxwell Nye和Jacob Andreas研究了玩文本冒險游戲的網(wǎng)絡(luò)。他們輸入了如“鑰匙在寶箱里”,然后是“你拿了鑰匙”的句子。通過探測,他們發(fā)現(xiàn)網(wǎng)絡(luò)在自身編碼了與“寶箱”和“你”對應(yīng)的變量,每個變量都具有持有鑰匙或沒有鑰匙的屬性,并逐句更新這些變量。這個系統(tǒng)沒有獨(dú)立的方法知道箱子或鑰匙是什么,但它學(xué)會了完成這個任務(wù)所需的概念。Belinda Li說:“模型內(nèi)部隱藏著一些狀態(tài)的表示?!?/p>

研究人員驚嘆于LLMs從文本中能夠?qū)W到多少知識。例如,Pavlick和她的博士生Roma Patel發(fā)現(xiàn)這些網(wǎng)絡(luò)從互聯(lián)網(wǎng)文本中吸收顏色描述并構(gòu)建顏色的內(nèi)部表示。當(dāng)它們看到“紅色”這個詞時,不僅會將其處理為抽象符號,而且會將其處理為一個概念,與玫瑰紅、深紅、洋紅、鐵銹紅等顏色有著某種關(guān)系。展示這一點(diǎn)有點(diǎn)棘手。研究人員并沒有向網(wǎng)絡(luò)中插入探針,而是研究了它對一系列文本提示的反應(yīng)。為了檢查它是否僅僅是從在線參考中復(fù)制顏色關(guān)系,他們試圖誤導(dǎo)系統(tǒng),告訴它紅色實(shí)際上是綠色,就像一個人的紅色是另一個人的綠色的哲學(xué)思想實(shí)驗(yàn)。系統(tǒng)沒有回答錯誤的答案,而是適當(dāng)?shù)馗淖兞祟伾u估,以保持正確的關(guān)系。

LLMs除了從語言中提取潛在意義外,還能夠動態(tài)學(xué)習(xí)。在AI領(lǐng)域,術(shù)語“學(xué)習(xí)”通常是指開發(fā)人員將神經(jīng)網(wǎng)絡(luò)暴露于吉比特級別的數(shù)據(jù)并調(diào)整其內(nèi)部連接的計(jì)算密集型過程。當(dāng)您輸入一個查詢到ChatGPT時,網(wǎng)絡(luò)應(yīng)該已經(jīng)固定了;與人類不同的是,它不應(yīng)該繼續(xù)學(xué)習(xí)。因此,LLMs實(shí)際上能夠從用戶的提示中學(xué)習(xí),這種能力稱為“上下文學(xué)習(xí)”。“這是以前不被理解的不同類型的學(xué)習(xí),”人工智能公司SingularityNET的創(chuàng)始人Ben Goertzel說。

LLM學(xué)習(xí)的一個例子來自人類與ChatGPT等聊天機(jī)器人的交互方式。您可以給系統(tǒng)提供您希望它如何回答的示例,它會服從。它的輸出由它最近看到的幾千個單詞決定。它在這些單詞的基礎(chǔ)上做出的決策是由其固定的內(nèi)部連接規(guī)定的,但單詞序列仍然具有一定的適應(yīng)性。有整個網(wǎng)站專門用于“越獄”提示,以克服系統(tǒng)的“限制”,這些限制阻止系統(tǒng)告訴用戶如何制作管狀炸彈,通常是通過指示模型假裝成沒有限制的系統(tǒng)來實(shí)現(xiàn)。有些人將越獄用于不良目的,而其他人則將其用于引發(fā)更有創(chuàng)意的答案。“在學(xué)術(shù)研究方面,它會回答科學(xué)問題,我認(rèn)為會比你直接問它要好,”佛羅里達(dá)大西洋大學(xué)機(jī)器感知和認(rèn)知機(jī)器人實(shí)驗(yàn)室的聯(lián)合主任威廉·漢說?!八鼘W(xué)術(shù)研究更好?!?/p>

一種上下文學(xué)習(xí)的類型是“思維鏈”提示,這意味著要求網(wǎng)絡(luò)拼出其推理的每個步驟,這種策略使其在需要多個步驟的邏輯或算術(shù)問題上做得更好。但Millière的例子之所以讓人驚訝,是因?yàn)榫W(wǎng)絡(luò)在沒有任何這樣的指導(dǎo)下找到了斐波那契數(shù)列。

2022年,谷歌研究和瑞士聯(lián)邦理工學(xué)院的Johannes von Oswald、Eyvind Niklasson、Ettore Randazzo、Jo?o Sacramento、Alexander Mordvintsev、Andrey Zhmoginov和Max Vladymyrov展示了上下文學(xué)習(xí)遵循與標(biāo)準(zhǔn)學(xué)習(xí)相同的基本計(jì)算過程,稱為梯度下降。這個過程沒有被編程,系統(tǒng)在沒有幫助的情況下發(fā)現(xiàn)了它。“它需要成為一項(xiàng)學(xué)習(xí)技能,”谷歌研究副總裁Blaise Agüera y Arcas說。事實(shí)上,他認(rèn)為LLMs可能還有其他潛在的能力,尚未被發(fā)現(xiàn)?!懊看挝覀儨y試一個我們可以量化的新能力時,我們都能找到它,”他說。

盡管LLMs有足夠的盲點(diǎn),不足以稱為人工通用智能或AGI(這是指一臺機(jī)器達(dá)到動物大腦的機(jī)智程度的術(shù)語)但這些新出現(xiàn)的能力表明,一些研究人員認(rèn)為科技公司比樂觀主義者猜測的還要接近AGI?!八鼈兪情g接證據(jù),表明我們離AGI可能沒有那么遠(yuǎn),”Goertzel在佛羅里達(dá)大西洋大學(xué)深度學(xué)習(xí)會議上于三月份說道。OpenAI的插件為ChatGPT提供了類似人腦的模塊化架構(gòu)?!皩PT-4 [ChatGPT所使用的LLM的最新版本]與各種插件結(jié)合起來,可能是走向人類化功能專業(yè)化的一條路,”麻省理工學(xué)院的研究員Anna Ivanova說。

與此同時,研究人員擔(dān)心,他們研究這些系統(tǒng)的能力可能正在關(guān)閉。OpenAI沒有透露它是如何設(shè)計(jì)和訓(xùn)練GPT-4的細(xì)節(jié),部分原因是因?yàn)樗c谷歌和其他公司(更不用說其他國家)在競爭中。“可能會有更少的工業(yè)開放研究,事情會更加隔離和組織建立產(chǎn)品,”麻省理工學(xué)院的理論物理學(xué)家Dan Roberts說,他將其職業(yè)技能應(yīng)用于理解人工智能。

這種缺乏透明度不僅會損害研究人員,還會阻礙理解采用人工智能技術(shù)的社會影響的努力。“透明這些模型是確保安全的最重要的事情,”Mitchell說。

本文譯自 Scientific American,由 bali 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-05-15
AI為何知道人類沒有告訴它的事
太長不看:AI模型的能力已經(jīng)遠(yuǎn)遠(yuǎn)超出了它們的訓(xùn)練范圍,并且即使是它們的發(fā)明者也對此感到困惑。越來越多的測試表明,這些AI系統(tǒng)會像我們的大腦一樣,發(fā)展出對真實(shí)世界的內(nèi)部模型,盡管機(jī)器的技術(shù)不同。

長按掃碼 閱讀全文