AI沒有幻覺,它只是在胡說八道

大型語言模型(如OpenAI的ChatGPT)徹底改變了人工智能與人類互動的方式,生成的文本常常與人類寫作難以區(qū)分。盡管這些模型功能強大,但它們生成的內(nèi)容中仍存在許多不準確之處,通常被稱為“AI幻覺”。然而,格拉斯哥大學(xué)的Michael Townsen Hicks、James Humphries和Joe Slater在《倫理與信息技術(shù)》期刊發(fā)表的論文中指出,這些不準確的內(nèi)容更應(yīng)被理解為“胡說八道”。

大型語言模型(LLMs)是設(shè)計用來生成類似人類文本的復(fù)雜計算機程序。它們通過分析大量的書面材料,并使用統(tǒng)計技術(shù)來預(yù)測特定詞語在序列中出現(xiàn)的可能性,從而生成連貫且符合上下文的響應(yīng)。

與人類大腦有多種目標和行為不同,LLMs的唯一目標是生成與人類語言相似的文本。這意味著它們的主要功能是復(fù)制人類言語和寫作的模式和結(jié)構(gòu),而不是理解或傳達真實信息。

AI幻覺”一詞用來描述像ChatGPT這樣的大型語言模型生成不準確或完全虛構(gòu)的信息。這一術(shù)語暗示AI在經(jīng)歷感知錯誤,類似于人類看到不存在的東西。然而,Hicks及其同事認為這一比喻是誤導(dǎo)性的,因為它暗示AI具有感知和傳達真實信息的意圖,而實際上并沒有。

要更好地理解這些不準確信息為何更應(yīng)被稱為“胡說八道”,有必要了解哲學(xué)家Harry Frankfurt對“胡說八道”概念的定義。在他的經(jīng)典著作中,F(xiàn)rankfurt區(qū)分了“胡說八道”和“撒謊”。撒謊者知道真相但故意說假話,而胡說八道者對真相漠不關(guān)心。他們關(guān)心的不是所說內(nèi)容的真?zhèn)?,而是是否能達到其目的,通常是為了給人留下深刻印象或說服他人。

Frankfurt的概念強調(diào)了胡說八道者對真相的漠視。胡說八道者不關(guān)心其陳述的準確性,只在乎這些陳述是否看起來可信或者符合特定的敘述。

研究者們認為,像ChatGPT這樣的LLMs的輸出更符合Frankfurt對“胡說八道”的定義,而不是“幻覺”的概念。這些模型并沒有對真?zhèn)蔚睦斫?;它們根?jù)訓(xùn)練數(shù)據(jù)中的模式生成文本,沒有任何對準確性的內(nèi)在關(guān)注。這使它們更像胡說八道者——生成的陳述聽起來可能可信,但沒有真實的基礎(chǔ)。

這種區(qū)分很重要,因為它影響我們?nèi)绾卫斫夂徒鉀Q這些模型生成的不準確信息。如果我們認為這些不準確是幻覺,我們可能會認為AI在試圖傳達真實信息但失敗了。

但正如Hicks及其同事所解釋的,像ChatGPT這樣的AI模型沒有信念、意圖或理解。它們純粹基于從訓(xùn)練數(shù)據(jù)中得出的統(tǒng)計模式運行。

它們生成不準確信息并不是因為故意欺騙(像撒謊一樣)或感知錯誤(像幻覺一樣)。而是因為它們被設(shè)計用來創(chuàng)建看起來和聽起來正確的文本,而沒有任何內(nèi)在機制來確保事實準確性。

“投資者、政策制定者和普通公眾在如何對待這些機器以及如何對其做出反應(yīng)時,并非基于對其工作原理的深入技術(shù)理解,而是基于其能力和功能常常是以隱喻性的方式傳達的,”Hicks及其同事總結(jié)道?!胺Q這些錯誤為‘幻覺’并非無害:它容易讓人誤以為機器某種程度上是誤解的,但仍在試圖傳達它們相信或感知的東西?!?/p>

“正如我們所論述的,這是錯誤的隱喻。機器并沒有試圖傳達它們相信或感知的東西。它們的不準確性不是由于誤解或幻覺。正如我們指出的,它們根本沒有試圖傳達信息。它們是在胡說八道?!?/p>

“稱聊天機器人錯誤信息為‘幻覺’助長了技術(shù)支持者對其能力的過度炒作,并可能導(dǎo)致公眾的不必要擔(dān)憂。它還可能提出不適合的問題解決方案,并導(dǎo)致專家在AI對齊方面的誤導(dǎo)性努力,”研究者寫道。

“這也可能導(dǎo)致我們對機器在正確時的態(tài)度錯誤:即便它們有時是正確的,其不準確性顯示它們是在胡說八道。稱這些不準確為‘胡說八道’而不是‘幻覺’不僅更準確(如我們所論證的);這也是在科學(xué)和技術(shù)交流中一個迫切需要的良好實踐?!?/p>

OpenAI方面也表示,提高ChatGPT的事實準確性是一個關(guān)鍵目標。

“提高事實準確性是OpenAI和其他許多AI開發(fā)者的一個重要焦點,我們正在取得進展,”該公司在2023年的一篇博客文章中寫道?!巴ㄟ^利用用戶反饋作為主要數(shù)據(jù)來源,我們改進了GPT-4的事實準確性。與GPT-3.5相比,GPT-4生成事實內(nèi)容的可能性提高了40%?!?/p>

“當用戶注冊使用該工具時,我們盡量透明地告知ChatGPT可能并非總是準確的。然而,我們認識到,還有很多工作要做,以進一步減少幻覺的可能性,并教育公眾了解這些AI工具的當前局限性?!?/p>

本文譯自 psypost,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2024-06-15
AI沒有幻覺,它只是在胡說八道
大型語言模型(如OpenAI的ChatGPT)徹底改變了人工智能與人類互動的方式,生成的文本常常與人類寫作難以區(qū)分。

長按掃碼 閱讀全文