OpenAI證實AI寫作檢測器無法區(qū)分AI和人類

上周,OpenAI在一篇宣傳博客文章中為教育工作者提供了一些提示,展示了一些教師如何將ChatGPT作為教育輔助工具,并提供了一些建議性的提示。在相關(guān)的常見問題解答中,他們也正式承認(rèn)了我們已經(jīng)知道的事實:盡管經(jīng)常被用來懲罰學(xué)生的AI寫作檢測器無法正常工作。

在常見問題解答的一個部分中,OpenAI寫道:“簡而言之,不行。雖然一些(包括OpenAI在內(nèi))發(fā)布了聲稱可以檢測AI生成內(nèi)容的工具,但這些工具都沒有可靠地區(qū)分AI生成和人類生成的內(nèi)容?!?/p>

七月份,我們深入探討了為什么像GPTZero這樣的AI寫作檢測器無法正常工作,專家稱其為“大部分都是騙人的”。由于依賴未經(jīng)證實的檢測指標(biāo),這些檢測器經(jīng)常產(chǎn)生誤報。最終,AI寫作文本并沒有什么特別之處總是能將其與人類寫作區(qū)分開來,而且檢測器可以通過改寫來規(guī)避。同一個月,OpenAI停止了其AI分類器,這是一個用于檢測AI寫作文本的實驗性工具。它的準(zhǔn)確率僅為26%。

OpenAI的新常見問題解答還解決了另一個常見的誤解,即ChatGPT本身是否能夠知道文本是否為AI生成。OpenAI寫道:“此外,ChatGPT無法‘知道’哪些內(nèi)容可能是AI生成的。它有時會對問題做出編造的回答,比如‘你寫的這篇文章嗎?’或‘這可能是由AI寫的嗎?’這些回答是隨機的,沒有事實依據(jù)。”

在這方面,OpenAI還解釋了其AI模型傾向于虛構(gòu)錯誤信息的特點,我們在Ars上也進(jìn)行了詳細(xì)報道。公司寫道:“有時,ChatGPT聽起來很有說服力,但它可能會給出不正確或誤導(dǎo)性的信息(在文獻(xiàn)中通常稱為‘幻覺’)。它甚至可以編造引語或引文,因此不要將其作為您研究的唯一來源?!?/p>

盡管自動化的AI檢測器無法正常工作,但這并不意味著人類永遠(yuǎn)無法檢測到AI寫作。例如,熟悉學(xué)生典型寫作風(fēng)格的教師可以察覺到他們的風(fēng)格或能力突然發(fā)生的變化。此外,一些將AI生成的作品冒充人類寫作的粗糙嘗試可能會留下明顯的痕跡,例如短語“作為一個AI語言模型”,這意味著有人在復(fù)制和粘貼ChatGPT的輸出時不夠小心。最近,科學(xué)期刊《自然》的一篇文章展示了人類如何注意到科學(xué)論文中的短語“重新生成回應(yīng)”,這是ChatGPT中一個按鈕的標(biāo)簽。

就目前的技術(shù)而言,最安全的做法是完全避免使用自動化的AI檢測工具。常見AI分析師和沃頓商學(xué)院教授Ethan Mollick在七月份告訴Ars:“AI檢測器的誤報率很高,因此不應(yīng)使用它們?!?/p>

本文譯自Ars Technica,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-09-14
OpenAI證實AI寫作檢測器無法區(qū)分AI和人類
上周,OpenAI在一篇宣傳博客文章中為教育工作者提供了一些提示,展示了一些教師如何將ChatGPT作為教育輔助工具,并提供了一些建議性的提示。

長按掃碼 閱讀全文