新研究揭示:AI自生成內容的循環(huán)使用可能導致“模型崩潰”

極客網·人工智能 據《福布斯》9月4日報道,牛津大學的伊利亞·舒梅洛夫博士及其團隊在《自然》雜志上發(fā)表的一項研究中指出,當AI系統(tǒng)僅依賴于由自身生成的內容進行訓練時,其輸出質量會迅速下降。

這種現(xiàn)象被稱為“模型崩潰”,即AI在不斷使用自身生成的數據進行訓練后,其輸出內容逐漸失去準確性和實用性。

Best-AI-3D-model-generators.jpg

研究顯示,在經過五次連續(xù)的自我生成內容訓練后,AI的輸出質量顯著下降;到了第九次,輸出內容已經退化為毫無意義的文本。

舒梅洛夫博士指出,模型崩潰的發(fā)生速度之快和難以察覺的程度令人驚訝。最初,它可能只影響少數數據,但隨后會逐漸侵蝕輸出的多樣性,最終導致整體質量的嚴重下降。

為了驗證這一現(xiàn)象,研究人員采用了一種方法:他們使用了一個預訓練的AI系統(tǒng),該系統(tǒng)能夠驅動一個維基百科的版本,并讓AI基于自己生成的內容進行更新。結果發(fā)現(xiàn),隨著受污染數據的累積,原本的訓練集逐漸被侵蝕,輸出的信息質量也隨之惡化。例如,在經過多次循環(huán)后,原本關于14世紀英國教堂尖頂的條目被錯誤地更新為關于短尾兔子的論文。

此外,AWS團隊在6月的另一項研究中發(fā)現(xiàn),大約57%的網絡文本都經過了AI算法的處理。如果互聯(lián)網上的人類生成內容被AI生成內容迅速取代,那么AI可能正面臨“自我毀滅”的風險,同時也可能對互聯(lián)網的內容質量造成嚴重影響。

研究最后建議,為了確保AI的長期可持續(xù)發(fā)展,必須確保其能夠訪問到非AI生成的內容,并持續(xù)引入新的人工生成內容,以避免模型崩潰的發(fā)生。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2024-09-05
新研究揭示:AI自生成內容的循環(huán)使用可能導致“模型崩潰”
這種現(xiàn)象被稱為“模型崩潰”,即AI在不斷使用自身生成的數據進行訓練后,其輸出內容逐漸失去準確性和實用性。

長按掃碼 閱讀全文