解決大型語言模型中的責任倫理困境

牛津大學的研究人員與國際專家合作,在《自然·機器智能》上發(fā)表了一項新研究,討論圍繞大語言模型(LLM)產生的輸出的責任歸屬的復雜倫理問題。該研究表明,像ChatGPT這樣的LLM提出了關于有用文本生成的信譽和權利歸屬的關鍵問題,這與傳統(tǒng)的AI責任辯論不同,后者主要關注有害后果。

聯合第一作者Sebastian Porsdam Mann和Brian D. Earp說,“像ChatGPT這樣的LLM帶來了對責任概念更新的緊迫需求?!?/p>

根據聯合作者Sven Nyholm和John Danaher的說法,該研究的一個關鍵發(fā)現是:“雖然這些技術的人類用戶無法完全聲稱LLM產生的積極結果屬于自己的功勞,但似乎仍然適當地將其視為有害用途的責任,如產生錯誤信息或疏忽地檢查生成文本的準確性?!?Nyholm和Danaher在前人的工作基礎上稱此為“成就差距”:“正在完成有用的工作,但人們無法像以前那樣從中獲得滿足感或認可。”

論文的高級作者Julian Savulescu補充說,“我們需要有關作者資格、披露要求、教育用途和知識產權的指導方針,參考現有的規(guī)范性文獻和類似的相關辯論,例如人類增強辯論?!盨avulescu繼續(xù)說,要求透明度的規(guī)范尤其重要,“以跟蹤責任和正確地贊揚和責備?!?/p>

該研究由法律、生物倫理學、機器學習和相關領域的跨學科專家團隊共同撰寫,深入探討LLM在教育、學術出版、知識產權和誤信息和虛假信息生成方面的潛在影響。

教育和出版業(yè)尤其需要迅速采取LLM使用和責任方面的指導方針行動。聯合作者John McMillan和Daniel Rodger表示:“我們建議文章提交包括關于LLM使用情況的聲明以及相關補充信息。LLM的披露應類似于人類貢獻者,承認重大貢獻?!?/p>

該文指出,LLM在教育方面可能有幫助,但警告說它們容易出錯,過度使用可能會影響批判性思維技能。作者寫道,機構應考慮調整評估方式,重新思考教學法,并更新學術不端行為指導,以有效處理LLM的使用。

生成文本的權利,如知識產權和人權,是LLM使用影響需要迅速解決的另一個領域,聯合作者Monika Plozza指出?!爸R產權和人權帶來挑戰(zhàn),因為它們依賴于以人為主設定的勞動和創(chuàng)造力概念。我們需要開發(fā)或調整如‘貢獻者’的框架來處理這種高速發(fā)展的技術,同時保護創(chuàng)作者和用戶的權利?!?/p>

并非所有LLM的可預見用途都是善意的。聯合作者Julian Koplin警告,“LLM可以用于生成有害內容,包括大規(guī)模的誤信息和虛假信息。這就是為什么我們需要讓人們對使用的LLM生成文本的準確性負責,以及努力教育用戶和改進內容審核政策來減輕風險?!?/p>

為了應對與LLM相關的這的風險和其他風險,聯合作者Nikolaj M?ller和Peter Treit表示,LLM開發(fā)者可以效仿生物醫(yī)學領域的自我監(jiān)管?!敖⒑蛻玫男湃螌LM的進一步發(fā)展至關重要。通過促進透明度和開展公開討論,LLM開發(fā)者可以展示其對負責任和道義實踐的承諾。”

本文譯自 techxplore,由 bali 編輯發(fā)布。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2023-05-06
解決大型語言模型中的責任倫理困境
牛津大學的研究人員與國際專家合作,在《自然·機器智能》上發(fā)表了一項新研究,討論圍繞大語言模型(LLM)產生的輸出的責任歸屬的復雜倫理問題。

長按掃碼 閱讀全文