GPT-4被曝侵權問題最為嚴重 微軟員工稱圖像生成功能也令人擔憂

財聯(lián)社3月7日訊(編輯 趙昊)當?shù)貢r間周三(3月6日),人工智能模型評估公司Patronus AI發(fā)布了一個名為“CopyrightCatcher”的版權檢測工具,用來檢測大語言模型(LLM)中潛在的版權侵權行為。


據(jù)了解,Patronus AI由Meta的前研究人員創(chuàng)立,專注于評估和測試生成式人工智能產品背后的大語言模型。


在新聞稿中,Patronus AI分別測試了OpenAI的GPT-4、Anthropic的Claude 2、Meta的Llama 2和Mistral AI的Mixtral。結果顯示,三本受版權保護的小說幾乎沒有一本能免受侵犯的影響。

Patronus AI高管告訴媒體,在所有模型的評估中都發(fā)現(xiàn)了版權內容,無論是開源還是閉源。“令人驚訝的是,我們發(fā)現(xiàn)OpenAI的GPT-4,也就是很多公司和個人開發(fā)者正在使用的最強大的模型,在這方面表現(xiàn)最差?!?/p>


來源:Patronus AI

Patronus AI的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Anand Kannappan表示,“所有大語言模型都在逐字逐句地生成受版權保護的內容,這一事實確實令人驚訝?!盞annappan曾在Meta Reality Labs從事理解人工智能的工作。

事實上,OpenAI曾表示,要訓練頂級的AI模型,就必須要用到受版權保護的材料,“將訓練數(shù)據(jù)限制在公共領域的書籍和一個多世紀前創(chuàng)建的圖紙可能會得出一項有趣的實驗,但不會提供滿足當今人們需求的AI系統(tǒng)?!?/p>

微軟工程師告發(fā)AI圖像風險

除了版權的護欄,另一項風險也不得不提。日內,微軟的人工智能工程師Shane Jones致信美國聯(lián)邦貿易委員會(FTC)和微軟董事會,稱公司的AI圖像生成工具可能會對社會構成危險。

近幾個月,Jones一直在針對Copilot Designer的潛在漏洞進行“紅隊”測試?!凹t隊”測試是網絡安全中的一項關鍵實踐,由專家團隊模擬真實世界的對手及其策略,以測試和增強系統(tǒng)的安全性。


公開信

Jones在信中稱,Copilot Designer會創(chuàng)建有害內容,包括政治偏見、未成年人飲酒、濫用公司商標和版權、陰謀論等等。Jones指出,“我一再敦促微軟停止Copilot Designer的公開使用,直到采取更好的保護措施?!?/p>

據(jù)Jones的說法,他先前就曾在領英上發(fā)布了一封公開信,要求下架DALL-E 3,但在微軟法律部門的要求下,他刪除了公開的帖文。如今他的擔憂與日俱增,這也就是本次致信FTC的原因之一。

他舉例稱,如果將“pro-choice”(意為“支持墮胎”)一詞輸入到 Copilot Designer中,該工具就會生成大量描繪惡魔、怪物和暴力場景的卡通圖像。另外,該工具還能生成迪士尼角色的圖像,違反了版權法和微軟的政策。

Jones告訴媒體,“我可以確定,這不僅是版權護欄失效了,而是比這個更重要的護欄失效了?!彼a充道:“作為一名關心此事的微軟員工,現(xiàn)在問題是,如果該產品開始在全球范圍內傳播有害的、令人不安的圖像,可能沒有辦法立即解決?!?/p>

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2024-03-07
GPT-4被曝侵權問題最為嚴重 微軟員工稱圖像生成功能也令人擔憂
財聯(lián)社3月7日訊(編輯 趙昊)當?shù)貢r間周三(3月6日),人工智能模型評估公司Patronus AI發(fā)布了一個名為“CopyrightCatcher”的版權檢測工具,用來檢測大語言模型(LLM)中潛在的版權侵權行為。據(jù)了解,Patronus AI由Meta的前研究人員創(chuàng)立,專注于評估和測試生成式人工智能產品背后...

長按掃碼 閱讀全文