3月17日消息,據(jù)外媒報道,美國人工智能(AI)研究公司OpenAI在本周二推出了新一代大型語言模型GPT-4,但它并沒有提供有關(guān)GPT-4的技術(shù)細(xì)節(jié),這讓AI社區(qū)的許多人感到失望。
對此,OpenAI的首席科學(xué)家兼聯(lián)合創(chuàng)始人伊利亞·蘇茨科弗(Ilya Sutskever)表示,OpenAI不分享更多關(guān)于GPT-4信息的原因(害怕競爭和對安全的擔(dān)憂)是“不言自明的”。
他說:“在競爭格局方面,競爭是激烈的。GPT-4不容易開發(fā),OpenAI所有人花了很長時間才做出這個東西,還有很多很多公司也想做同樣的事情,所以從競爭的角度來看,你可以把這看作是該領(lǐng)域的成熟?!?/p>
他還表示:“這些模型非常強(qiáng),而且會變得越來越強(qiáng)。在某種程度上,如果有人想的話,很容易用這些模型造成很大傷害。隨著性能的提高,你不想透露它們是有道理的。我預(yù)計,幾年后,每個人都會完全明白,開源人工智能是不明智的?!?/p>
OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)也認(rèn)為,AI會帶來真正的危險,但它也可能是“人類迄今為止開發(fā)出來的最偉大的技術(shù)”,可以極大地改善我們的生活。他強(qiáng)調(diào),OpenAI需要監(jiān)管機(jī)構(gòu)和社會盡可能地參與ChatGPT的推廣。
ChatGPT是OpenAI于2022年11月30日推出的一種新型AI聊天機(jī)器人工具,它可以根據(jù)用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,并回答各類疑問。
GPT-4是一個多模態(tài)大型語言模型,即支持圖像和文本輸入,以文本形式輸出;擴(kuò)寫能力增強(qiáng),能處理超過25000個單詞的文本;更具創(chuàng)造力,并且能夠處理更細(xì)微的指令。
在高級推理能力方面,GPT-4超過了2022年11月30日推出的ChatGPT AI聊天機(jī)器人工具。
OpenAI表示,盡管GPT-4功能強(qiáng)大,但它與早期的GPT模型有類似的局限性:它并不完全可靠(例如,可能出現(xiàn)“幻覺”),有一個有限的上下文窗口,并且沒有習(xí)得經(jīng)驗。因此,在使用GPT-4輸出時應(yīng)謹(jǐn)慎行事,特別是在對可靠性要求很高的情況下。
OpenAI已經(jīng)分享了有關(guān)GPT-4的大量基準(zhǔn)測試和測試結(jié)果以及一些有趣的演示,但出于競爭和安全考慮,該公司基本上沒有提供有關(guān)GPT-4的架構(gòu)(包括模型大?。?、硬件、訓(xùn)練計算、數(shù)據(jù)集構(gòu)建、訓(xùn)練方法等技術(shù)細(xì)節(jié)。
雖然缺乏技術(shù)細(xì)節(jié),但長達(dá)98頁的GPT-4技術(shù)報告是新穎的,它承認(rèn)了為使該項目運(yùn)作而投入的巨大資源。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )