關(guān)于生成式人工智能服務(wù)管理的一些思考

01

生成式AI是我這幾個月的重點研究領(lǐng)域,我也先后發(fā)表了20多篇文章,20來條視頻節(jié)目,現(xiàn)在也在寫作一本相關(guān)書籍,在業(yè)界也有那么一點點影響。

所以當(dāng)生成式人工智能服務(wù)管理辦法的征求意見稿發(fā)布后,很多人來詢問我的看法,也接受了一些媒體的采訪,但感覺有些觀點還是應(yīng)該專門寫篇文章。

這篇文章我寫起來很慎重,加上這兩天也在出差,所以拖了這么久才寫好,這頗有點不像我的風(fēng)格。

02

我最近關(guān)于ChatGPT的講課中,有這么一頁PPT:

這一頁PPT說的是ChatGPT的一個特點——擅長一本正經(jīng)的胡說八道,大家可以看看它講述關(guān)公戰(zhàn)秦瓊的故事,是多么的精彩,是精彩的胡說八道。

但是ChatGPT的這個特點,反而讓我覺得它可愛,這讓我感覺ChatGPT更像是一個人,而不是一臺冷冰冰的機(jī)器。只有人類,才會一本正經(jīng)的胡說八道。

這也是ChatGPT這類生成式AI的一個特性,它們在模仿人類,模仿人類的思維。

比方說我,我在特定的場景下也會一本正經(jīng)的胡說八道。比如這兩天我正在出差旅行,如果同行者有女孩子的話,她們碰到好看的花、特別的樹,就會問我「劉老師,這個花好漂亮啊,這是什么花?」「劉老師,這個樹好特別啊,這是什么樹?」

這個時候的我,怎么能拒絕呢?這樣會打擊女孩子們的求知欲的,會剪滅她們對世界的好奇心的,所以這個時候的我,通常就開始一本正經(jīng)的胡說八道了,「這花 ,這是XX花……」

另外,這也是生成式AI和搜索引擎原理不一樣的地方,它只能給出一個答案,而且除了特殊情況,它通常不會拒絕,都會給出答案的,答案的準(zhǔn)確性確實不能保證。

所以我一直強調(diào),目前的ChatGPT,只做到了可用,還做不到可信。

征求意見稿的第四條第四點說,利用生成式AI生成的內(nèi)容應(yīng)該真實準(zhǔn)確。

既然是征求意見稿,那我就說說我的意見:語言模型的推理生成過程本來就是一個概率問題,具有一定的概率性和創(chuàng)作性,無法完全保證生成結(jié)果的準(zhǔn)確性和穩(wěn)定性,包括ChatGPT在內(nèi)的所有生成式AI都無法保證,所以它們才會常常一本正經(jīng)的胡說八道。

但是通過RLHF以及搜索增強等方式,可以盡可能提高輸出內(nèi)容準(zhǔn)確性的概率,卻始終無法100%保證真實準(zhǔn)確。

03

征求意見稿第五條提到:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任。

說白了,生成式AI只是個工具。比如我讓ChatGPT模仿魯迅口吻寫的這篇文章,知識產(chǎn)權(quán)應(yīng)該歸誰?歸魯迅?歸我?還是歸ChatGPT?

這個問題目前全球都有很大爭議。但目前學(xué)界大多傾向于應(yīng)該是知識產(chǎn)權(quán)歸使用者,同樣的,也是使用者去承擔(dān)相應(yīng)的責(zé)任。

我也咨詢了一些知識產(chǎn)權(quán)界、法律界的朋友,大多觀點是ChatGPT生成的內(nèi)容不是作品,不受我國現(xiàn)行著作權(quán)法保護(hù)。

他們認(rèn)為ChatGPT生成的內(nèi)容,是純機(jī)器生成的,而作品必然是有機(jī)的自然人創(chuàng)作的,即便有些作品屬于法人作品,由法律擬制人享有著作權(quán),那也必須先由自然人創(chuàng)作,所以ChatGPT生成的內(nèi)容不屬于法律規(guī)定的作品,也不符合著作權(quán)法立法目的,著作權(quán)法立法機(jī)制是建立在激勵人的創(chuàng)作上,只保護(hù)基于人類心智而產(chǎn)生的作品。

AI生成的內(nèi)容在不同的場景使用可能會產(chǎn)生不同的影響,生成式人工智能提供方應(yīng)該無法確定使用者的具體用途,不正當(dāng)用途(比如涉及版權(quán)問題等)產(chǎn)生的影響,應(yīng)當(dāng)由使用方負(fù)責(zé)。

賣菜刀的,建議只負(fù)責(zé)賣菜刀。如果出事,應(yīng)該追究的是使用菜刀的人。

04

OpenAI在周二發(fā)布公告,正式上線漏洞賞金計劃,將向報告其AI統(tǒng)漏洞的用戶提供最高達(dá)2萬美元的獎勵。

OpenAI與領(lǐng)先的漏洞賞金平臺Bugcrowd合作管理提交和獎勵過程。用戶反饋的漏洞將按照Bugcrowd評級進(jìn)行分級,比如關(guān)于ChatGPT的漏洞可等級分為P1~P4四個等級,按照報告漏洞嚴(yán)重程度不同,用戶能獲得200~20000美元獎勵。

OpenAI的公告中,有這么一段話:This initiative is essential to our commitment to develop safe and advanced Al. As we create technology and services that are secure, reliable,and trust worthy,we need your help.

翻譯過來就是:這一舉措對于OpenAI致力于開發(fā)安全和先進(jìn)的Al至關(guān)重要。在我們創(chuàng)造安全、可靠和值得信賴的技術(shù)和服務(wù)時,我們需要您的幫助。

OpenAI可以開放性請用戶糾錯,這是新技術(shù)的必經(jīng)階段。這個公告,值得我們好好琢磨。

05

生成式AI受到政策關(guān)注,強調(diào)安全是為了更好地促進(jìn)發(fā)展,但不應(yīng)該按暫停鍵,也建議「安全帶」不要變成「緊箍咒」。

前些天,馬斯克和千名科技大佬發(fā)出一份公開信,呼吁AI實驗室暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)至少6個月,稱其「對社會和人類構(gòu)成潛在風(fēng)險」。

那個操作讓我想起了19世紀(jì)的紅旗法案。

紅旗法案是一個古老的英國法規(guī),當(dāng)時為了道路安全限制汽車速度,要求汽車前面走一個人,手持紅旗或紅燈。這實際上阻礙了汽車技術(shù)的發(fā)展。如今看來,紅旗法案很好笑,未來我們也許會覺得這封公開信也相當(dāng)可笑。

同時,這部法案一定程度上使英國失去汽車發(fā)展的先發(fā)優(yōu)勢,美國、德國的汽車產(chǎn)業(yè)后來居上。所以,簽署這份公開信的人里,不排除有看到其他企業(yè)在AI方面跑得太快了,自己追得有點累,就想辦法讓對方停一停的人。

每次科技變革都會引發(fā)恐慌,如蒸汽機(jī)、汽車、電力、計算機(jī)。恐慌過后,我們需要思考的是技術(shù)進(jìn)步與社會風(fēng)險的平衡,需要制定的是防范未然的策略,需要反思的是技術(shù)創(chuàng)新的道德責(zé)任。

這些都很重要,但應(yīng)該和技術(shù)的發(fā)展同步進(jìn)行,而不是舉紅旗限速,更不是按暫停鍵。

06

人工智能經(jīng)過了70多年的發(fā)展,才有了ChatGPT這種水平的產(chǎn)品。目前的生成式AI本質(zhì)上還是人類的工具,給它一個指令,它來生成相應(yīng)的文字、圖片等內(nèi)容,距離具備自主性還非常的遙遠(yuǎn)。

這個領(lǐng)域,我們發(fā)展本來就比美國慢了很多,本來就有算力差距。這個時候,建議讓馬兒放開手腳好好跑一跑,即使追不上,也能盡量縮小一些差距。

在馬兒快速奔跑的過程中,我們只要別讓馬兒跑偏。至于馬兒怎么跑,奔跑的姿勢對不對,先讓它們快速跑一跑再看看,畢竟,還都是些剛出生的小馬。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-04-14
關(guān)于生成式人工智能服務(wù)管理的一些思考
關(guān)于生成式人工智能服務(wù)管理的一些思考

長按掃碼 閱讀全文