巨頭扎堆ChatGPT“求自?!保竽P秃芸鞎赓M丨亮見22期

丨劃重點

1. OpenAI可能也沒預料到ChatGPT出色的能力表現(xiàn),人類則習慣為AI賦予科幻、浪漫主義色彩。

2. 各種大模型的能力都還沒得到科學的實證,ChatGPT也不一定能完全復現(xiàn)自己的推斷,這也是為什么沒有一家公司能夠復制ChatGPT成功的原因。

3. 已經(jīng)有非常重的商業(yè)模式、產(chǎn)品的團隊/公司,不會輕易像OpenAI一樣去將技術(shù)成果公之于眾,大模型作為基礎模型很快會走向“免費”。

4. 不用擔心“AI取代人工”人類發(fā)展進程足夠說明新技術(shù)的誕生,基本沒有引發(fā)過于嚴重的問題。

5. 對于國內(nèi)公司來講,產(chǎn)品整合大模型,挑戰(zhàn)行業(yè)‘大鱷’,是非常好的‘武器’。

丨概述

過去兩個月,ChatGPT熱潮席卷中文互聯(lián)網(wǎng),讓整個行業(yè)徹底領略了人工智能技術(shù)產(chǎn)品應用的潛力。

在火熱的同時,也引發(fā)了很多人的思考,「ChatGPT能否成為互聯(lián)網(wǎng)的下一個系統(tǒng)性的機會?」這個問題可以拆解為兩層含義,一方面是對ChatGPT能力上限的疑問,另一方面則是對互聯(lián)網(wǎng)未來發(fā)展的疑問。面對如今ChatGPT火爆全球而引發(fā)‘人工智能替代人類’的話題,小冰公司CEO李笛認為:數(shù)十萬年的人類發(fā)展,佐證了科技進步帶來的效率提升不會產(chǎn)生過于嚴重的問題,應當對人類社會的自我調(diào)節(jié)機制有信心,崗位的消失與誕生也代表著人類的迭代與進步。面對如今大量巨頭扎堆ChatGPT,李笛認為大模型在當前的時間點是‘挑戰(zhàn)者的武器’。對于人工智好與壞的判斷,應當是多維度的,而不是單純地定義。

以下為直播文字精華版:

01

大公司不會輕易推出大模型,更多的是戰(zhàn)略防御

劉興亮:如果用最簡單的一句話來介紹ChatGPT,可能是什么?另外,為什么ChatGPT突然就「火了」,有什么偶然和必然因素?核心技術(shù)是什么?

李笛:從行業(yè)和大眾的視角,我的觀點是不同的。

大模型技術(shù)被證明有效之前,整個行業(yè)曾遇到困擾多年的瓶頸,特別是在自然語言處理方面,基于知識圖譜、意圖識別,大量方案都未能有效解決問題,怎樣能夠真正通過知識圖譜,高效的將知識結(jié)構(gòu)化組織起來,大模型的誕生提供了新的思路。

對于大眾來講所感受到的是它涌現(xiàn)出的新能力。在GPT-1、GPT-2這個階段還沒有展現(xiàn)出這樣的能力,但由于OpenAI持續(xù)訓練、優(yōu)化大模型,到GPT-3.5時具備了誕生思維鏈的新能力。

簡單來講,具備思維鏈能力,能夠更好的解決模型在與人交互時的回應,相比早期版本更有邏輯思維,它會將問題邏輯進行拆分,并從訓練數(shù)據(jù)進行關鍵信息調(diào)用、組合,以至于比人的邏輯更加縝密。由于這種方式遠遠超出大眾預期,因而產(chǎn)生非常驚人的效果。

過去幾年,整個行業(yè)在人工智能的技術(shù)范式上的全新突破,也就是大模型。

它的發(fā)展過程中也出現(xiàn)過許多創(chuàng)新,最初還被用于演示產(chǎn)品,但僅限于產(chǎn)業(yè)內(nèi),ChatGPT是首次將大模型新的技術(shù)范式帶入大眾視野,所以大模型才是最關鍵的技術(shù)創(chuàng)新。

圖源:網(wǎng)絡

劉興亮:ChatGPT會給人類帶來什么?

李笛:人類面對人工智能類型產(chǎn)品時,或多或少會為它賦予科幻電影的色彩,這非常具有浪漫主義色彩。但以從業(yè)者的角度來講,這次大模型的能力表現(xiàn)為什么會讓很多人為之驚訝,OpenAI內(nèi)部可能也沒有預料到。

從科研工作者的角度,即便是創(chuàng)造大模型的人,也還沒有完全掌握它的規(guī)律和它背后的原因。

時至今日,各種大模型涌現(xiàn),像文本生成涌現(xiàn)邏輯思維推理,其能力出現(xiàn)的具體原因,都還沒有得到非??茖W的實證。如果ChatGPT自身重新推導一些問題,也不一定能夠完全復現(xiàn),這也是為什么沒有一家公司能夠復制ChatGPT的成功的原因。

時至今日,很多技術(shù)依舊需要實踐觀察才能實現(xiàn),過去谷歌驗證發(fā)現(xiàn),擁有620億條的參數(shù)規(guī)?;蛞陨系哪P?,才有邏輯思維編程能力,現(xiàn)在研究發(fā)現(xiàn),其實在更小的規(guī)模,20個Billion參數(shù),17個Billion,13個Billion,也能不同程度將大模型的邏輯能力復現(xiàn)出來,亞馬遜甚至希望在1個Billion或者6個Billion參數(shù)規(guī)模上,嘗試復現(xiàn)這種能力。所以,現(xiàn)在眾多“玩家”都在不停的通過更多的實踐,摸清楚大模型真正的規(guī)律,當然這也意味著我們還不能清楚的了解這類技術(shù)的邊界是什么。

那些已經(jīng)有非常重的商業(yè)模式、產(chǎn)品的團隊/公司,不會像OpenAI一樣去將技術(shù)成果公之于眾。

所以,我非常理解谷歌為什么不搶先將擁有的技術(shù)貢獻給大眾,對于嚴肅產(chǎn)品,不能依靠經(jīng)驗指數(shù)來判斷它的好壞,而要通過它的不準確指數(shù)進行判斷,這也是為什么“Bard”(谷歌基于大模型推出的聊天機器人 )只是回答錯兩個問題,谷歌的市值就蒸發(fā)上千億美元的原因。

用戶層面,不管是ChatGPT還是其它大模型,都將會深刻的影響每個人的生活,這種影響如果應用得好將是有益的,反之則會造成無法預料的后果。

比如,當這類產(chǎn)品能夠提供400字以上結(jié)論時,如果學生將生成的內(nèi)容作為作業(yè)提交,基礎教育就無法深入,因為基礎教育理念是需要“獨立思維”。如果不動腦思考,直接提交AI生成的內(nèi)容,這就失去了“基礎教育”的意義。

當然,這不會成為阻礙技術(shù)進步的原因,但技術(shù)落地時,需要有揚長避短的意識,規(guī)避它所存在的“另一面”。

02

ChatGPT為何“一本正經(jīng)的胡說八道”?

劉興亮:您怎么看待正在熱議的ChatGPT會取代很多人類的工作?

李笛:最近,微軟小冰日本分部與奈飛推出的AI生成的動畫短片《犬與少年》,引發(fā)很大爭議,許多動畫片制作者認為這取代了他們的工作。

人工智能制作的動畫《犬與少年》,圖源:網(wǎng)絡

首先,對于“AI取代人工”的議論不能坐視不管,但也要認可社會科學和自然科學的進步持續(xù)伴隨人力歷史發(fā)展。

隨著技術(shù)、社會結(jié)構(gòu)的變化,人類不停面臨同樣的問題,某些崗位會消失,也會有其他崗位出現(xiàn)。特定崗位的消失,短時間之內(nèi)產(chǎn)生巨大的影響,但人類會重新尋找到新的社會結(jié)構(gòu)和崗位結(jié)構(gòu)的配置。所以我們應該相信人類社會的自我調(diào)節(jié)機制,這才是人類的迭代和進步。

其次,為什么在這個過程中大眾會不適應?因為原本由人完成的工作,機器可以做得更有效率,所掌握的信息量更大。

對于“AI取代人工”這個話題,我認為完全不用擔心,人類發(fā)展進程佐證了,新技術(shù)的誕生基本沒有引發(fā)過于嚴重的問題,改變崗位、改變每個人的社會分工,這從來都不是問題。

劉興亮:我們經(jīng)??吹紺hatGPT“一本正經(jīng)的胡說八道”令人啼笑皆非,AI大模型有海量數(shù)據(jù)為什么會錯誤率會這么高?

ChatGPT“一本正經(jīng)的胡說八道”,圖源:網(wǎng)絡

李笛:第一由大模型本身的設計限制決定。第二,此類問題也在逐步優(yōu)化解決。

對比ChatGPT和New Bing,舉個例子,比如問及ChatGPT“我想知道日本最長的河的長度的五次方根”,ChatGPT首先需要理解你的問題,它和以前的“意圖識別”相比,理解能力更突出,但也有明顯的不足。

對于這個問題,第一“與日本最長的河有關”、第二“與河的長度有關”、第三“和長度的五次方根有關”,分步驟進行解決。

正確的求解過程——ChatGPT應該先搜索“日本最長的河”并了解“河的長度”,最后計算“五次方根”,現(xiàn)狀是不會這么做,而是在訓練數(shù)據(jù)中尋找答案,很可能就找到錯誤的答案,因為它是語言模型不是運算模型。

所以你可能會看到ChatGPT輸出錯誤答案,但依靠大模型生成文本描述出來的內(nèi)容,又顯得非常的合乎邏輯,所以給人“一本正經(jīng)的胡說八道”的感覺。

New Bing又是怎么處理的?它同樣對問題進行拆解,并且進行搜索,從互聯(lián)網(wǎng)信息或者某可信的知識庫中找到“日本最長的河是哪條河?”找到“河的長度”,在計算環(huán)節(jié)會臨時生成一段代碼并運行,計算出“五次方根”,這個過程就較為復雜,但它會給你正確的答案。

“一本正經(jīng)的胡說八道”是可以改變的,也會引發(fā)新問題,比如完成任務反復的調(diào)用數(shù)據(jù),結(jié)果可能更加準確,但成本反而更貴。無論是OpenAI還是行業(yè)中的其他“玩家”,其實都在認真迭代和更新,包括大量采用新的方法進行訓練。大模型隨著訓練的加深以及新的任務訓練,水平必然會越來越好。

劉興亮:從投入產(chǎn)出看,ChatGPT類產(chǎn)品在不同階段,重點投入分別會在哪些環(huán)節(jié),如何賺錢?

李笛:我個人認為大模型作為基礎模型很快會走向“免費”。

首先,大模型隨著發(fā)展會走向趨同,除非不斷涌現(xiàn)更多新的能力并不斷的進化,所以ChatGPT從最開始1000個token收費2美分,到如今主動下調(diào)到1000個token收費0.2美分。

從API調(diào)用的角度來講,整個定價體系是為了讓更多的人使用它,實現(xiàn)薄利多銷,但如果2美分就可以很好的普及,為什么還要降價到0.2美分?降價意味著它有主動應對潛在競爭的策略。

另一方面,如果將大模型當做商品,模型本身是不附帶任何商業(yè)模式的,價值的大小在于生成的內(nèi)容,也許生產(chǎn)內(nèi)容如同莫言的小說那么高價值,也有可能就像咱們寫的檢查那樣不值錢。

對模型來講,一樣的文本生成流程,輸出的內(nèi)容價值會截然不同,而大模型提供方的收費模式是完全相同的,都是根據(jù)字數(shù)多少進行計算,所以大模型并不在內(nèi)容產(chǎn)業(yè)的游戲規(guī)則中,也就制約其商業(yè)模式——只能依賴調(diào)用次數(shù)多少這一種商業(yè)模式。

所以,我個人認為大模型的公司或早或晚都需要向“下”走,深入到某垂直領域做產(chǎn)品。

大模型提供團隊和做應用的公司,不可能是完全的合作伙伴關系,他們之間也存在潛在的競爭和吞并的可能,另后者的優(yōu)勢在于,會面臨更多的大模型的選項,只要將應用做的足夠扎實,從任何維度去建立自己的競爭優(yōu)勢,大模型就不再是它的唯一依賴。

所以,我認為目前為止整個行業(yè)的生態(tài)遠遠沒有建立起來,在這個過程中還會出現(xiàn)更多復雜的問題。

03

大模型是挑戰(zhàn)巨頭的“武器”

劉興亮:巨頭們先后扎堆ChatGPT,各種概念股都出現(xiàn),你覺得有泡沫嗎,會改寫互聯(lián)網(wǎng)格局嗎?

李笛:現(xiàn)階段,大模型是“挑戰(zhàn)者的武器”。

以微軟為例,當微軟將它整合在Bing中,以實現(xiàn)去挑戰(zhàn)谷歌的目的,而谷歌要想應戰(zhàn),就必須要付出許多倍的成本才能守住自己原來的“疆土”。

對于國內(nèi)公司來講,在自己未實現(xiàn)絕對領先位置的產(chǎn)品中使用大模型,挑戰(zhàn)行業(yè)‘大鱷’,是非常好的‘武器’。對于大鱷來講,如果在這時不儲備相關“武器”,顯然只能面臨“他殺”的局面,至少從二級市場、用戶、合作伙伴等視角來看,都會帶來非常大的負面影響,所以很多大公司研究大模型是防御性行為。

另一方面,大模型研究存在很強的“或然性”,業(yè)內(nèi)現(xiàn)在對大模型的研究,還普遍是經(jīng)驗積累,而不是科學的結(jié)論,經(jīng)驗需要實際操作。

從戰(zhàn)略的角度,有財力的大公司也會去嘗試,但是否能夠研發(fā)出來(成型產(chǎn)品)是兩回事,以及成功的研發(fā)后是否要把它用在自己的主營業(yè)務上又是另一回事,這中間會有很多其他因素考慮。

圖源:網(wǎng)絡

劉興亮:過去人工智能有強弱之分,強弱由哪些因素來決定,臨界點在哪?

李笛:我個人認為是深度學習。包括強人工智能,弱人工智能,這些定義本身都帶有很強的偏見。這并不意味著某個強時另外一個就是弱,因為所有的技術(shù)它都有不同的維度,需要多維度考量。特定情況下,強人工智能可能能力非常強,但情感上又是最弱的。

這也是為什么,有些人被認為是學習的天才,也是生活的傻瓜。那么他是強還是弱?所以,這種單一維度的定義強弱,本身存在一定偏見。

拋開這些,我們可以看到人工智能技術(shù)它有不同維度的追求。比如,它追求信息的絕對準確性或者追求邏輯和篇幅,追求對用戶的啟發(fā)。

從人工智能角度來講,不同團隊都在不停的探索各種方向,前百度首席科學家、Landing AI創(chuàng)始人吳恩達發(fā)過一封信,告訴從業(yè)者不要認為不做大模型就不行,強調(diào)人工智能是百花齊放的時代,我們現(xiàn)在還處在蠻荒時代,要去不停地去尋找不同規(guī)則定義的強弱,或者不同定義的好和壞,而不是只有一種規(guī)則。

04

人工智能的三類風險:并發(fā)、錯誤授權(quán)、過渡依賴

劉興亮:人工智能會成為一切產(chǎn)品的標配嗎,可能會在什么時候,普通人會有劇烈變化的感知嗎,未來可能還會有什么風險?

李笛:我看到的結(jié)果是,當它真正深遠的影響到人類時,人類是沒有感知的。

今天人工智能技術(shù)深刻的改變著所有人的日常生活,每個人手機上的計算設計,拍照過程中鏡頭所捕捉到的畫面,人工智能都帶來了大量的改變,消費者(對這種變化感知不多)往往只會對超出想象的東西感到興奮。

所以,人工智能帶來真正深遠的變化,會深遠到你都已經(jīng)忽略它的存在。

關于風險,在實踐中人工智能最大的風險有三類。

第一類風險叫并發(fā)。什么叫并發(fā)?就是“胡說八道”。人工智能胡說八道一天可以影響到上億人,并發(fā)意味著如果產(chǎn)生問題,它的故障率、錯誤率即使只有小數(shù)點后兩位,但乘以它的并發(fā)數(shù),將會是無比龐大的數(shù)字。所以,并發(fā)問題是絕大部分的人工智能需要考慮的風險,尤其是大規(guī)模商用、落地的時候。

第二類風險來自于授權(quán)。即什么情況下授權(quán)人工智能系統(tǒng)做怎樣的決策,并且實施怎樣的行為。比如今天行業(yè)還只允許人工智能去‘思考’,但不允許做具體的決策和執(zhí)行,比如AI是沒有被授權(quán)啟動汽車的,如果它產(chǎn)生錯誤,想去發(fā)動汽車,在物理上是實現(xiàn)不了的。如果授權(quán)系統(tǒng)未明確的指令,那么就會產(chǎn)生相應的風險,即使錯誤率再低,仍然會存在錯誤的可能,如果再進一步讓它行駛上路,后果就更嚴重。

第三類風險是依賴。如果過于依賴人工智能,人體自身基本能力就會退化?;灸芰ν嘶瘬Q來的高效率,是可以接受的。比如通過工具使冶金屬冶煉的效率、開采礦藏的效率變得非常高,但如果它使得人的思維停滯,就不一定是好事。所以,在中學、小學,一度對于計算器的使用非常嚴格,因為這會造成學生心算能力變差。當然,到大學以后,心算能力得到很好的培養(yǎng),反倒需要用計算器來幫助你去算的更快,所以任何時候都不能過分的依賴工具。

如何規(guī)避這三類風險?最主要是人工智能企業(yè)本身。

企業(yè)往往是最早能夠知道技術(shù)的邊界在哪里的主題,有機會提前預判,規(guī)避它的風險并限制它的使用頻次。其次,大眾對于人工智能的認知不必過于謹慎或者過于樂觀,我們應該給創(chuàng)新足夠的機會,減少片面化的認知。

劉興亮:移動互聯(lián)網(wǎng)有個適老化的概念,聚焦老年人使用體驗,人工智能在這方面的做得如何?

李笛:人工智能在這方面有先天性的優(yōu)點,普遍存在的特點就是讓產(chǎn)品體驗變得更自然。

當你用搜索引擎時,需要去學會使用關鍵詞搜索技巧,人工智能就不需要,它是自然語言交互,文本之外,語音、視覺都更自然。所以,某種意義上講,正因為先天具有如此優(yōu)點,老年人在使用人工智能技術(shù)的時候,會讓原本不適老化的產(chǎn)品,變得更適應老人。

另外,作為工具,人工智能確實也存在著適配的問題,所以現(xiàn)在才涌現(xiàn)出一類新的職業(yè)叫Prompt Engineering(提示工程),試圖通過給出提示,讓人工智能幫助用戶更好的完成工作。

我認為,我們應該看到它具有引發(fā)暴風驟雨的潛能,但它離暴風驟雨,離真正改變周圍還有很遠距離,當前,人們無論是使用ChatGPT,還是其他產(chǎn)品,存在明顯的幸存者偏差。

免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2023-03-10
巨頭扎堆ChatGPT“求自?!保竽P秃芸鞎赓M丨亮見22期
巨頭扎堆ChatGPT“求自?!?,大模型很快會免費丨亮見22期

長按掃碼 閱讀全文