大模型在巨量算力的驅動下,“智能涌現(xiàn)”能力初顯,帶來了通用智能的曙光,也加速人工智能與千行百業(yè)融合。當前,人工智能算力不僅是驅動大模型進化的核心引擎,也成為大模型產(chǎn)業(yè)發(fā)展不得不面對的挑戰(zhàn)。
近日,新智元創(chuàng)始人&CEO楊靜主持“共話AIGC時代,智算發(fā)展之道”圓桌論壇,與浪潮信息高級副總裁劉軍、百川智能技術聯(lián)合創(chuàng)始人陳煒鵬、快手異構計算負責人劉凌志、金山辦公技術總監(jiān)熊龍飛圍繞大模型時代的智算機遇、痛點與破局之道展開思想碰撞。
與會嘉賓指出,中國大模型仍處于商業(yè)生態(tài)發(fā)展初期,需要在智算系統(tǒng)構建、平臺支撐、算法研發(fā)、應用落地等層面進行廣泛的生態(tài)合作,從而打造更為卓越的大模型,并推動模型的場景化落地。
以下是圓桌論壇問答實錄:
楊靜:現(xiàn)在“百模大戰(zhàn)”已經(jīng)過了上半場,大家在上半場是怎樣圍繞大模型進行業(yè)務布局的?
劉軍:浪潮信息在AIGC最重要的產(chǎn)業(yè)布局還是圍繞著智算,我們希望通過智算力來加速生成式AI和大模型的創(chuàng)新和落地,圍繞算力、算法、數(shù)據(jù)、互聯(lián)智算四要素進行了產(chǎn)品布局和技術上的創(chuàng)新,希望通過我們產(chǎn)品和技術的組合以及更好的服務,加速用戶的生成式AI創(chuàng)新步伐。
陳煒鵬:百川智能進入大模型領域以來,產(chǎn)品發(fā)布更迭非??焖佟T赥oB領域,百川智能的開源工作獲得了很好的影響力,也存在很多商機。未來我們希望借助開源開啟ToB合作。在ToC方面,百川智能有很強的互聯(lián)網(wǎng)產(chǎn)品基因,希望能夠打造一個超級助手類產(chǎn)品,實現(xiàn)ToB、ToC兩條腿前進。
劉凌志:快手大模型應用比較多,在搜索推薦廣告、音視頻創(chuàng)作上都做了一些有益的嘗試。未來,希望通過ToB的StreamLake,和廣大用戶進行更直接的交流,共同做大、做好大模型產(chǎn)品。
熊龍飛 :金山辦公作為大模型的應用方,暫時不生產(chǎn)大模型。目前金山辦公根據(jù)不同場景采用不同模型的多模型應用方案,根據(jù)我們的業(yè)務定位確定三個主要方向,一是AIGC內(nèi)容生成,幫用戶寫東西、做東西;二是Copilot,幫用戶做個人助理;第三是知識洞察,主要幫助用戶分析和發(fā)現(xiàn)文檔中的重要信息。
楊靜:算力是大模型時代的核心驅動力、超強發(fā)動機,算力需求變成了當前AIGC時代的堵點瓶頸,也就是說大模型為代表的AIGC業(yè)務卡在算力上了,很多企業(yè)都會面臨算力的瓶頸、算力的壓力,大家期待什么樣的算力基礎設施來支撐大模型的創(chuàng)新和應用?
劉軍:從浪潮信息的角度,首先是全力做好算力供給保障工作,在算力供應緊張的背景下,如何構建具備更高生產(chǎn)力的算力系統(tǒng),成為行業(yè)關注的焦點。對此,浪潮信息開發(fā)大模型“源”,研究大模型對算力系統(tǒng)的需求特點,籍此為客戶交付更高性能更好用的算力系統(tǒng)。因此,浪潮信息發(fā)布OGAI智算軟件棧,也是希望幫助伙伴和客戶最大化地釋放算力性能。
陳煒鵬:大家都經(jīng)歷了“算力荒”,這個問題是很難以克服的。我們也觀察到算力在未來9-12月里還是會非常緊張。對于百川智能來說,我們在前期通過跟云廠商合作,以及尋求跟浪潮信息的合作,來解決算力的問題。同時,我們也會花很多時間研究怎么提升訓練效率、提升研發(fā)成功率,探索更高效的算力系統(tǒng)。
劉凌志:快手主要依靠大的智算基礎設施提供商幫我們在一定程度上解決算力短缺的問題,但是這個算力緊張始終會存在。快手對于算力問題主要有三個觀點:首先是研發(fā)異構多元算力體系,尋找算力的更多選擇;其次大模型算力問題是全新賽道,未來2-3年會有非常多的機會;第三,快手在三年前遇到視頻算力瓶頸時就開始布局自研芯片,目前也得到了較好的結果。我們希望整個產(chǎn)業(yè)界聯(lián)合起來,從用戶端到基礎設施端,朝著共同目標一起通過長期的努力解決算力問題。
楊靜:算力緊缺確實是未來兩三年的難題。目前,業(yè)內(nèi)也有聲音表示,訓練大模型是和火箭發(fā)射一樣的系統(tǒng)工程,不是有卡就行。因為在大規(guī)模分布式訓練中,算力效率、訓練失穩(wěn)等等問題都會影響模型的訓練效率和精度。在大模型訓練中,各位遇到過什么樣的技術難題?
劉軍:現(xiàn)在大模型訓練算力集群就像一個性能特別棒的法拉力跑車,但是我們?nèi)绾握{(diào)教好這個跑車,如何駕馭好這個跑車,這個能力的要求是非常高的。當前的大模型算力基礎設施要充分發(fā)揮作用,有三個方面需要注意:
第一是算力的高效率,涉及到系統(tǒng)的底層驅動、系統(tǒng)層優(yōu)化,與大模型相適配的流水線并行、數(shù)據(jù)并行等的優(yōu)化;第二是線性擴展能力,在單機上獲得較高算力效率之后,能不能擴展到幾百個節(jié)點、幾千塊卡,保持相對線性的性能擴展比,這是在整個算力集群系統(tǒng)設計和并行策略設計時,需要考慮的重要因素;三是可持續(xù)計算能力,大模型訓練會碰到各種軟硬件、算法、框架問題所引發(fā)的失效故障,訓練失穩(wěn)時系統(tǒng)需要更多機制上的設計,使這個過程更加自動化、智能化地去完成。
陳煒鵬:對于訓練我們會有兩個判斷,第一個判斷是我覺得大家可能高估了訓練一個大模型的難度,但低估了訓練好一個模型的難度,這里邊是有矛盾的。未來,就訓練模型本身我覺得會變得越來越容易,但訓練好一個模型會變得非常非常難。因為訓練好模型是一個經(jīng)驗工程,也是一個系統(tǒng)工程,當模型的規(guī)模越來越大,訓練成本很高,容錯空間會變得非常小。這個災難性的成本可能會越來越難以承受,所以訓好一個模型會變得很難。還有就是大模型實驗的成本非常高,那怎么提有效的假設去降低這個實驗的成本,這些事情需要很多實驗和Know-how,我覺得這可能才是未來競爭最大的勝負點所在。
另一個認知差異是,我覺得我們現(xiàn)在很關心訓練的成本,下半場(今年下半年開始到明年)大家的焦點可能會轉移到推理成本上。模型訓練能夠做得很大,但推理時的成本成為關鍵。怎樣控制好推理成本,甚至推理成本能夠比別人做得更低,可能會是未來決勝的另一個關鍵點。
劉凌志:訓練出一個好的模型并不簡單,從工程能力來講,隨著業(yè)務的進展,訓練的算力問題總歸是能解決的,挑戰(zhàn)就進入到推理階段,如何降低推理成本還需要進行很多研究。今后推理的問題更加嚴重,因為模型訓練利用率比較高,推理卡的利用率是非常低的。
楊靜:這種高成本以及摩爾定律的放緩,會在一定程度上妨礙大模型技術的發(fā)展,未來大模型發(fā)展怎么樣才能突破算力瓶頸或者難題?
劉凌志:截至2023年7月份,中國10億以上參數(shù)的大模型超過了70個,但是目前來看,只有在500億規(guī)模以上的大模型才會顯得“更聰明”。很多垂直行業(yè)模型如果不是生成式對話,可能只需要7B、13B的算力,瓶頸問題可能并不明顯,但能不能使用起來還要經(jīng)過時間考驗。
陳煒鵬:GPT從3.5到4,參數(shù)規(guī)模漲了10倍,對應的數(shù)據(jù)量也是10倍以上的增長,所以是兩個數(shù)量級的增長,而且增長在不到一年的時間里面發(fā)生。目前大家看到算力增長一定會帶來能力增長,這個模式必然造成成本和能力的矛盾。在解決方式上,存在兩種可能性:一是當前的算法范式還是主要基于 Transformer,模式比較固化,存在從通用芯片走向專用芯片的可能性;二是人一輩子讀的信息不超過10b,目前的模型通過擴大規(guī)模去提升能力,未來可能產(chǎn)生新的算法思路,跳出無限擴大規(guī)模的方式。
劉軍:我認為大模型泛化能力和算力關系還是非常緊密的,一方面當然是模型的參數(shù)量,另外一方面是我們一直在講的算力當量概念,也就是為了訓練一個性能很高的模型所需要的算力代價,衡量標準就是PetaFlop/s-day(每秒運算千萬億次的計算機完整運行一天消耗的總算力)。目前的挑戰(zhàn)是需要的模型性能難以匹配到足夠的算力。浪潮信息希望為伙伴和客戶的算力兜底,提供充足的算力,使其無需擔心模型夠不夠大,算力當量夠不夠大。
對于算力挑戰(zhàn),首先芯片方面的改變會是一個機會,可能會有一種面向大模型的算力芯片,這是下一步值得特別關注的;第二個非常值得期待的是,摩爾定律的失效決定了僅從芯片層面沒有辦法解決算力問題,所以要從系統(tǒng)的角度去思考這個問題——如何構建一個優(yōu)化的算力系統(tǒng),讓它在低帶寬的情況下也能訓練得很好,訓練得很棒。
楊靜:大模型落地面對的問題障礙越來越多,更需要業(yè)界通力合作去破解這些難題,在推進大模型落地當中還有來自哪些客戶端的需求?
劉軍:大模型應用需要建立從大模型到企業(yè)落地的優(yōu)化路徑,關鍵就是有用戶進來。許多客戶的想法停留在花錢購買大模型直接用的層面,而生成式AI一定要和用戶的數(shù)據(jù)、場景、應用甚至客戶的價值鏈緊密結合。
熊龍飛:金山辦公做AI的這些年,我們的路徑一般是先做ToC,因為可以用公網(wǎng)或者云端的算力,通過大集群滿足所有C端用戶需求。而B端、G端客戶他們的私有化部署需求更加強烈。ToB或 ToG的私有化要根據(jù)企業(yè)或機構的情況、規(guī)?;蛘呤蔷唧w的數(shù)據(jù)要求做不同的方案,這樣會帶來很多挑戰(zhàn),同時也會帶來很多機會。
楊靜:大模型產(chǎn)業(yè)發(fā)展競爭越來越白熱化了,企業(yè)該怎么建立競爭壁壘以及找到新的增長點呢?
熊龍飛:金山辦公的技術非常延續(xù),一直專注于做文檔技術。當我們把一個東西做了30多年以后,會把它做得很深很透,慢慢地建立起比較高的技術壁壘。同時,我們還要保持對新技術的擁抱和快速學習、適應的能力,才能保障技術的實時創(chuàng)新。金山辦公經(jīng)歷過很多次技術變革,所以我們對于新技術的敏感度和反應速度都很快,對自己的要求也很高,基本上有什么新技術過來我們就快速擁抱,去了解它、應用它,這樣就可以避免自己被新技術顛覆掉。
劉凌志:把短視頻和AI大模型相結合,始終是快手未來的一個方向。我們的優(yōu)化目標也是比較明確的,即降低用戶的使用成本,因此非常希望產(chǎn)業(yè)界能夠出現(xiàn)有效降低推理中Cost per Token的解決方案,我們也非常愿意跟產(chǎn)業(yè)界的朋友合作,達成這個目標。
陳煒鵬:大模型的不可靠來自兩點――時效性和幻覺問題,對于百川智能來說,嘗試怎樣把搜索和大模型結合,用更經(jīng)濟的方式提供更好的解決方案,是我們在技術上想要探索的。
劉軍:生成式AI只是起點,未來還有很遠的路,需要持續(xù)不斷打造競爭力的,需要更好的數(shù)據(jù)、更好的算法、更好的算力、更好的工程和更好的生態(tài)。訓練好一個大模型,對工程能力有非常高的要求。而生態(tài)落地光是自己做肯定是做不成,一定聯(lián)合伙加入進來一起打通一個能夠持續(xù)不斷跑起來的飛輪生態(tài)。
楊靜:怎么能通過產(chǎn)業(yè)生態(tài)合作來解決大模型發(fā)展當中遇到的各種難題?
劉軍:浪潮信息有一句生態(tài)口號――“聚元腦生態(tài),助百模,智千行”,助百模的客戶和伙伴能夠為千行百業(yè)生智,這是我們生態(tài)的理念。我們注意到模型公司都是具備創(chuàng)新力的領先科技團隊,但是要落到千行百業(yè)的企業(yè)客戶、B端客戶的時候,實際上這里面還存在需要跨越的鴻溝。然而自己建立一個龐大的渠道體系和銷售體系,必然耗資巨大且效果不一定好。浪潮信息的元腦生態(tài)把模型伙伴、AI科技公司叫左手伙伴,把集成商、軟件商叫右手伙伴,三方攜起手來組成聯(lián)合解決方案,服務客戶,共同助力千行百業(yè)的智慧發(fā)生。
陳煒鵬:我們的商業(yè)化路徑還在探索中,而在構建開源影響力過程中接觸到很多企業(yè)使用我們的模型,通過跟蹤他們使用的過程,慢慢捕捉到企業(yè)需求,持續(xù)打磨產(chǎn)品。
劉凌志:快手作為一個終端的平臺,非常注重和上下游的生態(tài)伙伴合作共贏,一方面給整個產(chǎn)業(yè)生態(tài)比較清晰的終端用戶需求,另外一方面通過輸出技術來持續(xù)打磨自己的技術。
熊龍飛:以往我們處于英雄主義時代,單個程序員可以寫出影響時代的軟件。但這個時代在變,所有的項目規(guī)模都變大了,尤其是大模型產(chǎn)業(yè)鏈變的非常長,底層硬件驅動、硬件算法再加上方案系統(tǒng)以及應用端的東西,一家公司已經(jīng)干不完所有的事情了。所以,這個時代一定是合作共贏的時代,我們在生態(tài)中明確定位到應用方,跟不同的產(chǎn)業(yè)鏈上的角色進行合作,大家在每個環(huán)節(jié)上發(fā)揮自己最大的優(yōu)勢,然后進行合作共創(chuàng)。我相信通過上下游的合作國內(nèi)的大模型發(fā)展會非常好,非??臁?/p>
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )