訊飛星火與華為數(shù)據(jù)存儲強強聯(lián)手,“以存強算”助力AI集群算力利用率飆升30%

極客網(wǎng)·極客觀察(朱飛)10月25日 在風云變幻的AI大模型時代,科大訊飛與華為的聯(lián)合拓展令人印象深刻。過去幾年來,雙方協(xié)同創(chuàng)新突破重重障礙,一次次證明國產(chǎn)算力基礎設施可以支撐國產(chǎn)AI大模型良性發(fā)展,在關鍵性能和體驗上不輸世界領先玩家,同時具備更佳的成本效益。

10月24日,以“萬物智聯(lián) 生生不息”為主題的科大訊飛全球1024開發(fā)者節(jié)隆重舉行。下午的央國企論壇上,科大訊飛與華為再度強強聯(lián)手,共同發(fā)布訊飛星火&華為數(shù)據(jù)存儲AI解決方案,將AI集群算力利用率提升30%,助力國產(chǎn)大模型創(chuàng)新突圍,在業(yè)內(nèi)樹立起“以存強算”的又一標桿。

image001.jpg

該AI存儲解決方案通過華為OceanStor A系列全新硬件、訊飛星火基礎大模型軟硬協(xié)同,深度優(yōu)化,可支持萬億參數(shù)大模型,大規(guī)模算力集群的訓推任務,實現(xiàn)訓推全流程加速,助力大模型算力利用率大幅提升,為業(yè)界輸出了一份凝結雙方技術與經(jīng)驗的標準方案。

極致性能“以存強算”,AI集群算力利用率提升超30%

根據(jù)規(guī)模定律(Scaling Law),更強的算力加上更多的有效訓練數(shù)據(jù),可以得到更好的AI大模型。這意味著,大模型的訓練和推理不僅需要強大的算力支持,還需要高效的存儲系統(tǒng)來保證數(shù)據(jù)的快速讀寫和處理,存儲系統(tǒng)的性能直接影響到大模型的訓練效率和效果?。

為了解決大模型訓練中的存儲挑戰(zhàn),需要采用高性能的存儲方案。例如,使用高性能NAS存儲系統(tǒng)可以顯著提高數(shù)據(jù)讀寫速度,減少訓練過程中的等待時間?。此外,優(yōu)化存儲架構和采用更適合大模型訓練的存儲解決方案,也可以提高訓練效率?。

此番發(fā)布的訊飛星火&華為數(shù)據(jù)存儲AI解決方案,正采用了華為新一代OceanStor A系列AI存儲,通過創(chuàng)新數(shù)控分離架構,高性能并行客戶端,實現(xiàn)了百TB級帶寬,百億級IOPS,將訓練集加載效率提升8倍,斷點續(xù)訓速度提升4倍,最終使得AI集群算力的利用率提升了超過30%。

資料顯示,隨著大模型集群規(guī)模增長,集群的算力利用率并未同步提升,千卡以上大模型算力利用率不足50%。而科大訊飛聯(lián)合華為搭建的大規(guī)模AI集群,算力利用率常年保持在60%以上的高位,大幅領先于業(yè)內(nèi)水平,背后的支撐之一正是華為數(shù)據(jù)存儲提供的高性能存力底座。

超大規(guī)模調(diào)度,AI數(shù)據(jù)湖讓大模型數(shù)據(jù)全局可管可用

在追求存儲性能的同時,存儲容量也是大模型存力底座的關鍵。隨著AI技術快速發(fā)展,AI大模型從單模態(tài)發(fā)展到多模態(tài),短短數(shù)年時間大模型訓練的數(shù)據(jù)量已呈現(xiàn)1000倍的增長,亟需為AI算力集群建設AI數(shù)據(jù)湖,規(guī)模擴展并打破數(shù)據(jù)煙囪,實現(xiàn)全局流動可管可用。

大模型訓練需要處理的數(shù)據(jù)通常以圖片、文檔等小文件的形式存在,傳統(tǒng)的存儲系統(tǒng)面對這些小文件存在加載速度慢的問題,影響訓練效率?。企業(yè)擁抱大模型首當其沖便是要對這些海量多源異構數(shù)據(jù)進行高效管理,做好數(shù)據(jù)歸集、預處理等準備工作,才能保障大模型訓練的效率及效果。

在這個維度,華為新一代OceanStor A系列AI存儲具備無損多協(xié)議互通、冷熱數(shù)據(jù)智能分級專業(yè)存儲能力,支持512控橫向大規(guī)模擴展能力,支持EB級存儲空間;通過使用統(tǒng)一的AI數(shù)據(jù)湖存儲大模型數(shù)據(jù),可實現(xiàn)冷熱數(shù)據(jù)分級存儲,跨越數(shù)據(jù)孤島,打破數(shù)據(jù)界限,確保了模型內(nèi)數(shù)據(jù)的高效流動,為大模型訓練做好充分的數(shù)據(jù)準備。

伴隨著訊飛星火&華為數(shù)據(jù)存儲AI解決方案的發(fā)布,訊飛星火訓推平臺的AI數(shù)據(jù)湖成功經(jīng)驗也浮出水面。據(jù)介紹,經(jīng)過多輪技術迭代演進,訊飛建設AI數(shù)據(jù)湖底座,有效支撐了十萬億參數(shù)級別的通用多模態(tài)大模型訓練,并大幅提升了集群算力利用率。

技術與經(jīng)驗深度耦合,構建AI Ready的數(shù)據(jù)基礎設施

值得注意的是,此次發(fā)布的訊飛星火&華為數(shù)據(jù)存儲AI解決方案并非雙方的“即興之作”,此前雙方便在存算分離、統(tǒng)一存儲平臺等方面展開了合作。隨著大模型持續(xù)演進,兩家又于去年7月正式啟動AI存力底座的聯(lián)合創(chuàng)新項目,旨在共同打造面向AI大模型場景的最佳數(shù)據(jù)存儲解決方案。

實際上,在驅(qū)動AI發(fā)展的三駕馬車中,隨著算力逐漸趨同、算法加速收斂,蓬勃發(fā)展的數(shù)據(jù)成了影響大模型效果的核心要素。業(yè)界也逐漸意識到,數(shù)據(jù)規(guī)模和質(zhì)量決定AI智能的高度,為了提升從數(shù)據(jù)獲取、數(shù)據(jù)預處理、模型訓練、推理應用的AI全流程效率,消除數(shù)據(jù)孤島帶來的海量數(shù)據(jù)搬遷,一個高性能、穩(wěn)定可靠的統(tǒng)一存力底座是必不可少的基石。

為此,科大訊飛在依托全國產(chǎn)化算力平臺打造訊飛星火認知基礎大模型時,也基于大模型數(shù)據(jù)和訓練閉環(huán)全流程設計、訓練和推理一體化設計的思路,自研超大規(guī)模大模型訓練平臺,迭代升級自家的大模型,先行先試趟出了一條探索Storage for AI、構建AI Ready的數(shù)據(jù)基礎設施的“訊飛之道”。

資料顯示,在訊飛大模型訓練平臺的加持下,訊飛星火大模型歷經(jīng)數(shù)個版本的升級,目前已在文本生成、語言理解、知識問答、邏輯推理、數(shù)學能力、代碼能力、多模交互7大核心能力維度實現(xiàn)全國領先,通過中國信通院AIGC大模型基礎能力評測并獲得4+級的高評分,部分能力更是全面超過OpenAI的最新模型GPT-4 Turbo。

實踐出真知,相信這種源自訊飛星火與華為數(shù)據(jù)存儲雙方的技術與經(jīng)驗,深度耦合而“孵化”出來的AI存儲解決方案,必將能夠加速AI Ready的數(shù)據(jù)基礎設施建設,為客戶帶來高性能、高擴展和更智能的AI訓推體驗,推動AI產(chǎn)業(yè)發(fā)展,將AI大模型的算力真正轉(zhuǎn)化為企業(yè)組織的新質(zhì)生產(chǎn)力!

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2024-10-25
訊飛星火與華為數(shù)據(jù)存儲強強聯(lián)手,“以存強算”助力AI集群算力利用率飆升30%
構建AI Ready的數(shù)據(jù)基礎設施。

長按掃碼 閱讀全文