“燒錢”的大模型,如何邁過存儲這道坎?

幾乎每一個行業(yè)都在討論大模型,每一個行業(yè)巨頭都在訓(xùn)練大模型,人工智能已然進(jìn)入了大模型主導(dǎo)的時代。

想要占領(lǐng)大模型應(yīng)用的高地,數(shù)據(jù)和算力可以說是不可或缺的基石。和算力相關(guān)的討論已經(jīng)有很多,以至于英偉達(dá)的市值在2023年翻了兩番。同樣不應(yīng)小覷的還有數(shù)據(jù),除了數(shù)據(jù)量的爆炸性增長,數(shù)據(jù)的讀取、寫入、傳輸?shù)然A(chǔ)性能,開始遇到越來越多的新挑戰(zhàn)。

01 “榨干”算力必須邁過的一道坎

在許多人的認(rèn)知里,訓(xùn)練大模型是一門燒錢的生意。坊間傳聞,GPT-4的訓(xùn)練成本高達(dá)10億美元,想要讓大模型釋放出應(yīng)有的“魔法”,“涌現(xiàn)”出對答如流的能力,需要一只“獨(dú)角獸”的前期投入。

再具體一些的話,大模型訓(xùn)練的成本構(gòu)成中,硬件投資包括算力、運(yùn)力、存力,其中算力相關(guān)硬件投資占比80%。畢竟一顆80GB的A100芯片在國外的定價就高達(dá)1.5萬美元左右,一個千億級參數(shù)的大模型,往往需要上萬顆A100的算力??稍诂F(xiàn)實(shí)的訓(xùn)練過程中,GPU的平均利用率卻不足50%,制約因素包括大模型參數(shù)需要頻繁調(diào)優(yōu)、訓(xùn)練中斷后恢復(fù)周期長、數(shù)據(jù)加載速度慢等等。

圖片1.jpg

不客氣的說,算力資源閑置的每一分鐘都是在燃燒經(jīng)費(fèi),倘若可以進(jìn)一步提高算力資源的利用率,等于間接降低了大模型的訓(xùn)練成本。要提到算力利用率,必須要邁過的一道坎就是數(shù)據(jù)讀寫性能的挑戰(zhàn)。

大模型在訓(xùn)練過程中,需要先讀取一塊數(shù)據(jù),在數(shù)據(jù)讀取完成后進(jìn)行訓(xùn)練,訓(xùn)練過程中會讀取下一塊數(shù)據(jù)。如果訓(xùn)練結(jié)束時下一塊數(shù)據(jù)沒有讀取完成,就會造成一定的等待時間。再加上網(wǎng)絡(luò)波動、算力故障導(dǎo)致的訓(xùn)練中斷,即Checkpoint時刻,重啟訓(xùn)練會退回到前一個節(jié)點(diǎn),同樣會產(chǎn)生算力空置的等待時間。

不那么樂觀的是,目前的訓(xùn)練數(shù)據(jù)通常以圖片、文檔等小文件的形式存在,意味著在訓(xùn)練過程中需要頻繁地讀取和寫入數(shù)據(jù),并且需要支持快速地隨機(jī)訪問。何況大模型訓(xùn)練的原始數(shù)據(jù)集動輒幾十個TB,當(dāng)前文件系統(tǒng)的小文件加載速度不足100MB/s,無形中限制了整個系統(tǒng)的運(yùn)轉(zhuǎn)效率。

根據(jù)第一性原理,大模型訓(xùn)練時算力利用率低的誘因是海量的小文件,傳統(tǒng)存儲系統(tǒng)無法高效地處理這些數(shù)據(jù),導(dǎo)致加載速度緩慢。大模型訓(xùn)練的效率要達(dá)到極致,減少不必要的浪費(fèi),必須在數(shù)據(jù)上下功夫,準(zhǔn)確地說,必須要在數(shù)據(jù)存儲性能上進(jìn)行創(chuàng)新。

而華為在高性能NAS存儲上深耕多年,其OceanStor Dorado全閃存NAS擁有業(yè)界領(lǐng)先性能,尤其在海量小文件場景,性能做到了領(lǐng)先業(yè)界30%。

在openEuler開發(fā)者大會2023上,華為還攜手openEuler發(fā)布了NFS+協(xié)議,矛頭直指客戶端訪問OceanStor Dorado NAS的性能,試圖通過引入外置高性能并行文件存儲系統(tǒng),縮短大模型訓(xùn)練中的等待時間,盡可能把算力的價值“榨”出來。

02 華為NFS+協(xié)議帶來的“屠龍術(shù)”

揭開華為NFS+協(xié)議的“面紗”前,似乎有必要回顧下NFS協(xié)議的歷史。作為Sun公司在1984年開發(fā)的分布式文件系統(tǒng)協(xié)議,NFS已經(jīng)存在了近40年,廣泛應(yīng)用于金融、EDA仿真、話單、票據(jù)影像等行業(yè)。

只是在時間的推移下,“老將”NFS逐漸暴露出了一些短板。比如傳統(tǒng)NFS單個掛載點(diǎn)僅指定一個服務(wù)端IP地址,在網(wǎng)口故障或者鏈路故障場景下,可能出現(xiàn)掛載點(diǎn)無法訪問的情況;一端故障時IP無法感知時,僅依靠應(yīng)用層手動掛載文件系統(tǒng),雙活鏈路無法自動切換;單個掛載點(diǎn)性能受限于單個物理鏈路性能,重要業(yè)務(wù)存在性能瓶頸。

大約在兩年前,華為開始了NFS+協(xié)議的研發(fā),著力解決傳統(tǒng)NFS的不足,最終交出了一份“高可靠高可用”的答卷:

一是可靠性。打個比方的話,傳統(tǒng)NFS的客戶端和服務(wù)端之間僅有一條路,NFS+協(xié)議允許單個NFS掛載點(diǎn)使用多個IP進(jìn)行訪問,等于在客戶端和服務(wù)端之間修了多條路,巧妙解決了傳統(tǒng)NFS被詬病的“可靠性”問題。

二是多鏈路聚合??蛻舳撕头?wù)端之間僅有一條路時,一旦出現(xiàn)事故就會導(dǎo)致交通擁堵;而NFS+協(xié)議在選路算法的加持下,實(shí)現(xiàn)了單個掛載點(diǎn)在多條鏈路上均衡下發(fā)IO,確保服務(wù)端和客戶端的數(shù)據(jù)傳輸暢通無阻。

三是緩存加速。大模型訓(xùn)練時,需要將元數(shù)據(jù)緩存到計算節(jié)點(diǎn)。傳統(tǒng)NFS相對保守,緩存過期的時間比較短。而NFS+協(xié)議改善了緩存大小和失效機(jī)制,可以讓元數(shù)據(jù)更多、更長時間保存在主機(jī)側(cè),以滿足大模型訓(xùn)練的高時延需求。

四是數(shù)據(jù)視圖同步。正如前面所提到的,大模型訓(xùn)練需要快速的隨機(jī)訪問,NFS+協(xié)議采用了數(shù)據(jù)視圖同步的方式,大模型訓(xùn)練需要讀取某個節(jié)點(diǎn)的數(shù)據(jù)時,直接與對應(yīng)節(jié)點(diǎn)高效地放置和訪問數(shù)據(jù),找到最優(yōu)的訪問鏈路。

做一個總結(jié)的話,NFS+協(xié)議采用了高性能并行文件存儲系統(tǒng)的設(shè)計,針對海量小文件場景進(jìn)行了特殊優(yōu)化,比如多鏈路聚合、緩存加速、數(shù)據(jù)視圖同步等,均在提升海量小文件的讀寫性能,最終在大模型訓(xùn)練過程中實(shí)現(xiàn)“讀寫快、少等待”,減少算力的空置時間。

一組Client測試數(shù)據(jù)印證了NFS+協(xié)議的路線正確:相較于傳統(tǒng)的文件存儲,訓(xùn)練樣本小IO隨機(jī)讀性能提升了4倍以上,CheckPoint大文件切片+多路徑傳輸提升了4-6倍的帶寬能力,足以滿足大模型訓(xùn)練的苛刻要求。

03 數(shù)據(jù)存儲進(jìn)入到“大模型時代”

某種程度上說,大模型訓(xùn)練催生的數(shù)據(jù)存儲性能要求,不過是文件存儲系統(tǒng)加速演變的一個側(cè)面。

直到今天,文件存儲的需求仍在不斷更新,文件系統(tǒng)的創(chuàng)新也在持續(xù)發(fā)生,就像大模型訓(xùn)練需求所折射出的演進(jìn)方向。

要知道,英偉達(dá)的一個訓(xùn)練節(jié)點(diǎn),每秒就可以處理2萬張圖片,每個節(jié)點(diǎn)需要8萬IOPS,大模型典型配置有是千億參數(shù)千卡,單位時間內(nèi)對海量小文件的讀寫頻率要求極高。

這恐怕也是華為和openEuler聯(lián)合發(fā)布NFS+協(xié)議的原因,市場對于文件系統(tǒng)的創(chuàng)新需求驟然加快,勢必會引發(fā)頭部科技企業(yè)圍繞數(shù)據(jù)存儲的“軍備競賽”,華為無疑是這場競賽中沖在最前面的玩家之一。

圖片2.jpg

但對文件存儲系統(tǒng)的市場格局稍作了解的話,華為自研NFS+協(xié)議,還隱藏著另一重深意。

一方面,Lustre、GFPS、BeeGFS等并行系統(tǒng)的MDS方案,將元數(shù)據(jù)和文件數(shù)據(jù)訪問分開,仍存在性能和可靠性的瓶頸;而NFS+協(xié)議的元數(shù)據(jù)不再聚焦于某個性能節(jié)點(diǎn),而是分配到集群的所有節(jié)點(diǎn)里面,可以在主機(jī)側(cè)實(shí)現(xiàn)多連接,消除了大模型語境下高頻處理小文件的底層瓶頸。

另一方面,站在大多數(shù)用戶的角度上,NFS+協(xié)議可以更好的兼容已有的使用習(xí)慣,原先建立在傳統(tǒng)NFS上的運(yùn)維機(jī)制和知識體系不作廢,文件系統(tǒng)的切換過程更平緩,不用修改操作系統(tǒng)數(shù)據(jù)面,即可讓NAS存儲訪問性能提升6倍、可靠性提升3倍,以極低的成本擁抱大模型訓(xùn)推浪潮。

無可否認(rèn)的是,大模型正在從前臺的“火熱”,轉(zhuǎn)向整個產(chǎn)業(yè)鏈條的協(xié)同驅(qū)動,數(shù)據(jù)存儲正是其中的關(guān)鍵一環(huán)。

在這樣的趨勢下,行業(yè)注意力將從“煉模”一步步轉(zhuǎn)向更高效、更快速的“煉模”,海量小文件的采集和加載性能、算力資源的利用率等指標(biāo),將被越來越多的企業(yè)所關(guān)注,勢必會掀起一場化繁為簡的文件存儲革命。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )