黃仁勛帶來“王炸”組合,ChatGPT又進(jìn)一步

撰文 | 田小夢

編輯 | 楊博丞

題圖 | NVIDIA

3月22日,在剛剛結(jié)束的GTC 大會(huì)上,NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛圍繞AI、芯片、云服務(wù)等前沿科技,帶來一系列“殺手級(jí)”技術(shù)和產(chǎn)品。

從OpenAI發(fā)布GPT-4,到百度發(fā)布文心一言,再到微軟將GPT-4接入自己全套辦公軟件Microsoft 365 Copilot,乃至昨日谷歌正式宣布開放 Bard 的訪問權(quán)限。在這AI的決定性時(shí)刻,黃仁勛也是激動(dòng)地三次強(qiáng)調(diào),“我們正處于AI的iPhone時(shí)刻”。

“如果把加速計(jì)算比作曲速引擎,那么AI就是動(dòng)力來源。生成式 AI 的非凡能力,使得公司產(chǎn)生了緊迫感,他們需要重新構(gòu)思產(chǎn)品和商業(yè)模式。”黃仁勛說道。

手握算力技術(shù)的英偉達(dá)自然是不會(huì)缺席AI產(chǎn)品。自今年年初ChatGPT爆火后,吸引了超過1億用戶,成為有史以來增長最快的應(yīng)用。英偉達(dá)的股價(jià)也是一路飆升,目前英偉達(dá)市值為6471億美元。

圖片來源:百度股市通

一、做AI界的“臺(tái)積電”

自十年前AlexNet面市以來,深度學(xué)習(xí)就開辟了巨大的新市場,包括自動(dòng)駕駛、機(jī)器人、智能音箱,并重塑了購物、了解新聞和享受音樂的方式。隨著生成式AI掀起的新一波浪潮,使得推理工作負(fù)載呈階梯函數(shù)式增長。

對此,今日英偉達(dá)推出全新的推理平臺(tái):四種配置—一個(gè)體系架構(gòu)—一個(gè)軟件棧,其中,每種配置都針對某一類工作負(fù)載進(jìn)行了優(yōu)化。

首先,ChatGPT等大型語言模型是一個(gè)全新的推理工作負(fù)載,GPT模型是內(nèi)存和計(jì)算密集型模型。同時(shí),推理是一種高容量、外擴(kuò)型工作負(fù)載,需要標(biāo)準(zhǔn)的商業(yè)服務(wù)器。為了支持像ChatGPT這樣的大型語言模型推理,黃仁勛發(fā)布了一款新的GPU——帶有雙GPU NVLink的H100 NVL,配備94GB HBM3顯存,可處理擁有1750億參數(shù)的GPT-3,還可支持商業(yè)PCIE服務(wù)器輕松擴(kuò)展。

黃仁勛表示,目前在云上唯一可以實(shí)際處理ChatGPT的GPU是HGX A100,與適用于GPT-3處理的HGX A100相比,一臺(tái)搭載四對H100及雙GPU NVLINK的標(biāo)準(zhǔn)服務(wù)器的速度快10倍?!癏100可以將大型語言模型的處理成本降低一個(gè)數(shù)量級(jí)。”

其次,針對AI視頻工作負(fù)載推出了L4,對視頻解碼和編碼、視頻內(nèi)容審核、視頻通話功能等方面進(jìn)行了優(yōu)化如今,大多數(shù)云端視頻都在CPU上處理,一臺(tái)8-GPU L4服務(wù)器將取代一百多臺(tái)用于處理AI視頻的雙插槽CPU服務(wù)器。Snap是NVIDIA AI 在計(jì)算機(jī)視覺和推薦系統(tǒng)領(lǐng)域領(lǐng)先的用戶,Snap將會(huì)把L4用于AV1視頻處理生成式AI和增強(qiáng)現(xiàn)實(shí)。

再者,針對Omniverse、圖形渲染等生成式AI,推出L40,L40的性能是NVIDIA最受歡迎的云推理GPU T4的10倍。Runway是生成式AI領(lǐng)域的先驅(qū),他們正在發(fā)明用于創(chuàng)作和編輯內(nèi)容的生成式AI模型。

此外,為用于推薦系統(tǒng)的AI數(shù)據(jù)庫和大型語言模型,推出了Grace Hopper超級(jí)芯片。通過900GB/s高速芯片對芯片的接口,NVIDIA Grace Hopper超級(jí)芯片可連接Grace CPU和Hopper GPU?!翱蛻粝M麡?gòu)建規(guī)模大幾個(gè)數(shù)量級(jí)的AI數(shù)據(jù)庫,那么Grace Hopper是最理想的引擎?!?/p>

與此同時(shí),面對生成式AI的認(rèn)知將重塑幾乎所有行業(yè)的現(xiàn)狀。黃仁勛坦言稱:“這個(gè)行業(yè)需要一個(gè)類似臺(tái)積電的代工廠,來構(gòu)建自定義的大型語言模型?!?/p>

為了加速企業(yè)使用生成式AI的工作,黃仁勛發(fā)布了NVIDIA AI Foundations云服務(wù)系列,為需要構(gòu)建、完善和運(yùn)行自定義大型語言模型及生成式AI的客戶提供服務(wù),他們通常使用專有數(shù)據(jù)進(jìn)行訓(xùn)練并完成特定領(lǐng)域的任務(wù)。

NVIDIA AI Foundations包括NVIDIA NeMo是用于構(gòu)建自定義語言文本-文本轉(zhuǎn)換生成模型;Picasso視覺語言模型制作服務(wù),適用于想要構(gòu)建使用授權(quán)或?qū)S袃?nèi)容訓(xùn)練而成的自定義模型的客戶,以及BioNeMo,助力2萬億美元規(guī)模的藥物研發(fā)行業(yè)的研究人員,幫助研究人員使用他們的專有數(shù)據(jù)創(chuàng)建、微調(diào)和提供自定義模型。

二、加深云服務(wù)體系

“云”也是此次發(fā)布會(huì)的重點(diǎn)之一,推出了NVIDIA DGX Cloud。

這項(xiàng)AI超級(jí)計(jì)算服務(wù)使企業(yè)能夠即時(shí)接入用于訓(xùn)練生成式AI等開創(chuàng)性應(yīng)用的高級(jí)模型所需的基礎(chǔ)設(shè)施和軟件。DGX Cloud可提供NVIDIA DGX AI超級(jí)計(jì)算專用集群,并配以NVIDIA AI軟件。

這項(xiàng)服務(wù)可以讓每個(gè)企業(yè)都通過一個(gè)簡單的網(wǎng)絡(luò)瀏覽器就能訪問自己的AI超級(jí)計(jì)算機(jī),免除了購置、部署和管理本地基礎(chǔ)設(shè)施的復(fù)雜性。

黃仁勛表示:“初創(chuàng)企業(yè)正在競相打造顛覆性的產(chǎn)品和商業(yè)模式,老牌企業(yè)則在尋求應(yīng)對之法。DGX Cloud 使客戶能夠在全球規(guī)模的云上即時(shí)接入NVIDIA AI超級(jí)計(jì)算?!?/p>

目前,NVIDIA正與領(lǐng)先的云服務(wù)提供商一起托管DGX Cloud基礎(chǔ)設(shè)施,Oracle Cloud Infrastructure(OCI)首當(dāng)其沖,通過其OCI超級(jí)集群,提供專門構(gòu)建的RDMA網(wǎng)絡(luò)、裸金屬計(jì)算以及高性能本地塊存儲(chǔ),可擴(kuò)展到超過32000個(gè)GPU所組成的超級(jí)集群。微軟Azure預(yù)計(jì)將在下個(gè)季度開始托管DGX Cloud,該服務(wù)將很快擴(kuò)展到Google Cloud等。

黃仁勛表示,此次合作將NVIDIA的生態(tài)系統(tǒng)帶給云服務(wù)提供商,同時(shí)擴(kuò)大了NVIDIA的規(guī)模和影響力。企業(yè)將能夠按月租用DGX Cloud集群以便快速、輕松地?cái)U(kuò)展大型多節(jié)點(diǎn)訓(xùn)練工作負(fù)載的開發(fā)。

隨著云計(jì)算發(fā)展,在過去十年中,大約3000萬臺(tái)CPU服務(wù)器完成大部分處理工作,但挑戰(zhàn)即將到來。隨著摩爾定律的終結(jié),CPU性能的提高也會(huì)伴隨著功耗的增加。另外,減少碳排放從根本上與增加數(shù)據(jù)中心的需求相悖,云計(jì)算的發(fā)展受功耗限制。

黃仁勛指出,加速云數(shù)據(jù)中心的CPU側(cè)重點(diǎn)與過去有著根本性的不同。過去數(shù)據(jù)中心加速各種工作負(fù)載,將會(huì)減少功耗,節(jié)省的能源可以促進(jìn)新的增長,未經(jīng)過加速的工作負(fù)載都將會(huì)在CPU上處理。在AI和云服務(wù)中,加速計(jì)算卸載可并行的工作負(fù)載,而CPU可處理其他工作負(fù)載,比如Web RPC和數(shù)據(jù)庫查詢。為了在云數(shù)據(jù)中心規(guī)模下實(shí)現(xiàn)高能效,英偉達(dá)推出Grace。

Grace包含72個(gè)Arm核心,由超高速片內(nèi)可擴(kuò)展的、緩存一致的網(wǎng)絡(luò)連接,可提供3.2TB/s的截面帶寬,Grace Superchip通過900GB/s的低功耗芯片到芯片緩存一致接口,連接兩個(gè)CPU芯片之間的144個(gè)核,內(nèi)存系統(tǒng)由LPDDR低功耗內(nèi)存構(gòu)成(與手機(jī)上使用的相似),還專門對此進(jìn)行了增強(qiáng),以便在數(shù)據(jù)中心中使用。

通過Google基準(zhǔn)測試(測試云微服務(wù)的通信速度)和Hi-Bench套件(測試Apache Spark內(nèi)存密集型數(shù)據(jù)處理),對Grace進(jìn)行了測試,此類工作負(fù)載是云數(shù)據(jù)中心的基礎(chǔ)。

在微服務(wù)方面,Grace的速度比最新一代x86 CPU的平均速度快1.3倍;在數(shù)據(jù)處理中,Grace則快1.2倍,而達(dá)到如此高性能,整機(jī)功耗僅為原來服務(wù)器的60%。云服務(wù)提供商可以為功率受限的數(shù)據(jù)中心配備超過1.7倍的Grace服務(wù)器,每臺(tái)服務(wù)器的吞吐量提高25%。在功耗相同的情況下,Grace使云服務(wù)提供商獲得了兩倍的增長機(jī)會(huì)。

“Grace的性能和能效非常適合云計(jì)算應(yīng)用和科學(xué)計(jì)算應(yīng)用?!秉S仁勛說道。

三、為2納米光刻技術(shù)奠基

隨著對芯片制造的精確度提升,當(dāng)前生產(chǎn)工藝接近物理學(xué)的極限。光刻即在晶圓上創(chuàng)建圖案的過程,是芯片制造過程中的起始階段,包括光掩模制作和圖案投影。

其中,計(jì)算光刻是芯片設(shè)計(jì)和制造領(lǐng)域中最大的計(jì)算工作負(fù)載,每年消耗數(shù)百億CPU小時(shí),大型數(shù)據(jù)中心24 x7全天候運(yùn)行,以便創(chuàng)建用于光刻系統(tǒng)的掩模版。數(shù)據(jù)中心是芯片制造商每年投資近2000億美元的資本支出的一部分,隨著算法越來越復(fù)雜,計(jì)算光刻技術(shù)也在快速發(fā)展,使整個(gè)行業(yè)能夠達(dá)到2納米及以上。

對此,在本次發(fā)布會(huì)上,黃仁勛帶來了一個(gè)計(jì)算光刻庫——NVIDIA cuLitho。

“芯片產(chǎn)業(yè)幾乎是每一個(gè)行業(yè)的基礎(chǔ)?!秉S仁勛介紹稱,cuLitho是一項(xiàng)歷時(shí)近四年的龐大任務(wù),英偉達(dá)與臺(tái)積電、ASML和Synopsys等密切合作,將計(jì)算光刻加速了40倍以上。

NVIDIA H100需要89塊掩模版,在CPU上運(yùn)行時(shí),處理單個(gè)掩模版當(dāng)前需要兩周時(shí)間。如果在GPU上運(yùn)行cuLitho,只需8小時(shí)即可處理完一個(gè)掩模版。

據(jù)介紹,臺(tái)積電可以通過在500個(gè)DGX H100系統(tǒng)上使用cuLitho加速,將功率從35MW降至5MW,從而替代用于計(jì)算光刻的4萬臺(tái)CPU服務(wù)器。借助cuLitho,臺(tái)積電可以縮短原型周期時(shí)間、提高產(chǎn)量、減少制造過程中的碳足跡,并為2納米及以上的生產(chǎn)做好準(zhǔn)備。

此外,臺(tái)積電將于6月開始對cuLitho進(jìn)行生產(chǎn)資格認(rèn)證,ASML正在GPU和cuLitho方面與NVIDIA展開合作,并計(jì)劃在其所有計(jì)算光刻軟件產(chǎn)品中加入對GPU的支持。

不難看出,從AI訓(xùn)練到部署,從系統(tǒng)到云服務(wù),再到半導(dǎo)體芯片,黃仁勛打出了一套“組合拳”。站在AI的風(fēng)口,黃仁勛也透露出“勝券在握”的信心。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-03-22
黃仁勛帶來“王炸”組合,ChatGPT又進(jìn)一步
黃仁勛攜“殺手級(jí)”技術(shù)和產(chǎn)品來炸場。

長按掃碼 閱讀全文