GTC 2023:黃仁勛發(fā)布主題演講 內(nèi)容涉及ChatGPT、半導(dǎo)體制造

3月22日消息,GTC2023于3月20日至23日舉行,本屆大會將舉辦超過650 場由技術(shù)、商業(yè)、學(xué)術(shù)和政府領(lǐng)域領(lǐng)導(dǎo)者主持的會議。NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛的 GTC 主題演講于北京時間 3 月 21 日 23:00 全球首播。以下為該演講的節(jié)選內(nèi)容:

正如NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛所說,計算正在以“光速”發(fā)展。

黃仁勛宣布與谷歌、微軟、Oracle等一眾領(lǐng)軍企業(yè)開展廣泛的合作,為各行各業(yè)帶來新的AI、模擬和協(xié)作能力。黃仁勛在NVIDIA GTC大會主題演講中表示:“如果把加速計算比作曲速引擎,那么AI就是動力來源。生成式 AI 的非凡能力,使得公司產(chǎn)生了緊迫感,他們需要重新構(gòu)思產(chǎn)品和商業(yè)模式。”

作為這場為期四天活動的主題演講,黃仁勛在長達(dá)78分鐘的演講中概述了NVIDIA及其合作伙伴如何提供訓(xùn)練和部署尖端AI服務(wù)所需的各種技術(shù)。他發(fā)布了全新的半導(dǎo)體和軟件庫以推動行業(yè)新突破,以及一套完整的系統(tǒng)和服務(wù),幫助各類初創(chuàng)公司及企業(yè)將這些創(chuàng)新在全球發(fā)揮作用。

黃仁勛在演講中用生動的例子說明了該生態(tài)系統(tǒng)的作用。他宣布NVIDIA和微軟將把數(shù)億Microsoft 365和Azure用戶連接到一個用于構(gòu)建和操作超現(xiàn)實(shí)虛擬世界的平臺,并介紹了亞馬遜如何使用復(fù)雜的模擬能力訓(xùn)練新的自主倉庫機(jī)器人。他還談到ChatGPT等最近大火的新一代生成式AI服務(wù)的興起。

在強(qiáng)調(diào)NVIDIA創(chuàng)新成果的基礎(chǔ)作用時,黃仁勛詳細(xì)介紹了NVIDIA在計算光刻技術(shù)領(lǐng)域所取得的突破,以及與ASML、TSMC和Synopsis的合作,這些將為制造高效、強(qiáng)大的新一代2納米半導(dǎo)體奠定基礎(chǔ)。

黃仁勛表示,加速計算和AI的出現(xiàn)恰逢其時。摩爾定律正在放緩,各個行業(yè)正在應(yīng)對可持續(xù)發(fā)展,生成式AI以及數(shù)字化等強(qiáng)大的動態(tài)挑戰(zhàn)。“各個行業(yè)的企業(yè)正在競相進(jìn)行數(shù)字化轉(zhuǎn)型,希望成為軟件驅(qū)動的技術(shù)公司,成為行業(yè)顛覆者而不是被顛覆者?!?/p>

加速計算可助力企業(yè)應(yīng)對這些挑戰(zhàn)。黃仁勛表示:“加速是重獲優(yōu)勢、實(shí)現(xiàn)可持續(xù)發(fā)展,以及達(dá)到凈零排放的最佳途徑?!?/p>

AI的 iPhone時刻

NVIDIA技術(shù)是AI的基礎(chǔ),黃仁勛講述了NVIDIA如何在生成式AI變革初期就已參與進(jìn)來。早在2016年,他就向OpenAI親手交付了第一臺NVIDIA DGX AI超級計算機(jī)——支持 ChatGPT 的大型語言模型突破背后的引擎。

去年年底推出的ChatGPT幾乎在一夜之間爆火,吸引了超過1億用戶,成為有史以來增長最快的應(yīng)用。黃仁勛認(rèn)為 “我們正處于AI的 iPhone時刻 ”。

黃仁勛表示,最初作為AI研究儀器使用的NVIDIA DGX超級計算機(jī)現(xiàn)已在世界各地的企業(yè)中全天候運(yùn)行,用于完善數(shù)據(jù)和處理AI?!敦敻弧?00強(qiáng)企業(yè)中有一半都安裝了DGX AI超級計算機(jī)。 “DGX超級計算機(jī)是現(xiàn)代AI工廠”。

用于數(shù)據(jù)中心的NVIDIA H100、Grace Hopper和Grace

黃仁勛表示,類似ChatGPT大型語言模型(LLM)的部署是一個重要的全新推理工作負(fù)載。為了支持像ChatGPT這樣的大型語言模型推理,黃仁勛發(fā)布了一款新的GPU——帶有雙GPU NVLink的H100 NVL。

基于NVIDIA Hopper架構(gòu)的H100配有一個Transformer引擎,旨在處理驅(qū)動ChatGPT的類似GPT模型。與用于GPT-3處理的HGX A100相比,配備四對H100與雙GPU NVLink的標(biāo)準(zhǔn)服務(wù)器的速度最高可達(dá)10倍。

黃仁勛表示:“H100可以將大型語言模型的處理成本降低一個數(shù)量級?!?/p>

在過去十年中,云計算每年增長20%并已發(fā)展成為一個萬億美元的產(chǎn)業(yè)。NVIDIA為這個AI和云優(yōu)先的世界設(shè)計了Grace CPU,其中AI工作負(fù)載由GPU加速。Grace正在進(jìn)行樣品調(diào)測。

通過900GB/s高速芯片對芯片的接口,NVIDIA Grace Hopper超級芯片可連接Grace CPU和Hopper GPU。黃仁勛解釋說,“ Grace Hopper是處理超大型數(shù)據(jù)集的理想選擇,比如用于推薦系統(tǒng)的AI數(shù)據(jù)庫和大型語言模型?!?/p>

“客戶希望構(gòu)建規(guī)模大幾個數(shù)量級的AI數(shù)據(jù)庫,那么Grace Hopper是最理想的引擎?!?/p>

DGX是構(gòu)建AI基礎(chǔ)設(shè)施的藍(lán)圖

最新版本的DGX搭載8個NVIDIA H100 GPU,它們連接成為一個巨大的GPU。黃仁勛表示:“NVIDIA DGX H100是全球客戶構(gòu)建AI基礎(chǔ)設(shè)施的藍(lán)圖”,現(xiàn)已全面投入生產(chǎn)。

H100 AI超級計算機(jī)現(xiàn)已開始上線。Oracle Cloud Infrastructure宣布配備 H100 GPU 的新 OCI Compute 裸機(jī) GPU 實(shí)例在一定條件可用。

此外,亞馬遜云科技發(fā)布了即將推出的P5實(shí)例 EC2 UltraClusters,其規(guī)??蓴U(kuò)展到2萬個互連的H100 GPU。

上周,微軟 Azure 發(fā)布了其 H100 虛擬機(jī) ND H100 v5 的私人預(yù)覽版。

Meta 現(xiàn)已為其內(nèi)部的 AI 生產(chǎn)和研究團(tuán)隊(duì)部署了由 H100 驅(qū)動的 Grand Teton AI 超級計算機(jī)。

OpenAI 將在其 Azure 超級計算機(jī)上使用 H100來支持其持續(xù)進(jìn)行的AI研究。

提供 H100 的其他合作伙伴包括 Cirrascale 和 CoreWeave,這兩家公司今天都宣布全面上市。此外,Google Cloud、Lambda、Paperspace 和 Vult 都計劃提供 H100。

DGX Cloud:隨時隨地將AI帶給每家公司

為了加快把DGX能力帶給初創(chuàng)企業(yè)和其他各類企業(yè),以助力其快速打造新產(chǎn)品和制定AI戰(zhàn)略,黃仁勛發(fā)布了NVIDIA DGX Cloud。通過與微軟Azure、Google Cloud和Oracle Cloud Infrastructure合作,“從瀏覽器上” 即可實(shí)現(xiàn)將NVIDIA DGX AI超級計算機(jī) “帶給每家公司”。

DGX Cloud經(jīng)過優(yōu)化可以運(yùn)行NVIDIA AI Enterprise,這款全球領(lǐng)先的加速軟件套件將推動AI端到端開發(fā)和部署。黃仁勛表示:“DGX Cloud為客戶提供 NVIDIA AI和世界領(lǐng)先云服務(wù)提供商的出色服務(wù)?!?/p>

NVIDIA正與領(lǐng)先的云服務(wù)提供商一起托管DGX Cloud基礎(chǔ)設(shè)施,Oracle Cloud Infrastructure是最早合作的云服務(wù)提供商。微軟Azure預(yù)計將在下個季度開始托管DGX Cloud,該服務(wù)將很快擴(kuò)展到Google Cloud等。

黃仁勛表示,此次合作將NVIDIA的生態(tài)系統(tǒng)帶給云服務(wù)提供商,同時擴(kuò)大了NVIDIA的規(guī)模和影響力。企業(yè)將能夠按月租用DGX Cloud集群以便快速、輕松地擴(kuò)展大型多節(jié)點(diǎn)訓(xùn)練工作負(fù)載的開發(fā)。

賦能生成式AI

為了加速企業(yè)使用生成式AI的工作,黃仁勛發(fā)布了NVIDIA AI Foundations云服務(wù)系列,為需要構(gòu)建、完善和運(yùn)行自定義大型語言模型及生成式AI的客戶提供服務(wù),他們通常使用專有數(shù)據(jù)進(jìn)行訓(xùn)練并完成特定領(lǐng)域的任務(wù)。

AI Foundations服務(wù)包括NVIDIA NeMo,用于構(gòu)建自定義語言文本-文本轉(zhuǎn)換生成模型;Picasso視覺語言模型制作服務(wù),適用于想要構(gòu)建使用授權(quán)或?qū)S袃?nèi)容訓(xùn)練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規(guī)模的藥物研發(fā)行業(yè)的研究人員。

Adobe正與NVIDIA一起構(gòu)建一整套用于未來創(chuàng)作工作的新一代AI。

Getty Images正在與NVIDIA一起訓(xùn)練負(fù)責(zé)任的生成式文本-圖像,以及文本-視頻轉(zhuǎn)換基礎(chǔ)模型。

Shutterstock正在與NVIDIA一起訓(xùn)練一個生成式文本-3D轉(zhuǎn)換基礎(chǔ)模型,以簡化詳細(xì)3D資產(chǎn)的創(chuàng)建。

推動醫(yī)療的進(jìn)步

NVIDIA宣布,Amgen正在使用BioNeMo加速其藥物研發(fā)服務(wù)。其他BioNemo的搶先體驗(yàn)客戶包括Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore和Insilico。

黃仁勛解釋說,BioNeMo幫助研究人員使用他們的專有數(shù)據(jù)創(chuàng)建、微調(diào)和提供自定義模型。

此外,黃仁勛宣布,NVIDIA和全球最大的醫(yī)療技術(shù)提供商Medtronic正在一起為軟件定義醫(yī)療設(shè)備構(gòu)建一個AI平臺。此次合作將為Medtronic系統(tǒng)創(chuàng)建一個涵蓋手術(shù)導(dǎo)引和機(jī)器人輔助手術(shù)的通用平臺。

Medtronic宣布,其GI Genius系統(tǒng)使用AI實(shí)現(xiàn)了結(jié)腸癌早期檢測。該系統(tǒng)建立在用于實(shí)時傳感器處理系統(tǒng)的軟件庫NVIDIA Holoscan之上,并將于今年年底左右出貨。

黃仁勛表示:“全球2500億美元的醫(yī)療儀器市場正在轉(zhuǎn)型。”

加快生成式AI應(yīng)用的部署

為了幫助企業(yè)部署處于快速發(fā)展的生成式AI模型,黃仁勛發(fā)布了用于AI視頻、圖像生成、大型語言模型部署和推薦器推理的推理平臺。這些平臺將NVIDIA的全套推理軟件與最新的NVIDIA Ada、Hopper和Grace Hopper處理器相結(jié)合,包括同時在今天推出的NVIDIA L4 Tensor Core GPU和NVIDIA H100 NVL GPU。

用于AI視頻的NVIDIA L4可提供比CPU高出120倍的由AI支持的視頻性能,同時提高99%的能效。

用于圖像生成的NVIDIA L40針對圖形以及AI賦能的2D、視頻和3D圖像生成進(jìn)行了優(yōu)化。

用于大型語言模型部署的NVIDIA H100 NVL是規(guī)?;渴餋hatGPT等大型語言模型的理想選擇。

用于推薦模型的NVIDIA Grace Hopper是圖形推薦模型、矢量數(shù)據(jù)庫和圖形神經(jīng)網(wǎng)絡(luò)的理想選擇。

Google Cloud是首家向客戶提供L4的云服務(wù)提供商。該公司已推出新的G2虛擬機(jī)并在今日提供私人預(yù)覽版。谷歌還將L4集成到其Vertex AI模型商店中。

微軟與NVIDIA一起將Omniverse帶給數(shù)億用戶

黃仁勛宣布,NVIDIA 正在與微軟合作,將NVIDIA Omniverse Cloud 這一完全托管的云服務(wù)引入全球各行各業(yè),并推出又一項(xiàng)云服務(wù)以加速企業(yè)實(shí)現(xiàn)前所未有的模擬和協(xié)作能力。

黃仁勛表示:“微軟和NVIDIA將為數(shù)億Microsoft 365和Azure用戶提供Omniverse” 。他同時還發(fā)布了最新NVIDIA OVX服務(wù)器、搭載NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特爾為NVIDIA Omniverse優(yōu)化的最新CPU。

為了展示為3D設(shè)計協(xié)作及數(shù)字孿生模擬而構(gòu)建的開放平臺NVIDIA Omniverse的強(qiáng)大功能,黃仁勛分享了一段視頻,展示了NVIDIA Isaac Sim如何通過完全保真的數(shù)字孿生幫助亞馬遜節(jié)省時間和金錢。NVIDIA Isaac Sim是在Omniverse基礎(chǔ)上構(gòu)建的機(jī)器人模擬和合成生成平臺。

該視頻展示了亞馬遜如何為其第一個完全自主的倉庫機(jī)器人Proteus編排動作,使其能夠在亞馬遜的巨大倉庫中與人類和其他機(jī)器人一起搬運(yùn)裝有產(chǎn)品的箱子。

助力3萬億美元規(guī)模汽車產(chǎn)業(yè)的數(shù)字化

為了展示Omniverse的能力,黃仁勛深入介紹了Omniverse在3萬億美元汽車產(chǎn)業(yè)數(shù)字化中的作用。黃仁勛表示,到2030年,汽車制造商將建立300家工廠,生產(chǎn)2億輛電動汽車,而電池制造商正在建設(shè)100家巨型工廠。他表示:“數(shù)字化將提高該行業(yè)的效率、生產(chǎn)力和速度?!?/p>

談到Omniverse在整個行業(yè)的應(yīng)用,黃仁勛表示,Lotus正在使用Omniverse以虛擬方式組裝焊接站。梅賽德斯-奔馳使用Omniverse為新車型建立、優(yōu)化和規(guī)劃裝配線。Rimac和Lucid Motors在Omniverse上使用真實(shí)設(shè)計數(shù)據(jù)創(chuàng)建數(shù)字商店,以實(shí)現(xiàn)對汽車逼真的描繪。

寶馬與Idealworks合作,使用Omniverse中的Isaac Sim生成訓(xùn)練工廠機(jī)器人的合成數(shù)據(jù)和場景。黃仁勛表示,寶馬正在使用Omniverse規(guī)劃全球工廠的運(yùn)營,在實(shí)際工廠開業(yè)兩年之前,他們會在 Omniverse 中完整建造一間新的電動汽車工廠。

NVIDIA 還宣布全球領(lǐng)先的新能源汽車制造商比亞迪將在其更廣泛的車型中擴(kuò)展對 NVIDIA DRIVE Orin 集中式計算平臺的使用。

加速半導(dǎo)體行業(yè)的突破

NVIDIA宣布推出一項(xiàng)將加速計算引入計算光刻技術(shù)領(lǐng)域的突破性成果。在當(dāng)前生產(chǎn)工藝接近物理極限的情況下,這項(xiàng)突破使ASML、TSMC和Synopsys等半導(dǎo)體行業(yè)領(lǐng)導(dǎo)者能夠加快新一代芯片的設(shè)計和制造。

全球領(lǐng)先的代工廠TSMC,以及電子設(shè)計自動化領(lǐng)域的領(lǐng)導(dǎo)者Synopsys正在將全新的NVIDIA cuLitho計算光刻技術(shù)軟件庫整合到最新一代NVIDIA Hopper?架構(gòu)GPU的軟件、制造工藝和系統(tǒng)中。設(shè)備制造商 ASML正在GPU和cuLitho方面與NVIDIA展開合作,并正在計劃在其所有計算光刻軟件產(chǎn)品中加入對GPU的支持。

這一進(jìn)展將使得未來的芯片能夠擁有比目前更小的晶體管和導(dǎo)線,同時加快產(chǎn)品上市時間,大幅提高為驅(qū)動制造流程而全天候運(yùn)行的大型數(shù)據(jù)中心的能效。

NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“芯片行業(yè)是全球幾乎所有其他行業(yè)的基礎(chǔ)。光刻技術(shù)已臨近物理極限,NVIDIA cuLitho的推出以及我們與 TSMC、ASML 和 Synopsys的合作,使晶圓廠能夠提高產(chǎn)量、減少碳足跡并為2納米及更高工藝奠定基礎(chǔ)?!?/p>

cuLitho在GPU上運(yùn)行,其性能比當(dāng)前光刻技術(shù)工藝(通常指在硅晶圓上繪制電路)提高了40倍,能夠?yàn)槟壳懊磕晗臄?shù)百億CPU小時的大規(guī)模計算工作負(fù)載提供加速。

憑借這項(xiàng)技術(shù),500個NVIDIA DGX H100系統(tǒng)即可完成原本需要4萬個CPU系統(tǒng)才能完成的工作,它們能夠同時運(yùn)行計算光刻工藝的所有流程,助力降低耗電以及對環(huán)境的影響。

在短期內(nèi),使用cuLitho的晶圓廠每天的光掩模(芯片設(shè)計模板)產(chǎn)量可增加3-5倍,而耗電量可以比當(dāng)前配置降低9倍。原本需要兩周時間才能完成的光掩?,F(xiàn)在可以在一夜之間完成。

從長遠(yuǎn)來看,cuLitho將帶來更好的設(shè)計規(guī)則、更高的密度和產(chǎn)量以及AI驅(qū)動的光刻技術(shù)。

加速全球大型企業(yè)的發(fā)展

眾多知名的全球企業(yè)均支持黃仁勛的愿景。

電信巨頭AT&T采用NVIDIA AI,以實(shí)現(xiàn)更高效地數(shù)據(jù)處理。同時,他們正在測試Omniverse ACE和Tokkio AI虛擬化身工作流為客服部門及其員工幫助臺建立、定制和部署虛擬助手。

美國運(yùn)通、美國郵政署、Microsoft Office和Teams以及亞馬遜等4萬家客戶都在使用高性能的NVIDIA TensorRT推理優(yōu)化器和運(yùn)行時,以及多框架數(shù)據(jù)中心推理服務(wù)軟件NVIDIA Triton。

Uber 使用 Triton 實(shí)現(xiàn)每秒為數(shù)十萬車輛預(yù)測到達(dá)時間。

擁有超過6000萬日活用戶的Roblox使用Triton提供游戲推薦模型、構(gòu)建頭像、審核內(nèi)容和市場廣告。

微軟、騰訊和百度都在使用NVIDIA CV-CUDA實(shí)現(xiàn)AI計算機(jī)視覺。這項(xiàng)目前處于公測階段的技術(shù)可優(yōu)化前處理和后處理,節(jié)省4倍成本和能耗。

助力完成不可能的任務(wù)

在演講尾聲,黃仁勛向NVIDIA的系統(tǒng)、云和軟件合作伙伴以及研究人員、科學(xué)家和員工致謝。

黃仁勛宣布,NVIDIA已更新了100個加速庫,包括用于量子計算的cuQuantum和新開源的CUDA Quantum、用于組合優(yōu)化的cuOpt以及用于計算光刻的cuLitho。

黃仁勛表示,全球NVIDIA生態(tài)目前已有400萬名開發(fā)者、4萬家公司和NVIDIA 初創(chuàng)加速計劃中的1.4萬家初創(chuàng)企業(yè)。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-03-22
GTC 2023:黃仁勛發(fā)布主題演講 內(nèi)容涉及ChatGPT、半導(dǎo)體制造
3月22日消息,GTC2023于3月20日至23日舉行,本屆大會將舉辦超過650 場由技術(shù)、商業(yè)、學(xué)術(shù)和政府領(lǐng)域領(lǐng)導(dǎo)者主持的會議。NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛的 GTC 主題演講于北京時間 3 月 21 日 23

長按掃碼 閱讀全文