美國加利福尼亞州圣何塞 —— GTC —— 太平洋時間 2024 年 3 月 18 日 —— NVIDIA 于今日宣布推出 NVIDIA Blackwell 平臺以賦能計算新時代。該平臺可使世界各地的機構(gòu)都能夠在萬億參數(shù)的大語言模型(LLM)上構(gòu)建和運行實時生成式 AI,其成本和能耗較上一代產(chǎn)品降低多達 25 倍。

Blackwell GPU 架構(gòu)搭載六項變革性的加速計算技術(shù),這些技術(shù)將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計自動化、計算機輔助藥物設(shè)計、量子計算和生成式 AI 等領(lǐng)域?qū)崿F(xiàn)突破,這些都是 NVIDIA 眼中的新興行業(yè)機遇。

NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示: “三十年來,我們一直深耕加速計算領(lǐng)域,力求實現(xiàn)像深度學習和 AI 這樣的變革性突破。生成式 AI 是我們這個時代的決定性技術(shù),Blackwell GPU 是推動新一輪工業(yè)革命的引擎。通過與全球最具活力的企業(yè)合作,我們將實現(xiàn) AI 賦能各行各業(yè)的承諾?!?/p>

許多企業(yè)都在計劃采用 Blackwell,其中包括亞馬遜云科技、戴爾科技、谷歌、Meta、微軟、OpenAI、Oracle、特斯拉和 xAI。

新架構(gòu)以紀念 David Harold Blackwell 命名,他不僅是一位專門研究博弈論和統(tǒng)計學的數(shù)學家,也是第一位入選美國國家科學院的黑人學者。這一新架構(gòu)是繼兩年前推出的 NVIDIA Hopper? 架構(gòu)以來的全新架構(gòu)。

Blackwell 的多項創(chuàng)新技術(shù)為加速計算和生成式 AI 提供助力

憑借六項變革性的技術(shù),Blackwell 能夠在擁有高達 10 萬億參數(shù)的模型上實現(xiàn) AI 訓練和實時 LLM 推理,這些技術(shù)包括:

一個超大規(guī)模的超級芯片

NVIDIA GB200 Grace Blackwell 超級芯片通過 900GB/s 超低功耗的片間互聯(lián),將兩個 NVIDIA B200 Tensor Core GPU 與 NVIDIA Grace CPU 相連。

為了實現(xiàn)超高的 AI 性能,搭載 GB200 的系統(tǒng)可與同在今天發(fā)布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum?-X800 以太網(wǎng)平臺連接。這兩個平臺均可提供速度高達 800Gb/s 的高性能網(wǎng)絡(luò)。

GB200 是 NVIDIA GB200 NVL72 的關(guān)鍵組件。NVIDIA GB200 NVL72 是一套多節(jié)點液冷機架級擴展系統(tǒng),適用于高度計算密集型的工作負載。它將 36 個 Grace Blackwell 超級芯片組合在一起,其中包含通過第五代 NVLink 相互連接的 72 個 Blackwell GPU 和 36 個 Grace CPU。此外,GB200 NVL72 還內(nèi)置 NVIDIA BlueField?-3 數(shù)據(jù)處理器,可在超大規(guī)模 AI 云中實現(xiàn)云網(wǎng)絡(luò)加速、組合式存儲、零信任安全和 GPU 計算彈性。對于LLM 推理工作負載,相較于同樣數(shù)量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72 最高可提供 30 倍的性能提升以及多達 25 倍的成本和能耗降低。

該平臺可作為一個單 GPU,具有 1.4 exaflops 的 AI 性能和 30TB 的快速內(nèi)存,是組成最新一代 DGX SuperPOD 的基礎(chǔ)模塊。

NVIDIA 提供的 HGX B200 是一個通過 NVLink 連接 8 塊 B200 GPU 的服務(wù)器主板,支持基于 x86 的生成式 AI 平臺?;?NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太網(wǎng)網(wǎng)絡(luò)平臺,HGX B200 支持高達 400Gb/s 的網(wǎng)絡(luò)速度。

Blackwell 的全球合作伙伴網(wǎng)絡(luò)

合作伙伴將從今年晚些時候開始供應(yīng)采用 Blackwell 架構(gòu)的產(chǎn)品。

AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure 將成為首批提供 Blackwell 驅(qū)動實例的云服務(wù)提供商。同時 NVIDIA 云合作伙伴計劃的公司 Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也將提供上述服務(wù)。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡電信、Northern Data Group 的 Taiga Cloud、Yotta Data Services 的 Shakti Cloud 和 YTL Power International 等主權(quán) AI 云也將提供基于 Blackwell 架構(gòu)的云服務(wù)和基礎(chǔ)設(shè)施。

GB200 還將通過 NVIDIA DGX? Cloud 提供,NVIDIA DGX? Cloud 是一個與領(lǐng)先的云服務(wù)提供商共同設(shè)計的 AI 平臺,可為企業(yè)開發(fā)人員提供專門的基礎(chǔ)設(shè)施和軟件訪問權(quán)限,使他們能夠構(gòu)建并部署先進的生成式 AI 模型。AWS、Google Cloud 和 Oracle Cloud Infrastructure 計劃在今年晚些時候托管采用 NVIDIA Grace Blackwell 的新實例。

Cisco、戴爾科技、慧與、聯(lián)想和 Supermicro 預(yù)計將提供基于 Blackwell 產(chǎn)品打造的各種服務(wù)器。Aivres、永擎電子、華碩、Eviden、Foxconn、技嘉、Inventec、和碩、QCT、Wistron、緯穎和 ZT Systems 也將提供基于 Blackwell 的服務(wù)器。

此外,越來越多的軟件制造商網(wǎng)絡(luò),包括工程仿真領(lǐng)域的全球領(lǐng)導者 Ansys、Cadence 和 Synopsys,將使用基于 Blackwell 的處理器來加速其用于設(shè)計和仿真電氣、機械和制造系統(tǒng)及零件的軟件。他們的客戶可以更低成本、更高能效地使用生成式 AI 和加速計算,來加速產(chǎn)品上市。

分享到

zhupb

相關(guān)推薦