英偉達(dá)宣布啟動(dòng)名為DIGITS(Deep learning gpu intelligence training system)的項(xiàng)目,打造桌面級(jí)超級(jí)計(jì)算機(jī),它將基于全新的GB10超級(jí)芯片打造,可提供1 Petaflop的AI 計(jì)算性能,可用于AI 模型的原型設(shè)計(jì)、微調(diào)和推理場(chǎng)景。

開發(fā)者在本地完成模型原型開發(fā)后,可以把模型放到云或者其他數(shù)據(jù)中心進(jìn)行訓(xùn)練,模型訓(xùn)練完成后可以放到本地進(jìn)行微調(diào)或者推理。由于本地和云上都采用了Grace Blackwell 架構(gòu)和 NVIDIA AI Enterprise 軟件平臺(tái),做到了軟硬件的無(wú)縫銜接。

英偉達(dá)首次提到GB10 超級(jí)芯片,它是基于Grace Blackwell 架構(gòu)打造的SoC,在 FP4 精度下可提供高達(dá) 1 Petaflop 的 AI 計(jì)算性能。

除了Blackwell GPU核心以外,GB10還集成了20核的Arm處理器,兩者通過(guò) NVLink-C2C 芯片互連技術(shù)相互連接。

每臺(tái)設(shè)備可提供128GB的共享內(nèi)存,最高4TB的存儲(chǔ)空間。作為一款桌面級(jí)設(shè)備,它支持在標(biāo)準(zhǔn)供電下運(yùn)行,功耗并不高,但性能非常強(qiáng)大。

憑借128GB的共享內(nèi)存,它可以運(yùn)行最高2000 億參數(shù)的大型語(yǔ)言模型。配合英偉達(dá)的ConnectX網(wǎng)絡(luò)技術(shù),能把兩臺(tái)設(shè)備連在一起,這樣就可以推理4050億參數(shù)的AI模型。

分享到

zhupb

相關(guān)推薦