目前Instinct系列已經(jīng)在全球十大人工智能公司中有7家進(jìn)行了大規(guī)模部署。
MI 350系列發(fā)布: 高性能人工智能和科學(xué)工作負(fù)載解決方案
基于3nm制程的MI350系列代表了迄今為止最先進(jìn)的AI平臺,它包括355x和350x兩個版本,是繼2023年、2024年Instinct MI 300A/X及MI325之后的升級產(chǎn)品。MI350系列兩款產(chǎn)品共享相同的CDNA3架構(gòu)、288GB HBM3E內(nèi)存容量和具有競爭力的8TB/s帶寬,以及針對AI和科學(xué)工作負(fù)載的增強計算能力,在FP6、FP60、FP4、FP6和FP64格式方面具有顯著優(yōu)勢,其TDP (熱設(shè)計功率) 范圍在1000到1400 W之間。
AMD Instinct 355x以更高的系統(tǒng)功率提供最高性能,主要針對液冷部署,可以在單個機架中擴展到96或128個MI 355X GPU;350X專為低功耗的氣冷式而設(shè)計,支持在單個機架中為傳統(tǒng)數(shù)據(jù)中心部署提供多達(dá)64個MI 350X GPU。
兩種架構(gòu)的解決方案本月開始生產(chǎn)并發(fā)貨,預(yù)計第三季度將推出合作伙伴服務(wù)器和CSV實例。
在應(yīng)用場景方面,MI 355X 比上一代的MI300X推理能力提升3倍以上?;贚lama 3.1 405B平臺測試結(jié)果顯示,MI 355X用于人工智能代理和對話機器人的性能提升4.2倍,內(nèi)容生成方面提升高達(dá)2.9倍、以及3.5倍的預(yù)訓(xùn)練吞吐量,會話人工智能提升2.6倍,可為熱門 AI 模型提供更強大的支持,有效推動AI 技術(shù)在不同領(lǐng)域的應(yīng)用與發(fā)展。
在滿足下一代推理需求的最流行的DeepSeek R1、Llama 3.3 70B、Llama 4 Maverick等 AI模型方面,MI355X 的性能分別為 MI300X 的 3 倍、3.2 倍和3.3 倍,表明 MI355X 在處理復(fù)雜 AI 模型推理任務(wù)時具備更強的計算能力和效率,能夠更好地滿足不斷增長的下一代推理需求,為AI模型的高效運行和應(yīng)用提供了有力的硬件保障,推動 AI 技術(shù)在更多場景下的落地與創(chuàng)新。
與市場上同類或更優(yōu)秀產(chǎn)品相比,MI355X GPU也有著不俗的表現(xiàn)。FP4精度條件下,DeepSeek R1 和Llama 3.1 405B模型中,分別使用 SGLang和vLLM框架時,MI355X在大型模型推理吞吐量方面的性能是NVidia B200的1.2 倍和1.3 倍;在 Llama 3.1 405B 模型中使用 vLLM 框架時,MI355X 的性能可與NVidia的GB200性能媲美。這表明 MI355X 在處理大型模型時,能提供更高的推理吞吐量,展現(xiàn)出了卓越的性能優(yōu)勢。
與NVidia B200相比,MI355X最多可增加40%的Token/美元。
今天推出的AMD ROCm 7以及AMD開發(fā)者云,可幫助各類型研發(fā)人員工作更加輕松、更加高效快捷。伴隨AMD AI生態(tài)系統(tǒng)的不斷擴展,ROCm正在被越來越多開發(fā)者所廣泛采用,促進(jìn)了可擴展、開放式的AI創(chuàng)新。
AMD Instinct MI350系列機架基礎(chǔ)設(shè)施完全建立在開放標(biāo)準(zhǔn)上。
MI 350服務(wù)器解決方案包括行業(yè)標(biāo)準(zhǔn)組件,并在一個完全開放的基于標(biāo)準(zhǔn)的機架中提供。它們與第五代EPYC CPU、MI 350或355系列GPU以及用于基于Ultra Ethernet Consortium(超以太網(wǎng)聯(lián)盟、UEC)的AMD Pensando Pollara 400 NIC集成在一個超大規(guī)模環(huán)境的解決方案中。
AMD Instinct系列是AMD面向高性能計算(HPC)、數(shù)據(jù)中心和人工智能(AI)應(yīng)用推出的加速卡產(chǎn)品線,廣泛適用于CSP、新型云計算以及 OEM /ODM領(lǐng)域,并擴展到關(guān)鍵客戶的新產(chǎn)品所需的AI工作負(fù)載支持。
大幅增長的AMD的GPU業(yè)務(wù)
AMD與眾多企業(yè)建立了合作伙伴關(guān)系,為其提供基于Instinct系列的計算解決方案。這些企業(yè)涵蓋了金融、醫(yī)療、交通等多個行業(yè),通過利用AMD的加速卡技術(shù),企業(yè)能夠加速人工智能應(yīng)用的開發(fā)和部署,提高自身在數(shù)字化轉(zhuǎn)型中的競爭力。
在市場和客戶動力的推動下,AMD的GPU業(yè)務(wù)正在大幅增長。 提前開始生產(chǎn)的MI350系列已經(jīng)贏得了Azure、Oracle和新的云合作伙伴等主要公共云平臺上的支持。
在今天的Advancing AI 2025峰會上,Oracle、微軟、RedHat等眾多合作伙伴的代表紛紛登臺,被稱為ChatGPT之父的人工智能實驗室OpenAI聯(lián)合創(chuàng)始人、首席執(zhí)行官Sam Altman 的登臺,為峰會掀起一陣高潮。
下一代 Helios AI機架和MI 400 GPU細(xì)節(jié)披露
專為大規(guī)模AI模型訓(xùn)練和推理而設(shè)計、預(yù)期于2026年發(fā)布的Helios是一個完全集成的AI機架解決方案。
而作為Helios核心的MI 400 GPU,則是AMD為大規(guī)模訓(xùn)練和分布式推理而構(gòu)建的最先進(jìn)的加速器,其具有40 PF的FP4性能及20 PF的FP8性能、高達(dá)432GB的HBM4內(nèi)存容量、19.6TB/s內(nèi)存帶寬和以及300GB/s橫向擴展帶寬,支持?jǐn)?shù)千億到數(shù)萬億的參數(shù)模型,成為2026年大規(guī)模訓(xùn)練和推理領(lǐng)域性能最高的AI加速器,預(yù)計性能比前幾代產(chǎn)品提升10倍。
這些優(yōu)勢將轉(zhuǎn)化為更快的模型訓(xùn)練和更好的推理性能,以及對客戶非常有利的經(jīng)濟(jì)效益,有望在AI性能和經(jīng)濟(jì)方面樹立新標(biāo)準(zhǔn)。
毫無疑問,MI 400系列也將推出一系列風(fēng)冷和液體冷卻選項的解決方案,以滿足大型數(shù)據(jù)中心對能耗方面的要求。
引人關(guān)注的下一代EPYC CPU處理器 “Venice”,其發(fā)布已經(jīng)提上日程。
按照人工智能基礎(chǔ)設(shè)施年度推進(jìn)計劃,AMD將在2027年及以后進(jìn)一步重新擴展架構(gòu),將新的GPU架構(gòu)、EPYC CPU解決方案和Pensando NIC整合到解決方案中。
創(chuàng)建包容、開放的AI生態(tài),助力世界人工智能領(lǐng)域的發(fā)展穩(wěn)步前行
AMD Instinct系列的多樣化產(chǎn)品能夠滿足不同國家和地區(qū)在主權(quán)人工智能建設(shè)中的多樣化硬件需求。無論是針對科研機構(gòu)的高性能計算需求,還是企業(yè)的人工智能應(yīng)用開發(fā)需求,Instinct系列都能提供相應(yīng)的加速卡產(chǎn)品。
AMD還積極與各國科研機構(gòu)合作開展人工智能相關(guān)的研究項目,從而針對性地優(yōu)化Instinct系列加速卡的性能和功能。這種合作也有助于推動人工智能技術(shù)的創(chuàng)新發(fā)展,加速新技術(shù)在人工智能計劃中的應(yīng)用。