算力驅動時代的超級引擎
重磅嘉賓云集
覆蓋英特爾、并行科技、上??萍即髮W等頂尖企業(yè)、高校與技術團隊,匯聚產(chǎn)學研領袖。
前沿議題覆蓋全棧算
從底層算力優(yōu)化到行業(yè)落地應用,探討大模型開發(fā)、推理加速、知識中臺等關鍵技術。
實戰(zhàn)導向
聚焦企業(yè)生產(chǎn)力工具升級、國產(chǎn)算力生態(tài)建設等產(chǎn)業(yè)痛點,提供可落地的解決方案。
論壇日程
搶先預覽
英特爾、并行科技、楓清科技、上??萍即髮W教授、九章云極、華院計算、清程極智等大佬親自劃重點!
英特爾全棧算力賦能AI應用
解決痛點:企業(yè)AI轉型面臨“算力貴、開發(fā)難、生態(tài)封閉”三大死穴!
AI落地再提速:
DeepSeek加速企業(yè)生產(chǎn)力工具升級
DeepSeek一體機通過技術突破(算法、算力、知識庫)與場景落地(制造、醫(yī)療、金融、教育等)的雙輪驅動,已成為行業(yè)智能化轉型的關鍵基礎設施。
覆蓋醫(yī)療、教育、制造、金融等十余個核心行業(yè)。其異構計算架構支持模型訓練、推理、知識庫管理等四大開發(fā)場景,以及智慧辦公、代碼開發(fā)等六大應用場景,成為企業(yè)智能化升級的重要技術支撐。
知識中臺賦能DeepSeek一體機行業(yè)深耕
知識中臺作為一種先進的數(shù)據(jù)管理與應用架構,能夠整合企業(yè)內(nèi)外部的知識資源,運用知識圖譜、語義分析等前沿技術,為企業(yè)提供高效的知識檢索、智能推薦等服務。
當知識中臺賦能DeepSeek一體機,將為企業(yè)智能化轉型注入強大動力。以制造業(yè)為例,知識中臺可整合生產(chǎn)流程、設備維護、供應鏈管理等多方面知識,配合DeepSeek一體機強大的運算能力,實現(xiàn)生產(chǎn)過程的智能優(yōu)化、設備故障的精準預測,從而提升生產(chǎn)效率,降低生產(chǎn)成本。
面向神經(jīng)網(wǎng)絡Checkpointing的探索與優(yōu)化
在深度學習訓練中,Checkpointing(檢查點技術)是解決內(nèi)存瓶頸、提升訓練效率的核心手段。其核心目標是通過選擇性存儲中間激活值或優(yōu)化存儲策略,在有限硬件資源下訓練更大規(guī)模的模型。
Checkpointing通過前向傳播時僅存儲部分激活值,在反向傳播時重新計算丟失的激活值,從而減少內(nèi)存占用。例如,在訓練千億參數(shù)大模型時,激活值可能占用數(shù)十GB內(nèi)存,而Checkpointing可將內(nèi)存需求降低至可接受范圍。
典型應用場景:
Aladdin–開發(fā)者必備的大模型開發(fā)利器
在2025GDC全球開發(fā)者先鋒大會上,九章云極DataCanvas公司AI首席科學家繆旭博士提出:“算力不應是少數(shù)企業(yè)的‘奢侈品’,而應成為開發(fā)者觸手可及的‘日用品’”。其推出的Aladdin大模型開發(fā)工具通過三大核心突破,正在重塑AI開發(fā)范式:
高效率:開發(fā)環(huán)境與GPU算力開箱即用,直連云端集群,代碼調(diào)試、模型訓練如本地操作般流暢;
高彈性:智能調(diào)度算力資源,任務完成即釋放資源,避免閑置浪費;
低成本:按量計費模式使百億大模型微調(diào)成本直降75%,告別“開機即燒錢”。
認知智能引擎平臺一體機
華院計算技術(上海)股份有限公司(以下簡稱“華院計算”)旗下認知智能引擎平臺完成重大升級,全面支持DeepSeek大模型R1 & V3和蒸餾系列模型的本地部署與優(yōu)化,并推出行業(yè)模型本地化部署解決方案。認知智能引擎平臺與DeepSeek模型兼容,有助于推動AI技術產(chǎn)業(yè)落地和全國產(chǎn)化技術能力,進一步鞏固其在認知智能領域的市場領先地位。
截至目前,華院計算認知智能引擎平臺已沉淀6萬+算法模型,支持7000億級參數(shù)的垂直行業(yè)大模型本地化部署與調(diào)優(yōu)。華院持續(xù)基于認知智能引擎平臺開展深度場景應用,為智能制造、社會治理、數(shù)字文旅、零售金融等行業(yè)提供AI+行業(yè)解決方案。本次升級后,平臺用戶除可通過統(tǒng)一接口調(diào)用DeepSeek-R1 & V3模型的深度推理與精準決策能力外,也可基于平臺,在國產(chǎn)算力上實現(xiàn)DeepSeek系列模型的部署和調(diào)優(yōu)。
赤兔引擎開源:國產(chǎn)算力的“復仇者聯(lián)盟”!
國產(chǎn)大模型優(yōu)秀產(chǎn)品不斷涌現(xiàn),但大模型的高效部署一直是行業(yè)痛點。
如何用國產(chǎn)卡支持最先進的模型,如何讓大模型部署更省算力、推理速度更快?
清程極智聯(lián)合清華大學翟季冬教授團隊,正式開源大模型推理引擎「赤兔Chitu」,實現(xiàn)非H卡設備(如國產(chǎn)芯片、英偉達舊款GPU)無損運行原生FP8模型,為「國產(chǎn)大模型+國產(chǎn)引擎+國產(chǎn)芯片」生態(tài)按下加速鍵!