李洪革在演講中首先對比了近年來全球集成電路的整體市場情況,在2018年上半年全球集成電路市場,全球Top15企業(yè)排行中,美國依然是主場,美國企業(yè)控制了60%的市場,而韓國,日本,中國臺灣,歐洲則各自為營排列其后,進一步表明集成電路相關頂級產(chǎn)品依然是由國外壟斷和控制。
全球芯片戰(zhàn)場概覽
傳統(tǒng)集成電路芯片可以放置在Amp,RF,ADC上,它們在芯片市場占比達22%;
存儲器(DRAM,SRAM等),以三星,美光,海力士為代表,所占份額達到29%;
傳統(tǒng)CPU,英特爾依然是一頭獨大,AMD最近也逐漸被邊緣化,其在芯片市場占比22%;
以ARM為核心所誕生的移動處理器市場潛力巨大,由高通,蘋果,博通等巨頭領銜,在芯片市場占比16%;
在上周五,華為宣布推出7納米的AI芯片,這意味著華為已將AI CPU,列為與CPU,GPU并行的第三個處理單元,未來市場趨勢是否會向AI CPU傾斜,需要時間來驗證。
各領域芯片產(chǎn)業(yè)界的地位
傳統(tǒng)處理器市場,由英特爾,AMD,IBM等壟斷;存儲器領域,三星和海力士主導;在image sensor(圖像傳感器)細分領域中,日本索尼則排位第一,而AI芯片方面(ISSCC2018沒有稱之為AI芯片,而是將概念擴展為Neuromorphic類腦計算),近年來美國,韓國,日本,歐洲都在不斷發(fā)力人工智能芯片市場,美韓兩國具有領先優(yōu)勢,而國內(nèi)研究則有待加強。
人工智能的新一輪熱點是完全基于傳統(tǒng)神經(jīng)網(wǎng)絡的計算興起,因此李教授科普了神經(jīng)網(wǎng)絡的發(fā)展歷史。
李教授指出, Neuromorphic研究成果基本集中在計算能力和性能上。而在1998年,卷積(深度)神經(jīng)網(wǎng)絡之所以沒有流行是因為其在初期需要進行大量計算,但當時的芯片工藝幾乎不可完成,之后我們也可以看到英特爾和英偉達計算力的提升基本與芯片工藝的尺寸成正比,因此卷積(深度)神經(jīng)網(wǎng)絡能夠在如今大規(guī)模發(fā)展完全得益于片上系統(tǒng)的高性能計算,沒有納米級IC支撐,網(wǎng)絡很難真正實用化。
深度學習神經(jīng)網(wǎng)絡主要由三層組成,前兩層是全連接和輸出層,是標準的雙層BP網(wǎng)絡。其區(qū)別在于后面增加了N層卷積計算層來進行特征提取。DNN由微軟從5層拓展到152層來增強計算力,其中卷積計算就消耗了90%以上的計算和運行資源。但相比之前,耗時耗力的利用軟件方式進行特征提取再放置到網(wǎng)絡進行特征分類,也實在是簡單粗暴。
未來,深度學習神經(jīng)網(wǎng)絡的角力場將會是醫(yī)療診斷,金融服務,圖像識別,工業(yè)機器人,無人駕駛,人機博弈方面。
AI芯片的主流架構有哪些
1.谷歌TPU。延用了傳統(tǒng)的CPU和GPU技術,但通過一些技術的差異化及缺陷調(diào)整,性能快了15-30倍,采用28納米制程工藝。不過計算方式仍是標準的馮諾依曼體系架構,即數(shù)據(jù)流與控制流獨立并行的架構。優(yōu)勢是進行包括MLP,CNN,RNN的多層計算。
2.IBM提出的Truenorth神經(jīng)擬態(tài)處理器。完全基于人腦架構制成的類腦計算,功耗僅為65毫瓦。
3.基于PE陣列的MIT Eyeriss芯片架構。功耗為278毫瓦。
4.哈佛為DNN加速設計的芯片架構。采用稀疏矩陣,算法和架構有了質(zhì)的變化。采用28納米技術,功耗達到23.5毫瓦。
5.韓國科技技術院(KAIST)設計的芯片架構。
6.佐治亞理工設計的芯片架構。
7.2014年中科院設計的Diannao芯片。
李教授還在最后提及了神經(jīng)網(wǎng)絡的未來發(fā)展方向:云端深度學習神經(jīng)網(wǎng)絡處理器,終端深度學習神經(jīng)網(wǎng)絡處理器,神經(jīng)擬態(tài)處理器。