美光科技亞太區(qū)解決方案架構總監(jiān)陳詩義

以下內容來自現場速記:

各位嘉賓早上好,非常能夠在這個大會給大家分享美光對于新的介質的一些想法,還有這些新的介質能夠在未來創(chuàng)造哪一些不同的應用情景。眾所皆知現在最新的QLC可能是一個比較新的(閃存介質)技術,它未必能夠應用在所有應用上,所以我今天想跟大家分享一下QLC在什么地方能夠發(fā)揮它的潛能?

首先我們先看一下我們所謂的數據經濟。我們每天在想怎么將數以億計的互聯網設備連接起來,連接是大家都能做到的事情,重要的是我們怎么樣能從這些數據里面拿到有益于的大家的實時數據做分析,然后最重要的是怎么在業(yè)界里面做出價值,這是非常重要的,大家每天在思考的事情。

如果從數據的海量數據來看,僅僅去年我們已經在業(yè)界里面大家已經制造了有2.2萬億GB的數據,這是非常大的數據。大家有沒有想過這么多數據我們怎么去應用而制造價值?這也是我們今天希望探討的一部分。我們預測僅僅三年就會翻3倍,到達6.2萬億的水平,這是一個非常大的增長,數據越多問題就越多,我們怎么去善用我們目前的技術?怎么去處理這些不同的數據?

我們也認為AI是一個非常大的動力,非常大的一個能夠改變規(guī)則的動力。為什么?因為數據多,我們不可能用人工去分析,人工智能肯定會是未來一個非常大的趨勢。我們能夠通過AI去分析、收集大數據,從中能得到一些趨勢,然后去制造一些非常巨大的市場價值。同時大家也有目共睹,現在目前語音識別已經增長的非???,已經進入了主流的狀態(tài)。所以這也是為什么我們能看到AI是一個能夠改變未來的一個非常大的趨勢。

這些改變會帶來哪一種變化?

如果我們從數據中心看,我們美光公司認為大概僅僅三年,企業(yè)在數據中心上面的金額大概會提升2.6倍左右,這主要的原因就是由AI而引起的一些變化。因為當你要用AI做大數據分析的時候,往往你需要非常非常高的配置。因為現在現行的CPU已經有足夠的能力去做非常高的運算,所以瓶頸還是在IO。

所以為了讓AI發(fā)揮更大的效率,我們需要增大DARM方面的配置,同時也需要增大SSD方面(的配置)。所以我們預測如果要做一個更好的AI設備,我們大概看到我們需要從現有的配置把DRAM翻6倍,SSD翻2倍。

從這個觀點來看,我們也預測在2025年那個時候能夠提供AI服務的服務器可能占比已經要接近大概四成左右,這也是市場未來的趨勢,所以從這個觀點來看,這個市場會怎么去變化,你怎么善用DRAM和SSD來達到更高效率的數據處理。

另外一件事情我們也觀察到,現在海量的數據有一個特性,就是很多數據我們主要要做的事情是怎么能很快迅速去分析,而不是重復去寫。你寫的一遍之后,就基本上不會再重寫了。你主要要做的是怎么去高速分析你現有的數據,因為很多業(yè)務等等都需要知道以往的數據來做下一步的決策,所以這也是一個非常有趣的事情,跟以往可能經常要擦寫的業(yè)務已經有了非常巨大的改變。

從以往的業(yè)務來看,我們大家都非常清楚,以前的傳統(tǒng)業(yè)務可能就寫1次就要讀4次,從我們的調研當中發(fā)現AI不是這么走的。AI通過深度學習或者機器學習,基本上是要靠讀取以往的數據進行分析,比例已經從4:1變到5000:1,意味著你以后要的配置可能不需要他們關注寫性能,所以這也是為什么我們要在這個大會上跟大家分享這些未來的改變,看看我們怎么能夠善用現有的技術來把科技推到更高。

接下來大家可以看到這個介質是非常重要的事情,我們多年前推出MLC,現在在市場上已經沒有看到任何廠商出任何用SLC的產品了,主要是因為它們已經逐漸慢慢被MLC、TLC、QLC替代了。

當年剛剛推出的時候,MLC的擦寫次數大概有100K左右。隨著技術的發(fā)展,我們已經不需要那么多擦寫,因為主控和那些軟件已經能夠善用介質的性能,在顆粒的層面不需要做到100K擦寫的次數那么大、那么昂貴的一種做法。從這邊來看,我們增加了(NAND)密度,我們擦寫的數據已經降到大概1.5K左右,所以這也是和我們之前看到的那些數據有相關的部分,目前QLC我們定位是在1.5K左右。

QLC這個新的介質能夠用在所有的業(yè)務上面?當然不是所有業(yè)務都能夠用QLC。我們分析過,這個圖片(下圖)是讓大家看一下我們覺得QLC在哪一部分能夠發(fā)揮它最佳的應用場景。

首先(QLC)當然寫性能就沒有TLC或者以往的MLC那么好,不過如果我們是做順序的大快寫這是非常好的應用場景,例如做視頻的串流,都是非常適合運行在QLC上的業(yè)務,或者是機器學習、AI同樣如此。

你可以看到(上圖的PPT),我們所列的幾個業(yè)務都是非常合適在QLC上面應用的。比如說機器學習、BigData。除此以外,最下面那一行也讓大家知道,我們看到這些技術的增長速度有多快。如果你從AI和實時的數據復雜這兩大塊看,它的比大概有43%左右,這是增長非常快的,所以我們也希望能夠通過QLC的產品來解決這個問題。

換個角度我們看看整個大市場,我們怎么能夠通過新的介質來提升大家的運用效率?首先我們能夠提供到8TB的產品來滿足需求,同時在性價比也是能夠達到一個新的等級,能夠讓它更有效應用在你們的業(yè)務里面。這個業(yè)務增長非??欤@是商機,大家能夠共同去開拓的一些商機。如果走出來看,這個產業(yè)的年比增長是大概28%左右,所以我們覺得QLC這時候是可以開始為大家解決產業(yè)面臨的那些數據處理的問題。

接下來我要跟大家分享一下QLC會不會替代TLC?以我們的分析是不會的,因為QLC目前現狀是有它自己的特性,讀寫肯定沒有TLC那么快。所以我們特別找了一些適用QLC的業(yè)務,所以你們從圖片可以看到,大家所熟悉的MLC從2017年開始將逐漸降低。

我們覺得QLC可能會和TLC并存,會慢慢增長,慢慢把MLC那部分替代。未來我們可以看到MLC、TLC、QLC和QLC為主流流,三年后QLC占比會慢慢增加,不過不會替代TLC。我們慢慢發(fā)掘QLC的潛力,把QLC的性能全部發(fā)揮出來。

下一個問題是Needs,這個圖片是跟大家講解一下我們現在看到的Needs的問題。早在2016年的時候,灰色的那塊比較大。

因為業(yè)界的轉變,我們也慢慢看到灰色的部分開始縮小了,因為業(yè)務基本上用不了那么大的。就等于OP一樣,可能你有時候不需要那么大的,你就把它調大之后,從你的成本來看這基本上是最好的一個決定。

所以從這個圖片大家也可以看到,基本上我們已經看到很多業(yè)務能夠在小于1個DWPD下操作,這個已經發(fā)展好多年了。2017年超過七成以上業(yè)務,能夠使用低于1DWPD,所以希望大家能夠從這方面思考一下,到底你們現在業(yè)務上所定的規(guī)格是不是需要重新考慮,把規(guī)格調低一點,以達到更高效率的閃存能力。

在美光官網上可以獲取一個AI的方案文檔,這是一個很傳統(tǒng)的機器學習,會做一個(數據)搜集和分類,這個文檔介紹了使用QLC加速機器學習的操作。如上圖所示,使用QLC的5120 SSD和機械硬盤做了一個對比,可以發(fā)現基本上很多時間唄節(jié)省下來。從這個圖片來看,我們得到了幾個結論。

在你們越做越多的機器學習,你能夠省的時間是越多的,從僅僅9分鐘到13分鐘而已。同時如果數據越大,能夠節(jié)省的時間越多,這是因為我們把這個大塊的數據寫到QLC上面去,我們也能夠用很快的速度把它讀出來,所以這也是為什么讓大家覺得AI是一個新的適合使用QLC的應用場景。從CPU或者GPU的角度來看,我們很多時候都讓CPU、GPU在等待結果,在QLC消除IO的瓶頸后, CPU、GPU使用效率也隨之提高,這也是我們看到的一點。最后當然因為這個QLC是基于固態(tài)硬盤,我們在節(jié)能那邊也能達到3倍,因為這個盤子里面我們沒有任何機械的成分在。

首先我要跟大家總結三點。

以上就是我演講的全部內容,謝謝大家!

分享到

zhupb

相關推薦