ZETTAKIT(澤塔云)技術(shù)副總裁(創(chuàng)始合伙人)黃揚。

黃揚:大家好,我是來自ZETTAKIT的黃揚,我是公司合伙人之一。

我本人是研發(fā)出身,參與了公司產(chǎn)品的前期研發(fā)工作。公司經(jīng)過快速發(fā)展,產(chǎn)品在各行業(yè)有了很多實際應(yīng)用案例,公司現(xiàn)在有很多的牛人,寫代碼就沒我啥事了。我就深入用戶那里,去了解項目,解決項目中遇到的實際問題,然后把這些實際問題反饋到我們架構(gòu)設(shè)計當(dāng)中去,不斷改進(jìn)我們的產(chǎn)品。

存儲這一塊,我們首先追求穩(wěn)定,雖然有很多創(chuàng)新,但是架構(gòu)方面其實可能沒有太多可說的,我們有同事在其他分論壇介紹公司的存儲產(chǎn)品,我在這里跟大家分享軟件力量在超融合架構(gòu)里面的決定性作用,從另外一個側(cè)面說說我們怎么用軟件的力量使得超融合架構(gòu)更好更強(qiáng)。

今天,我跟大家分享的技術(shù)話題是《企業(yè)級SDN助力超融合架構(gòu)》。

首先簡單介紹一下我們公司,我們公司成立于2014年,還是個年輕的公司,但是發(fā)展特別快。ZETTAKIT是我們注冊商標(biāo)同時也是我們產(chǎn)品名,我們也有自己的ZETTAKIT一體機(jī)。寓意是能夠處理ZETTA數(shù)量級的軟件,澤塔是中文名。
公司致力于超融合云計算,軟件定義數(shù)據(jù)中心相關(guān)領(lǐng)域的研究和產(chǎn)品開發(fā)。成立兩年多,我們的超融合云計算產(chǎn)品已經(jīng)在金融、證券、政府、企業(yè)和高等院校有很多用戶。

下面我來分享一下我們公司在超融合架構(gòu)上的認(rèn)識,尤其是軟件力量在云計算領(lǐng)域的重要作用。

傳統(tǒng)硬件定義架構(gòu)功能固定,不能靈活設(shè)定存儲策略;并且不具有水平擴(kuò)展能力,滿足不了云計算數(shù)據(jù)中心規(guī)模自由伸縮的要求。

超融合架構(gòu)讓計算與存儲功能充分融合,以軟件的力量實現(xiàn)數(shù)據(jù)中心的自由伸縮,水平擴(kuò)展。

那么超融合架構(gòu)下網(wǎng)絡(luò)應(yīng)該是什么樣?

計算與存儲已經(jīng)融合,軟件發(fā)揮了決定性的力量。

我們應(yīng)該更進(jìn)一步,做到計算、存儲、網(wǎng)絡(luò)的全面融合,發(fā)揮軟件的力量,使得網(wǎng)絡(luò)隨計算和數(shù)據(jù)而動。

傳統(tǒng)網(wǎng)絡(luò)架構(gòu)的弊端在超融合架構(gòu)中顯現(xiàn)的尤為明顯,不支持動態(tài)按需調(diào)配,導(dǎo)致資源無法被高效自動化供給,影響了整個云計算架構(gòu)的快速部署、靈活調(diào)配。同時,在超融合架構(gòu)當(dāng)中實際去實施的過程當(dāng)中有一個落地的問題,就是有一個傳統(tǒng)數(shù)據(jù)中心向超融合云計算數(shù)據(jù)中心平滑演進(jìn)的問題,但我們知道,傳統(tǒng)網(wǎng)絡(luò)架構(gòu)的弊端在這種情況下顯現(xiàn)的尤為明顯。

所以我們可以很容易的想到超融合架構(gòu)下的網(wǎng)絡(luò)就應(yīng)該有三大特征:軟件定義架構(gòu),功能融合和快速部署、靈活調(diào)配。用一句簡單話說超融合架構(gòu)網(wǎng)絡(luò)就需要SDN就需要軟件定義網(wǎng)絡(luò)。

我們再來看看細(xì)節(jié)。

在超融合架構(gòu)中,網(wǎng)絡(luò)將分散的計算和存儲資源單元連結(jié)起來,構(gòu)成計算資源池,存儲資源池。

超融合架構(gòu)有計算、存儲、管理三張網(wǎng)絡(luò)。其中存儲網(wǎng)絡(luò)是相比傳統(tǒng)硬件定義架構(gòu)增加的,或者說取代FC、sas等專用存儲交換網(wǎng)絡(luò)。這要求大帶寬,低延遲。

雖然超融合存儲可以通過調(diào)整副本分布策略減少網(wǎng)絡(luò)壓力,但網(wǎng)絡(luò)資源仍然是瓶頸,尤其是大規(guī)模下或者對存儲性能要求高時,比如金融行業(yè)中的高頻交易系統(tǒng)應(yīng)用場景下。

11

看這幾個概念圖,這個是邏輯上的三張網(wǎng)絡(luò)劃分,物理網(wǎng)絡(luò)同樣可以這么部署,但每個網(wǎng)的資源有限,導(dǎo)致性能受限。資源的共享程度越高,系統(tǒng)的資源利用率就越高,那么運行成本就越低或者性能就更好。

所以理想是這樣的,將網(wǎng)絡(luò)鏈路聚合起來,被三張網(wǎng)絡(luò)共享使用。當(dāng)然共享就有資源爭用問題需要解決。這對網(wǎng)絡(luò)資源的控制能力提出了更高要求。

大規(guī)模下,還有更多的資源瓶頸。

總結(jié)一下,超融合架構(gòu)需要SDN,但也對SDN提出了一些新的要求。

軟件定義架構(gòu),功能融合,快速部署、靈活調(diào)配,這三個是基本要求。

還有這些新要求:

第一個,低延遲很重要,這決定了性能擴(kuò)展能力的上限。

第二個是自由伸縮,超融合架構(gòu)的必備技能。這里包括構(gòu)建的邊際成本低,網(wǎng)絡(luò)的控制平面和數(shù)據(jù)平面都要具有自由伸縮的能力。

第三個是易操作,這個是指整個系統(tǒng)操作簡單,運維也簡單。操作簡單是指讓用戶容易掌握云計算系統(tǒng)的使用;隨著數(shù)據(jù)中心規(guī)模的擴(kuò)展,網(wǎng)絡(luò)系統(tǒng)的復(fù)雜性提高,對于運維人員來說,任何故障都是難以捕捉的,運維簡單要求網(wǎng)絡(luò)的可視化和方便的故障檢測機(jī)制。

第四個是資源占用低,顯然功能融合下,網(wǎng)絡(luò)、存儲都會占用計算資源,這要求這部分資源占用盡可能低,將更多的CPU、內(nèi)存資源留給計算。其實也是x86體系性能進(jìn)步快才讓超融合架構(gòu)成為可能。否則計算都不夠,就不可能融合存儲和網(wǎng)絡(luò)了。資源占用低永遠(yuǎn)是超融合架構(gòu)應(yīng)該追求的。

下面我來說說我們SDN在架構(gòu)設(shè)計上怎么考慮這些新要求的。

我們的SDN產(chǎn)品是ZETTAKIT超融合云計算系統(tǒng)的一個組成部分。

我們的SDN設(shè)計的指導(dǎo)思想讓軟件發(fā)揮決定力量,不僅是計算網(wǎng)絡(luò),也將管理網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)納入軟件管理。

超融合架構(gòu)首先讓數(shù)據(jù)隨計算流動,我們想進(jìn)一步通過軟件的力量,讓網(wǎng)絡(luò)隨計算和數(shù)據(jù)而動。
12

眾所周知,SDN有三大核心特征:一是數(shù)據(jù)平面與控制平面分離,二是集中控制,三是通過良好設(shè)計的編程接口控制網(wǎng)絡(luò)行為。

我們在SDN架構(gòu)設(shè)計上,將這三個核心特征進(jìn)一步擴(kuò)展,以適應(yīng)超融合架構(gòu)的新要求:

首先,在全系統(tǒng)的各個網(wǎng)絡(luò)資源單元都實現(xiàn)了數(shù)據(jù)平面和控制平面的分離,讓控制信息和狀態(tài)信息更獨立也更集中,盡力避免“自學(xué)習(xí)”型的數(shù)據(jù)交互方式(比如ARP這樣的協(xié)議),這樣讓網(wǎng)絡(luò)資源響應(yīng)更快,控制粒度更細(xì),也能減少因狀態(tài)不一致引起的故障。

其次,實現(xiàn)計算、存儲、網(wǎng)絡(luò)資源的統(tǒng)一管控,也就是圖中的ZETTAKIT云計算管理平臺,這是更大范圍的集中控制。

最后,計算、存儲和網(wǎng)絡(luò)資源全由軟件定義。這樣一來,在云計算管理平臺,所有資源池化了,用戶控制的是各種邏輯資源對象,比如虛擬機(jī),虛擬磁盤,虛擬路由器,IP資源,帶寬資源等??梢哉f這是一種對象化和實體化的編程接口,是對現(xiàn)實世界中各種IT資源實體的簡化和增強(qiáng),用戶容易理解,只需關(guān)心業(yè)務(wù)層面的事情??梢哉f是應(yīng)用驅(qū)動的SDN,這是易操作的基礎(chǔ)。

除上述三大特征之外,我們的SDN架構(gòu)還考慮了自由伸縮和功能融合兩方面的要求:

1. 自由伸縮:控制平面和數(shù)據(jù)平面都具有比較強(qiáng)的伸縮性。雖然控制邏輯上是集中的,但物理上也集中必然導(dǎo)致擴(kuò)展性不佳。我們設(shè)計上采用了分層的架構(gòu),狀態(tài)數(shù)據(jù)庫保存上層網(wǎng)絡(luò)描述,是抽象的數(shù)據(jù)模型。每個控制器都獨立運行,將此抽象數(shù)據(jù)模型轉(zhuǎn)化為底層的控制描述??刂破饕策M(jìn)一步分工,網(wǎng)絡(luò)節(jié)點和計算節(jié)點上采用分布式控制器架構(gòu),單獨的控制器集群對物理交換機(jī)網(wǎng)絡(luò)進(jìn)行控制。服務(wù)器是葉子節(jié)點,物理交換機(jī)網(wǎng)絡(luò)是中間節(jié)點,葉子節(jié)點上的控制器邏輯很簡單,只需要保證配置的最終一致性,不需處理環(huán)路、保序等復(fù)雜問題??刂莆锢斫粨Q機(jī)網(wǎng)絡(luò)的SDN控制集群相對復(fù)雜,但因為被控制的對象(物理交換機(jī))的對象相比服務(wù)器有數(shù)量級的減少,容易實現(xiàn)精細(xì)的控制。這樣控制平面交互信息少。

同時,自由伸縮的另一面”高可用”上,也符合超融合架構(gòu)的特點:控制器故障只會影響本節(jié)點,其他節(jié)點正常運行不受影響。

2. 功能融合:每個節(jié)點計算、存儲、網(wǎng)絡(luò)功能融合。不管從控制平面,還是數(shù)據(jù)平面來說都是如此。

13數(shù)據(jù)平面架構(gòu)。

接下來說說我們在數(shù)據(jù)平面的設(shè)計,這方面主要的考量是降低延遲減少計算節(jié)點上的資源占用

這里也來源于我們項目實際需求,現(xiàn)在有很多用戶其實是一個傳統(tǒng)硬件定義架構(gòu),他們的數(shù)據(jù)中心是傳統(tǒng)型的,但是他想往超融合架構(gòu)遷移。所以在數(shù)據(jù)平面架構(gòu)當(dāng)中去考慮這一點,我們采用了疊加網(wǎng)絡(luò)方案,也就說我們會用隧道封裝的辦法,把業(yè)務(wù)流量封裝起來。

這種方案對“現(xiàn)網(wǎng)影響很小”,它屏蔽物理設(shè)備差異,與現(xiàn)有網(wǎng)絡(luò)標(biāo)準(zhǔn)兼容,能實現(xiàn)傳統(tǒng)數(shù)據(jù)中心向云計算中心的平滑升級。其實這也是解決超融合落地的問題。這種方案允許同一個數(shù)據(jù)中心中,傳統(tǒng)架構(gòu)與超融合架構(gòu)共存,然后發(fā)揮超融合架構(gòu)按需擴(kuò)展的優(yōu)勢,逐漸將傳統(tǒng)架構(gòu)的部分遷移并擴(kuò)展為超融合的一部分。圖中的物理服務(wù)器就是表達(dá)這種場景。

我們隧道封裝標(biāo)準(zhǔn)選擇VXLAN。

將硬件交換機(jī)作為VTEP,它負(fù)責(zé)VXLAN的封裝和解封,這里雖然對硬件交換機(jī)有要求,但市場上滿足這些要求的交換機(jī)越來越多,有傳統(tǒng)交換機(jī)也有開放標(biāo)準(zhǔn)的交換機(jī)。并且只對TOR交換機(jī)有要求,能容易與現(xiàn)有網(wǎng)絡(luò)對接。

之所以這么選擇,是隧道封裝和解封操作消耗CPU和內(nèi)存資源,采用物理交換機(jī)硬件卸載的方式,能顯著降低計算節(jié)點的CPU和內(nèi)存占用,并且降低網(wǎng)絡(luò)延遲。

在我們的某些解決方案里,管理網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)也采用這種疊加方案實現(xiàn)與現(xiàn)網(wǎng)融合,因為這種架構(gòu)性能損耗很低。

正因為TOR的管控能力,在主機(jī)上,我們能充分利用硬件能力,進(jìn)一步降低延遲和資源占用,比如圖中的網(wǎng)絡(luò)節(jié)點的負(fù)載均衡服務(wù)就可以使用SRIOV技術(shù),因為上面有可控的物理交換機(jī)網(wǎng)絡(luò),并不會降低網(wǎng)絡(luò)的控制力,仍然能實現(xiàn)細(xì)粒度的控制,關(guān)于主機(jī)網(wǎng)絡(luò)的詳細(xì)架構(gòu),后面有專門的一頁ppt介紹。

注意我們架構(gòu)中的網(wǎng)絡(luò)節(jié)點主要是NFV,專注于4到7層的功能虛擬化,比如負(fù)載均衡、防火墻等。一般的3層功能是分布式的實現(xiàn),下面會介紹,也就是分布式路由器。

這里我想說一個我們認(rèn)為超融合架構(gòu)它的性能能夠水平擴(kuò)展的技術(shù)原理,我們稱之為資源的最短路徑調(diào)配,形象的說就是資源隨計算流動,或者說局部性原理。
14

這里我先用大家相對熟悉的超融合存儲來闡述,看看數(shù)據(jù)是如何隨著計算流動的:

存儲系統(tǒng)優(yōu)先保留一個完整副本在本節(jié)點上,也就是副本的本地親和性。這時從理論上說,這個副本的IO路徑最短,讀延遲很低,寫延遲也能有所優(yōu)化,因為充分了利用本地存儲資源,延遲低,帶寬高。這里以兩副本舉例,另外一個副本分散在其他服務(wù)器。當(dāng)這個虛擬機(jī)遷移之后,我們會異步的根據(jù)資源情況動態(tài)調(diào)度存儲,就是說使用閑置的資源在本地把副本補(bǔ)足,所以說我們盡可能保證資源最短路徑調(diào)配可能性,性能可以做到接近線性擴(kuò)展的能力。當(dāng)然存儲數(shù)據(jù)遷移成本很高,所以受限于容量的因素,也不能100%確保本地有一個完整副本。但是這個原理我想已經(jīng)跟大家呈現(xiàn)清楚了。

從網(wǎng)絡(luò)角度來說,對這個原理的實現(xiàn)就更加自然了。因為網(wǎng)絡(luò)在本質(zhì)上,是各種設(shè)備中的內(nèi)存操作。

首先從網(wǎng)絡(luò)功能來說,對于二層三層這樣功能,我們實現(xiàn)分布式處理,這就是我之前說的我們每個計算節(jié)點同時也是網(wǎng)絡(luò)節(jié)點。

15
上半部表示的虛擬網(wǎng)絡(luò)的拓?fù)潢P(guān)系,VM1和VM2是不同網(wǎng)絡(luò)的虛擬機(jī),這兩個網(wǎng)絡(luò)通過虛擬路由器A在三層互通。下面是物理網(wǎng)絡(luò),可以實現(xiàn)集中式的路由器,這樣一來可以工作沒有問題,網(wǎng)絡(luò)路徑變長,流量還要經(jīng)過集中的節(jié)點,容易擁堵,不滿足水平擴(kuò)展特性,沒法自由伸縮這種屬性。

我們是怎么實現(xiàn)的?我們實現(xiàn)一個分布式路由器,也就是每個計算節(jié)點都有一個虛擬路由器分身,負(fù)責(zé)處理本節(jié)點的二三層通信,它能就近處理東西向轉(zhuǎn)發(fā),所以這里就做到了網(wǎng)絡(luò)功能最短路徑調(diào)配,同時擴(kuò)展性很好。

再說網(wǎng)絡(luò)路徑這一塊,這里展示的是計算網(wǎng)絡(luò)的一次IP通信的過程。

當(dāng)VM A想與VM G通信時,這兩個虛擬機(jī)時是同一個網(wǎng)絡(luò)的(不同網(wǎng)絡(luò)的情況在上一張ppt已經(jīng)描述,分布式路由器直接在本地處理完成),VM A首先發(fā)起ARP請求,詢問VM G的mac地址,在ARP標(biāo)準(zhǔn)實現(xiàn)中是要在整個二層網(wǎng)絡(luò)中廣播,對于虛擬化場景來說就是廣播到所有宿主機(jī),這樣開銷和延遲都不可接受,而且也不具有擴(kuò)展性。我們這里有一個ARP代理,它是由本地控制器直接管理維護(hù)的,所以ARP請求在本節(jié)點就被攔截并回復(fù),這里也體現(xiàn)了網(wǎng)絡(luò)中控制平面和數(shù)據(jù)平面的徹底分離。然后,VM A開始與VM G進(jìn)行IP通信,不需要這時候再向管理平臺詢問VM G的位置,在創(chuàng)建虛擬機(jī)時,本地控制器就已經(jīng)下發(fā)好轉(zhuǎn)發(fā)規(guī)則,所以流量經(jīng)隧道封裝后,直接向host 4發(fā)出數(shù)據(jù)包。

也就是說,在邏輯上和物理上,網(wǎng)絡(luò)路徑都盡可能短。同時,盡可能避免了ARP這種“自學(xué)習(xí)”型協(xié)議的問題,不但降低了延遲,還提高了對網(wǎng)絡(luò)的控制能力。

前面說的都是更上層的設(shè)計和實現(xiàn),重點說的是物理機(jī)之外的SDN實現(xiàn)。

現(xiàn)在我們來看看主機(jī)內(nèi)部的網(wǎng)絡(luò)結(jié)構(gòu)。這里我們的設(shè)計目標(biāo)就是高性能(延遲和帶寬)和低的資源占用。

16

我們的設(shè)計思想是全用戶態(tài)實現(xiàn),并充分利用硬件卸載特性。

全用戶態(tài)軟件棧一方面是更易維護(hù),升級迭代更快;另一方面就是提升性能,可以進(jìn)一步減少用戶態(tài)和內(nèi)核態(tài)的切換和內(nèi)存數(shù)據(jù)拷貝次數(shù)。而充分利用硬件卸載特性能可以顯著降低CPU和內(nèi)存的資源占用,性能也更高。

我們詳細(xì)來看:整個主機(jī)網(wǎng)絡(luò)結(jié)構(gòu),我們以intel的DPDK為核心,DPDK是高性能的用戶態(tài)網(wǎng)絡(luò)庫,使用了大頁內(nèi)存管理、無鎖隊列、快速流分類、輪詢模式的用戶態(tài)網(wǎng)卡驅(qū)動等技術(shù),提供了強(qiáng)大的網(wǎng)絡(luò)處理能力。

圖中的virtio是半虛擬化IO框架,由虛擬機(jī)中的virtio前端和宿主機(jī)中的virtio后端組成,它們之間通過循環(huán)緩存區(qū)交互數(shù)據(jù),現(xiàn)在基本成為了IO虛擬化的標(biāo)準(zhǔn)。

使用DPDK技術(shù)的虛擬交換機(jī),數(shù)據(jù)平面的處理過程全部在用戶態(tài),virtio后端也在用戶態(tài)實現(xiàn),并且可以直接利用物理網(wǎng)卡的VMDq、流量鏡像、虛擬網(wǎng)橋等硬件特性。這樣其實數(shù)據(jù)平面的很多處理都卸載到物理網(wǎng)卡。

其中黑色實線箭頭是控制平面,本地控制器預(yù)先配置好OVS的流表規(guī)則,紅色虛線箭頭代表了數(shù)據(jù)平面。

其中左邊的虛擬機(jī)表示的是虛擬機(jī)里面也使用DPDK,這種是高性能NFV的實現(xiàn)方案,性能更出色,當(dāng)然相關(guān)網(wǎng)絡(luò)功能需要使用DPDK開發(fā),我們正在將負(fù)載均衡服務(wù)向DPDK移植。右邊的是業(yè)務(wù)虛擬機(jī),代表的是提供給用戶使用的虛擬機(jī)情況。

圖中的SRIOV的數(shù)據(jù)平面因為不在本地控制器的控制范圍,只能在TOR層面控制,所以目前我們只用于NFV中。

說了那么多,就說我們到底性能提升怎么樣,這是我們一個評測,是在我們的標(biāo)準(zhǔn)一體機(jī)環(huán)境中測試的。

上面表格對比的是純軟件情況下VXLAN疊加網(wǎng)絡(luò)和使用硬件交換機(jī)作為VTEP情況下的對比測試。這里的大包帶寬測試,主機(jī)網(wǎng)絡(luò)部分的優(yōu)化對降低延遲有一定作用,對帶寬影響小,這里主要是前面數(shù)據(jù)平面方案的性能提升??梢缘綆捥嵘苊黠@,能達(dá)到接近于線速,延遲顯著降低,資源占用也少。

下面表格是體現(xiàn)的主機(jī)網(wǎng)絡(luò)優(yōu)化的作用,在小包轉(zhuǎn)發(fā)情況下對比明顯。包轉(zhuǎn)發(fā)速率從Linux原生方案的70萬每秒提升到250萬每秒。這說明Linux的網(wǎng)絡(luò)協(xié)議棧并不高效,尤其是對于小包轉(zhuǎn)發(fā)來說。而我們的全用戶態(tài)網(wǎng)絡(luò)方案對小包轉(zhuǎn)發(fā)性能提升明顯。CPU資源占用降低特別明顯,從占滿6個核(也就是物理機(jī)一半的CPU資源),降低為只占用一個核,其他核完全空閑。當(dāng)然實際網(wǎng)絡(luò)應(yīng)用的性能提升不會這么明顯,因為有不少需要CPU處理的業(yè)務(wù)邏輯。

前面說的都是我們在性能方面的優(yōu)化,主要包括低延遲、自由伸縮、資源占用低三方面。現(xiàn)在說說易操作,重點是運維方便。

首先看鏈路連通性檢測和診斷。舉一個簡單的例子,當(dāng)2個虛擬機(jī)互通出現(xiàn)問題時,運維人員需要查詢虛擬機(jī)位置、查詢主機(jī)間網(wǎng)絡(luò)拓?fù)?、整理出流量拓?fù)?、登錄若干個設(shè)備,如果一切順利的話,他可能定位到故障點。但是采用疊加網(wǎng)絡(luò)之后,這些流量對傳統(tǒng)的交換機(jī)不可見,很難定義虛擬機(jī)通信到底哪一點出現(xiàn)問題。更不用說大規(guī)模下,以及主機(jī)網(wǎng)絡(luò)中的軟件復(fù)雜性。

端到端監(jiān)測將源、目的虛擬機(jī)報文流經(jīng)的路徑以圖形化的形式展現(xiàn),快速直觀地展示端到端網(wǎng)絡(luò)狀態(tài)。這里的原理同traceroute,但采用的是本地控制器模擬虛擬機(jī)在虛擬網(wǎng)絡(luò)中發(fā)送icmp報文。

還有一種更棘手的情況,就是發(fā)生了網(wǎng)絡(luò)擁堵,因為流量是動態(tài)變化的,如果采用逐一檢查每個網(wǎng)絡(luò)節(jié)點的統(tǒng)計值,排查出網(wǎng)絡(luò)擁堵點特別困難,尤其是在疊加網(wǎng)絡(luò)情況下,流量被封裝起來,定位特定業(yè)務(wù)流量的瓶頸,用傳統(tǒng)方法根本不可行。

17

看圖中的例子,左邊的一個虛擬機(jī)向右邊的發(fā)送數(shù)據(jù),在左上的這個交換機(jī)上發(fā)生了擁堵,實際整個通信路徑的有效帶寬降低了。

網(wǎng)絡(luò)瓶頸檢測的原理很簡單,控制器可以檢測特定虛擬機(jī)在全部網(wǎng)絡(luò)節(jié)點的流量統(tǒng)計值,在觀察窗口內(nèi)能找出特定流量在每個網(wǎng)絡(luò)節(jié)點入口和出口的流量差距,定位網(wǎng)絡(luò)瓶頸。

但實現(xiàn)上必須是物理交換機(jī)能“看到”隧道中的內(nèi)部流量情況,按內(nèi)部流量的mac值區(qū)分特定流量。在我們的數(shù)據(jù)平面方案中,TOR交換機(jī)均具有此項能力。

管理網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)更簡單,在觀察窗口內(nèi)檢測物理交換機(jī)這些中間網(wǎng)絡(luò)節(jié)點就可以定位。

這個還能更進(jìn)一步,我們下一步計劃要做,就是反饋控制,依據(jù)檢測的結(jié)果自動調(diào)整對網(wǎng)絡(luò)的控制。

說了那么多,其實超融合架構(gòu)下網(wǎng)絡(luò)我們還有很多很多工作要做,這是我們對超融合架構(gòu)網(wǎng)絡(luò)的展望:

1. 我們認(rèn)為SDN主戰(zhàn)場是數(shù)據(jù)中心,超融合架構(gòu)是主要應(yīng)用場景;

2. 超融合架構(gòu)中計算、存儲、網(wǎng)絡(luò)三網(wǎng)進(jìn)一步融合。

3. 計算、存儲、網(wǎng)絡(luò)資源協(xié)同控制。

4. 最終目標(biāo)實現(xiàn)指尖上的數(shù)據(jù)中心——軟件定義數(shù)據(jù)中心,讓我們系統(tǒng)能夠協(xié)同控制計算、存儲、網(wǎng)絡(luò)各種資源。

我的分享就到這里,謝謝大家。
編注:中國存儲峰會是每年一度、亞洲最具規(guī)模的存儲產(chǎn)業(yè)年度大會,歷時十二載,記錄了存儲產(chǎn)業(yè)的諸多變化。每年的存儲峰會都吸引學(xué)術(shù)界、產(chǎn)業(yè)界和最終用戶代表的積極參與。存儲峰會對中國存儲行業(yè)的發(fā)展做出了許多重大貢獻(xiàn)。云計算、大數(shù)據(jù)對傳統(tǒng)IT產(chǎn)業(yè)帶來了許多變化,為IT系統(tǒng)提出了新的要求,存儲作為IT系統(tǒng)中極為重要的一環(huán)也在迎接新的挑戰(zhàn),正在舉行的2016中國存儲峰緊抓熱門需求,從技術(shù)、產(chǎn)業(yè)、產(chǎn)品角度,匯集了資深行業(yè)人士,呈現(xiàn)年度最權(quán)威的存儲盛會。

 

分享到

xiesc

相關(guān)推薦