All in one & One for all
作為云計(jì)算的基石產(chǎn)品,云主機(jī)的核心特性決定了云上其它能力的拓展,也直接關(guān)乎于用戶的使用體驗(yàn)。用戶選擇云計(jì)算的出發(fā)點(diǎn)在于:簡(jiǎn)單性,速度和經(jīng)濟(jì)性。但是由于互聯(lián)網(wǎng)與IT服務(wù)的場(chǎng)景多樣化,業(yè)內(nèi)大多數(shù)廠商都是分別推出適應(yīng)不同場(chǎng)景的云主機(jī)類(lèi)型,但也因此帶給了用戶運(yùn)維和采購(gòu)的復(fù)雜度。
什么是“All in one”呢?“快杰”將自己定義為“簡(jiǎn)單”的產(chǎn)品。簡(jiǎn)單不僅意味著使用方便,還意味著多項(xiàng)軟硬件技術(shù)的融合,以此為用戶提供超高的產(chǎn)品性能。也就是說(shuō),當(dāng)你面對(duì)各種業(yè)務(wù)場(chǎng)景下CPU、網(wǎng)絡(luò)、存儲(chǔ)的不同性能需求時(shí),無(wú)需考慮太多因素,“快杰”均可滿足。
這是“快杰”的一組數(shù)據(jù):全面搭載Intel最新一代Cascade Lake處理器,配備25G基礎(chǔ)網(wǎng)絡(luò)并采用全新的網(wǎng)絡(luò)增強(qiáng)2.0方案,支持RDMA-SSD云盤(pán),網(wǎng)絡(luò)性能最高可達(dá)1000萬(wàn)PPS,存儲(chǔ)性能最高可達(dá)120萬(wàn)IOPS。
在產(chǎn)品上線之初,我們對(duì)“快杰”進(jìn)行了跑分測(cè)試,測(cè)試結(jié)果顯示,同等規(guī)格的配置下,“快杰”的性能明顯優(yōu)于市場(chǎng)上同類(lèi)型的云主機(jī)產(chǎn)品。舉個(gè)例子,在同樣8核16G的配置下,“快杰”的網(wǎng)絡(luò)性能較友商高出3倍多,存儲(chǔ)性能有著近4倍的差異。
但是在這樣的高配下,“快杰”的價(jià)格提升卻不超過(guò)20%,部分配置機(jī)型的價(jià)格與普通機(jī)型價(jià)格基本持平或略有下降,云盤(pán)價(jià)格僅為市場(chǎng)同類(lèi)產(chǎn)品的60%或者更低。“快杰”云主機(jī)用“One for all”的價(jià)格紅利將所有技術(shù)又通通回饋給了用戶。
“羅馬不是一天建成的”,不論是All in one 還是 One for all,在這些數(shù)據(jù)的背后,都離不開(kāi)UCloud在技術(shù)上的持續(xù)探索和積累。接下來(lái),我們就來(lái)聊聊“快杰”背后的技術(shù)進(jìn)階之路。
一、 網(wǎng)絡(luò)增強(qiáng)2.0:4倍性能提升+3倍時(shí)延下降
網(wǎng)絡(luò)通道是嚴(yán)重制約云主機(jī)性能的瓶頸之一,在這里,值得一提的便是“快杰”在25G智能網(wǎng)卡網(wǎng)絡(luò)增強(qiáng)能力方面做出的技術(shù)突破。
? 硬件級(jí)別的網(wǎng)卡加速
基于云主機(jī)網(wǎng)絡(luò)性能提升的需求,25G網(wǎng)絡(luò)逐漸成為趨勢(shì)。但是由于傳統(tǒng)軟件Virtual Switch方案的性能瓶頸:當(dāng)物理網(wǎng)卡接收?qǐng)?bào)文后,是按照轉(zhuǎn)發(fā)邏輯發(fā)送給VHost線程,VHost再傳遞給虛擬機(jī),因此VHost的處理能力就成為了影響虛擬機(jī)網(wǎng)絡(luò)性能的關(guān)鍵。
在調(diào)研了業(yè)界主流的智能網(wǎng)卡方案之后,我們最終采用了基于Tc Flower Offload的OpenvSwitch開(kāi)源方案,為“快杰”提供了硬件級(jí)別的網(wǎng)卡加速。虛擬機(jī)網(wǎng)卡可直接卸載到硬件,繞過(guò)宿主機(jī)內(nèi)核,實(shí)現(xiàn)虛擬機(jī)到網(wǎng)卡的直接數(shù)據(jù)訪問(wèn)。相較于傳統(tǒng)方案,新的智能網(wǎng)卡方案在整個(gè)Switch的轉(zhuǎn)發(fā)性能為小包24Mpps,單VF的接收性能達(dá)15Mpps,使得網(wǎng)卡整體性能提升10倍以上,應(yīng)用在云主機(jī)上,使得“快杰”的網(wǎng)絡(luò)能力提升至少4倍,時(shí)延降低3倍。
? 技術(shù)難點(diǎn)突破:虛擬機(jī)的熱遷移
在該方案落地之時(shí),我們遇到了一個(gè)技術(shù)難題:虛擬機(jī)的熱遷移。因?yàn)楦鱾€(gè)廠商的SmartNIC都是基于VF passthrough的方案,而VF的不可遷移性為虛擬機(jī)遷移帶來(lái)了困難,在此將我們的解決方案分享給大家。
我們發(fā)現(xiàn),用戶不需要手工設(shè)置bonding操作或者制作特定的鏡像,可以妥善的解決用戶介入的問(wèn)題。受此啟發(fā),我們采用了 VF+standby Virtio-net的方式進(jìn)行虛擬機(jī)的遷移。具體遷移過(guò)程為:
1、創(chuàng)建虛擬機(jī)自帶Virtio-net網(wǎng)卡,隨后在Host上選擇一個(gè)VF 作為一個(gè)Hostdev的網(wǎng)卡,設(shè)置和Virtio-net網(wǎng)卡一樣的MAC地址,attach到虛擬機(jī)里面,這樣虛擬機(jī)就會(huì)對(duì)Virtio-net和VF網(wǎng)卡自動(dòng)形成類(lèi)似bonding的功能,此時(shí),在Host上對(duì)于虛擬機(jī)就有兩個(gè)網(wǎng)絡(luò)Data Plane;
2、Virtio-net backend的tap device在虛擬機(jī)啟動(dòng)時(shí)自動(dòng)加入到Host的OpenvSwitch bridge上,當(dāng)虛擬機(jī)網(wǎng)卡進(jìn)行切換的時(shí)候datapath也需要進(jìn)行切換。VF attach到虛擬機(jī)后,在OpenvSwitch bridge上將VF_repr置換掉tap device;
除此以外,UCloud針對(duì)25G智能網(wǎng)卡的其他技術(shù)創(chuàng)新可查看:https://mp.weixin.qq.com/s/FUWklPXcRJXWdrWpsQHzrg
二、RDMA-SSD云盤(pán):提供120萬(wàn)IOPS存儲(chǔ)能力
在云盤(pán)優(yōu)化方面,我們主要從IO接入層性能優(yōu)化、RDMA網(wǎng)絡(luò)加速及后端存儲(chǔ)節(jié)點(diǎn)提升三方面來(lái)完成RDMA-SSD云盤(pán)的技術(shù)實(shí)現(xiàn),最終為“快杰”提供120萬(wàn)IOPS的存儲(chǔ)能力。
? 基于SPDK的IO接入層性能優(yōu)化
如下圖,為傳統(tǒng)的OEMU Virtio方案示意,在第3步時(shí), QEMU里的驅(qū)動(dòng)層通過(guò)Gate監(jiān)聽(tīng)的Unix domain socket的轉(zhuǎn)發(fā)IO請(qǐng)求時(shí),存在額外的拷貝開(kāi)銷(xiāo),因此成為IO接入層的性能瓶頸。
圖:QEMU Virtio方案示意
針對(duì)該問(wèn)題,UCloud使用了SPDK VHost來(lái)優(yōu)化虛擬化IO路徑。
(1)SPDK VHost:實(shí)現(xiàn)轉(zhuǎn)發(fā)IO請(qǐng)求的零拷貝開(kāi)銷(xiāo)
SPDK(Storage Performance Development Kit )提供了一組用于編寫(xiě)高性能、可伸縮、用戶態(tài)存儲(chǔ)應(yīng)用程序的工具和庫(kù),基本組成分為用戶態(tài)、輪詢、異步、無(wú)鎖 NVMe 驅(qū)動(dòng),提供了從用戶空間應(yīng)用程序直接訪問(wèn)SSD的零拷貝、高度并行的訪問(wèn)。
圖:SPDK VHost方案
如上圖,在應(yīng)用SPDK VHost方案后,IO路徑流程如下:1、提交IO到virtqueue;2、輪詢virtqueue,處理新到來(lái)的IO;3-4、后端存儲(chǔ)集群處理來(lái)自Gate的IO請(qǐng)求;5、通過(guò)irqfd通知Guest IO完成。
最終SPDK VHost通過(guò)共享大頁(yè)內(nèi)存的方式使得IO請(qǐng)求可以在兩者之間快速傳遞這個(gè)過(guò)程中不需要做內(nèi)存拷貝,完全是指針的傳遞,因此極大提升了IO路徑的性能。
如下表,我們對(duì)新老Gate的性能做了測(cè)試對(duì)比??梢钥吹剑趹?yīng)用SPDK VHost以后,時(shí)延和IOPS得到了顯著優(yōu)化,時(shí)延降低61us,IOPS提升58%。
(2)開(kāi)源技術(shù)難點(diǎn)攻破:SPDK熱升級(jí)
在我們使用SPDK時(shí),發(fā)現(xiàn)SPDK缺少一項(xiàng)重要功能——熱升級(jí)。我們無(wú)法100%保證SPDK進(jìn)程不會(huì)crash掉,一旦后端SPDK重啟或者crash,前端QEMU里IO就會(huì)卡住,即使SPDK重啟后也無(wú)法恢復(fù)。
圖:virtio vring機(jī)制示意
通過(guò)深入研究virtio vring的機(jī)制,我們發(fā)現(xiàn)在SPDK正常退出時(shí),會(huì)保證所有的IO都已經(jīng)處理完成并返回了才退出,也就是所在的virtio vring中是干凈的。而在意外crash時(shí)是不能做這個(gè)保證的,意外crash時(shí)virtio vring中還有部分IO是沒(méi)有被處理的,所以在SPDK恢復(fù)后需要掃描virtio vring將未處理的請(qǐng)求下發(fā)下去。
針對(duì)該問(wèn)題,我們?cè)赒EMU中針對(duì)每個(gè)virtio vring申請(qǐng)一塊共享內(nèi)存,在初始化時(shí)發(fā)送給SPDK,SPDK在處理IO時(shí)會(huì)在該內(nèi)存中記錄每個(gè)virtio vring請(qǐng)求的狀態(tài),并在意外crash恢復(fù)后能利用該信息找出需要重新下發(fā)的請(qǐng)求,實(shí)現(xiàn)SPDK的熱遷移。具體可查看https://mp.weixin.qq.com/s/UBRJhN58VQwDCHYZyDP02w了解。
2、RDMA網(wǎng)絡(luò)加速
(1)TCP瓶頸
在解決了IO路徑優(yōu)化問(wèn)題后,我們繼續(xù)尋找提高云盤(pán)IO讀寫(xiě)性能的關(guān)鍵點(diǎn)。在協(xié)議層面,我們發(fā)現(xiàn)使用TCP協(xié)議存在以下問(wèn)題:
? TCP收發(fā)數(shù)據(jù)存在網(wǎng)卡中斷開(kāi)銷(xiāo),以及內(nèi)核態(tài)到用戶態(tài)的拷貝開(kāi)銷(xiāo);
? TCP是基于流式傳輸?shù)模虼送ǔ>W(wǎng)絡(luò)框架(libevent)會(huì)使用一個(gè)緩沖區(qū)暫存數(shù)據(jù),等到數(shù)據(jù)達(dá)到可處理的長(zhǎng)度才從緩沖區(qū)移除,同樣地,發(fā)包過(guò)程為了簡(jiǎn)化TCP緩沖區(qū)滿引起的異常,網(wǎng)絡(luò)框架也會(huì)有一個(gè)發(fā)送緩沖區(qū),那么這里就會(huì)產(chǎn)生二次拷貝。
圖:TCP協(xié)議原理示意
針對(duì)這個(gè)問(wèn)題,我們用RDMA協(xié)議來(lái)代替TCP協(xié)議,來(lái)達(dá)到提升IOPS和時(shí)延的能力。
(2)RDMA代替TCP
RDMA(Remote Direct Memory Access)技術(shù)全稱(chēng)遠(yuǎn)程直接數(shù)據(jù)存取,是為了解決網(wǎng)絡(luò)傳輸中服務(wù)器端數(shù)據(jù)處理的延遲而產(chǎn)生的。
使用RDMA代替TCP的優(yōu)點(diǎn)如下:
? RDMA數(shù)據(jù)面是bypass kernel的,數(shù)據(jù)在傳輸過(guò)程中由網(wǎng)卡做DMA,不存在數(shù)據(jù)拷貝問(wèn)題。
? RDMA收發(fā)包過(guò)程是沒(méi)有上下文切換的,發(fā)送時(shí)將數(shù)據(jù)post_send投遞到SQ上,然后通知網(wǎng)卡進(jìn)行發(fā)送,發(fā)送完成在CQ產(chǎn)生一個(gè)CQE;接受過(guò)程有一些差異,RDMA需要提前post_recv一些buffer,網(wǎng)卡收包時(shí)直接寫(xiě)入buffer,并在CQ中產(chǎn)生一個(gè)CQE。
? RDMA為消息式傳輸,即假設(shè)發(fā)送方發(fā)送一個(gè)長(zhǎng)度為4K的包,接收方假如收到了,那么這個(gè)包的長(zhǎng)度就是4K,不存在只收到一部分的情況。RDMA提供的這種能力可以簡(jiǎn)化收包流程,不需要像TCP一樣去判斷數(shù)據(jù)是否收全了,也就不存在TCP所需的緩沖區(qū)了。
? RDMA的協(xié)議棧由網(wǎng)卡實(shí)現(xiàn),數(shù)據(jù)面Offload到網(wǎng)卡上,解放了CPU,同時(shí)帶來(lái)了更好的時(shí)延和吞吐。
圖:RDMA協(xié)議原理示意
3、后端存儲(chǔ)節(jié)點(diǎn)IO Path加速
除了在IO路徑接入與傳輸協(xié)議方面做了改進(jìn)之外,UCloud還針對(duì)云硬盤(pán)后端存儲(chǔ)節(jié)點(diǎn)進(jìn)行了優(yōu)化。
對(duì)于原有的Libaio with Kernel Driver,我們采用了SPDK NVMe Driver進(jìn)行了替代,下圖為Fio對(duì)比測(cè)試兩者的單核性能情況,可以看到應(yīng)用SPDK NVMe Driver后性能有了較大的提升。
圖:Libaio with Kernel Drive & SPDK NVMe Driver單核性能比較
此外,SPDK NVMe Driver使用輪詢模式,可以配合RDMA發(fā)揮出后端存儲(chǔ)的最佳性能。
綜上,我們實(shí)現(xiàn)了云盤(pán)的全面優(yōu)化:使用SPDK VHost代替QEMU,實(shí)現(xiàn)虛機(jī)到存儲(chǔ)客戶端的數(shù)據(jù)零拷貝;使用高性能RDMA作為后端存儲(chǔ)的通信協(xié)議,實(shí)現(xiàn)收發(fā)包卸載到硬件,使得RSSD云盤(pán)的延遲降低到0.1毫秒,體驗(yàn)幾乎和本地盤(pán)一致;存儲(chǔ)引擎由SPDK代替libaio,高并發(fā)下依然可以保持較低的時(shí)延。再配合全25G的底層物理網(wǎng)絡(luò),使RDMA-SSD云盤(pán)的隨機(jī)讀寫(xiě)性能達(dá)到最佳,實(shí)現(xiàn)120萬(wàn)IOPS。
圖:RDMA-SSD云硬盤(pán)原理圖
三、內(nèi)核調(diào)優(yōu):產(chǎn)品綜合性能提升10%
提起云主機(jī),更多的會(huì)想到計(jì)算、存儲(chǔ)、網(wǎng)絡(luò),甚少有人關(guān)注內(nèi)核。然而,內(nèi)核構(gòu)建是一個(gè)云主機(jī)的核心工作,它負(fù)責(zé)管理系統(tǒng)的進(jìn)程、內(nèi)存、設(shè)備驅(qū)動(dòng)程序、文件和網(wǎng)絡(luò)系統(tǒng)等,對(duì)云主機(jī)性能和穩(wěn)定性至關(guān)重要。
未優(yōu)化之前,我們對(duì)云主機(jī)中特定業(yè)務(wù)場(chǎng)景進(jìn)行了基準(zhǔn)性能測(cè)試。在測(cè)試過(guò)程中,利用perf、systemtap、eBPF等多種動(dòng)態(tài)跟蹤技術(shù),在Host內(nèi)核、KVM和Guest內(nèi)核等不同觀測(cè)層級(jí)上,對(duì)影響性能的因素進(jìn)行了指令級(jí)別的分析。
在此基礎(chǔ)上,我們針對(duì)性的進(jìn)行了內(nèi)核增強(qiáng)和優(yōu)化工作。
? CPU增強(qiáng)&漏洞修復(fù)
我們?cè)赒EMU和KVM中添加了Intel 新一代Cascade Lake虛擬CPU的支持,相比上一代Skylake,增加了clflushopt、pku、axv512vnni等指令集,在特定場(chǎng)景下性能表現(xiàn)更加出色。此外,針對(duì)CPU漏洞方面,我們利用硬件解決了Meltdown,MDS,L1TF等漏洞,同時(shí)針對(duì)Spectre_v2補(bǔ)丁添加了代價(jià)更小的Enhanced IBRS增強(qiáng)修復(fù)機(jī)制,在虛擬化層面對(duì)漏洞進(jìn)行了修復(fù)。
最后,我們將硬件修復(fù)能力賦予”快杰”,使得云主機(jī)可以避免Guest內(nèi)核在軟件層面修復(fù)安全漏洞,消除這方面引起的性能開(kāi)銷(xiāo)和業(yè)務(wù)指標(biāo)下降。
? CPU對(duì)內(nèi)存讀寫(xiě)能力的優(yōu)化
針對(duì)CPU對(duì)內(nèi)存讀寫(xiě)能力的優(yōu)化,我們主要從兩方面來(lái)實(shí)現(xiàn)。
首先我們基于硬件內(nèi)存虛擬化(Intel EPT),添加了定制化大頁(yè)內(nèi)存的支持,從而避免了之前內(nèi)存虛擬化中存在的管理器/分配器開(kāi)銷(xiāo)、換頁(yè)延遲等,極大減少了頁(yè)表大小和TLB miss,同時(shí)保證云主機(jī)內(nèi)存與其他云主機(jī)、系統(tǒng)軟件間相互隔離,避免影響。
其次,我們增強(qiáng)了NUMA親和性的使用。眾所周知,跨節(jié)點(diǎn)訪問(wèn)內(nèi)存的延遲遠(yuǎn)遠(yuǎn)大于本地訪問(wèn)所產(chǎn)生的,針對(duì)該問(wèn)題,我們通過(guò)合理的資源隔離和分配,使云主機(jī)的VCPU和內(nèi)存綁定在同一個(gè)節(jié)點(diǎn)。此外,對(duì)于大型云主機(jī)可能存在單個(gè)節(jié)點(diǎn)資源不夠的情況,我們將云主機(jī)分配在兩個(gè)節(jié)點(diǎn),把節(jié)點(diǎn)的拓?fù)浣Y(jié)構(gòu)暴露給Guest內(nèi)核,這樣云主機(jī)可以更方便的利用NUMA特性對(duì)關(guān)鍵業(yè)務(wù)進(jìn)行調(diào)度管理。
圖:NUMA親和性的使用
? Host內(nèi)核&KVM優(yōu)化
結(jié)合性能分析數(shù)據(jù),我們對(duì)Host內(nèi)核和KVM也進(jìn)行了大量的優(yōu)化。
在VCPU調(diào)度方面,我們發(fā)現(xiàn)CFS調(diào)度器會(huì)在臨界區(qū)內(nèi)使用時(shí)間復(fù)雜度為O(n)的算法,導(dǎo)致調(diào)度器開(kāi)銷(xiāo)過(guò)高、Guest計(jì)算時(shí)間減少及調(diào)度延遲增大,我們?cè)贑FS中修復(fù)了這一問(wèn)題。
此外,在Host/Guest上下文切換過(guò)程中,我們發(fā)現(xiàn)某些寄存器的上下文維護(hù)代碼會(huì)引入一定開(kāi)銷(xiāo),因此在保證寄存器上下文切換正確性的同時(shí),我們也去掉了這些維護(hù)代碼引起的開(kāi)銷(xiāo)。
在云主機(jī)運(yùn)行過(guò)程中,會(huì)產(chǎn)生大量的核間中斷(IPI),每次IPI都會(huì)引起VMExit事件。我們?cè)谔摂M化層引入了兩個(gè)新的特性:KVM-PV-IPI和KVM-PV-TLB-Flush。通過(guò)KVM提供的Send-IPI Hypercall,云主機(jī)內(nèi)核可以應(yīng)用PV-IPI操作消除大量VMExit,從而實(shí)現(xiàn)減少I(mǎi)PI開(kāi)銷(xiāo)的目的。在云主機(jī)更新TLB的時(shí)候,作為發(fā)起者VCPU會(huì)等待其它VCPU完成TLB Shootdown,云主機(jī)內(nèi)核通過(guò)PV-TLB-Flush極大減少等待和喚醒其它VCPU的開(kāi)銷(xiāo)。
以上是一些比較重要的優(yōu)化工作,其它內(nèi)核、KVM、QEMU功能增強(qiáng)和穩(wěn)定性提升等內(nèi)容不再贅述。總體評(píng)估下來(lái),通過(guò)內(nèi)核調(diào)優(yōu),可幫助”快杰”實(shí)現(xiàn)10%以上的綜合能力提升。
四、三大應(yīng)用場(chǎng)景分析
基于強(qiáng)大的性能,“快杰”能夠輕松滿足高并發(fā)網(wǎng)絡(luò)集群、高性能數(shù)據(jù)庫(kù)、海量數(shù)據(jù)應(yīng)用的使用場(chǎng)景。我們分別選取了Nginx集群、TiDB、ClickHouse數(shù)據(jù)庫(kù)三個(gè)應(yīng)用場(chǎng)景,下面來(lái)看一下”快杰”的表現(xiàn):
? 場(chǎng)景1::搭建Nginx集群,突破網(wǎng)絡(luò)限制
愛(ài)普新媒是一家從事廣告DSP(Demand-Side Platform,需求方平臺(tái))業(yè)務(wù)的公司,由于業(yè)務(wù)需求,愛(ài)普新媒對(duì)于網(wǎng)絡(luò)集群的高并發(fā)要求非常高。最終,愛(ài)普新媒選擇使用“快杰”搭建Nginx集群,作為API網(wǎng)關(guān)對(duì)其終端客戶提供服務(wù)。
Nginx是一款輕量級(jí)HTTP反向代理Web服務(wù)器,根據(jù)Nginx官網(wǎng)的數(shù)據(jù),Nginx支持了世界上大約25%最繁忙的網(wǎng)站,包括Dropbox,Netflix,Wordpress.com等。其特點(diǎn)是并發(fā)能力強(qiáng),而“快杰”進(jìn)一步提升了其并發(fā)能力。
“快杰”突破了云主機(jī)之前的網(wǎng)絡(luò)限制,如下圖,“快杰”的應(yīng)用使得愛(ài)普新媒原有集群內(nèi)主機(jī)可以大幅度減少,并且在相同服務(wù)能力下,成本減半。
圖:“快杰”在高并發(fā)網(wǎng)絡(luò)集群場(chǎng)景中的表現(xiàn)
? 場(chǎng)景2: 搭建TiDB,突破IO性能瓶頸
PingCAP的TiDB是一款流行的開(kāi)源分布式關(guān)系型數(shù)據(jù)庫(kù),為大數(shù)據(jù)時(shí)代的高并發(fā)實(shí)時(shí)寫(xiě)入、實(shí)時(shí)查詢、實(shí)時(shí)統(tǒng)計(jì)分析等需求而設(shè)計(jì),對(duì)IO性能的要求無(wú)疑非常高。通常,TiDB要求底層使用NVMe SSD本地磁盤(pán)支撐其性能,但快杰云主機(jī)通過(guò)RSSD云盤(pán)即可滿足TiDB的高要求,其性能得到PingCAP工程師的實(shí)測(cè)認(rèn)可。
目前,已有不少UCloud客戶使用快杰云主機(jī)搭建TiDB,突破了之前的數(shù)據(jù)庫(kù)性能瓶頸。
圖:“快杰”在高性能數(shù)據(jù)庫(kù)場(chǎng)景中的表現(xiàn)
除了TiDB,“快杰”實(shí)測(cè)能有效提升各類(lèi)數(shù)據(jù)庫(kù)的性能表現(xiàn)20%以上。
? 場(chǎng)景3: 搭建ClickHouse,2倍提升數(shù)據(jù)吞吐量
TT語(yǔ)音是一款專(zhuān)門(mén)為手游玩家服務(wù)的語(yǔ)音開(kāi)黑工具,由于業(yè)務(wù)要求需將APP埋點(diǎn)數(shù)據(jù)收集到大數(shù)據(jù)集群中分析。TT語(yǔ)音采用“快杰”搭建ClickHouse數(shù)據(jù)庫(kù)作為整個(gè)大數(shù)據(jù)集群的核心,對(duì)比之前,每日增量達(dá)到8億條記錄。
除了ClickHouse場(chǎng)景,“快杰”還可以對(duì)大數(shù)據(jù)生態(tài)進(jìn)行全方位的優(yōu)化,如下圖,數(shù)據(jù)吞吐提升高達(dá)2倍,助力企業(yè)大數(shù)據(jù)業(yè)務(wù)發(fā)展。
圖:“快杰”在大數(shù)據(jù)應(yīng)用場(chǎng)景中的表現(xiàn)
結(jié)語(yǔ)
基于“軟硬件協(xié)同設(shè)計(jì)”的理念,“快杰”在網(wǎng)絡(luò)增強(qiáng)2.0、RSSD云盤(pán)優(yōu)化、內(nèi)核調(diào)優(yōu)等方面做到了技術(shù)的大幅進(jìn)階,為用戶帶來(lái)了突破性的云主機(jī)性能提升。在“快杰”的技術(shù)進(jìn)階路上,技術(shù)的更迭與升級(jí)可以用語(yǔ)言描述出來(lái),但是技術(shù)實(shí)現(xiàn)的背后卻代表了UCloud為用戶創(chuàng)造核心價(jià)值的堅(jiān)持與追求。