亞馬遜云科技生成式AI全球副總裁Vasi Philomin博士表示,亞馬遜云科技不會(huì)拿用戶的數(shù)據(jù)來(lái)訓(xùn)練模型,所有用戶數(shù)據(jù)都會(huì)不會(huì)離開VPC,并且是加密的,用戶數(shù)據(jù)隱私是有保障的。
眾所周知,通用大模型的通用性很強(qiáng),什么都懂一點(diǎn),但是在特定領(lǐng)域的表現(xiàn)比較一般。當(dāng)在大模型基礎(chǔ)上針對(duì)特定領(lǐng)域進(jìn)行訓(xùn)練之后,就能大幅提高在某些特定領(lǐng)域中的表現(xiàn),這被很多人視為非常有前景的實(shí)踐方向。
事實(shí)正是如此,比如,原始的Stable Diffusion表現(xiàn)很一般,而用了LoRA之后,生成的圖則有以假亂真的實(shí)力。Meta泄露出來(lái)的LLaMA大模型表現(xiàn)也很一般,但基于它做的調(diào)優(yōu)模型,表現(xiàn)有明顯提高,一些場(chǎng)景中的表現(xiàn)甚至與業(yè)內(nèi)標(biāo)桿GPT-3.5不相上下。
亞馬遜云科技提供Amazon Titan家族以及第三方(包括AI21 Labs、Anthropic 、Stability AI)的模型幫助用戶訓(xùn)練模型,并且用新推出的Serverless服務(wù)Amazon Bedrock幫用戶快速構(gòu)建和擴(kuò)展各種生成式AI應(yīng)用。
對(duì)于打算用自己的數(shù)據(jù)定制化開發(fā)模型的用戶,可以直接在亞馬遜云科技上使用EC2實(shí)例。
4月13日,亞馬遜云科技還發(fā)布了Amazon EC2 Trn1n實(shí)例,該實(shí)例是專門為生成式大模型準(zhǔn)備的,為生成式AI做了專門的優(yōu)化。
Trn1n在原來(lái)Trn1的基礎(chǔ)上強(qiáng)化了網(wǎng)絡(luò),網(wǎng)絡(luò)帶寬翻倍為1600 Gbps。與Trn1相比,在構(gòu)建大規(guī)模網(wǎng)絡(luò)密集型模型時(shí)的性能可以提高20%以上,能用30000個(gè)Trainium構(gòu)成的UltraCluster來(lái)訓(xùn)練大模型。在提高訓(xùn)練速度同時(shí),至少能帶來(lái)50%的成本節(jié)?。ㄅc其它EC2相比)。
大模型訓(xùn)練的費(fèi)用驚人,其實(shí),實(shí)際生產(chǎn)環(huán)境中,更費(fèi)錢的是推理。
4月13日正式發(fā)布的還有Amazon EC2 Inf2(此前為預(yù)覽版),它采用的是Inferentia2芯片,在性能和能效方面達(dá)到了新的高度,在成本方面又低了一大截。其中,Inf2的吞吐提高了最多四倍,而延遲相較于上代降低了最多10倍以上,性價(jià)比相比其他EC2實(shí)例提高了最多40%。
新推出的Amazon EC2 Trn1n和Amazon EC2 Inf2將云上大模型的訓(xùn)練和推理的成本驟降,成本問(wèn)題對(duì)于用戶將大模型放在云上非常重要。
隨著大模型技術(shù)浪潮的來(lái)襲,以顯卡為主的計(jì)算資源又變得更緊俏了。大模型集群動(dòng)輒需要成千上萬(wàn)塊顯卡,每塊顯卡的成本都很高,訓(xùn)練需要大量裝有顯卡的服務(wù)器組成集群,還需要交高昂的電費(fèi)成本,各種因素都不斷拉高大模型的訓(xùn)練成本。
高昂的成本阻礙了AI的民主化進(jìn)程,使得先進(jìn)的AI技術(shù)只能掌握在少數(shù)資金充裕的大公司手里,而亞馬遜云科技一直在推行機(jī)器學(xué)習(xí)上云。大模型爆火的背景下,又一次努力將云打造成適合訓(xùn)練和部署大模型的地方。