Qwen-Long是通義千問的長文本增強版模型,性能對標GPT-4,上下文長度最高達1千萬。除了輸入價格降至0.0005元/千tokens,Qwen-Long輸出價格也直降90%至0.002元/千tokens。相比之下,國內(nèi)外廠商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens輸入價格分別為0.22元、0.025元、0.022元及0.12元,均遠高于Qwen-long。
通義千問本次降價共覆蓋9款商業(yè)化及開源系列模型。不久前發(fā)布的通義千問旗艦款大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降幅達67%。Qwen-Max是目前業(yè)界表現(xiàn)最好的中文大模型,在權威基準OpenCompass上性能追平GPT-4-Turbo,并在大模型競技場Chatbot Arena中躋身全球前15。
不久前,OpenAI的Sam Altman轉(zhuǎn)發(fā)了Chatbot Arena榜單來印證GPT-4o的能力,其中全球排名前20的模型中,僅有的三款中國模型都是通義千問出品。
業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)模化應用的關鍵因素。
在武漢AI智領者峰會現(xiàn)場,阿里云智能集團資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發(fā)。我們預計未來大模型API的調(diào)用量會有成千上萬倍的增長。”
劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因:
一是公共云的技術紅利和規(guī)模效應,帶來巨大的成本和性能優(yōu)勢。阿里云可以從模型自身和AI基礎設施兩個層面不斷優(yōu)化,追求極致的推理成本和性能。阿里云基于自研的異構(gòu)芯片互聯(lián)、高性能網(wǎng)絡HPN7.0、高性能存儲CPFS、人工智能平臺PAI等核心技術和產(chǎn)品,構(gòu)建了極致彈性的AI算力調(diào)度系統(tǒng),結(jié)合百煉分布式推理加速引擎,大幅壓縮了模型推理成本,并加快模型推理速度。
即便是同樣的開源模型,在公共云上的調(diào)用價格也遠遠低于私有化部署。以使用Qwen-72B開源模型、每月1億tokens用量為例,在阿里云百煉上直接調(diào)用API每月僅需600元,私有化部署的成本平均每月超1萬元。
二是云上更方便進行多模型調(diào)用,并提供企業(yè)級的數(shù)據(jù)安全保障。阿里云可以為每個企業(yè)提供專屬VPC環(huán)境,做到計算隔離、存儲隔離、網(wǎng)絡隔離、數(shù)據(jù)加密,充分保障數(shù)據(jù)安全。目前,阿里云已主導或深度參與10多項大模型安全相關國際國內(nèi)技術標準的制定。
三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。阿里云百煉平臺上匯聚通義、百川、ChatGLM、Llama系列等上百款國內(nèi)外優(yōu)質(zhì)模型,內(nèi)置大模型定制與應用開發(fā)工具鏈,開發(fā)者可以便捷地測試比較不同模型,開發(fā)專屬大模型,并輕松搭建RAG等應用。從選模型、調(diào)模型、搭應用到對外服務,一站式搞定。