*表格中,其它模型的評(píng)測(cè)指標(biāo)來(lái)自官方評(píng)測(cè)結(jié)果,官方評(píng)測(cè)結(jié)果中不包含部分來(lái)自混元內(nèi)部評(píng)測(cè)平臺(tái)
據(jù)介紹,通過(guò)長(zhǎng)短思維鏈融合,騰訊混元Turbo S 在保持文科類問(wèn)題快思考體驗(yàn)的同時(shí),基于自研混元 T1 慢思考模型合成的長(zhǎng)思維鏈數(shù)據(jù),顯著改進(jìn)了理科推理能力,實(shí)現(xiàn)模型整體效果提升。
架構(gòu)方面,通過(guò)創(chuàng)新性地采用了Hybrid-Mamba-Transformer 融合模式,混元Turbo S有效降低了傳統(tǒng)Transformer結(jié)構(gòu)的計(jì)算復(fù)雜度,減少了KV-Cache緩存占用,實(shí)現(xiàn)訓(xùn)練和推理成本的下降。新的融合模式突破了傳統(tǒng)純 Transformer 結(jié)構(gòu)大模型面臨的長(zhǎng)文訓(xùn)練和推理成本高的難題,一方面發(fā)揮了Mamba 高效處理長(zhǎng)序列的能力,也保留 Transformer 擅于捕捉復(fù)雜上下文的優(yōu)勢(shì),構(gòu)建了顯存與計(jì)算效率雙優(yōu)的混合架構(gòu),這是工業(yè)界首次成功將Mamba架構(gòu)無(wú)損地應(yīng)用在超大型MoE模型上。
作為旗艦?zāi)P停琓urbo S未來(lái)將成為騰訊混元系列衍生模型的核心基座,為推理、長(zhǎng)文、代碼等衍生模型提供基礎(chǔ)能力。基于Turbo S,通過(guò)引入長(zhǎng)思維鏈、檢索增強(qiáng)和強(qiáng)化學(xué)習(xí)等技術(shù),騰訊自研了推理模型 T1,該模型已在騰訊元寶上線,用戶可以選擇Deepseek R1 或騰訊混元T1模型進(jìn)行回答。騰訊混元表示,正式版的騰訊混元T1模型API也將很快上線,對(duì)外提供接入服務(wù)。
開(kāi)發(fā)者和企業(yè)用戶已經(jīng)可以在騰訊云上通過(guò)API調(diào)用騰訊混元Turbo S,即日起一周內(nèi)免費(fèi)試用。定價(jià)上,Turbo S 輸入價(jià)格為0.8元/百萬(wàn)tokens,輸出價(jià)格為2元/百萬(wàn)tokens,相比前代混元Turbo模型價(jià)格下降數(shù)倍。
騰訊混元Turbo S模型免費(fèi)試用申請(qǐng):
https://cloud.tencent.com/apply/p/i2zophus2x8