文字編輯|李祥敬

1

模型性能持續(xù)精進(jìn),多模態(tài)融合成主流

從火山引擎發(fā)布的豆包大模型1.6版本可以清晰看到,大模型性能提升仍在高速軌道上前行。豆包1.6家族的Doubao-Seed-1.6-thinking等核心模型,在多模態(tài)處理能力上實(shí)現(xiàn)了重大突破。其強(qiáng)大的多模態(tài)輸入能力,支持256K超長上下文理解,這一技術(shù)進(jìn)步讓模型能夠處理更復(fù)雜、更豐富的信息。以多媒體內(nèi)容創(chuàng)作場景為例,以往的單一模態(tài)模型在處理圖文混排、音視頻腳本創(chuàng)作時(shí)往往力不從心,而豆包大模型1.6能夠精準(zhǔn)捕捉文字、圖片、音頻等多種信息之間的邏輯關(guān)系,輔助創(chuàng)作者高效產(chǎn)出優(yōu)質(zhì)內(nèi)容。在智能客服領(lǐng)域,面對用戶發(fā)送的包含圖片、文描述的富媒體咨詢,豆包1.6也能快速理解用戶意圖,提供準(zhǔn)確解決方案?;仡櫞竽P托袠I(yè)發(fā)展歷程,早期的模型多以單一文本處理為主,像GPT-2等初代大模型,主要聚焦于文本生成與理解。隨著技術(shù)的演進(jìn),行業(yè)開始逐步探索多模態(tài)領(lǐng)域。從最初簡單的圖文關(guān)聯(lián)理解,例如通過圖片識別技術(shù)關(guān)聯(lián)相關(guān)文本描述,到如今能夠?qū)崿F(xiàn)多模態(tài)信息深度融合與交互,這一過程中模型的參數(shù)規(guī)模、算法復(fù)雜度都在不斷攀升。據(jù)相關(guān)研究機(jī)構(gòu)統(tǒng)計(jì),近三年來,多模態(tài)大模型的參數(shù)規(guī)模平均每年增長超過300%??梢灶A(yù)見,未來大模型市場中,具備更強(qiáng)多模態(tài)處理能力的模型將占據(jù)主導(dǎo)地位,模型性能的競爭將圍繞多模態(tài)融合的深度、廣度以及處理復(fù)雜任務(wù)的準(zhǔn)確性展開。各大廠商將不斷投入研發(fā)資源,優(yōu)化模型架構(gòu),以提升在多模態(tài)領(lǐng)域的競爭力。

2

成本優(yōu)化成競爭關(guān)鍵,創(chuàng)新定價(jià)模式涌現(xiàn)

在此次大會上,豆包大模型1.6首創(chuàng)按“輸入長度”區(qū)間定價(jià)的模式,這一創(chuàng)新舉措背后,深刻反映出大模型市場對成本優(yōu)化的迫切需求與積極探索。在企業(yè)使用量最大的0-32K輸入?yún)^(qū)間,豆包1.6的輸入價(jià)格為0.8元/百萬tokens,輸出8元/百萬tokens,成本比豆包1.5下降了63%。通過這種精細(xì)化的定價(jià)策略,企業(yè)能夠以更低的成本使用模型,尤其是對于那些輸入長度較為固定的應(yīng)用場景,如日常文檔處理、短文本交互等,成本大幅降低。此前,高昂的使用成本一直是制約大模型大規(guī)模應(yīng)用的瓶頸。據(jù)行業(yè)調(diào)研顯示,部分企業(yè)在大模型應(yīng)用上的成本支出,占其人工智能研發(fā)總預(yù)算的40%以上。隨著市場競爭加劇,各大模型廠商紛紛尋求降低成本的途徑。從技術(shù)層面來看,優(yōu)化模型架構(gòu)成為關(guān)鍵。例如,通過剪枝技術(shù)去除模型中冗余的參數(shù)和連接,減少計(jì)算資源消耗;采用量化技術(shù)將高精度的參數(shù)轉(zhuǎn)換為低精度表示,在不損失太多性能的前提下,降低計(jì)算復(fù)雜度。在硬件設(shè)施方面,廠商們積極采用更高效的芯片,如英偉達(dá)的H100等,以提升算力利用率。而火山引擎此次推出的創(chuàng)新定價(jià)模式,更是從商業(yè)模式層面為降低模型使用門檻提供了新思路。未來,成本優(yōu)化將貫穿大模型從研發(fā)到應(yīng)用的整個產(chǎn)業(yè)鏈,不僅影響模型的定價(jià)策略,還將推動硬件廠商、云服務(wù)提供商等相關(guān)產(chǎn)業(yè)協(xié)同創(chuàng)新,共同探尋更具性價(jià)比的解決方案。預(yù)計(jì)在未來兩年內(nèi),行業(yè)整體大模型使用成本有望再降低30%-50%。

3

應(yīng)用場景持續(xù)拓展,工業(yè)等領(lǐng)域潛力巨大

火山引擎在大會上圍繞AI Coding、AI Agent、MCP、行業(yè)落地等多方面展開討論,凸顯出大模型應(yīng)用場景正在不斷拓展。比如在消費(fèi)電子行業(yè),企業(yè)將豆包大模型應(yīng)用在語音助手、創(chuàng)作工具、效率提升等諸多場景。全球Top10手機(jī)廠商中有9家和火山引擎深度合作,豆包大模型已覆蓋4億終端設(shè)備。在汽車行業(yè),寶馬借助豆包大模型升級了汽車營銷服務(wù),不僅讓“購車推薦”更懂你、客服響應(yīng)更絲滑、購車體驗(yàn)更便捷,還“助攻”經(jīng)銷商提升運(yùn)營效率。在消費(fèi)行業(yè),瑞幸咖啡通過豆包大模型推出了首個AI智能體Lucky,深入分析用戶歷史訂單數(shù)據(jù)、時(shí)段分析,精準(zhǔn)預(yù)測偏好。無論是精準(zhǔn)指令、還是隨意閑聊,動動嘴,智能體Lucky就可以為你點(diǎn)一杯“剛剛好”的咖啡。在金融行業(yè),火山引擎為客戶提供AI APP、智能展業(yè)、投顧、投研等大模型應(yīng)用方案,已服務(wù)招商銀行、浦發(fā)銀行、北京銀行等70%的系統(tǒng)重要性銀行,國泰海通證券、華泰證券、國信證券等數(shù)十家券商和基金公司。以工業(yè)領(lǐng)域?yàn)槔竽P图夹g(shù)正逐步滲透到研發(fā)設(shè)計(jì)、生產(chǎn)制造、運(yùn)維服務(wù)等各個環(huán)節(jié)。在研發(fā)設(shè)計(jì)階段,大模型可以輔助工程師進(jìn)行創(chuàng)意生成、圖紙?jiān)O(shè)計(jì)優(yōu)化。某汽車制造企業(yè)在利用大模型進(jìn)行汽車外觀設(shè)計(jì)時(shí),通過輸入設(shè)計(jì)需求和風(fēng)格偏好,大模型能夠快速生成數(shù)十種設(shè)計(jì)方案,工程師在此基礎(chǔ)上進(jìn)行篩選和優(yōu)化,將設(shè)計(jì)周期從原來的數(shù)月縮短至數(shù)周。在生產(chǎn)制造環(huán)節(jié),通過對生產(chǎn)數(shù)據(jù)的實(shí)時(shí)分析與處理,大模型能夠?qū)崿F(xiàn)設(shè)備故障預(yù)測、生產(chǎn)流程優(yōu)化。某鋼鐵企業(yè)引入大模型技術(shù)后,對煉鋼設(shè)備的運(yùn)行數(shù)據(jù)進(jìn)行實(shí)時(shí)監(jiān)測和分析,提前預(yù)測設(shè)備故障,將設(shè)備停機(jī)時(shí)間降低了30%,生產(chǎn)效率顯著提升。在運(yùn)維服務(wù)中,智能客服與遠(yuǎn)程運(yùn)維助手借助大模型提升服務(wù)效率與質(zhì)量。當(dāng)下,雖然大模型在工業(yè)等領(lǐng)域的應(yīng)用還處于早期階段,存在穩(wěn)定性和準(zhǔn)確性有待提升等問題。但隨著模型性能的提升、成本的降低以及行業(yè)對數(shù)字化轉(zhuǎn)型需求的不斷增長,大模型將在更多垂直行業(yè)實(shí)現(xiàn)深度應(yīng)用。據(jù)預(yù)測,到2027年,工業(yè)領(lǐng)域大模型應(yīng)用市場規(guī)模將突破千億元大關(guān)。未來,大模型應(yīng)用市場的競爭將聚焦于行業(yè)解決方案的定制化能力、應(yīng)用落地的效果與效率,能夠快速響應(yīng)行業(yè)需求、提供切實(shí)可行解決方案的廠商將在市場中脫穎而出。除了工業(yè)領(lǐng)域,大模型在醫(yī)療、教育、金融等行業(yè)也將迎來更多創(chuàng)新應(yīng)用場景,推動各行業(yè)的數(shù)字化轉(zhuǎn)型與智能化升級。

結(jié)語

火山引擎FORCE原動力大會2025春季活動釋放出諸多信號,大模型市場正朝著性能更強(qiáng)、成本更低、應(yīng)用更廣的方向發(fā)展。在這場技術(shù)變革浪潮中,企業(yè)需緊跟趨勢,積極探索適合自身的大模型應(yīng)用路徑,方能在激烈的市場競爭中搶占先機(jī)。同時(shí),行業(yè)也需要產(chǎn)學(xué)研各方加強(qiáng)合作,共同攻克技術(shù)難題,推動大模型技術(shù)在更多領(lǐng)域的創(chuàng)新應(yīng)用,為經(jīng)濟(jì)社會的發(fā)展注入新動力。

分享到

lixiangjing

算力豹主編

相關(guān)推薦