大家怎么都跑出殘影了喂!
1. DeepSeek-R1發(fā)布
DeepSeek-R1網(wǎng)頁(yè)訪問(wèn)鏈接:https://www.deepseek.com/
1 月 20 日,深度求索DeepSeek正式發(fā)布DeepSeek-R1,并同步開(kāi)源模型權(quán)重。該模型遵循 MIT License,允許用戶通過(guò)蒸餾技術(shù)借助R1訓(xùn)練其他模型。
DeepSeek-R1還上線了API,對(duì)用戶開(kāi)放思維鏈輸出,用戶設(shè)置model=’deepseek-reasoner’即可調(diào)用。此外,DeepSeek官網(wǎng)與App即日起同步更新上線。
DeepSeek-R1在后訓(xùn)練階段大規(guī)模使用強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語(yǔ)言推理等任務(wù)上,其性能與OpenAI o1正式版相當(dāng)。
此外,DeepSeek-R1 API服務(wù)定價(jià)為每百萬(wàn)輸入 tokens1元(緩存命中)/4元(緩存未命中),每百萬(wàn)輸出 tokens16元。
DeepSeek還將DeepSeek-R1的訓(xùn)練技術(shù)全部公開(kāi),促進(jìn)技術(shù)社區(qū)的充分交流與創(chuàng)新協(xié)作。
2、k1.5 新模型登場(chǎng)
Kimi訪問(wèn)鏈接:Kimi.com
月之暗面Kimi也有新發(fā)布,k1.5多模態(tài)思考模型是月之暗面繼2024年11月發(fā)布k0-math數(shù)學(xué)模型和12月發(fā)布的k1視覺(jué)思考模型之后,連續(xù)第三個(gè)月推出的k系列強(qiáng)化學(xué)習(xí)模型重磅升級(jí)版本。
在short-CoT模式下,k1.5的數(shù)學(xué)、代碼、視覺(jué)多模態(tài)和通用能力大幅超越全球范圍內(nèi)短思考 SOTA 模型 GPT-4o和Claude 3.5Sonnet,領(lǐng)先達(dá)到 550%。在 long-CoT 模式下,k1.5 的數(shù)學(xué)、代碼和多模態(tài)推理能力達(dá)到了長(zhǎng)思考 SOTA 模型 OpenAI o1 正式版的水平,這標(biāo)志著 Kimi 成為全球范圍內(nèi)首個(gè)在多模態(tài)推理性能上達(dá)到 OpenAI o1 正式版水平的公司。
2025 年,Kimi 將繼續(xù)沿著既定路線圖加速升級(jí) k 系列強(qiáng)化學(xué)習(xí)模型,帶來(lái)更多模態(tài)、更多領(lǐng)域的能力和更強(qiáng)的通用能力。
3、豆包實(shí)時(shí)語(yǔ)音大模型上線
1月20日,豆包實(shí)時(shí)語(yǔ)音大模型上線豆包App。這是一款語(yǔ)音理解和生成一體化的模型,實(shí)現(xiàn)了端到端語(yǔ)音對(duì)話。相比傳統(tǒng)級(jí)聯(lián)模式,這款模型在語(yǔ)音表現(xiàn)力、控制力、情緒承接方面有較好表現(xiàn),并具備低時(shí)延、對(duì)話中可隨時(shí)打斷等特性,呈現(xiàn)出接近真人的語(yǔ)音表達(dá)水準(zhǔn)。
豆包實(shí)時(shí)語(yǔ)音大模型為語(yǔ)音多模態(tài)技術(shù)的研究和優(yōu)化提供了基礎(chǔ)。不過(guò),模型的能力邊界仍存在諸多不確定性。比如語(yǔ)種方面,目前模型主要支持中文,其他語(yǔ)種尚未得到成熟支持。中文范圍內(nèi),模型也僅支持小部分方言和地方口音的理解和表達(dá),仍有較大進(jìn)步空間。
4、MiniMax 01系列模型發(fā)布
MiniMax模型訪問(wèn)鏈接:https://www.minimaxi.com/platform
1 月 15 日,稀宇科技MiniMax發(fā)布并開(kāi)源新一代 01 系列模型,包含基礎(chǔ)語(yǔ)言大模型 MiniMax-Text-01和視覺(jué)多模態(tài)大模型MiniMax-VL-01。該系列模型參數(shù)量為 4560 億,能高效處理高達(dá)400萬(wàn)token的上下文,首次將線性注意力機(jī)制擴(kuò)展到商用模型的級(jí)別。
1月20日,繼視頻、文本模型家族迎來(lái)新成員后,MiniMax帶來(lái)了全新升級(jí)的T2A-01系列語(yǔ)音模型,并全球同步上線海螺語(yǔ)音產(chǎn)品。與傳統(tǒng)語(yǔ)音生成技術(shù)相比,全新升級(jí)的T2A-01系列語(yǔ)音模型不僅具有音質(zhì)穩(wěn)定清晰、韻律自然、情緒精準(zhǔn)表達(dá)、高準(zhǔn)確度等特點(diǎn),提供更快、更穩(wěn)的語(yǔ)音生成能力,還能支持包括中文、粵語(yǔ)、英語(yǔ)、日語(yǔ)、韓語(yǔ)、阿拉伯語(yǔ)、西班牙語(yǔ)在內(nèi)的17種語(yǔ)言及上百種預(yù)置音色可選,為企業(yè)與個(gè)人用戶提供自然流暢的語(yǔ)音生成體驗(yàn)。
依托于T2A-01系列語(yǔ)音模型,用戶在海螺AI僅需輸入文字即可生成自然、流暢的超擬人人聲,最長(zhǎng)可輸入多達(dá)10000字符。與此同時(shí),用戶可以根據(jù)需要自由配置輸出語(yǔ)音的情緒、語(yǔ)速、音高,甚至調(diào)整音色效果,滿足復(fù)雜場(chǎng)景的精細(xì)化需求。
5、階躍星辰語(yǔ)言模型新發(fā)布
Step-2 mini網(wǎng)頁(yè)訪問(wèn)鏈接:https://yuewen.cn
1月21日,階躍星辰上線了Step-2 系列語(yǔ)言模型的兩款新品——參數(shù)量小、性價(jià)比更高的Step-2 mini,以及專門(mén)針對(duì)內(nèi)容創(chuàng)作領(lǐng)域推出的模型Step文學(xué)大師版。
Step-2 mini和萬(wàn)億參數(shù)大模型Step-2相比,以3%左右的參數(shù)量保有了其80%以上的模型性能。與此同時(shí),Step-2 mini擁有更快的生成速度和極高的性價(jià)比。輸入4000tokens的情況下,Step-2 mini的平均首字時(shí)延僅0.17秒。目前,大家已經(jīng)可以在階躍星辰開(kāi)放平臺(tái)調(diào)用 Step-2 mini 的API接口。輸入1元/百萬(wàn)token;輸出2元/百萬(wàn)token。
Step-2 mini采用了階躍星辰自主研發(fā)的新型注意力機(jī)制架構(gòu) ——MFA(Multi-matrix Factorization Attention,多矩陣分解注意力)及其變體MFA-Key-Reuse,相比于常用的MHA(Multi-Head Attention,多頭注意力)架構(gòu),節(jié)省了近94%的KV緩存開(kāi)銷,擁有更快的推理速度并大幅降低了推理成本。
據(jù)官方介紹,Step-2 文學(xué)大師版是一款專為文字內(nèi)容創(chuàng)作研發(fā)的模型,沿襲了 Step-2 的知識(shí)儲(chǔ)備、對(duì)文字強(qiáng)大的細(xì)節(jié)把控能力,特色在于具有更加強(qiáng)大的內(nèi)容創(chuàng)作能力。Step-2 文學(xué)大師版力求解決市面上語(yǔ)言模型過(guò)度對(duì)齊導(dǎo)致的內(nèi)容“假大空”,缺乏新意和真情實(shí)感的問(wèn)題。
6、?智譜的清影2.0重磅更新
清影2.0訪問(wèn)鏈接:https://chatglm.cn/video?lang=zh
清影2.0在模型結(jié)構(gòu)、訓(xùn)練方法以及數(shù)據(jù)工程方面全面更新,使圖生視頻基礎(chǔ)模型能力大幅提升38%。
不僅生成效果更可控,能支持畫(huà)面主體進(jìn)行大幅度運(yùn)動(dòng)的同時(shí)保持畫(huà)面穩(wěn)定性,而且指令遵從能力處于行業(yè)領(lǐng)先地位,可理解并實(shí)現(xiàn)各種復(fù)雜prompt,還能夠駕馭各種藝術(shù)風(fēng)格,極大地提升了畫(huà)面美感。