OpenAI 在該公司的一篇博文中表示,GPT-4o 的功能 “將反復(fù)推出”,但其文本和圖像功能將于今天開始在 ChatGPT 中推出。
OpenAI 首席執(zhí)行官山姆-阿爾特曼(Sam Altman)表示,該模型是 “原生多模態(tài) “的,這意味著該模型可以生成內(nèi)容或理解語(yǔ)音、文本或圖像命令。Altman 在 X 上補(bǔ)充說(shuō),想使用 GPT-4o 的開發(fā)者可以訪問(wèn) API,其價(jià)格是 GPT-4 Turbo 的一半,速度是 GPT-4 Turbo 的兩倍。
作為新模式的一部分,ChatGPT 的語(yǔ)音模式將增加新功能。該應(yīng)用將能充當(dāng)類似于 Her 的語(yǔ)音助手,實(shí)時(shí)回應(yīng)并觀察你周圍的世界。目前的語(yǔ)音模式則比較有限,一次只能對(duì)一個(gè)提示做出反應(yīng),而且只能處理它能聽到的內(nèi)容。
Altman 在直播活動(dòng)后發(fā)表的一篇博文中回顧了 OpenAI 的發(fā)展軌跡。他說(shuō),公司最初的愿景是 “為世界創(chuàng)造各種利益”,但他承認(rèn)公司的愿景已經(jīng)發(fā)生了轉(zhuǎn)變。OpenAI 一直因沒(méi)有開源其先進(jìn)的人工智能模型而飽受批評(píng),而 Altman 似乎是在說(shuō),公司的重點(diǎn)已經(jīng)轉(zhuǎn)變?yōu)橥ㄟ^(guò)付費(fèi) API 向開發(fā)者提供這些模型,并讓這些第三方進(jìn)行創(chuàng)造。”取而代之的是,現(xiàn)在看起來(lái)我們將創(chuàng)造人工智能,然后其他人將使用它來(lái)創(chuàng)造各種神奇的東西,我們都將從中受益。”
在今天的 GPT-4o 發(fā)布會(huì)之前,有相互矛盾的報(bào)道預(yù)測(cè),OpenAI 將發(fā)布一個(gè)可與谷歌和 Perplexity 匹敵的人工智能搜索引擎、一個(gè)內(nèi)置在 GPT-4 中的語(yǔ)音助手,或者一個(gè)全新的改進(jìn)型 GPT-5。當(dāng)然,OpenAI 肯定會(huì)把發(fā)布時(shí)間定在谷歌 I/O 大會(huì)(科技巨頭的旗艦會(huì)議)之前,我們期待看到 Gemini 團(tuán)隊(duì)在大會(huì)上發(fā)布各種人工智能產(chǎn)品。