OpenAI 在該公司的一篇博文中表示,GPT-4o 的功能 “將反復推出”,但其文本和圖像功能將于今天開始在 ChatGPT 中推出。
OpenAI 首席執(zhí)行官山姆-阿爾特曼(Sam Altman)表示,該模型是 “原生多模態(tài) “的,這意味著該模型可以生成內(nèi)容或理解語音、文本或圖像命令。Altman 在 X 上補充說,想使用 GPT-4o 的開發(fā)者可以訪問 API,其價格是 GPT-4 Turbo 的一半,速度是 GPT-4 Turbo 的兩倍。
作為新模式的一部分,ChatGPT 的語音模式將增加新功能。該應用將能充當類似于 Her 的語音助手,實時回應并觀察你周圍的世界。目前的語音模式則比較有限,一次只能對一個提示做出反應,而且只能處理它能聽到的內(nèi)容。
Altman 在直播活動后發(fā)表的一篇博文中回顧了 OpenAI 的發(fā)展軌跡。他說,公司最初的愿景是 “為世界創(chuàng)造各種利益”,但他承認公司的愿景已經(jīng)發(fā)生了轉(zhuǎn)變。OpenAI 一直因沒有開源其先進的人工智能模型而飽受批評,而 Altman 似乎是在說,公司的重點已經(jīng)轉(zhuǎn)變?yōu)橥ㄟ^付費 API 向開發(fā)者提供這些模型,并讓這些第三方進行創(chuàng)造。”取而代之的是,現(xiàn)在看起來我們將創(chuàng)造人工智能,然后其他人將使用它來創(chuàng)造各種神奇的東西,我們都將從中受益。”
在今天的 GPT-4o 發(fā)布會之前,有相互矛盾的報道預測,OpenAI 將發(fā)布一個可與谷歌和 Perplexity 匹敵的人工智能搜索引擎、一個內(nèi)置在 GPT-4 中的語音助手,或者一個全新的改進型 GPT-5。當然,OpenAI 肯定會把發(fā)布時間定在谷歌 I/O 大會(科技巨頭的旗艦會議)之前,我們期待看到 Gemini 團隊在大會上發(fā)布各種人工智能產(chǎn)品。