首頁 > AI資訊 > 最新資訊 > 免費GPT-4o來襲,音頻視覺文本實現「大一統」

免費GPT-4o來襲,音頻視覺文本實現「大一統」

新火種    2024-05-15

作者 | 賴文昕

今天凌晨,即北京時間5月14日1點整,OpenAI 召開了首場春季發布會,CTO Mira Murati 在臺上和團隊用短短不到30分鐘的時間,揭開了最新旗艦模型 GPT-4o 的神秘面紗,以及基于 GPT-4o 的 ChatGPT,均為免費使用。

此前,有傳言稱 OpenAI 將推出 AI 搜索引擎,旨在與谷歌明天舉辦的 I/O 開發者大會一較高下,一度引發了公眾的熱烈討論。

不過 Sam Altman 隨后在 X(原推特)上表示,要展示的并非 GPT-5 或搜索引擎,而是一些令人期待的創新成果,他本人對此充滿期待,認為其像魔法一樣神奇。

那么,GPT-4o 是否真的如 Sam Altman 所說,是 OpenAI 帶來的「新魔法」呢?

多模態實時語音助手,更快更全更有情感

登臺后,Mira Murati 宣布了 ChatGPT 的桌面版本和新 UI,緊接著就介紹了本場發布會的主角——GPT-4o 。

在發布會上,Mira Murati 與團隊成員 Mark Chen、Barret Zoph一起,重點展示了基于 GPT-4o 的 ChatGPT 在不同任務中的實際表現,尤其展現了其語音能力。

若用關鍵詞加以總結,搭載 GPT-4o 的 ChatGPT 可謂是又快、又全、又有情感。

與 ChatGPT 對話時,用戶不必等 ChatGPT 說完,可以隨時插話;模型能夠實時響應,不存在尷尬的幾秒延遲。

在 Mark 表示自己很緊張且捕捉到他急促的呼吸后,ChatGPT 還會提醒需要冷靜情緒,識別其呼吸節奏并引導他做深呼吸。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

模型能夠以各種不同的風格生成聲音。無論對話時讓 ChatGPT 用唱歌的方式、機器人機械音還是戲劇化的語氣講故事,它都能迅速反應并輸出。

基于 GPT-4o 強大的視覺能力,用戶還可以語音讓 ChatGPT 分析頁面上的數據圖表。

更強大的是,打開攝像頭后寫下一道數學題,ChatGPT 還會一步步引導該如何解下一步,其講解的清晰度與耐心堪比幼教。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

ChatGPT的「同傳能力」也不容小覷,OpenAI 團隊還在現場展示了一波英語和意大利語的實時互譯,中間實現零延遲。

更有意思的是,ChatGPT 在對話中還會使用語氣詞,甚至是向 OpenAI 團隊開玩笑和表達感謝。在「看到」他們寫下「我愛 ChatGPT」的文字后,ChatGPT 甚至會在發出撒嬌的聲音后,再表揚其貼心。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

ChatGPT 甚至還能和用戶「視頻聊天」。在演示中,Barret 讓 ChatGPT 猜測自己的情緒,在他開始露出笑臉后,ChatGPT 直接語音回復「你看起來很開心,笑容燦爛,還有點激動。」

免費GPT-4o來襲,音頻視覺文本實現「大一統」

英偉達首席 AI 科學家 Jim Fan 曾講述過當前實時語音助手(如 Siri )的困境,即很難創造出沉浸式的使用體驗。

用戶在和 AI 語音助手對話時要經歷三個階段:語音識別(ASR),將音頻轉換為文本,例如 Whisper;大語言模型(LLM)規劃接下來的話語,將第一階段的文本轉換為新的文本; 語音合成(TTS),將新文本轉換回音頻,如 ElevenLabs 或 VALL-E 。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

如果簡單地按順序執行,就會產生巨大的延遲,特別是當每一步都需要等待幾秒時,用戶體驗就會急劇下降,哪怕合成的音頻聽起來非常真實,也會讓用戶格外「出戲」,就更別提沉浸式的使用體驗了。

以往的 ChatGPT 語音模式也是如此,依賴三個獨立模型工作,平均延遲時間為 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4),語音助手也總會出現信息丟失,既不能判斷語調、多個說話者或背景噪音,也不能輸出笑聲、唱歌或表達情感。

而現在,GPT-4o 的音頻輸入響應時間最短為232毫秒,平均響應時間為320毫秒,與人類在對話中的反應時間極為相似。

作為一個全新的單一模型,GPT-4o 能端到端地跨文本、視覺和音頻,所有輸入和輸出都由同一個神經網絡處理,直接一步到位,在用戶輸入后(文本、語音、圖像、視頻均可)直接生成音頻回答。

GPT-4o ,一款免費的全能 GPT-4

Mira Murati 在發布會上表示,GPT-4o 最棒的地方在于,它將 GPT-4 的智能提供給每個人,包括免費用戶,將在未來幾周內迭代式地在公司產品中推出。

GPT-4o 中的字母 o 指 omni,在拉丁語詞根中是「全」的意思,是涵蓋了文字、語音、圖片、視頻的多模態模型,接受任何模態的組合作為輸入,并能生成任何模態的組合輸出。

據 OpenAI 官網,GPT-4o 不僅在文本和代碼處理的性能上與GPT-4 Turbo持平,而且在 API 調用上速度更快,價格更是降低了50%。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

文本能力測試

免費GPT-4o來襲,音頻視覺文本實現「大一統」

與GPT-4對比多語言考試能力

更重要的是,GPT-4o 的視覺理解能力在相關基準上取得了壓倒性的勝利。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

在音頻方面,GPT-4o 的語音識別(ASR)也比 OpenAI 的語音識別模型 Whisper 性能更佳(越低越好)。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

與 Meta、谷歌的語音轉寫模型相比,GPT-4o 同樣領先(越高越好)。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

若落實到實際生活的使用中,GPT-4o 究竟能給普羅大眾帶來什么變化呢?

OpenAI的官網展示了 GPT-4o 在海報創作、三維重建、字體設計、會議總結等等一系列充滿可能性的應用。

比如,在輸入人物圖片、海報元素以及想要的風格后,GPT-4o 就能給用戶生成一張電影海報。

免費GPT-4o來襲,音頻視覺文本實現「大一統」免費GPT-4o來襲,音頻視覺文本實現「大一統」

免費GPT-4o來襲,音頻視覺文本實現「大一統」

或者,根據輸入的詩歌文本,GPT-4o 能生成用手寫體寫著詩歌、畫著畫的單行本圖片。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

免費GPT-4o來襲,音頻視覺文本實現「大一統」

在輸入6張 OpenAI 的 logo圖后,GPT-4o 能三維重建出其立體動圖。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

甚至還可以讓 GPT-4o 幫忙把 logo 印在杯墊上。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

「今天,有 1 億人使用 ChatGPT 來創作、工作、學習,以前這些高級工具只對付費用戶可用,但現在,有了 GPT-4o 的效率,我們可以將這些工具帶給每個人。」Mira Murati 如是說道。

寫在后面

發布會之外,OpenAI 研究員 William Fedus 透露,此前在大模型競技場參與A/B測試并碾壓全場的模型「im-also-a-good-gpt2-chatbot」,就是本次登場的 GPT-4o 。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

截至2024年3月,OpenAI 在不到十年的運營時間內,已經完成了10輪的融資,累計籌集資金超過了140億美元,其估值在2月的融資交易中已經飆升至800億美元。

伴隨著狂飆的市值,OpenAI 的技術版圖已經橫跨了多個 AI 的關鍵領域,形成了一個全面而深入的產品矩陣。

API 產品線提供了包括 GPT 模型、DALL·E 模型、Whisper 語音識別模型在內的多樣化服務,并通過對話、量化、分析、微調等高級功能,為開發者提供技術支持;ChatGPT 為核心的產品線分別推出了個人版和企業版。

在音樂生成領域,OpenAI 也有一定的技術積累,比如經過訓練的深度神經網絡 MuseNet,可預測并生成 MIDI 音樂文件中的后續音符,以及能生成帶人聲音樂的開源算法 Jukebox。

再加上年初春節假期期間毫無征兆推出的 AI 視頻生成大模型 Sora,更是讓網友們感嘆「現實,不存在了。」

毋庸置疑,OpenAI 是大模型這場擂臺賽中當之無愧的擂主,其技術與產品的迭代更是整個行業的風向標,不少大模型創業者都遇過「OpenAI 不做,沒人投;OpenAI 一做,人人投」的融資奇觀。

但隨著 Claude 3 和 Llama 3 的緊追與 GPT Store 上線2個月慘遭「滑鐵盧」,不少 AI 行業從業者開始對 OpenAI 祛魅,認為「大模型護城河很淺,一年就趕上了。」

現在看來,OpenAI 果然還是 OpenAI。

本文作者 anna042023 將持續關注AI大模型領域的人事、企業、商業應用以及行業發展趨勢,歡迎添加作者交流,互通有無。

免費GPT-4o來襲,音頻視覺文本實現「大一統」

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章