OpenAI推GPT-4o
【2024年5月14日訊】
OpenAI發佈GPT-4o全新旗艦AI模型,能即時理解及回應語音、影像等多媒體輸入形式;逐步向ChatGPT用戶開放文字、圖像、聲音及視頻功能;並推出桌面版ChatGPT。
GPT-4o具備語音及多媒體輸入輸出能力,即時理解並回應用戶,平均反應時間約320毫秒。涵蓋50多種語言,可進行即時雙語對話及翻譯。相較前代API,速度提升兩倍,使用價格成本減半。所有ChatGPT用戶可免費使用GPT-4o文字及圖像功能,付費用戶更享5倍使用上限。
GPT-4o的「o」代表「全能」(omni);具備即時識別及解答線性方程式,亦能偵測用戶情緒並做出適切回應;可即時翻譯餐牌、瞭解菜餚背景並提供推薦。未來更支援語音對話和視頻交流,如詢問體育賽事規則。在語音識別及翻譯方面較現有模型優勝,尤其支援低語言資源。
GPT-4o文字及圖像功能即時開放予所有用戶使用,但免費用戶使用上限較低。語音及視頻功能將於未來數周內推出,僅限付費用戶使用。OpenAI將陸續為免費用戶開放GPT-4級別智能功能,涵蓋網絡資訊連接、數據分析和製圖,以及文件總結、編寫或分析。
OpenAI同時推出ChatGPT桌面版,首階段只面向Mac用戶,支援透過語音及畫面直接與助手對話,付費訂閱用戶即可使用,Windows版則將稍後推出。有見及Google I/O開發者大會即將召開,業界認為OpenAI此舉或有先發制人之意。至於Google人工智慧Gemini的反應,將於未來數日揭曉。
伸延閱讀
消息來源
- Business Digest Editorial,【觸不到的她】OpenAI發布GPT-4o 可與用戶語音對話,Business Digest,2024年5月14日,zh-HK。
- 林妍溱,OpenAI新AI多模模型GPT-4o提供所有ChatGPT用戶,速度更快,價格減半,iThome,2024年5月14日,zh-TW。
- 新浪網,OpenAI發佈全能模型GPT-4o!速度提升200%,支持實時音視頻交互 - 新浪香港,新浪香港,2024年5月14日,zh-HK。
- 【FOCUS】GPT-4o挑機谷歌,Sora後來者眾 - etnet 經濟通,etnet 經濟通,2024年5月14日,zh-HK。
- 藍骨,OpenAI 正式推出 GPT-4o 模型 可理解用家表情提供更親切對答 - unwire.hk 香港,unwire.hk,2024年5月14日,zh-HK。
- 【FOCUS】GPT-4o挑機谷歌,Sora後來者眾,夸克日報,2024年5月14日,zh-CN。
- OpenAI推出最新免費模型GPT-4o、桌面版ChatGPT美股 US Stocks Quote - 外圍新聞內容 Golbal News Content,AASTOCKS。
- Andy Yang,OpenAI GPT-4o 模型登場,同時整合文字、語言和圖像的輸入輸出,Yahoo奇摩新聞。
- GPT-4o,英語維基百科,2024年5月14日。
- 田孟心 天下Web only,GPT-4o強在哪?,天下雜誌,2024年5月14日。
- ChatGPT 免費版正式開放使用 GPTs/GPT Sotre!OpenAI 也推出 ChatGPT Mac App,電腦王阿達,2024年5月14日。
- 田孟心,OpenAI 發表全新 GPT-4o 模型,免費/付費 ChatGPT 用戶皆能使用,電腦王阿達,2024年5月14日。
- 新聞稿:Introducing GPT-4o and more tools to ChatGPT free users,OpenAI,2024年5月14日。
- 新聞稿:OpenAI完整發表會影片,OpenAI,2024年5月14日。
- 新聞稿:Spring Update,OpenAI,2024年5月13日,EN。
- 新聞稿:Hello GPT-4o,OpenAI,2024年5月13日,EN。
文章內容可能隨時修改。請引用可以用到的所有來源。 |