OpenAI 于 2024 年 5 月 13 日宣布推出其新的旗舰模型 GPT-4o,该模型可以实时处理语音、视频、图像和文本。所有用户今天都将开始访问 GPT-4o,GPT-4o 是智能且快速的模型。
GPT-4o 也是 LMSys arena 上测试的版本 im-also-a-good-gpt2-chatbot,且在测试中表现优异,评分很高。
GPT-4o 的主要特点
接受任意组合的文本、音频和图像输入,并生成相应的输出。 响应音频输入的速度与人类在对话中的响应时间相似(平均 320 毫秒)。 在英语文本和代码方面与 GPT-4 Turbo 性能相当,在非英语文本方面有显著改进。 速度更快,与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。 在图像和音频理解方面优于现有模型。
模型可用性
GPT-4o 的文本和图像功能从今天开始在 ChatGPT 中推出。 免费用户可使用 GPT-4o,Plus 用户的消息限制提高 5 倍。 未来几周内将在 ChatGPT Plus 中以 α 版本推出带有 GPT-4o 的新语音模式。 开发者现在可以在 API 中访问作为文本和图像模型的 GPT-4o。 计划在未来几周内向 API 中的一小群可信赖合作伙伴推出对 GPT-4o 新语音和视频功能的支持。
新的标记器在中文文本的压缩效果更佳,使得使用 API 的成本更加经济实惠。在接下来的两周内,GPT-4o 速率限制将增至 GPT-4 Turbo 的 5 倍——10M TPM。
OpenAI 官方发布了很多视频,值得一看。这里只展示部分:
https://www.youtube.com/@OpenAI/videos
更多视频
GPT-4o 能力卓越
GPT-4o 最具吸引力的亮点之一就是它卓越的语音处理能力。
简单体验 GPT-4o
速度比 GPT-4 Turbo 快很多,但还没有达到 GPT-3.5 的速度水平,与 Groq llama3 70B 280 tokens/s 速度相比还有一定差距。从 OpenAI 发布的图表和我的简单体验来看,GPT-4o 的性能非常出色。
速度提升,成本降低,与 Claude 3 Opus 相比,GPT-4o 性价比非常高。此外,它的音频和图像处理能力显著增强,向构建 LLM OS 的目标又迈进了一步。接下来,我计划在 Open Interpreter 中进一步体验它。
再次强调,生成速度的提升非常重要,瞬间就能完成复杂任务,给人一种从 100M 网速升级到 1000M 网速的感觉。
尤其值得推荐的是,OpenAl Translator 已经搭配了最新的 GPT-4o API。
ChatGPT 免费用户也能用 GPT-4o
1️⃣ 体验 GPT-4 级别的智能。
2️⃣ 从模型和网络获取响应。
3️⃣ 分析数据并创建图表。
4️⃣ 聊聊你拍的照片。
5️⃣ 上传文件,以获取摘要、写作或分析的帮助。
6️⃣ 发现并使用 GPT 和 GPT 商店。
7️⃣ 使用记忆功能构建更有帮助的体验。
推荐官网探索 GPT-4o 的能力
请访问 https://openai.com/index/hello-gpt-4o/
结尾
新推出的语音和视频模式真正让人惊艳。它让人与计算机之间的互动变得更加自然和直观,仿佛电影中的场景成了现实。非常期待早日使用上它。
GPT-4o 的发布带来了诸多创新和改进,您对这些新功能和性能提升有何看法?欢迎在评论区分享您的体验和见解。让我们一起参与这场关于人工智能的精彩讨论!
本文链接:https://www.qh-news.com/chatgpt/28.html
GPT-4oGPT4ogpt-4o检测人的情绪gpt-4o多模态大模型发布GPT-4o免费GPT-4o官网GPT4o官网