5月14日凌晨OpenAI在春季发布会上宣布推出GPT-4o多模态大模型,为生成式AI带来新的突破。相较于之前的GPT-4 Turbo,GPT-4o在速度和价格方面都有显著优势,同时拥有处理文本、图像、音频等多种模态的能力,为用户带来更自然、流畅的交互体验。
GPT-4o性能优异,免费用户也能享受福利
OpenAI首席技术官米拉·穆拉蒂在发布会上强调,GPT-4o是该公司在易用性方面迈出的重要一步。据悉,基于GPT-4o的ChatGPT改进版将在未来一个月内向Plus用户推出,而免费用户也将获得访问最新模型的机会。此外,OpenAI还宣布为付费用户提供更高的消息限制,进一步提升了产品的实用性。
现场演示展现GPT-4o强大能力,人机交互更自然
在发布会现场,OpenAI的研究主管Mark Chen和后训练团队负责人Barret Zoph通过一系列演示展示了GPT-4o的强大功能。Mark Chen使用Voice Mode与GPT-4o进行实时语音交互,展现了该模型平均320毫秒的超低延迟响应能力。Barret Zoph则让ChatGPT分析复杂的数学方程式,并对用户的情绪变化做出恰当的反应。这些演示表明,基于GPT-4o的应用将为人机交互带来全新的可能性。
基于GPT-4o的ChatGPT应用将陆续更新,提供跨平台支持
除了语音交互,OpenAI还计划在未来几周内为ChatGPT引入视频输入功能,让用户能够通过多种方式与AI助手进行沟通。同时,OpenAI宣布将发布专为macOS设计的ChatGPT桌面应用,并在晚些时候推出Windows版本,为不同平台的用户提供原生的交互体验。
GPT-4o的发布标志着生成式AI技术的又一次飞跃。随着OpenAI不断突破技术瓶颈,提供更易用、更智能的AI助手,人工智能有望在更多领域发挥变革性作用,为人类的工作和生活带来全新的可能性。
本文源自金融界