OpenAI 刚刚宣布了一个令人兴奋的新功能——高级语音模式(AVM),这标志着人工智能在语音交互领域的又一次进步。AVM 利用 GPT-4o 的原生音频技术,为用户提供更加自然和实时的对话体验。
周二,OpenAI 宣布向更多 ChatGPT 付费用户推出“高级语音模式”(Advanced Voice Mode,简称 AVM )。
目前,OpenAI 提供了两种类型的语音对话 —— 标准语音和高级语音:
1)高级语音:目前正在向 Plus 和 Team 用户逐步推出。该功能使用 GPT-4o 的原生音频技术,能够实现更加自然的实时对话,并捕捉非语言线索(例如语速),还能作出情感化的回应。
Plus 和 Team 用户每天对高级语音的使用量有限制,包括语音输入和输出。企业版和教育版的用户将在下周开始获得该功能。
2)标准语音:适用于所有登录 ChatGPT的用户,并可以通过 iOS、macOS 和Android 应用使用。
标准语音通过多种模型生成响应,包括将语音转录为文本,再传递给模型进行回答。
尽管标准语音不像高级语音那样具备原生多模式功能,但它仍然使用 GPT-4o 和 GPT-4o mini。需要注意的是,标准语音中的每一次提示都会计入消息限制。
要开始语音对话,需要选择屏幕右下角的“语音”图标:
当开始高级语音对话时,用户将被带到一个屏幕,屏幕中心有一个蓝色球体:
AVM 将在一周内逐步向所有 Plus 和 Team 用户推送。在等待期间,OpenAI 还增加了“自定义指令”、记忆功能、五种新语音和改进的口音支持,还可以用超过 50 种语言说“抱歉,我迟到了”。
此外,ChatGPT 还新增了五种可供用户体验的语音:Arbor、Maple、Sol、 Spruce 和 Vale,加上之前的 Breeze、Juniper、Cove 和 Ember,ChatGPT 语音总数达到了九种,几乎赶上了谷歌 Gemini Live 的数量。
OpenAI 表示,自从 AVM 的有限 alpha 测试发布以来,已经进行了多项改进。据称ChatGPT的语音功能现在对口音的理解能力更强,且对话更加顺畅和迅速。
OpenAI 还将 ChatGPT 部分定制功能扩展到了 AVM,包括“自定义指令”,允许用户个性化 ChatGPT 的响应方式,以及“记忆功能”,让 ChatGPT 能够记住之前的对话以供以后参考。
本文由人人都是产品经理作者【江天 Tim】,微信公众号:【有新Newin】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。