大家好,昨晚OpenAI在他们的首届开发者大会上公布了许多重大的新功能和更新,我今天就为大家做一个简要的汇总。
首先是全新的GPT-4 Turbo模型,它提供了128K的上下文窗口,并掌握了直到2023年4月的世界事件知识。定价方面也有了很大的优化,每1000个输入token只需要0.01美元,输出token仅需0.03美元,相比之前的GPT-4定价分别便宜了3倍和2倍。此外,GPT-4 Turbo还改进了函数调用的能力,支持在单条提示中调用多个函数,返回更准确的参数等。
更新后的GPT-3.5 Turbo默认支持16K的上下文窗口,更长的上下文长度也以更低的价格提供。精调后的GPT-3.5使用成本也大大降低,输入token降价75%,输出token降价62%。GPT-3.5 Turbo同样改进了函数调用和可复现输出等能力。
全新的Assistant API旨在帮助开发者轻松地在应用中构建像智能助手般的体验。这个API支持创建针对特定任务优化的AI助手,可以保存对话线程状态、调用开发者定义的函数等。
在多模态能力方面,GPT-4 Turbo现在支持视觉输入,可以应用于图像字幕生成等用例。此外,可以通过图像生成API集成DALL·E 3。新引入的TTS模型也提供了六种自然语音合成语音。
ChatGPT中推出了GPT定制功能,开发者可以结合指令、数据和能力,定制出符合自己需要的ChatGPT版本。
OpenAI此次更新打开了AI在更多项目中的应用契机,我们拭目以待后续的不断进步!