生成式人工智能:未来的发展趋势与挑战

发表时间: 2024-11-26 14:56

近年来,在ChatGPT等一些聊天机器人进入公共领域后,生成式人工智能席卷了世界。聊天机器人以近乎神奇的速度生成了类似人类的文本——以莎士比亚的风格写十四行诗,在多种语言之间翻译文本,大量编写计算机代码等等。

企业和商业专家立即看到了潜在的好处。但最近几个月,人们对生成式人工智能的怀疑还在增加。批评者说,生成式人工智能的能力被夸大了。幻觉——生成式人工智能模型可能做出的错误陈述——降低了其有用性,许多企业尚未找到使用这些工具的理想策略。尽管ChatGPT是有史以来发展最快的应用程序之一,但表示经常使用它的人的比例仍然相当罕见。

在最近对全球技术领导者进行的一项调查“The Impact of Technology in 2025 and Beyond: an IEEE Global Study”中,91%的受访者同意“到2025年,随着公众的兴趣和看法转变为对技术能够和应该做什么的更大理解和期望,在结果的准确性、深度伪造的透明度等方面,将出现一种生成式的人工智能计算。”

但该调查预计生成式人工智能不会遇到持久的障碍。相当比例的多数人(91%)也同意“生成式人工智能的创新、探索和采用将在2025年以闪电般的速度继续。”

那么,2025年生成式人工智能的前景如何?产品路线图是什么,它们将对我们的工作和生活方式产生什么影响?

更多多模式功能

IEEE高级会员林道庄预计,未来几年生成式AI模型将能够更容易地从简短的文字片段中提供图像和视频,文本到图像、文本到视频和语音合成技术将得到改进,模型将在多样化输入中实现更好的上下文理解。

林说:“第一步是深度整合多模式,为消费者甚至专业内容创作者创造更复杂、详细、准确和自洽的内容。”

解决模型中的准确性和偏见

对幻觉、准确性和偏见的担忧也减缓了生成式人工智能模型的采用。当模型在有偏见的数据上训练时,偏见可能会蔓延。一些图像生成模型可能会显示对某个种族的人的偏好。

林说:“该模型的开发人员需要专注于如何消除人工智能在消费者数据培训过程中产生的偏见和道德问题。重要的是引导用户接受更普遍、更持久的价值观,并引导模型变得更加‘善良’。”

提高模型处理信息的上下文窗口大小

生成式人工智能模型面临的一个限制是它们在提示中一次可以处理的信息量。这被称为上下文窗口或上下文大小。例如,想象一下,你需要输入一个很长的提示或描述来生成图像。在某些时候,生成式人工智能模型将无法处理整个提示。输出将仅反映提示的一部分,省略潜在的重要信息。

在另一种情况下,您可能需要与模型就一份长文档进行对话。随着对话的进行,模型可能会忘记对话的早期部分。

提高模型处理信息的上下文窗口将使生成式人工智能模型能够处理更复杂的任务,并提高其响应的一致性。

IEEE研究生会员Hector Azpurua表示:“我们还没有达到生成式人工智能的极限;我们还没有处于这项技术增长后的稳定期。”

(9220926)