在近日瑞士举行的2024年人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI CEO山姆·奥尔特曼(Sam Altman)与《大西洋月刊》CEO尼古拉斯·汤普森(Nicholas Thompson)进行了连线交流,提及AI的全球化、安全性、合成数据训练以及下一代大模型等相关问题。
奥尔特曼在对话中预测,中国将会拥有自己独特的大语言模型,与世界其他地区的模型不同。当被问到三年后会有多少基础的大语言模型存在时,奥尔特曼表示,当下有许多模型正在训练,这种趋势将会持续,“将有成千上万的大语言模型被开发出来,但其中只有少数,如10个、20个或类似的数量,会获得大量的使用和最密集的资源投入。”
奥尔特曼认为,我们仍处在AGI的初级阶段,还有许多未知等待去探索,还有许多科学上的突破即将到来,因此在这一点上做出任何自信的预测都是非常困难的。
另一点是关于人工智能的全球化和公平问题,有人认为,GPT-4和其他大语言模型在英语、西班牙语和法语上的表现要优于斯瓦希里语(一种在非洲广泛使用的语言)等语言。奥尔特曼则回复,GPT-4o在更多种类的语言上都表现出色,OpenAI此前公布的统计数据显示,GPT-4o已经能够覆盖97%人群的母语。
关于OpenAI,近段时间备受关注的仍然是其安全性问题,在GPT-4o模型发布不久后,负责安全事务的联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)就官宣离职,而另一位在安全领域作出重大贡献的超级对齐团队联合负责人杨·莱克(Jan Leike)也离开OpenAI转投Anthropic,并在社交媒体X上称“(OpenAI)安全文化和安全流程已经让位给闪亮的产品”。
奥尔特曼在对话中表示,在确保安全性方面,模型的可解释性是一个值得探究的领域,目前尽管尚未解决可解释性问题,但他“对正在发生的许多事情感到非常兴奋”。在他看来,对模型内部运作的理解越深入,就越能做出更好的决策,“这可以成为我们构建和验证安全性声明的综合性方案的一部分。”
此外,人道科技中心联合创始人兼执行主管特里斯坦·哈里斯(Tristan Harris)曾提出一个建议是,大语言模型公司每投入100万美元用于增强模型的能力,也应同等投入100万美元用于安全性研究。奥尔特曼认为,人们往往倾向于把世界简单地划分为性能与安全两个部分,并制定一些听起来很有道理的政策,而要界定许多工作的性质是非常困难的。
如果在生产中使用一个模型,用户确实会希望它能够完成既定任务,同时不会产生任何负面影响。不过,让模型在既定的界限内,按照用户的期望去运行,是一个综合性的问题。奥尔特曼将这个过程比喻为搭乘飞机,用户期望它能安全地将自己送达目的地,同时也希望在整个飞行过程中不会出现任何故障。
“在飞机设计中,有些部分可以明确区分为能力提升或安全措施,但总体而言,我们是在努力设计一个综合系统,旨在安全、迅速地将您带到目的地,并确保飞行中不会出现任何部件脱落的问题。”奥尔特曼的观点是,有关产品能力提升和安全措施的这种界限,实际上并没有表面上看起来那么清晰。
不过,在有关安全的关键人才离开之后,OpenAI “飞机的机翼”依然稳固吗?针对公众的质疑,奥尔特曼认为,这种评价应基于公司行动,包括发布的模型、所开展的工作、进行的科学研究,实际上公司已经进行了对齐研究、建立了安全系统、实施了监控措施。
在对话中,谈及下一代模型是否会迎来指数增长的显著飞跃,奥尔特曼表示,“我们并不认为我们正处于任何指数增长的临界点。”他认为大模型仍然有很大的发展空间,并预期在某些领域将实现巨大的进步,但在其他一些领域可能提升并不如预期显著,这与之前每次模型更新时的情况相似。
训练大模型最关键的部分之一是数据,在对话中奥尔特曼提到,为了训练下一代模型,OpenAI在大量生成合成数据用以训练方面进行了各种实验。但如果训练模型的最佳途径仅仅是创造数以万亿计的合成数据并将其重新输入系统,这种方法在某种程度上显得效率不高,“应该存在一种机制,让模型在训练过程中能够更有效地从数据中学习,我认为我们还有许多问题需要解决。”
合成数据是否会引发数据出错问题?奥尔特曼认为,无论是合成数据还是人类生成的数据,都存在质量良莠不齐的问题,关键在于获取高质量的数据。只要能够收集到足够高质量的数据来训练模型,或者能够开发出提高数据效率的方法,从较少的数据量中学习更多,出错的问题是可以解决的。
(本文来自第一财经)