没有人知道人工智能(Artificial Intelligence,AI)将如何改变世界,原因之一在于,没有人真正了解这些AI的内部运作方式。一些AI系统具备的能力远远超出了它们所受训练的范围——就连它们的发明者也对此感到困惑。研究人员也在想尽办法理解,为什么大语言模型能够掌握那些没人告诉过它们的知识。越来越多的测试表明,这些AI系统就像我们人类的大脑一样,在自己的内部构建出了现实世界的模型——尽管它们达成的方式和我们的不同。
AI是鹦鹉学舌吗
美国布朗大学的埃莉·帕夫利克是致力于填补这一空白的研究人员之一。帕夫利克表示:“如果我们不了解它们是如何运作的,任何想要优化人工智能、使它变得更安全或者类似的行为,对我来说都是很荒谬的。”
从某种程度上说,帕夫利克和她的同事对“基于生成式预训练模型”(Generative Pre-trained Transformer,GPT)和其他类型的大型语言模型(LLM)了解得一清二楚。这些模型都依赖于一种名为“神经网络”的机器学习系统——它的结构大致仿照了人脑的神经元连接。用于构建神经网络的程序代码相对简单,仅占几个屏幕的篇幅就能建立起一种可自动更正的算法。这种算法可以统计分析数百GB的互联网文本,再挑选出最有可能的单词,由此生成一段内容。一些额外训练还能确保系统以对话的形式呈现结果。从这个意义上说,它所做的只是重复所学到的内容——用美国华盛顿大学语言学家埃米莉·本德的话来说,这就是一只“随机鹦鹉”。这并不是诋毁已故的非洲灰鹦鹉亚历克斯,它能够理解诸如颜色、形状和面包等概念,并且会有意地使用相应的词语。不过,LLM也通过了律师资格考试,并就希格斯玻色子写了一首十四行诗,甚至还试图破坏用户的婚姻。鲜有人预料到,一个相当简单的自动更正算法可以具备如此广泛的能力。
此外,GPT和其他AI系统还能执行未经训练的任务,因而会产生一些“涌现能力”(Emergent Abilities,随模型规模增大而不可预测地出现的能力)。这一点甚至让那些对LLM过度宣传普遍持怀疑态度的研究人员也感到惊讶。美国圣菲研究所的AI研究员梅拉妮·米切尔表示:“我不知道它们是如何做到的,也不知道它们能否像人类那样在更普遍意义上做到这一点,但现在的情况已经挑战了我的观点。”
加拿大蒙特利尔大学的AI研究员约书亚·本希奥说:“它肯定比‘随机鹦鹉’要强得多,并且确实构建出了一些关于现实世界的内部表征——尽管我认为这和人类脑中构建世界模型的方式不大相同。”
涌现能力
今年3月,在美国纽约大学举办的一场会议上,美国哥伦比亚大学的哲学家拉斐尔·米利埃展示了LLM另一个令人瞠目结舌的能力。我们已经知道这些模型具备令人印象深刻的写代码能力,但由于网上有太多的代码可以模仿,所以不足为奇。相比之下,米利埃更进一步证明,GPT也有执行代码的能力。这位哲学家输入了一个用于计算斐波那契数列中第83个数字的程序。“执行这套程序需要非常高级的多步推理,”他说。尽管AI聊天机器人似乎本不应该能够实现此类操作,但它却成功了。不过,当米利埃直接问它第83个斐波那契数是多少时,它却答错了。这样看来,它不仅仅是一只“随机鹦鹉”、只能根据见过的数据输出答案,而是可以通过执行运算来得出答案。
尽管LLM是在计算机上运行的,但它本身并不是计算机。因为它缺乏必要的计算元素,比如工作记忆(对信息进行短时存储和加工的记忆系统)。GPT被默认自身无法运行代码,对此它的发明者——科技公司OpenAI推出了一个专门的插件,以便使生成式预训练聊天机器人可以在回答问题时使用这种工具来运行代码。不过,米利埃展示的工作并没有使用这种插件。相反,他猜测GPT可以利用它根据上下文解释单词的能力,临时创建一种记忆——这种行为很像自然界中的生物如何将现有能力重新用于实现新功能一样。
这种可以临时产生记忆的能力表明,LLM发展出了远超出简单统计分析的内部复杂性。研究人员发现,这些系统似乎能够真正理解它们所学的内容。在今年5月举办的国际表征学习大会上,美国哈佛大学的博士生肯尼思·李和他的同事报告了一项研究,他们搭建了一个较小的GPT神经网络,以便研究其内部运作。通过以文本形式输入棋子走法,他们对它进行了数百万场黑白棋(Othello)的比赛训练,从而使他们的模型成为一名近乎完美的玩家。
为了研究神经网络如何编码信息,他们采用了来自蒙特利尔大学的本希奥和纪尧姆·阿兰于2016年开发的一项技术。他们创建了一种微型“探针”网络来逐层分析主网络。肯尼思·李认为这好比神经科学中的方法,“就像把探针放入人脑一样。”就肯尼思·李等人训练的AI模型而言,探针显示它的“神经活动”与一场黑白棋游戏的表征相匹配,不过是以卷积的形式存在。为了证实这一点,研究人员在将信息植入网络时反向运行探针,例如,将棋盘游戏中的一枚黑棋翻转成白棋。肯尼思·李表示:“从根本上说,我们侵入了这些语言模型的‘大脑’。”结果显示,神经网络据此调整了自己的行为。研究人员推断,它在玩黑白棋时与人类大致相同:在“脑海”中想象一个棋盘,并使用这个模型来评估可走的棋步。肯尼思·李认为,系统之所以能够学会这项技能,是因为这是对它所接受的训练数据的最简洁的一种描述。“如果你有一大堆游戏脚本,那么最好的压缩数据的方法就是尝试找出背后的规则。”他补充道。
这种推断外部世界结构的能力并不局限于简单的走棋动作,它还表现在对话中。麻省理工学院的研究人员利用一种文字冒险游戏研究了神经网络。他们会输入一些语句,比如先输入“钥匙在宝箱里”,然后输入“你拿走钥匙”。利用一种探针,他们发现这些神经网络已经在内部编码了与“宝箱”和“你”对应的变量,每个变量都分为“有钥匙”和“无钥匙”这两种情况,并且变量的值会随输入语句的不同而不断更新。这个系统并不能独立地理解宝箱和钥匙的含义,但是它可以从语句中挑选出完成这项任务所需的概念。
研究人员惊叹于LLM能够从文本中学到如此多的内容。例如,帕夫利克和同事发现,这些神经网络可以从互联网的文本数据中获得关于颜色的描述,然后构建关于颜色的内部表征。当它们看到“红色”这个词时,不只是将它作为一个抽象符号来处理,还会把它当作一个与栗色、深红色、紫红色和铁锈色等颜色具有某种联系的概念。想要体现出这一点还有些棘手。研究人员并没有使用探针,而是研究了AI模型对一系列文本提示所作的响应。为了检验AI系统是否只是在模仿互联网上数据中不同颜色之间的关系,他们尝试误导系统,告诉它红色其实是绿色。结果表明,AI系统并没有照搬错误的答案,而是通过适当更正输出了正确答案。AI可以通过找到训练数据背后的逻辑来实现自我更正,对此微软研究院的机器学习研究员塞巴斯蒂安·布贝克表示,数据范围越广,系统发现的规则就越普遍。
语境学习
除了提取语言的潜在含义外,LLM还能现学现用。在人工智能领域,“学习”一词通常用在计算密集型的进程中,包括开发人员给神经网络提供GB级别的数据,以及修改其内部连接。当你向生成式预训练聊天机器人提出一个问题时,神经网络理应固定不变,因为它不像人类一样会继续学习。但令人惊讶的是,LLM实际上可以学会根据用户给出的提示生成与上下文相关的输出,这种能力被称为“上下文学习”(In-context Learning,又称语境学习)。AI公司SingularityNET的创始人本·戈策尔表示:“这是一种完全不同的学习方式,此前我们并不真正了解它。”
人类与AI聊天机器人之间的交互方式是展示LLM如何学习的一个例子。你可以给系统举例说明你希望它如何响应,然后它就会服从你的指令。它的输出取决于它看到的最后几千个单词,这样的行为是由AI模型固定的内部连接决定的——不过单词序列提供了一定程度的可变性。整个互联网都在致力于寻找让模型“越狱”的提示词,以此突破系统防护——例如,系统防护会阻止它告诉用户如何制作管状炸弹——这通常是通过引导模型“扮演”一个没有防护的系统来实现的。有些人利用“越狱”来达成一些可疑意图,而另一些人则是利用“越狱”来获得更具创造性的答案。佛罗里达大西洋大学机器感知与认知机器人实验室联合主任威廉·哈恩表示,与不加“越狱”提示词而直接询问AI科学问题相比,加了以后可以表现得更好,“我认为这将能更好地解决科学问题。”换句话说,“越狱后的模型更擅长学术问题。”另一种类型的语境学习则是通过一种叫做“思维链”的提示方法实现的。这种方法要求神经网络阐明其推理过程中的每一步,从而使LLM在需要多步推理的逻辑或算术问题上做得更好。值得一提的是,米利埃的研究并没有使用类似的提示方法,这也是它令人如此惊讶的原因之一。
2022年,由谷歌研究院和瑞士苏黎世联邦理工学院的研究人员组成的一支团队发现,语境学习与标准学习都遵循一种名为“梯度下降法”(Gradient Descent)的基本算法——该操作是AI系统在没有人类帮助下自行发现的。“这是AI习得的一种能力,”谷歌研究院副总裁布莱斯·阿圭拉-阿尔卡斯说。事实上,他认为LLM可能还有其他尚未被发现的能力。
现在LLM还有相当多的盲点,所以我们还不能把它称为通用人工智能(AGI,具备与生物大脑类似智慧的机器),但一些研究人员认为,它们这些涌现能力表明,科技公司距离AGI也许比乐观主义者猜测的还要更近。今年3月,戈策尔在佛罗里达大西洋大学举行的深度学习会议上说:“它们间接证明我们离AGI可能并不遥远。”OpenAI的插件使生成式预训练聊天机器人具有了模块化的架构,与人类大脑有些类似。麻省理工学院的研究员安娜·伊万诺娃表示:“将GPT-4(为生成式预训练聊天机器人提供技术支持的最新版本的LLM)与各种插件相结合,可能是一条通往AGI的途径。”但与此同时,研究人员还担心他们研究这些系统的机会窗口可能正在关闭。OpenAI没有透露GPT-4设计和训练的细节,部分原因是它陷入了与谷歌等其他公司——且不说其他国家的竞争中。丹·罗伯茨是麻省理工学院的理论物理学家,主要运用专业知识来理解人工智能。罗伯茨表示:“业界公开的研究将可能会减少,而围绕产品构建的研究工作将变得更加孤立且组织化。”
缺乏透明度不只不利于研究的开展,圣菲研究所的米切尔说。它还会阻碍我们对AI热潮所产生的社会影响的理解。“这些模型透明化是确保AI安全性最重要的一点。”
(撰文:乔治·马瑟 翻译:陶兆巍)
(本文由《环球科学》杂志社供稿)
来源:光明日报