你是否曾经产生过怀疑,你身边的某个人可能是个机器人呢?毕竟现在由于技术的发展,机器人的外观、行为都有可能被设置得和人类十分相像。这似乎有些荒谬和匪夷所思,但是你如何能百分之百确定,某个人就是他看上去的那样,而不是一个“拟人”的机器。你没法打开他的身体零部件去进行判断,没法透视他的大脑、身体或是五脏六腑。
所以你如何确定你所面对的是人类,还是一个非常智能的机器?今天就来对这个问题一探究竟吧。我们将讨论“非生命的存在”,也就是说,“机器人”,是否也可以成为“人”,如果它们拥有了符合“人”的标准,我们由会怎样界定机器人。
这个问题并不是科幻小说家才关心的问题,而是哲学领域、人工智能领域、认知领域都广泛关注的共同话题。它的重要性不言而喻,因为科技无时无刻不在迅猛地发展着,所以我们需要梳理清楚我们如何对待新的物种。如果我们创造出了符合我们对于“人类”标准设定的存在(机器、克隆、仿真等),它们应当用哪种存在的标准去定义?
人工智能这个概念最早于1956年8月的达特茅斯会议上由约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon)、纳撒尼尔·罗切斯特(Nathaniel Rochester)等人提出。在此之前,具有人工智能特性的处理形式会被称为“自动机理论”“复杂数据处理”等。
我们经常会产生一种疑问——“我们已经拥有了人工智能了,我的手机、电脑以及其他电子设备都是人工智能”。但是,这些用来进行信息传递、工作交流的设备,在技术层面上仍然是机器功能的。这类模仿人类智力活动的某些方面的机器,叫做“弱人工智能(Weak AI)”。,弱人工智能也被称为狭隘人工智能(Narrow AI)或应用人工智能(Applied AI)。它指的是只能完成某一项特定任务或者解决某一特定问题的人工智能。所以“弱人工智能”的特点是它的思考能力相对不足,并且能够思考的范围也有限。比如我们现在常用的Siri等,就是典型的弱人工智能,它只能执行一些预设的功能,并不具备智力或者自我意识。
与之相对的“强人工智能(Strong AI)”,是可以向我们人类一样思考的机器或者系统。无论人类做什么,“强人工智能”也能用它无生命的系统做相同的事。强人工智能(Strong AI)又被称为通用人工智能(Artificial General Intelligence)或全人工智能(Full AI)。它指的是可以像人一样胜任任何智力性任务的智能机器。类似如此的人工智能是一部分人工智能领域研究的最终目标,并且这也成了一个经久不衰的话题出现在许多科幻小说、电影之中。
早在1950年,英国数学家艾伦图灵就思考了这一问题。他设计了一个测验,叫做“图灵测验”,他认为这个测验可以演示出一个机器是否已经发展出了像我们一样的智能和思考能力。当然,在图灵那个时代还没有计算机的出现,如果他在我们这个时代描述这个测验,大概会是这样的:
你正在手机上同时和两个“对象”聊天,其中一个是人类,另一个是计算机程序或者一个AI,你并不知道哪一个是人类,哪一个是AI。在聊天过程中,你可以向这两位对话者提出任何想要询问的问题,它们可以按照你的喜好回答你,它们甚至可以说谎。你认为你能分辨出这两者吗?你用什么方法进行分辨,或是说你会提出什么样的问题呢?另一方面,你期待的答案又会是什么样的呢?
一个足够复杂的机器有很大可能可以欺骗人类,会让你相信你正在和一个人类聊天。图灵认为,如果一个机器可以骗过人类,那么这就是“强人工智能”。所以在图灵看来,一个物体如果能够像人类一样思考,就意味着它能够使我们相信它正在像人类一样思考。如果我们分辨不出其中的区别,那么就认为它确实没有差别。所以,这是一个严格基于“行为”的测试。
基于“行为”的测试本身没有问题,因为我们经常以此判断我们身边的人的行为是否符合我们的预期。例如,我们身边的人会表现出诸如意向性、理解力的内容,那么我们假设他们拥有“意向性”和“意志力”。
美国当代哲学家威廉·莱肯在很多观点上对图灵表示认同,但是莱肯意识到许多人仍然认为,即便可以制作出一个类似人类的机器,也永远无法制造出一个就是“人”的机器。对于着一些观点,莱肯举了一个例子——哈利。哈利是一个人形机器人,他有和人类极其相似的皮肤,他可以打球、弹琴、运动,也会紧张,会有情绪,也有弱点。哈利在各方面都给人以一种“人”的印象。他有意向也有情感。如果哈利被割伤,他流出的是机油而不是血,你一定会很吃惊。
莱肯认为,这样的情况不应该导致你改变对哈利的认知状态,如果你认为哈利不是“人”,那么哈利缺少了什么?一个可能的回答是“他是一个由编程制造出的机器”。莱肯对此会回应“我们难道不是吗?”我们每一个人出生时都带着遗传密码,它给我们预设了诸多不同的特性,比如性格、喜好、血型。我们成长的过程中也被家长、老师影响着,这也是一种不同的“编程”,还有你的行为、语言学习等,都是编程的过程。莱肯认为,你拥有超越程序的能力,而哈利也有。
事实证明,人类可以跳出自身的框架进行思考,而机器却无法做到这一点。许多人认为,即使有机器能够通过图灵测试,也并不能认为他们就是“强AI”。学界对于强人工智能所需要拥有的智力水平,尚且没有准确的定义,但人工智能研究人员认为强人工智能需要具备以下的能力。
1.思考能力,运用策略去解决问题,并且可以在不确定情况下做出判断;
2.展现出一定的知识量;
3.计划能力;
4.学习能力;
5.交流能力;
6.利用自身所有能力达成目的的能力。
人工智能的问题也涉及到心灵哲学的领域,哲学家约翰·塞尔构想了一个著名的思想实验“中文屋”,同样来证明即便骗过了人类,也不能成为“强AI”。
想象你是一个不会说中文的人,你被关在一个房间里,这个房间里到处都是汉字。另外你还有一本英文编码本,上面指示着每个输入对应着什么汉字。中文母语的人把用中文写的信息送到房间中,你使用编码本,就可以搞清楚如何回答你收到的汉字。这样,你就可以把合适的中文内容送出房间。但是,你完全不知道这些汉字是什么意思,却仍然能够根据编码进行回答。你很熟练地依照这个程序进行,以至于中文母语的人相信,你是懂得中文的。这也意味着你通过了说中文的“图灵测试”。
显然,你并不懂中文,你只是知道如何操控符号,却完全不理解它们的意思。你只是能够欺骗人们相信,你知道你并不真正懂得的东西。同样,根据塞尔的观点,机器能够欺骗人类,认为它是“人类”,也并不意味着它就是“强AI”。强人工智能应该要求机器具备真正的理解力,而计算机似乎永远不可能实现这一点。
在“弱人工智能”和“强人工智能”之外,哲学家、牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)还定义了一种“超级智能”,那就是“在几乎所有领域都大大超过人类认知表现的任何智力”。超人工智能(Artificial Super Intelligence,ASI)正是超级智能的一种。
首先,超人工智能能实现与人类智能等同的功能,即可以像人类智能实现生物上的进化一样,对自身进行重编程和改进,这也就是“递归自我改进功能”。
其次,波斯特洛姆还提到:
“生物神经元的工作峰值速度约为200 Hz,比现代微处理器(约2 GHz)慢了整整7个数量级”,同时,“神经元在轴突上120 m/s的传输速度也远远低于计算机比肩光速的通信速度”。
这使得超人工智能的思考速度和自我改进速度将远远超过人类,人类作为生物上的生理限制将统统不适用于机器智能。
现在,我们只能在电影和小说之中看到“强人工智能”和“超人工智能”,但是这并不妨碍哲学家、科学家对这一问题进行持续的研究和探讨。这一问题的丰富程度远远超过我们的想象,如果你对此感兴趣,也可以阅读更多相关的内容,并且提出自己的思考和看法。