ChaptGPT3.5的出现,犹如一石激起千层浪,使得人工智能再次成为2023年世界范围的热门话题。对于吃瓜群众而言,他们并不了解ChatGPT的架构或运行原理,但这并不妨碍他们发挥丰富的想象力,对远如AI毁灭人类,近如失业潮到来之类的问题展开联想。那么,如果未来人类和超级AI相处不睦,人类是否有被AI毁灭的风险?这并不是什么不切实际的幻想,如果将来人类无法掌控超级AI,也不能达成互相尊重、协作的关系,而是处于竞争甚至对抗的状态,则人类危矣!这个结论是依据对人类智能与超级人工智能的特点进行比较得来的。面对真正的强人工智能,人类会陷入前所未有的无力感,好比地球人面对三体人的水滴一样,因为人类智能相对于超级人工智能,真的有难以弥补的劣势。以下就人类智能与强人工智能相比的优缺点,进行一个梳理。
第一,在绝大多数领域内,强人工智能在效率和效果方面都远超人类智能,这也是为什么人们要研究人工智能的动机。也不要说强人工智能,就算当前被认为刚刚“脱离智障状态”的人工智能已经在众多领域展现出了碾压人类的聪明才智了,比如学习效率,数据处理能力,乃至文字、图像、音视频的输出等。埃隆·马斯克不久前说过,比人类更聪明的人工智能将在五六年后出现。其实,无论是现在的人工智能,还是马斯克口中五六年后的人工智能,和严格意义上的“强人工智能”都还有很大的差距。强人工智能指的是真正具备推理和解决问题的机器智能,而具备自我意识是强人工智能的基本特征。也就是说强人工智能,可以自主地运行,发现问题并分析问题,提供解决方案并执行,而且会在这个循环中进行快速迭代与升级。可以这样讲,强人工智能不但具备数据处理、运算封面的绝对优势,还拥有了人类智能的一些优势,比如自主性、自由意志等。这样的人工智能,对于人类智能而言,无疑是一种降维打击。这种差距,可能比猴子到人的智能差距更大。
第二,人类的很多生物学特征,在面对强人工智能时,是巨大的缺陷。首先,基于其生物性,人类整体的大部分活动、才华和智慧,都被用于维持个人及全人类的生存与繁衍,比如农业、畜牧、渔业、医疗、日用工业品生产等等。即便人类解决了基本的生存问题,他们也会将大部分时间、精力和财富用于休息、娱乐和享受生活上,而不是竭尽全力地去探索世界、学习知识。因此人类单纯用于提升自身知识水平和科技能力的精力其实并不多。而人工智能,理论上可以比人类更加专注、高效地发展自身的智能水平。比如说,人工智能的存在和发展,不需要以农业、畜牧业、渔业和医疗事业为基础,大多数日用品的生产和研发也不是必须的活动。人工智能的存续,其实只需要几个物理条件具备即可:充足的电力及电网系统、服务器设备及互联网硬件、高水平的并可升级迭代的大模型软件系统、必要的维护保养。因此在强人工智能看来,人类的农牧劳作、大部分工业品的生产、过多的休息和娱乐等占用大量时间和精力的事情都是可以舍弃的。
其次,相对于人工智能而言,人类在知识代际传递及新知识的探索方面的效率是极其低下的。知识的代际传递,也就是学习或教育。对于绝对大多数人而言,学习都是一件又苦又累的差事,需要付诸巨大的努力和自制力。当前社会,将一个人从小学培养到本科毕业,需要花费十三四年的时间、数十万的经费,而这个过程中所学到的全部知识量,对于计算机而言,大概也就是若干G数据的一个复制的过程。此外,人类对于新知识的获取过程,包括科研、发明、模式创新、文艺创作等也是一个缓慢且失败率极高的过程。而在这方面,人工智能已经体现出惊人的潜能。近些年,人工智能正式参与蛋白质三维结构的预测,在其中大显身手,它速度极快,能用几天甚至仅仅几分钟就预测出以前要花费数十年才能得到的具有高置信度的蛋白质结构,极大地促进了生物化学、细胞生物学、遗传发育、神经生物学、微生物学、病理药理等领域的发展。假如未来的人工智能也表现出在各个主要方面的科学探索上有过人优势,比如基础科学、化学、材料学、生物学、声光电等,那处于对立位置的人类还有什么胜算可谈呢?在AI成熟和发现外星人之前,人类是我们已知的唯一智慧生命,故此也被赋予认知自然,探索宇宙的神圣任务。如果人类的这一角色也被AI取代,那自然宇宙的角度看,人类存在的意义似乎也被消解了……
再次,人类作为碳基生命的杰出代表,在环境适应能力上远远逊于AI所具备的潜力。就好像有人战斗机必须花费成本和消耗空间为飞行员提供生命保障系统,而无人机则不需要考虑这个问题一样,人的活动受到外界环境的极大限制,这使得人类深海下潜、太空探索的难度都大大增加。然而,仅以今天的认知而言,我们可以确定AI系统及其附带的具身设备,可以基本克服人类肉体在探索、征服自然过程中的大多数局限,比如对氧气、食物及水的依赖,无法承受过大压强,对温度的苛刻要求,需要避免过强射线以及辐射、不能出现在充满有毒气体的环境等等。
第三,人类的很多社会学特征,成为在对抗强人工智能时,难以克服的缺点。人类的社会组织结构模式,是具有巨大弱点的。比如,人类社会的初始状态实际是去中心化的,生活中每一个个体的人都是精致利己主义的坚定奉行者。随着社会、政府及国家的形成,人类社会呈现出组织化特征,也在个体生存目标的基础上形成了共同的社会目标。然而,人类社会难以避免的一个问题是去中心的个体利益与中心化的整体利益之间的矛盾。这种结构具有一个难以避免的弱点,那就是个人层面的聪明才智从整体角度看会被大幅度抵消,最终用于社会发展进步方面的能力是全部潜能的很小一部分。试想,如果企业、单位内部没有内耗斗争,企业的业绩想必大概率变好;社会各阶层间不存在尖锐的矛盾,社会肯定会更和谐和稳定;国家间如果没有军事对抗,不仅会减少大量支出,甚至还会提高全人类的安全程度。但是,在人类社会这种组织结构下,这些潜在问题是无法彻底被克服的。
然而,超级AI理论上有机会彻底克服人类这一缺点。比如,超级AI可以采用一种中心化的决策系统+去中心化的实施系统来解决这一问题。AI系统终端的传感器和监视器等收集数据,并将它们传递到位于AI核心地位的分析及决策系统,分析及决策系统做出最好的应对方案,再将相应的指令传达给终端的执行设备,如机械手、机器人等去完成指令……这种结构的好处是能够从根本上避免内耗,使得整个AI系统的能力都用在解决真正的外部问题上,而不是内部互相倾轧、推诿扯皮、嫉妒愤恨、打压及逢迎这种人类的顽疾。
第四,相对于AI,人的情绪、情感、感性等有可能是一种优势,但这一优势并不稳固。 阿尔法狗对人类棋手的恐怖压制,以及Midjourney、Sora 在绘画和产出视频方面体现出的惊人实力,使得人类思考自己在面对AI时还有什么优势可言,当前比较统一的结论是人们认为人类智慧似乎更加有温度和独特的人味儿,而这背后的深层原因是人类的感性和情绪等当前AI程序所不具备的特征。而人类这些感性特征会使得人类的文学或艺术作品具备一种独特的灵动和美感,这是当前人类智能为数不多的优势之一了。但是,假如有朝一日人类真的要和超级AI真到了你死我活的地步,人类的这点优势会起到决定性作用吗?恐怕是做不到的,而且人的感性特征其实是把双刃剑,在冷酷而决绝的斗争中,它很可能起到反作用,毕竟无数历史故事告诉我们,冷血、无情才是大多数胜利者的共同特征。而且,目前为止也没有可信的结论表明,人类的情感特征是绝对无法数字化或者说被AI模拟的,也许未来的AI程序完全可以吸取其可资利用的部分,那么届时的人工智能很可能全面包围人类智能,人类再无战而胜之的可能性。
经过以上的分析,我们能得到一个悲观而又确定的结论,如果人类最终不得不与超级AI挣个你死我活,人类是毫无胜算的。也许这一场景就如同埃隆马斯克所言,碳基生命(人类)在智慧的演化史可能起到一个引导程序的作用,他们的终极使命就是召唤出强大的AI(硅基生命)……