斯皮尔伯格20多年前的《人工智能》引发的伦理问题,至今仍让人深思

发表时间: 2023-12-16 17:55

12月16日,由复旦大学主办的2023科技伦理高峰论坛举行,与会专家共论“数字技术时代中国科技伦理的理论与实践”。

【价值对齐是跟谁对齐?对齐什么?】

早在2001年,史蒂文·斯皮尔伯格在其执导的电影《人工智能》中就提出了一个伦理问题:当机器人学会爱人类,人类会爱机器人吗?

“斯皮尔伯格在电影中并没有给我们以答案。除了影视作品的关注,可以说,每一次的人工智能浪潮都伴随着‘人与机器’关系的讨论。”中国科学院科技战略咨询研究院研究员李真真说。比如,“阿尔法狗”打败人类棋手后,2016年电气和电子工程师协会发布世界首个人工智能道德准则设计草案,并提出一个伦理问题:如何将人类规范和道德价值嵌入AI系统?

当以ChatGPT为代表的生成式AI基于训练数据开始独立创造连贯性内容,将AI提升到了认识的逻辑层面,“这意味着人工智能问题的性质也在改变,由此再次提升了人机伦理关系的关注度,并提出了价值对齐。”李真真说 。

当“人工智能体”越来越表现出拥有与人类一样或相似的情感和自主性时,人类该如何处理与机器人的关系?“现阶段,人机伦理关系已经成为一个不能也无法回避的议题。”李真真说,尽管在当下技术与社会文化背景下,价值对齐面对挑战,但将价值对齐概念纳入AI大模型的研发实践的努力,凸显了使AI 置于人类可控范围的价值目标。

美国加州伯克利分校斯图尔特·拉塞尔教授认为,价值对齐旨在确保人类创造的AI与人类拥有相同的价值观。

“价值”是一种复杂的存在,“人类价值观”是一种最大公约数下的价值共识。

“价值对齐是跟谁对齐?对齐什么?”李真真说,从个体层面讲,对于“什么是有价值的”判断,取决于个人的生活经历、生活体验、知识结构以及在其所经历事件的处理中形成的价值观。就群体而言,通常会出现不同群体之间的差异,甚至一个群体内部存在不同的判断和选择。人类的道德体系涵盖不同文化圈在其历史长河中逐渐形成各自的主流价值,它们保有普遍的共同元素,但道德内容并非完全相同。

在她看来,人工智能的智能化表现只是模仿人类的理性思维模式。人类文明的开化始于爱,它得益于情感、意志、情绪、经验等方面的自然交互,而这恰恰是人工智能所不具有的。

【“可理解人工智能”是下一个里程碑?】

“其实,在ChatGPT问世之前,学界对人工智能伦理问题就已高度关注。”北京大学哲学系科技哲学教研室主任周程教授说。

自2017年起,人工智能伦理领域的文献呈现出迅速增加态势,这与应用深度学习技术的“阿尔法狗”问世有关。对人工智能伦理文献绘制关键词图谱,可以看到“透明性”成为重点关注的问题。

随着人工智能的飞速发展,人类正逐渐进入算法社会,人工智能依托其强大的机器学习能力而具有一定的自主性,但这也导致了算法缺乏透明性的问题。

前不久,微软公司前首席执行官比尔·盖茨公开表示,像ChatGPT这样的生成式人工智能已经到达了平台期,未来的GPT-5相较于现在的GPT-4只能做出部分改进,而无法取得飞跃性的突破。他做出这一判断的一个依据在于:人工智能存在透明性即“黑箱”问题。他预测,“可理解人工智能”将会是人工智能发展的下一个里程碑,但实现这一目标至少需要十年的时间。

所谓“黑箱”问题,指的是“模型经过大量训练后,其内部状态变得相当复杂,输入与输出之间的运算是自动进行的,这也导致人们既难以准确预测算法的行为,也不易理解算法输出特定结果的机制。”

例如,在医学人工智能领域,AI辅助诊疗系统有时会做出一些令专业医生感到费解的治疗建议,但医生无法向算法“黑箱”询问它为何会做出这类看起来相当不合理的决策。

周程说,提高人工智能的可理解性与可信赖性成为新要求,国内外出台了多个文件提出要提高人工智能的可解释性。10月30日,七国集团发布了《广岛进程组织开发先进人工智能系统的国际指导原则》,其中提到:例如测试和缓解措施,应力求确保系统全生命周期的可信赖性、安全性和安保性,以便它们不会造成不合理的风险。

虽然科学界、哲学界和科技管理界都在强调要提高人工智能系统的透明性,但是对于“可解释AI”“可理解AI”“可信赖AI”这一组关键概念的内涵仍未达成共识。

在周程看来,这组概念涉及人类如何打开人工智能“黑箱”,又如何弥合人类心智系统与人工智能系统之间的鸿沟问题。因此,有必要系统梳理诸如“可解释性”“可理解性”“可信赖性”等概念,以更全面地勾勒出我们构建未来人工智能的方向与目标。如果我们在研发人工智能时,能够建立起用户、研发者、机器之间的信任纽带,把个人与社会的价值关切都融入开发的全过程,我们就能更好地让人工智能造福于人类,实现更加“以人为中心的人工智能”,减少潜在的风险,更好地应对人工智能带来的伦理挑战。

题图来源:上观题图 图片编辑:雍凯

来源:作者:黄海华