人工智能时代的挑战与机遇

发表时间: 2024-07-31 12:56

文|追问nextquestion

“超人类人工智能”这一词汇,似乎已带有一种忽视之意:它在无声中,掩盖了作为人类之最根本的特质。

如今,ChatGPT和Gemini等生成性AI系统,常被标榜为“超人类人工智能”(superhuman AI)前兆。这可不是危言耸听的市场营销宣传,而是一种快速增长、充满危险且强大的意识形态的再现。1无论是为了使我们无条件地接受AI,还是将AI描绘成一个可怕的幽灵,这种关于“超人类人工智能”的潜在意识形态,都在削弱人类的自主性和独立性,并混淆了意识心智与我们为反映它们而构建的机械工具之间的界限。

现今的强大AI系统,甚至没有人类心智的基本特征:它们还不具备意识或感知的能力,感受不到痛苦、快乐、恐惧和爱。它们也无法感知自己在这个世界中的位置和角色,更不用说体验这个世界了。它们可以回答我们选择的问题,为我们绘制美丽的图片,生成深度伪造的视频等等。但其内部,却如深渊般漆黑。

正因如此,在2023年9月的机器学习会议上2,我向图灵奖得主Yoshua Bengio提出质疑:“在当今的产品远远不能比肩人类,更不用说超越人类时,为何我们还要讨论‘超人类人工智能’?”我曾在他之前的主题演讲公开挑战过这种言论,这种言论在Bengio随后的演讲中被再三强调——正如他在网站上及对立法者和其他听众的告诫,他认为人们可能在未来几年内失去对超人类人工智能的控制3-7

Bengio一向是AI研究领域中较为理智的脚踏实地派,因此他突然采纳这种言论,使我感到不解。他的有些观点我并不反对,包括将不可预测和不可靠的AI系统集成到关键基础设施和防御系统中的潜在危险,以及人们迫切需要更有效地管理这些系统。但是,把AI称为“超人”,并非提出这些论点的必要条件。

因此,我问他,鉴于我们迫切需要控制的AI系统缺乏人类心智的基本功能和特征,这种论调是否终将成为无益且具误导性的声音?一个没有人类自我反思、同理心或道德智慧的AI系统,仅凭其解决问题的速度,如何能够被冠以“超人”之名?人性的复杂,岂是如此简单?更何况,给那些缺乏人类最核心特质的机器贴上“超人”的标签,是否终将使我们忽视了那些真正值得我们珍视的、关于人性的东西?

我试图向Bengio阐明,计算的速度或精确度之所谓“超人水平”,与真正的超人类——即“超越人性”——之间,实有天壤之别。即便是最普通的人,所能展现的智慧和情感远超当前最强大的AI系统所能及,后者不过是在高维向量空间中寻找最佳路径,返回的只是冷冰冰的符号、词元或像素。真正典型的人类智慧行为,如与孩子玩耍或创作艺术品,绝对不只是寻找问题的最有效解决方案或生成可预测的令牌(token),但如果你真这么认为,那你就大错特错了。

“试图抹去我们存在中最具人性的部分,并不是什么新鲜事;AI不过是又一个借口。”

对此,Bengio却未能接受。当我还未完全陈述我的问题时,他便反问:“你不认为你的大脑是一台机器吗?”紧接着,他又质疑:“为什么一个硅基机器不能执行我们大脑能做的计算呢?”

这种认为计算机与我们的大脑基于同样原理的观点,并不新鲜。自20世纪计算机科学诞生以来,心智计算理论就一直有其支持者。8许多认知科学家、神经科学家和哲学家(包括我在内)虽然认为,这些计算理论对于描述物理大脑的工作方式是错误的或不完整的,但这绝非一种奇特或伪科学的观点。可以设想,在最基本的层面上,人类大脑或许最适合被描述为执行某种生物计算。

因此,令我感到惊讶和不安的,并不是Bengio将生物大脑视为机器或计算设备,而是他一开始拒绝承认,人类的智慧,无论其核心是否为计算,其涵盖的能力远超即便是最尖端的AI工具所能达到的。我们不只是效率高的数学优化器,或潜在的下一代令牌生成器。

那一刻,我意识到,我们的分歧远不仅仅关于机器学习模型的能力;这关乎人类的能力,以及我们应该如何描述这些能力。

什么是超人类人工智能?

在Bengio的网站上,他将“超人类人工智能”定义为一个在广泛任务范围内超越人类的AI系统。9这个定义颇为模糊:究竟什么算作“任务”?人类的所有活动都可以算作任务吗?

长期以来,人工智能的研究者们将通用人工智能(AGI)视为圣杯,其定义是达到与人类思维等效的水平——而不仅仅是完成的任务。IBM在其针对AGI的研究计划Strong AI中还保留着这一传统观念:10

AGI需要与人类智能相当;它应具备自我意识,能够解决问题、学习并规划未来……Strong AI旨在创造出与人类心智无法区分的智能机器。

但现在,OpenAI和Geoffrey Hinton、Yoshua Bengio等研究者为我们描绘了一个不同的愿景。一个“与人类心智无法区分”的自我意识机器,不再是AGI的终极目标。新的目标是让机器“在一系列具有经济价值的任务中匹配或超越我们”。OpenAI在其章程中将AGI定义为“在大多数经济价值工作中能超越人类的高度自主系统”。11-12

OpenAI对AGI的重新定位,排除了那些不被视为具有经济价值的工作。这无疑是对我们人类能力的一次削减,我们应当抵制这种简化。难道你仅仅等同于你今天完成的工作?如果你醒着的时间花在了没有明确“解决方案”的活动上,不在能勾选的任务列表上,没有市场价格,你是否就不那么人类,或不那么智能了?

“通过将一个全然无感知、无思考的实体描述为‘超人类’,我们似乎在无意中抹杀或贬低了‘人类’这一概念。”

一旦你将人类智能的定义简化为“市场愿意支付的”,突然间,创造一个智能机器——甚至是超人类机器——只需制造出一个在经济价值输出的速度和质量上超过你自身的东西。其他一切都不重要。

随着这种观点逐渐渗透到更广泛的文化中,它逐步侵蚀我们的自我认识。如果你在一个关于AI的大型讲座或在线论坛上指出,ChatGPT无法体验并思考其生成的词语和句子所对应的事物——它只是一个基于期望的语言模式的数学生成器——你很可能会收到一种全然认真的回答:“但我们也是如此。”

根据这种观点,把人描述为智慧、有趣、创造性、洞察力、冥思、勇敢、同情或正义等行为,这些都不过是诗意的夸张。这种描述不携带任何额外的真实性,不指向人类智能的更丰富的现实,也不对应于超出词频和关联计算的任何实际内容。这些仅仅是对同一枯燥任务的华丽而不精确的描述。

我还不确定Bengio是否真的认同这一点。在他讲话后的问答环节中,他似乎想采取更为和解的态度,寻求一些共同点。但当他拒绝承认人类的意义不限于执行计算脚本和发出统计预期的令牌时,我不禁对他的观点产生了信任。如果仅凭在这场游戏中战胜我们就能成为超人类,人们可能会认为,自二战时英国的Colossus成为第一台比人类更快破解代码的计算机以来,硅基“超人类”就已经在我们中间了。

然而,Colossus只在一个任务上超越了我们;根据Bengio的说法,超人类AI将在“广泛的任务范围”上超越我们。这种说法预设了人类不过是一个特别多功能的任务完成机器。一旦你接受了这种对我们人性的极端简化,那么生产一个同样多功能、具有“超人类”任务表现的任务的机器便不再遥不可及;这个观点几乎变得平淡无奇。

那么,这种表达方式究竟有何害处呢?

超人类

“超人类”这一词汇,本意是指“属于人类,却胜过人类”。要成为超人类,就是要拥有人类所具备的能力,并且拥有人类所不具备的额外能力——或者是将人类的某些能力发挥到极致。我们不会用这个词来描述一种与我们完全不同的东西,比如那些虽然在某方面表现出众,却缺乏基本人类特质的存在。我们不会说“超人类飞机”或“超人类猎豹”,尽管飞机和猎豹的速度,都远超任何人类。

“超人类”一词,常用以描绘那些与我们极为相似,却又在某些方面更为出色的存在。在英语文化中,虚构的超人或许是此概念最著名的体现。超人虽然不是地球上的生物,但他体现了我们对身体、智力和道德力量的最高人类理想,甚至远超这些理想。他被称为超人,不仅仅是因为他能飞——这火箭也能做到;也不仅仅是因为他能移动重物——这叉车也能完成。而是因为他在诸多任务上的出色表现,超越了普通人的范畴,他是我们对最真实的人类特质的一种愿景的放大。

超人的身上没有缺失任何关键的人类性格特征。他是对“如果是我们,又会怎样呢”这一问题的想象答案。他有欲望、经历痛苦、拥有爱、体验哀伤、怀抱希望、关心他人、也会怀疑;这些体验比我们普通人更为强烈和深刻。他远不是一个单纯追求效率的存在。作为超人,他代表了我们最珍视的人类特质,这些特质被视为我们普遍共有的。

当我们将一个完全没有感觉、不思考、只专注于完成经济任务的对象称为超人类时,我们实际上无意中削弱或否定了“人类”的概念及其所能做的一切。当然,这种试图削弱和否定我们存在中最具人性的做法,并不是什么新鲜事;AI不过是又一个借口。

“AI的道德和体验的贫乏可能会把我们固有智能中最关键的人类维度重新引入我们的关注焦点,并推动文化和那些长期被低估的价值的恢复。”

在工业时代的长河中,那些企图从人体中提取最大生产力的人一直试图让我们将自己——更重要的是彼此——视为有缺陷、效率低下的可替换机器,一旦产出低于预期或出现更高效的替代品就被淘汰。

几百年来,我们对这种简化和愤世嫉俗的思维方式进行了坚决的抗争,得益于劳动和人权运动的不懈努力,这些运动阐明并捍卫了人类的尊严、正义、自主和尊重等非机械化、非经济化的标准。

而今,要说服我们人类不过是产生经济价值输出的机器,似乎只需要用那些能在我们赋予意义的主要货币——语言和视觉——中产生输出的工具。现在,只需通过智能手机上的应用,你就可以无限制地获取这些货币,我们已经接受了“超人类 AI”的出现,仿佛这是一个早已确定的事实,实际上已经触手可及了。

重新恢复我们的人性

然而,这场较量还没有结束。正如哲学家 Albert Borgmann在他 1984 年的书籍《技术与当代生活的特征》(Technology and the Character of Contemporary Life)中所述,13只有当一项技术几乎取代了我们人类意义的重要领域时,我们才能真切感受并哀悼我们所失去的。往往是在这些时刻,我们才开始觉醒,奋起反抗,努力夺回并重申这些领域的价值。

他提到的例子,放眼今日,或许看似寻常。如他所说的后微波炉时代,烹饪艺术复兴,是一种珍贵的创造性和社交实践,即便是最高效的烹饪机器也无法取代。确实,熟练而富有远见的烹饪实践如今已具备比 20 世纪末更高的文化价值和地位。同样,跑步机尽管提供了一种更方便、更高效的达到相同有氧效果的方法,却无法取代户外跑步和漫步所带来的美好。

实际上,Borgmann 认为,使用跑步机或微波炉带来的感官与社交体验的贫乏,反而可能复兴我们对这些活动的文化关注——这些活动要求我们全身心的参与,不断提醒我们自己在这个物理世界的位置及与共享此世界的其他生命的联系。他的见解不无道理。

在“超人类”AI意识形态中,将人类视为“缓慢且效率低下的模式识别者”的观点,可能会引发一场在政治上意义重大的人类意义与价值的复兴。AI 的道德与体验贫乏,恰恰可以让我们重新将注意力集中到人类智慧的核心维度上,促进那些长期被低估的价值的文化恢复。

这将是什么样的情景呢?想象一下,如果在当前由机械意识形态主导的任何社会领域中,首要的目标不再是机械优化,而是赋予人类能力,情形会怎样?

我们先来看看教育。在许多国家,原本应致力于道德与智力形成的教育理想,已简化为训练年轻人从测试问题中机械地生成预期答案的优化程序。一些宣称为“您孩子的超人类导师”的生成性 AI 工具,甚至承诺优化幼儿的学习路径。[14]然而,在技术最为发达的美国,年轻人阅读的热情已降至数十年来的最低点,家长对教育系统的信任也跌至历史新低。15-16

我们应该如何重塑并复兴人性化的教育体验?如果我们能重新激发孩子们学习的热情,教会他们重新发现,拥抱他们的人文潜能,他们将为自己及未来一代构筑怎样的世界?这个世界与那些被教育成只知如何成为低效机器的孩子所建立的世界,又将有何不同?

再考虑经济方面。无差别增长的“国内生产总值”盲目地一味生产、销售产品,不考虑这个过程对环境或社会可能多么有害,如果我们停止奖励这种行径,那么我们的海洋、空气、土壤、食物链、基础设施和民主的状况会如何?如果我们设立新的经济激励措施,依据的是中长期的健康、可持续发展、人类进步和社会信任与复原力的指标,我们未来的走向又将如何改变?

“如果我们不再用像ChatGPT这样的机器来取代媒体、设计和艺术中的人类职业,而是让AI 开发者帮我们完成生活中最没有意义的任务会怎样?”

如果富裕的公司和投资者的税收优惠完全取决于他们的活动如何促进这些人文指标的提升,情况会如何?如果公司的成功不再仅仅通过其股票价格的机械优化来衡量,而是通过对我们共同生活质量的更深远和长期的评价,我们的工作和年轻人投入职场的热情将如何改变?

再来看文化方面。如果我们重新爱上靠自己创造意义、讲述世界故事、发现新的美和表达方式,当前那些试图用AI取代人类文化产出的努力又将如何被暂停?如果我们不再用ChatGPT 这样的机器来取代这些人性的职业,而是让AI 开发者帮我们完成那些消耗我们对其他重要事物的能量的最无意义任务,情况又将如何?如果你再也不需要填写任何税表会是怎样?

如果我们为了那些最容易受到腐败、剥削和不公正侵害的人设计AI,情况会怎样?如果我们利用我们最好的AI工具,更快更可靠地揭露腐败行为的证据,增加其政治成本,并更系统地将腐败和剥削推向公众生活的边缘,情况又将如何?如果人们集体承诺只奖励那些愿意展示更大透明度、责任感和诚信的政治家、警察和法官,我们的社会将如何变化?

即使在这些更添人性的未来设想中,我们也尚未触及乌托邦之境。但这些可能的未来无疑比任何一个由超人类AI意识形态主导的未来都要光明。

这并不意味着AI在一个更人性化的世界中没有位置。我们仍然需要AI来承担那些固有的不安全或对人不友好的任务,如环境清理和太空探索;我们需要AI来帮助我们减少日常行政过程的成本、冗余和时间负担;我们需要AI来扩大基础设施的维护和修复;我们需要AI来分析如气候、遗传学、农业和供应链这样的复杂系统。我们并没有面临用尽机器可以做的重要事务的风险。

我们正如梦游般步入一个可能危险的未来,在那里,我们放弃人性,徒劳地模仿机器,结果却被甩得越来越远。我们准备好唤醒自己了吗?在一个只奖励和认可机械思维的时代,人类还能记得并夺回我们的本质吗?我相信,还为时未晚,现在或许正是时候。

原文链接:

  • https://www.noemamag.com/the-danger-of-superhuman-ai-is-not-what-you-think/
  • [1]: https://www.theguardian.com/technology/2024/apr/09/elon-musk-predicts-superhuman-ai-will-be-smarter-than-people-next-year
  • [2]: https://www.youtube.com/playlist?list=PLF-wkqRv4u1Y-Bret-wrcPypPCZ3Gg_3L
  • [3]: https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/
  • [4]: https://montrealgazette.com/news/national/with-superhuman-artificial-intelligence-looming-canada-needs-law-now-ai-pioneer
  • [5]: https://www.ft.com/content/88a3f4f6-0288-4991-88e0-ed52e939405e
  • [6]: https://yoshuabengio.org/2023/08/12/personal-and-psychological-dimensions-of-ai-researchers-confronting-ai-catastrophic-risks/
  • [7]: https://www.google.com/url?q=https://www.schumer.senate.gov/imo/media/doc/Yoshua%2520Benigo%2520-%2520Statement.pdf&sa=D&source=docs&ust=1716395821482907&usg=AOvVaw1EX2LHOOyPcun2qN39C0Gd
  • [8]: https://plato.stanford.edu/entries/computational-mind/
  • [9]: https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/
  • [10]: https://www.ibm.com/topics/strong-ai
  • [11]: https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
  • [12]: https://openai.com/charter/
  • [13]: https://press.uchicago.edu/ucp/books/book/chicago/T/bo23186480.html
  • [14]: https://www.synthesis.com/tutor
  • [15]: https://www.pewresearch.org/short-reads/2021/11/12/among-many-u-s-children-reading-for-fun-has-become-less-common-federal-data-shows/
  • [16]: https://news.gallup.com/poll/508352/americans-confidence-higher-education-down-sharply.aspx