7月7日,“2023 IJCAI-WAIC大模型与技术奇点:人文与科学面对面论坛”在上海张江科学会堂科创厅举办。在本次论坛上,5位顶级国际人工智能专家和5位国内外知名人文学科领军人物展开了精彩的思想碰撞,讨论面对人工智能的超越发展,我们应该如何应对,以期共同构建一个可信的、有边界、有隐私、有道德、有秩序的人机共生的未来。
论坛现场 第一部分
生成式人工智能给我们带来了哪些机遇与挑战
在论坛的第一部分,对于时下发展迅猛的生成式人工智能,与会嘉宾认为,它对各学科都有正面影响。上海智能教育研究院院长袁振国指出,它会使得人类知识增长方式发生重大变化,而这对于教育、学习又会产生 3 点颠覆性变革影响:第一,从获得答案到提出问题转变。第二,从获得知识到辨别知识的转变。第三,将人和人的关系转变成人和机器的关系。
华东师范大学紫江特聘教授许纪霖则认为,ChatGPT的出现会使“人人都将是陈寅恪”。他说:“陈寅恪作为 20 世纪中国最有影响的史学大师,其本人懂得十几国语言,被认为是了不起的存在。而今天,我们问 ChatGPT 一个问题,可能会得到比陈寅恪的回答更加完备的答案。这意味着,人工智能将颠覆学科中的教学模式。同时,ChatGPT 的出现,会使得好老师、好学生的评价标准出现变化。好老师意味着教学水准要超过 ChatGPT,而好学生要从被动接受知识转变成提出能够主动提出好问题,所以,ChatGPT也有机会让学生成为创新型人才。”
上海社会科学院哲学研究所副所长成素梅提出,ChatGPT的出现不仅激发了许多传统哲学问题的讨论,而且带来了新的哲学问题,使哲学从科技发展的边缘走向中心。当下,ChatGPT 的兴起,对应于路德维希·维根斯坦的哲学思想,突出了人工智能与人之间的相互学习,体现了社会性。当人与机互动从文字交流发展到用自然语言互动时,人工智能的应用场景将会更大。从哲学角度来看,这促使我们需要重新审思现有的哲学框架、概念体系如何随着技术发展的变化而变化等问题。
同时,生成式人工智能也对各学科提出了新的挑战。对此袁振国认为,首先,互联网及人工智能对循序渐进的学习方式产生了挑战。传统学校课程设置、教学编写、教师要求都是按照循序渐进的方式进行的。但是现在的知识呈现方式完全不受该限制,没有上过学的小孩子可以自主学习量子力学、黑洞理论等知识。其次,是知识的系统性。在传统的大学教育中,课程设置层次清晰,可分为基础课程、专业课程和应用课程等。然而,随着搜索引擎的普及,我们可以根据需要随时搜索所需的信息,也可以随时提出问题寻求答案,而不再依赖于一个系统化的知识体系。长期以来,我们的教育体系建立在循序渐进和系统性的基础上。倘若这两个基础瓦解了,我们需要思考如何构建一个适应新背景、与网络、人工智能和大规模模型相适应的教育新形态。
许纪霖则提及世界人工智能大会开幕式上黄仁勋的说法,即下一波人工智能的浪潮是具身性,即机器人有了身体,拟人化的机器人。他说未来5-10年,人工智能要解决的问题是数字生物。现在的人工智能在某种意义上是没有肉身的,它只有知识,甚至有智慧,但是它的情感功能开关是关闭的。“我们作为自然人,我们应不应该让这个人工智能拥有自我意识这个问题是一个哲学上的问题。”许纪霖说。
许纪霖指出,许多探讨了人机关系的科幻片今天都成为了现实。当机器人获得自我意识之后,可能会出现一些不同的情景。一种可能是自然人和机器人和谐相处,但也有可能出现另一种情况,即机器人成为一个新的独立物种,与自然人发生物种之间的冲突。如果我们没有控制能力或控制意识,我们将面临一场物种之间的战争。今天我们作为碳基生物对硅基生物的了解有限。一旦人工智能超过某个临界点,超越了我们的控制,它可能会发展出一套独特的逻辑和理性,以及选择和情感功能。就像原子弹和核技术的发明一样,如果没有某种监管和控制,它可能会带来毁灭性后果。
许纪霖说:“从哲学角度来说,我们必须有一个预设,可以是以人类为中心对人工智能进行限制,也可以是一些后人类主义的预设,即试图与人工智能平等共处。但是个人而言,我更倾向于在面对未知时保持审慎。我们需要敬畏自然人,毕竟碳基生物经历了上万年的自然进化,拥有自我保护机制。然而,我们人类太聪明了,如同上帝般创造了新的人类,等到我们意识到AI不可控时,可能为时已晚。因此,我赞同我们需要成立一个国际组织,对 AI 行业制定全球规则来确保人工智能的发展对于人类是有益的,不会带来无法预测的风险。”
那么碳基生命和硅基生命能否和谐相处?对此,成素梅认为,硅基生命是介于人与工具之间的新生事物,是人类的物质助理。硅基生命对人类的威胁不在于其发展成为拥有超强能力的生命体,而是在于这种发展将会把人类追求的自动化从生产领域拓展到知识、思想乃至决策领域,并且,加速人的身体技术化和精神技术化进程,使关于“人是什么”问题从古老的哲学命题变成当今的实践命题。从这个意义上看,不是硅基生命的失控会摧毁人类,而是人类在新一轮文明转型过程中,可能会由于“人性”的狂妄而导致自毁。因此,我们需要在文明转型的出发点开启新征程,致力关注如何提升人的生命意义和精神境界的问题,拉成“人,成之为人”的第二个过程。第一个过程是人从自然界中分离出来,第二个过程是对人性的真正理解和自觉守护。
香港科技大学教授杨强表示,人类在近几年的科学研究中遇到了多次技术变革,这不仅仅是挑战,更是机会。他说:“每一次科学技术变革会带来一些新的机会,我们应该关注这些新机会,真正革命性的变化可能也在孕育。我们承认我们的大脑只有那么大,我们的神经元只有那么多,但是有一天神经网络的神经元可能会超过我们,它可能会在解决某些具体科学问题的时候比我们要强得多,那个时候科学研究者就要改变他们的工作方式。也许10-20年以后,有些自然科学和社会科学系里的人类会变得非常少,更多的是人工智能在协助做研究。”
论坛现场 第二部分
AI的发展是否会对人类文明造成奇点式影响
在论坛的第二部分,与会嘉宾针对未来十年人类和AI的关系进行了预测和展望。上海纽约大学校长、华东师范大学哲学系教授童世骏认为,AI最后会和人类有什么样的关系,取决于人类自己想要干什么;人类在认识世界的过程中也认识了自己,在改造世界的过程中也改造了自己。人工智能可以做到很多对我们有益的事情,但是也可能会做出对我们有害的事情;而有害的事情,哪怕只有很小的发生概率,也是需要我们特别重视的。就此而言,把中国忧患意识的传统和古希腊好奇意识的传统结合起来,对处理好人工智能和人类的关系,极为重要。
而华东师范大学政治与国际关系学院院长吴冠军则补充道,目前已经有一门学问叫做技术政治学,研究技术对人类共同体组织形式所产生的实质性影响,很多时候我们对这些影响视而不见。技术在智能上可能超过人类,但我们仍然可以发展政治智慧,用这份智慧把我们组织起来,一起应对GPT时代的文明性挑战。
澳大利亚新南威尔士大学教授托比·沃尔什(Toby Walsh)则提出了他的两个严重的担忧。他认为这将是人类历史上最大、最严重的担忧,所有的人类文明、文化知识、科学知识,在几个月内就被 AI 收集捕获,且没有给予人类智慧任何尊重,没有给予创造这些智慧财产的人类任何价值回报。他说:“我们曾对社交媒体获取用户个人数据感到担忧,但从没意识到这其实意味着我们要放弃全部人类知识总和,以及少数几家公司从中获利,从而使得整个社会变得贫穷。这是我的第一个担忧。”
第二个担忧更为紧迫更为重大,他担心人类无法从社交媒体中学到任何东西。社交媒体能连接用户,同时也会加剧人类之间的分裂,例如政治观点极端化,在许多方面,它被用来制造伤害、煽动暴力、让帮助者难堪,这些都是通过在社交媒体上发表的帖子引起的。大量数据显示,使用社交媒体不但不能提升幸福感,反而会加剧焦虑。而且这些伤害往往是意料之外的。
沃尔什说:“随着类似生成式AI的出现,我担心我们正在经历同样的事情,但是几年后会发生什么?带来哪些危害? 社交媒体上的‘恶’都源自人类行为,所有假消息、所有极端观点都会被这些工具利用起来,我们现在可以通过生成式AI对其进行扩展和个性化,并且已经开始出现一些负面的应用案例了。我们可能会陷入一个无法分辨真假的世界,每一张图片、每一个视频、每一个音频都有可能被篡改。而且当我们谈论任何媒体时,我们需要留意所有被告知的事情,可能只是某种合成元素的产物。所以我认为,在开始担心生存风险和接下来要面对的事情之前,我们现在面临着非常紧迫的挑战。”
当智能从大型语言模型中涌现出来,人类应该如何重新思考智能?对于这个问题,童世骏表示:“AI是一个工具,至少是我希望AI永远只是为人服务的工具。人类具有意识,它有两个最基本的条件,一是要有主体间的互动,二是要有第一人称视角,或者说,日常生活世界中的第一人称经验。但这两者AI都没有。可以设想机器人借助于自然语言不仅能学习现有知识,而且能在与用户和其他机器人的互动中生成新知识,但这种互动并不是人类社会的正常互动。缺乏这种正常的人际互动,机器人即使具有意识,也会像人类当中因为无法参与正常的人际互动而出现的自闭症患者那样,只能具有残缺意义上的意识。我不希望未来有一群机器人版本的自闭症患者来取代人类,所以我不赞成让AI变成一个人类平等对待的物种。”
沃尔什认为,今天的机器并不具有意识,但这并不意味着机器不了解任何物理定律。我们对于意识的了解还非常少,甚至都无法清楚地定义它。但是,这并不能排除未来机器拥有意识的可能。如果幸运的话,机器永远都不会产生意识,因为一旦机器变得有意识,就需要赋予其权利。相反,如果像现在这样,机器没有自我感知能力, 那么人类可以继续把它当作仆人对待,并让其执行已经设定好的任务。未来充满趣味和挑战,在探索和建立新技术过程中, 或许人类可以更深入地理解关于人类存在的基础,即使机器可能永远无法真正活过来。
吴冠军认为,随着大语言模型的兴起,人工智能已接近拥有通用智能。而人工智能是否会有意识,这仍然无法预知。就目前的技术发展路径来看,意识很难产生,但仅仅不久前我们曾经也认为通用智能短时间内不会出现。随着规模而产生的“涌现”,已然是人工智能研究中的一个必须关注的现象。因此,吴冠军指出,在当下我们需要看到:作为一个技术存在,人类正在使用人工智能,但后者也正在极大地改变着人类做事方式及对彼此的理解。如何应对这种改变已成为全社会的挑战,而我们需尽快思考如何具体去应对。
本次论坛由世界人工智能大会(WAIC)组委会指导,国际人工智能联合会(IJCAI)中国办公室、华东师范大学联合主办,华东师范大学政治与国际关系学院承办,华东师范大学奇点政治研究院、安远AI、HyperAI超神经数据科学社区、德汇科技创新中心协办。
论坛现场