人工智能究竟是帮手还是对手?9月5日,在2024 Inclusion·外滩大会举行期间,联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅接受包括澎湃在内的媒体采访时表示,人工智能不会是人类的对手,但如果不负责任地研发、使用,人类和人工智能连竞争的机会都没有。
他认为,作为一个信息处理工具,人工智能目前能够做到的事情并没有大家想象得那么多,眼下它在每一个工作当中都会发挥一定作用,但都不是颠覆性的作用。人工智能还将长期停留在“工具”阶段。当人工智能从“处理”变成真正意义的“理解”才是下一轮机遇,为此,要回到基础研究,探索人工智能的机理、计算机理的本质。
数据和算法产生偏见
人工智能技术日新月异,人类的治理挑战正在变大。对技术研究者而言,科学突破是最容易的。比科学突破更难的,是思考科学可能为社会带来的负面影响。而比这些都难的,是解决科学突破所带来的潜在风险。
“如果处理得当,人工智能可以弥合数字鸿沟,如果处理不恰当,人工智能就会带来更大的智能鸿沟。”曾毅表示,数字化已经产生了公平性的差异,而人工智能缩短了与人类智慧的接口,信息和知识获取的便捷性将使得数字鸿沟和智能鸿沟产生更大的代差,影响一代人甚至几代人。如何避免智能鸿沟绝不是人工智能和科学研究者、技术研发者和使用不熟者完全能够解决的问题,智能鸿沟是一个技术与社会问题。
“很多人认为,人工智能技术是中立的,最关键的是人们怎么去用这个技术。但人工智能不是,人工智能的起点是数据和算法。”曾毅表示,数据和算法都可能让人工智能产生偏见。数据来自于社会,社会中的数据是对于人类行为的记录,数据的统计显著性存在偏见,学习了人类数据的人工智能不仅学到了人类的偏见,还会放大偏见。“比如让AI推荐职业,女生、20岁,就是护士、服务员,有没有给出这个条件后推荐的是CEO?没有。男生、35岁,有很好的学历,推荐CEO、CTO,这就是统计显著性的偏见。”
现代控制论的奠基者诺伯特·维纳1960年在《科学》杂志上写过这样的话:“我们最好非常确定我们写程序让一个机器干的事情跟我们的本意是一致的。”人工智能的数据中有善恶,人类规定一些场景下不让人工智能表现出恶,但曾毅表示,这并不代表人工智能不会这样做,“人类是不可能把所有情况都列举清楚的。”他表示,“数据当中隐藏的人类局限性,是人类自己很少去反思的问题,但现在被机器习得了,而且机器如何去应用数据而存在的潜在风险,我们现在并没有梳理清楚。”
帮手还是对手?
人工智能究竟是帮手还是对手?曾毅认为,人类需要把人工智能塑造为人类的帮手,“不负责任地发展人工智能,对于它的发展方向听之任之,甚至是追求短期的利益,那么它有可能成为对手。”
人工智能的出现往往令人类担忧,AI是否会抢走人类的工作。曾毅说,《论语》中的“君子不器”,意思是君子不象器具那样,作用仅仅限于某一方面。“未来可能都会产生新的工作形态,而且慢慢会得到社会的认可,因为越来越多的工作可以被人工智能替代时,人不可替代的部分就会变得越来越清晰,倒逼人类回到我们的本源,回到我们应当去做的事情上。”
他认为,人工智能技术的发展和长期应用倒逼人类思考人类的意义、人应该做什么。“当互联网上出现了更大规模的人工智能书写的数据和知识,这些数据和知识又被喂到人工智能中训练人工智能,人工智能的能力会变得越来越弱。所以我想人工智能代替部分的工作,就像蒸汽机时代、计算机时代那样,技术为人类带来短期焦虑,可能让更多人回到自己应该回到的位置。”
在曾毅看来,人工智能的潜在风险要利用社会与技术深度融合的探索来解决。就像无人驾驶出租车“萝卜快跑”,社会的方方面面都没有完全准备好迎接这项技术,“绝对不能够依靠技术解决潜在风险,不要把希望仅仅寄托于技术研究者。”
“很多技术研究者特别是创业的技术研究者告诉你再不做就晚了,或者再不发展机会都是别人的了。实际上,我不能说生成式人工智能像人工智能发展的前三轮一样是一个非常明显的泡沫,但作为一个信息处理工具,能够做到的事情并没有大家想象得那么多,这是现在的阶段,它在每一个工作当中都会发挥一定作用,但都不是颠覆性的作用。”
曾毅表示,人工智能看似是智能的信息处理工具,并且长期停留在“工具”阶段。没有自我的人工智能根本没有机会产生“理解”,至少要让人工智能从“处理”变成真正意义的“理解”才是下一轮机遇。为此,要回到基础研究,探索人工智能的机理、计算机理的本质,从大数据、大算力发展成小数据、小任务、高智能、低能耗,“这是未来真正应当去发展的方式,要从数据驱动变成机制驱动的人工智能。”