哥本哈根大学的研究人员在世界上首次用数学方法证明,除了简单的问题之外,不可能开发出始终稳定的人工智能算法。ChatGPT 和类似的基于机器学习的技术正在兴起。然而,即使是最先进的算法也面临着局限性。
哥本哈根大学的研究人员有了一个突破性的发现,他们用数学方法证明,除了基本问题之外,不可能开发出始终稳定的人工智能算法。这项研究可以为改进算法测试协议铺平道路,凸显机器处理与人类智能之间的内在差异。
描述该成果的科学文章已获准在国际领先的理论计算机科学会议上发表。
机器能比医生更准确地解读医学扫描图像,翻译外语,不久还能比人类更安全地驾驶汽车。然而,再好的算法也有弱点。哥本哈根大学计算机科学系的一个研究小组试图揭示这些弱点。
以自动驾驶汽车读取路标为例。如果有人在路标上贴了标签,这不会分散人类驾驶员的注意力。但机器可能会很容易分心,因为现在的路标与它接受过训练的路标不同。
"我们希望算法是稳定的,即输入稍有变化,输出几乎保持不变。"该小组负责人阿米尔-耶胡达约夫(Amir Yehudayoff)教授说:"现实生活中存在着各种各样的噪音,人类习惯于忽略这些噪音,而机器却会感到困惑。"
讨论弱点的语言
作为世界首例,该研究小组与其他国家的研究人员一起用数学方法证明,除了简单的问题外,不可能创建始终稳定的机器学习算法。描述这一成果的科学文章已被批准在计算机科学理论的主要国际会议之一《计算机科学基础》(FOCS)上发表。
"我想指出的是,我们并没有直接研究过自动驾驶汽车的应用。不过,这似乎是一个过于复杂的问题,算法不可能始终保持稳定性。"阿米尔-耶胡达约夫说,并补充说,这并不一定意味着会对自动驾驶汽车的发展造成重大影响:如果算法只在极少数情况下出错,这很可能是可以接受的。但如果它在大量情况下都出错,那就是坏消息了"。
业界无法利用这篇科学文章来识别其算法中的漏洞。教授解释说,这并不是他的本意:
"我们正在开发一种讨论机器学习算法弱点的语言。这可能会导致制定描述如何测试算法的指南。从长远来看,这可能会再次促进更好、更稳定算法的开发。"
从直觉到数学
一个可能的应用是测试保护数字隐私的算法。
"有些公司可能声称已经开发出绝对安全的隐私保护解决方案。首先,我们的方法可能有助于确定解决方案不可能绝对安全。其次,它还能找出弱点,"Amir Yehudayoff 说。
不过,科学文章首先要对理论有所贡献。他补充说,尤其是数学内容具有开创性:"我们凭直觉就能理解,一个稳定的算法在受到少量输入噪声影响时,应该能像以前一样正常工作。就像贴了贴纸的路标一样。但作为理论计算机科学家,我们需要一个确定的定义。我们必须能够用数学语言来描述这个问题。如果我们要承认算法是稳定的,那么算法究竟必须能够承受多少噪音,输出又应该有多接近原始输出?这就是我们提出的答案"。
牢记局限性很重要
这篇科学文章引起了理论计算机科学领域同行的极大兴趣,但科技行业却没有。至少目前还没有。
阿米尔-耶胡达约夫笑着补充说:"你总是应该预料到,在新的理论发展和应用人员的兴趣之间会有一些延迟:而有些理论发展将永远不被关注"。
不过,他认为这种情况不会发生:"机器学习的发展日新月异,但重要的是要记住,即使是在现实世界中非常成功的解决方案也有其局限性。机器有时看似能够思考,但毕竟不具备人类的智慧。这一点必须牢记。"
编译自/scitechdaily