被誉为“人工智能父”之一的杰佛瑞·辛顿(Geoffrey Hinton)坚信AI将超越人类智能,并担忧我们对AI的发展没有采取足够的安全措施。
这不仅仅是他的个人观点,虽然他的观点本身就具有相当的份量。在接受BBC新闻之夜节目采访时,辛顿声称,AI超越人类智能是不可避免的,这实际上是该领域顶尖专家的共识。
辛顿告诉BBC:“几乎我认识的所有人工智能专家都认为AI将超越人类智能,这只是个时间问题。”
辛顿是三位“AI教父”之一,与蒙特利尔大学的约书亚·班吉欧(Yoshua Bengio)和Meta的杨立昆(Yann LeCun)齐名。辛顿在采访中提到杨立昆认为超级人工智能“不会有问题”。
2023年,辛顿辞去了他在Google的职位,他作为业界的“欧本海默”而备受瞩目,曾表示后悔自己这一生的工作,并警告了这项技术带来的存在风险》──他在BBC采访中再次强调了这一个观点。
辛顿表示:“有鉴于这种意见分歧很大,我认为在开发和监管AI方面保持谨慎是明智的”。他补充道:“我认为AI有机会掌控人类,而且这是一个很大的机会——不是百分之一,而是更多。AI是否会失控并试图接管这世界,那我们能控制或不能控制呢?我们不知道。”
就目前情况来看,该技术的军事应用,例如以色列国防军据报道使用AI系统在加沙挑选空袭目标,似乎最让辛顿担忧。
他告诉BBC:“我最担心的是,当这些AI能够自主决定杀人时”,并谴责世界各国政府不愿意对这一领域进行监管。
作为一个支持全民基本收入的人,辛顿还表示“我担心AI会夺走平凡的工作。”辛顿补充说,这将提高生产力,但财富的增长将不成比例地流向富人,而不是那些失去工作的人。
如果能让人感到安慰的话,辛顿并不认为AI失控反过来控制人类是注定的结局——只是AI最终会比我们更聪明。不过,你可以说,以盈利为目的、正在开发AI模型的公司,并不是该技术安全开发最值得信赖的管理者。
OpenAI过去曾在道德问题上反复无常,最近遭到一名前安全工作人员的批评,因为他对该公司是否会负责任地开发超级智能AI失去了信心。因此,即使辛顿有点杞人忧天,他也肯定不是孤军奋战。