每经编辑:杜宇,宋欣悦
近日,在斯坦福大学“以人为本”人工智能研究院(简称HAI)五周年庆典上,马克·安德森(Marc Andreessen)与HAI研究所所长“AI教母”李飞飞展开了一场深入的炉边对话,探讨了人工智能的未来发展、创新生态系统的构建,以及开源在技术进步中的重要性。
马克·安德森是第一代浏览器的缔造者。1993年,安德森受到硅谷著名风险投资家吉姆·克拉克的邀请,合作开发互联网浏览器。二人合伙成立了Mosaic通讯公司,后更名为网景通讯公司。很快,安德森带领他的团队成功开发出新版本的osaic浏览器。
图片来源:截图于Youtube
核心内容
1、关于开源受限的后果
如果开源被禁止或受到某种程度的限制,影响将非常重大。禁止开源的话,创业公司会纷纷倒闭。所有的发展基本上都被大公司垄断,这些公司将永远掌握权力。
2、关于开源的重要性
现代技术,现代计算机科学和现代软件基本上是一个三角关系:开源、创业公司和学术界。
3、关于AI的安全问题
我有一个九岁的孩子,我希望他能够注册使用互联网服务,并且希望他能有像迪士尼乐园那样的体验。但我希望他能有一些控制。我认为公司在这方面有很大的自主权。
4、人工智能“一夜成名”
人工智能领域实际上已经有80年的历史了。现在一夜成名,这真的是一件非常了不起的事情。
图片来源:截图于Youtube
对话中,安德森分享了他对技术监管的看法,特别是关于预防原则的讨论。他警告说,过度监管可能会阻碍技术的发展,以德国绿党对核能的回应和美国尼克松时期的“独立计划”为例,指出了监管过度可能带来长远影响。
李飞飞询问了开源在现代技术发展中的角色。安德森认为,开源不仅是软件代码的自由,更是创新生态系统的关键:“如果开源以某种方式被禁止或限制,那将是影响非常巨大的。”他警告说,过度的限制可能会导致初创公司倒闭,创新受限,最终导致技术发展被少数大公司垄断。
在讨论人工智能的信任与安全时,安德森指出,这些概念已经被预防原则所“劫持”,并可能导致过度的自我监管:“信任和安全是一个术语,基本上在现代科技公司内部,它相当于内部事务。”
图片来源:截图于Youtube
在讨论斯坦福大学在人工智能领域的历史和未来时,安德森表达了他的期望:“我希望斯坦福大学能够捍卫知识自由、学术自由、实验自由、创新自由、开发自由和部署自由。”同时,他也强调了政府在资助人工智能研究中的作用,并对未来持乐观态度。
作为HAI研究所的所长,李飞飞对人工智能的未来发展充满期待:“我们正处于人工智能的黎明时期。”她认为,HAI将继续在技术创新和跨学科研究中发挥重要作用。
以下为李飞飞与马克·安德森对话节选:
李飞飞:
我非常兴奋能主持与马克的炉边谈话,马克是我多年的好友和同事。我不知道你们对马克的背景了解多少,虽然马克无需过多介绍,但真正让我印象深刻的是,他在互联网初期就已经参与其中,是推动互联网发展的重要人物之一。而现在,我们正处于人工智能的初期阶段,作为硅谷有影响力的风险投资家,马克所在的公司正处于推动人工智能发展的核心位置。另外,我还想提到的是,马克在去年写了一篇非常有影响力的《技术乐观主义者宣言》,这篇宣言因其坚定地认为由自由市场驱动的技术进步对人类进步至关重要而广受关注。
马克,你一直是振兴这个生态系统方面的非常积极的倡导者。你相信AI,让AI发生,创造AI。今天,我们在这里庆祝HAI五周年。我们正处于最新一代人工智能革命的中心。进一步阐述。请与我们分享您的想法。
马克:
首先,很高兴能来到这里,看到HAI在过去五年里所做的所有工作,真的非常棒。首先,我认为这次对话的进行非常好。你知道,在硅谷的前20年,我们基本上只是在开发工具。而实际上,在过去十年里,我才开始描述硅谷在政治和伦理以及这些更大的社会问题上的角色,我们开发出所有这些工具后,发现它们对社会和政治系统确实非常重要,但却有点措手不及,不知道该如何应对。
为了说明我的观点,我先讲一个故事,这个故事可以帮助你了解我的思考方式。如今围绕社交媒体进行的讨论已经持续很久了,而现在这种讨论也开始出现在互联网和人工智能领域。故事大致是这样的:出现了一个新事物,我们需要讨论它是否会带来危害。如果它有害,就需要进行控制、监管或者停止。这种讨论的隐含基础在科技伦理学中被称为预防原则。
预防原则是一个基本的、似乎非常合理的主张,即技术的发明者应该能够预测它是否会产生负面影响。如果会产生负面影响,他们有责任阻止它。
预防原则有一个非常有趣的起源。它来自20世纪70年代德国绿党对民用核电工业崛起的回应。核技术显然在20世纪40年代和50年代作为一种军事技术出现。然后到了50年代和60年代,民用核能出现了大发展,人们开始期待从原子能中获得无限的能量。
到了70年代,德国绿党站出来决定停止核能,并制定了预防原则,提出只要民用核能开发商不能证明核能在任何情况下都是完全无害的,就应该停止部署。基本上这个方法奏效了,核能停止了。
在美国,这个想法被采纳了。1971年,我出生那年,时任总统尼克松提出了一个他称之为“独立计划”的计划,即到1980年在美国国内建造一千座核电站。电网改用核电,将使我们完全脱离中东。这将使美国基本上可以实现完全清洁、零排放、零碳排放的能源。这将推动向电动汽车的转变。
然后,他成立了核管理委员会,阻止了这种情况的发生。而今天,美国正在开发的新核电站为零。如果你看看过去40年民用核电的部署图表,它基本上完全停止了。对于任何关心碳排放气候的人来说,这无疑是一个巨大的错失良机。
回顾过去,我们基本上感到震惊,我们只是觉得,天哪,他们怎么会犯下如此可怕的错误。顺便说一句,在过去70年对民用核能的全面核算中,现在非常清楚,它是最安全的能源形式,与任何其他能源相比,它造成的人员死亡人数基本上极少。
李飞飞:
你在人工智能中看到了这种危险?
马克:
是的。这基本上是相同的讨论。
李飞飞:
能再详细说说吗?
马克:
讨论中的假设是,如果存在潜在危害,那么就应该有监管、控制、限制、暂停、停止、冻结,还有各种不同的提议。但这是一种压倒性的负面框架,这种风险规避框架,与预防原则非常一致,但它是讨论的框架。
李飞飞:
让我们深入讨论一下其中一个,因为这两个主题都集中在一个辩论上,那就是对开源的激烈辩论。现在,它正在全国范围内发生。在加利福尼亚州,州参议院正在审议关于监管和控制潜在开源的令人不安的法案。你对此有何看法?
马克:
关于开源的讨论非常有趣,因为它被描述为,有一维版本,或者一步版本,还有两步版本。一步版本与预防原则非常一致。我认为当前的加州法案反映了这一点。欧盟的《人工智能法案》也反映了这一点。我认为加州的法案在某种程度上是基于欧盟的《人工智能法案》,该法案是在立法中实施的预防原则,也就是说,人工智能被认为是潜在的有害的,因此必须加以控制以防止危害。
无论如何,这就是预防原则的全部内容,这听起来总是很合理,因为你怎么可能反对它呢?但是,重要的是要考虑第二步,特别是关于开源。
开源,最初这个术语的含义是“自由软件”,意思是我可以下载它,可以查看它。它是一个白盒子,而不是黑盒子。我可以看到它里面的东西。我可以修改它并且可以从中学习。
所以,我认为必须问的第二个问题是,你需要设计什么样的社会来拥有执行机制,以执行任何形式的开源禁令或限制。你会探寻人们对这个问题的看法,建议的范围通常是这样的:我们只需要在每个芯片上安装一个软件代理,检查人们是否在运行经过批准的开源软件。在这一点上,我会说,《1984》并不是一本操作手册,我们不应该在所有计算机上都运行软件代理。这只是第一步,接下来的政策建议会越来越令人恐惧。我认为,这些建议最终在《时代》杂志上达到了一个非常坦诚的表达,大约一年前,艾里泽·尤德科夫斯基在《时代》杂志上写了一篇文章,表达了他的想法。他基本上说,要实施对强人工智能和开源的禁令,不仅需要达到让奥威尔都脸红的全面监控程度,还需要在全球范围内执行,因为仅在美国禁止是不够的。
所以你需要有一个全球禁令,当然你需要有执行全球禁令的机制。所以你真的要问自己,究竟想要生活在一个怎样的社会,才能执行这样的事情。顺便说一下,我站在反对这一点的那一边。
李飞飞:
你能谈谈我们为什么需要开源吗?为什么你要和硅谷这么多的创业公司合作?为什么开源如此重要?
马克:
是的,这就是另一种看待这个问题的方式,即开源在其中扮演什么角色。撇开人类自由的问题不谈,这很重要,还有避免引发第三次世界大战,这也很重要。另一个问题是,开源在创新生态系统中扮演什么角色?我可以告诉你,我的看法是,现代技术,现代计算机科学和现代软件基本上是一个三角关系:开源、创业公司(这是我的日常工作)和学术界。我坦率地认为,如果开源被禁止或受到某种程度的限制,那将是影响非常重大的。
首先,我认为创业公司将会灭亡,因为我们资助的每一家创业公司基本上都是建立在开源基础上的。大家都理所当然地认为可以使用开源来构建新软件项目。因此,创业公司就会倒闭。接下来的一步、两步,创业公司纷纷倒闭。因此,所有的发展基本上都被委托给那些大公司的垄断集团,这些公司将永远掌握权力。
再次问问自己,这真的是你想要的结果吗?然后第三点是,学术界基本上会消亡,尤其是计算机科学领域的学术研究会消亡,任何相关机构都会消亡。我不知道如果没有开源,学术界还能做什么工作,因为我们也是开源软件的最大提供者之一。
李飞飞:
如果没有开源,我不知道这里的工作会发生什么,因为我们也是一些最大的开源软件提供商。
在您的宣言中,您实际上使用了“敌人”这个词。与这个词相关的是,您谈到了技术伦理、信任和安全等想法,在某种程度上,它也与象牙塔有关。您刚才提到您关心学术界和生态系统,我知道您确实关心。那么,您如何调和您在文章中写的内容?您的真正意思是什么?您如何看待学术界的这一历史性时刻?
马克:
是的,我先从我使用“敌人”这个词开始说起。我在文章中非常明确地提到,我谈论的是思想,而不是人。因此,我认为参与这些事情的任何人都不会将他们视为敌人。但我确实认为有些想法很糟糕。我认为我们生活在一个有些糟糕想法已经变得非常普遍的时代,这些想法需要受到挑战,我已经阐述过了。
李飞飞:
那么,为什么人工智能中存在信任和安全问题?
马克:因为它被“劫持”了。这是在公司内部实施的一种预防原则。对于那些不了解的人来说,信任和安全基本上是现代科技公司内部的一个术语。它基本上是一个内部事务的等价物,负责实施内部限制。这一概念最早开始于互联网公司。
我认为第一个设立信任和安全部门的公司是eBay,用来监管互联网拍卖。当然,如果你要运营一个互联网拍卖网站,就需要有一个监管功能。我还记得eBay刚开始的时候,大家都觉得这个想法不可思议,因为怎么可能有人会信任别人呢?
eBay之所以成功有两个原因。首先,Pierre Omidyar相信大多数人都是善良的,所以大多数人都会列出合法产品并参与交易。但他也认为,拥有一种称为信任和安全的职能也很重要。
李飞飞:
这是一种很好的、没有被“劫持”的信任。
马克:
是的,这是绝对必要的。
然后,第二阶段是社交媒体公司。如果你要为人们提供一个平台来交换信息,你需要有一个团队来维护、监控和管理它。但问题总是,你在哪里划清界限,那些价值观是什么?当你问这个问题时,你马上就进入了政治哲学的领域,你处于设计和治理的领域。
李飞飞:
那么你的底线是什么?比如,你认为哪些地方信任和安全最重要,哪些地方超出了你的界限?
马克:
我认为它很复杂,这些都是非常宏观的问题。这些是政治结构的核心问题。这些是社会结构的大问题。这些都是重大的伦理和道德问题。所以这非常复杂。
具体到公司方面,情况就变得更加复杂,因为公司至少在理论上是私人行为者。而私人行为者可以拥有比公共行为者更受限制的领域。
我有一个九岁的孩子,我希望他能够注册使用互联网服务,并且希望他能有像迪士尼乐园那样的体验。我喜欢互联网的自由世界,有一天他也会喜欢这种自由,但我希望他能有一些控制。我认为公司在这方面有很大的自主权。迪士尼的例子就是一个很好的例子。迪士尼对乐园内的行为准则有不同的规定,与奥兰多街头的情况不同。我认为这些都是好的和合理的。
李飞飞:
那么你认为治理从何而来?
马克:
从根本上讲它必须来自领导层,这始终是一个领导层的问题,它必须在各个机构中。
李飞飞:
那社会呢?
马克:
是的。所以它必须通过(社会)。这些都是非常活跃的辩论,从社会层面一直到最高法院。而且还会有更多这样的辩论。然后看看公司内部。我会把它描述为我们在这个行业中是赶上公共汽车的狗。我对这些平台上发生的事情负有部分责任,这确实很重要。这些系统中发生的事情真的很重要。这些公司中发生的事情真的很重要。
我想说,如果这个行业被精简为两三四家大公司,这些公司会获得监管俘获,我认为这是他们正在尝试做的事情。如果他们基本上与政府联合起来,那么我认为我们必须处理一系列非常有力的社会层面问题。
如果在未来几年存在竞争格局,有大公司,有很多初创公司,有开源,有学术界,这些领域之间存在某种活力和竞争,那么我认为,就会有更多的灵活性,更多不同的方法,我希望看到更多。我希望看到更多,我认为这实际上是一个非常健康的结果。
李飞飞:
这就是你我完全同意的地方。
最后,您对斯坦福高中和斯坦福大学有什么希望和梦想?尤其是我们是世界领先的人工智能跨学科研究所。您对我们和我们的角色有什么希望和梦想?
马克:
所以首先说,就像您提到的那样,我感觉到了人工智能时代的曙光。因为众所周知,人工智能领域实际上已经有80年的历史了。
李飞飞:
是的,但我们已经经历了这么多困难与挑战,我们走过了一条漫长而曲折的道路,才到达今天的位置。在座的各位可能都知道这一点。
马克:
Thomas Ridd写了一本很棒的书,名为《机器的崛起》,他在书中回顾并真正追溯了机器的起源。20世纪30年代,人们实际上曾争论过计算机是否应该是冯·诺依曼机器,还是应该模仿人脑。这是一个有80、90年历史的领域。上世纪80年代人工智能蓬勃发展。之后出现了一次大萧条,即专家系统浪潮。所以,我觉得,我甚至不知道历史上有先例可以孵化这么长时间。然后,砰的一声,结果证明它成功了。我不知道有多大的惊喜,也许你一直有信心。
李飞飞:
我不知道,就像化学和物理学在现代科学出现之前就已经酝酿了几百年一样,但你是对的。你说得有道理。
马克:
是的。这是发展80年来的一次一夜成名,这真的是一件非常了不起的事情。我之所以提起这件事,只是因为斯坦福大学在每一步都发挥了作用。斯坦福大学人工智能小组、斯坦福大学、麻省理工学院和其他几所机构有着悠久而丰富的历史,它们为实现这一点做出了很大贡献。所以这里的遗产是巨大的。我完全希望在技术方面继续这样做。
每日经济新闻