除非你了解 OpenAI 的奇怪历史、它的哲学,以及它现在如何与现实发生冲突,否则所发生的事情看起来是不可理解的。我们尝试做一个简短的版本说明它的一切。
OpenAI 是人工智能运动的时代精神公司,它在一周的时间里从表面上的胜利变成了灾难。
本周早些时候举行的大型产品演示“开发者日”表明该公司正在加速其技术的商业化和实际推广。但周五下午,该公司董事会宣布 CEO Sam Altman (也许是人工智能最著名的倡导者和首席执行官)将立即离职。
OpenAI 没有做出任何努力来掩盖这是一次解雇,官方声明董事会对Altman失去了信心。不同寻常的是,似乎几乎没有做出任何努力来包容重要的利益相关者:股东和高级管理人员完全不参与其中。
该公司现在似乎正在崩溃:高级管理人员正在离职,投资者想要答案,据报道董事会正在寻求Altman的回归。除非你了解 OpenAI 的奇怪历史、它的哲学,以及它现在如何与现实发生冲突,否则所发生的事情看起来是不可理解的。我们尝试做短版(不会那么短,但是长版特别长)。
一切都始于有效的利他主义
有效的利他主义最初是慈善领域的一个相对简单的想法:在最有效的地方捐款,而不是仅仅为了“阳光普照”而无效地捐款。
这种早期逻辑的目的是通过实证测试不同干预措施的效果,并资助那些效果最好的项目 - 这倾向于建议将资金投向最贫穷的国家和人口,比起富裕国家会有更好的结果,像驱虫或蚊帐之类的干预措施特别受欢迎。
不过,鉴于该运动以功利主义数学为基础,该运动开始吸引来自大型科技公司的支持者,他们开始进一步推动这一逻辑。当你可以通过赚更多钱捐出更多钱来增加捐款数额时,为什么只关注你捐赠的钱呢?这种逻辑表明,如果你有能力的话,在对冲基金或大型科技公司工作并进行捐赠比为慈善机构工作更道德。名誉扫地的前 FTX 老板SBF在倒台之前一直是这一信条的典型代表。
这个逻辑可以进一步推演:为什么我们应该只考虑今天还活着的人?如果未来的人口可能比今天多数十亿(甚至数万亿),那么针对长期的干预措施可能会比今天实施的干预措施更加有效。
这种逻辑将那些具有有效利他主义的人指向两件事:星际定居(这样人类就可以在地球灭绝事件之后生存)和通用人工智能(AGI)——人工智能的超级智能版本,如果正确“对齐”,可以为人类谋福利,极大地提高了我们存在的时间和质量。
那个关于对齐的“如果”非常重要:寻求高度先进的人工智能的人们看过我们所有人都看过的同样的人类对抗机器人电影,他们也同样清楚,一个超级智能体可以轻易地结束人类生存,就像提升它一样。
这就是 OpenAI 应该发挥作用的地方。
深入OpenAI
这非常像是SparkNotes风格的摘要,概述了OpenAI相当复杂的背景故事,我建议不要完全相信。简短来说,OpenAI最初是作为一个真正的非营利机构设立的,目标是推进安全AGI的引入。
那是首要的优先事项,没有打算专注于追求利润动机或从风险投资家那里获得丰厚的回报。包括埃隆·马斯克在内的资助者似乎承诺在其发展过程中为该组织提供数十亿美元,因此它无需担心财务压力就能推进项目。
由于各种原因——通常包括人格冲突和方向差异——这种“纯粹”的非营利模式并没有持续很长时间,而OpenAI原本以为能从马斯克那里得到的资金也耗尽了。这使得OpenAI需要试图吸引商业玩家的投资,他们理所当然地希望一个公司能给他们带来回报。
OpenAI,在Altman的一系列引导下 - 应该指出的是,他本人真诚地相信OpenAI许多非商业动机 - 转变为混合结构。它将能够为投资者创造利润和回报,甚至可能最终上市。
然而,投资者被警告他们应该考虑到OpenAI可能永远无法盈利,这家公司的主要关注点并不是获取利润,并且他们可能更好地将任何投资视为接近捐赠而非有望产生回报的东西。
OpenAI的最大投资者并未获得董事会席位,甚至连Altman自己也在公司中没有任何股权 - 这在该行业几乎是闻所未闻的情况。理论上,这种模式将吸引志同道合的投资者愿意接受极其不寻常的治理情况,这将有助于公司保持对其使命的专注。
作为交换,投资者可以期望的回报上限相对较大:即他们投入的100倍。因此,微软投资了十亿美元,最多可以期待获得一万亿美元的回报。
这些显然是天文数字般的回报,但在大型科技世界中并非闻所未闻 - 所以本质上有一个承诺,即你的投资可能会取得巨大成功,但如果公司实现了人工智能,并不意味着你可以永远拥有其相当大部分的收入。
直到最近的一周左右,这个模型似乎还在正常运作。OpenAI越来越多地成为一个名字而非原则,因为它生成的模型早已不再默认开源,公司的运营现在比Meta的AI项目更少地采用开源方式。
那么...出了什么问题?
什么才算有效?
情况仍然不明朗,但据我们所知,Sam Altman被赶下台的核心原因是创始人之间的老式争端。据说OpenAI的首席科学家兼联合创始人Ilya Sutskever在这次驱逐中起了主导作用 - 这基于对商业化与研究进度的担忧,以及是否对安全性有足够的关注。
OpenAI现在有一个热门产品,很多人认为它即将可以用于内容生成、呼叫中心管理等众多领域。在不久的将来,还会有许多具有类似功能的竞争产品出现。
在这里,有效利他主义的逻辑不再提供明确的答案,特别是对于那些认为强大的通用人工智能在中期内是可能的,并且在不同程度上担心其危险的人。
一种逻辑告诉你:进行研究是昂贵的,如果你有钱,做昂贵的事情就会容易得多。收入是保证独立性的最好保障,因此OpenAI应该将其技术商业化,以便在现在的AI和AI安全讨论中成为主要参与者,并资助真正AGI的工作。
另一套逻辑告诉你,今天的商业干扰和妥协会阻止应该用于构建未来的工作——无论这意味着更加专注和迅速地发展人工通用智能,还是首先停下来研究如何安全地进行。
无论哪种都会对今天的商业化提出反对意见 - 而这三种观点在有效利他主义的数学方法下都是合理的。这只取决于你如何调整不同未知风险和回报的刻度。结果显示,有效利他主义并不能真正作为逃避战略决策制定的方式 - 在现实中很少有一个“正确”的答案。
利他主义与现实,第二部分
从表面上看,OpenAI 董事会所做的一切完全在其权力范围内。它的章程赋予其罢免首席执行官的权力,投资者知道他们在董事会中没有席位,也不会获得席位。他们还知道,并且签署了文件确认他们知道 OpenAI 不会采取行动来最大化他们的回报。投资者针对这一决定提起诉讼将很难获胜。
然而,这并不是世界真正运作的方式。你可能在纸面上拥有很大的权威,但实际上却发现它几乎一文不值。简单的事实是,Altman得到了许多高级员工的忠诚,并且没有任何东西可以阻止他在周一开始一个新的AI创业公司。
由于 OpenAI 提供了不受任何投资限制的回报选择,很明显,OpenAI 的几位主要支持者会愿意更换团队——他们中的几位此时已经公开表示了这一点。很明显,许多高级员工将转移阵地。
OpenAI 将面临所有高级团队被掏空、投资者支持同时崩溃的局面,在这种背景下它需要击退新的竞争对手。董事会根本没有认识到非正式的权力动态,而是过度关注正式的权力动态。
这几乎是董事会能够失败的最糟糕的方式:他们的全部职责就是看到全局,而不仅仅是适合他们的那一部分。这也揭示了有效利他主义更广泛的问题:理论上很容易将事物简化为规则、排名、纸张等。但当它遇到现实时,就会崩溃。
接下来会发生什么谁也说不准。据报道,OpenAI 董事会正试图吸引 Altman 回来——如果不对董事会进行重大治理和人事变动,他不愿意这样做,这是可以理解的。投资者不太可能愿意在没有董事会席位的情况下维持更长时间。
OpenAI 目前的治理模式已经死亡——如果 Altman 回归,这位富有利他主义、富有同情心的 CEO 愿意容忍对自己权力的限制,这将是一件很有趣的事情。最重要的是,OpenAI 试图建立一家大型科技初创公司,而创始人/首席执行官并未拥有无懈可击的权力。
OpenAI 正试图通过两种方式改变世界:构建安全且革命性的人工智能模型,以及向大型科技公司展示可以以不同于以往的方式工作。对于前者还没有定论,但后者的实验现在看起来非常失败。