深度解读:OpenAI内斗如何影响中国AI大模型发展策略

发表时间: 2023-11-24 07:17

【文/观察者网专栏作者 金钟】

相信大家这几天已经吃饱了关于美国科技新星企业OpenAI内部人事斗争的大瓜了。短短几天内,公司创始人阿尔特曼被董事会开除,跳槽入职微软,最后再胜利归来,驱逐了其他董事会成员。剧情一波三折,演员表现自然,台词真情投入,好莱坞大片也不过如此。

11月23日又有爆料称,阿尔特曼被解雇之前,几名研究人员向公司董事会发出了一封信,警告一项被称为“Q*”的人工智能可能威胁到人类。这封信件也是促使董事会罢免Altman的原因之一。对此,阿尔特曼和OpenAI公司还没有回应,相信未来我们还会看到更多的幕后故事。

抛开八卦不提,OpenAI内部激烈的权力斗争背后是今年以来狂热的AI市场迅猛发展,各方都已经认准了这个利益广阔的投资风口,才导致对行业当前的领头羊企业的控制权进行如此激烈的争夺。

在OpenAI的人事斗争背景下,AI淘金热潮中最关键的“卖铲子”的芯片企业英伟达发布第三季度财报,在AI芯片和游戏芯片需求高涨的推动下,英伟达三季度收入达到去年同期的3倍。但是美国政府最新的芯片禁运命令,将导致相当一部分以前可以出售给中国的芯片将无法继续卖给国内企业。

美国政府从去年开始对国内的芯片禁运已经升级过好几轮了,虽然每一次英伟达等欧美芯片企业都会研发出一些针对中国需求的特供版芯片,以此绕过禁运措施,但是这些特供版芯片和欧美科技企业拿到的AI芯片,在性能上有着相当大的差距。直观的说,AI芯片的性能关系到运行大语言模型时候的计算能力,算力的差距直接带来的就是运算时间和运算所需要的能源消耗之间的差距。这也是美国芯片禁运的主要目的,阻碍国内企业训练、发展自己AI大语言模型的速度。

那么美国禁运AI芯片,对AI大语言模型在国内的应用到底影响有多大呢?

根据当前已知的AI大语言模型应用情况,我们可以粗略地将大语言模型的应用分成两类,一类是“to B”即企业应用场景,另一类则是“to C”即通用消费者应用场景。

目前大语言模型在企业应用场景中最有前途的用途是什么?我们还是可以从今天最受追捧的“卖AI铲子”的企业英伟达身上找答案。

在10月底到11月初美国电子电气工程师学会(Institute of Electrical and Electronics Engineers,IEEE)的一个国际会议上,英伟达首席科技官在主题演讲中详细描述了英伟达是如何开发一个公司内部专用的大语言模型。

英伟达自用的大语言模型,数据来源于自身过去30年积累的代码、程序文档、芯片设计文档、测试结果、纠错报告以及内部技术讨论的通讯记录等等,而发展自用AI模型,则是希望通过训练大语言模型达到三个目的:

第一是建立一个面对年轻工程师的内部机器人,通过理解年轻工程师的提问并从过去的资料数据中寻找答案,让年轻工程师可以从内部机器人这里获得大部分技术问题的正确解答,减轻有经验的资深工程师答疑的负担,从而让那些经验丰富的工程师可以更多的将工作时间集中在开发新产品这些更有创造性的工作上。

第二个目的则是简化芯片设计流程,减少在芯片设计和测试时编写复杂代码的需要。

第三个目的则是简化在芯片测试过程中的报错和纠错分析报告,让以往长达几十页的复杂报错报告简化成几个自然段,并针对技术人员和管理人员提供不同的测试报告总结。

英伟达的AI芯片目前是各家AI模型研发不可或缺的基建产品,这家公司对于如何应用大语言模型来提高企业生产力的决策和选择,对于其他企业思考如何在内部工作中应用大语言模型有着很大的启示意义。

简单总结一下,我们可以发现当前水平下,大语言模型对于提高那些知识密集型行业或者企业的生产力,效果是最好的。这个提高生产力的关键点就是帮助知识型企业内部更有效率地分配最重要的资源率,而这个最重要的资源就是知识企业中核心技术人员的工作时间,让这些核心技术精英们可以花费更多的时间在设计新产品架构和攻克新技术难关这些最有价值的工作上,那些耗时过长并且回报较小的工作则交给AI来完成。

英伟达不是唯一发现类似的AI“to B”应用场景的企业,不少其他美国大科技企业也都发现,目前AI大语言模型最有效果的应用,就是帮助开发者减轻处理繁杂琐碎工作的难度和节省这些时间。比如说在开发一个新的软件功能模块时,通过公司自用的大语言模型,从过去浩如烟海的技术文档中寻找、总结相关的代码说明和需求分析,这样可以更快更准确地将新软件开发需求确定下来,效果好的时候可以缩短三分之一的项目开发时间。

当然,知识密集型企业不仅限于IT科技公司,法律、金融、生物医药甚至现在许多高端制造企业都可以归入其中,而大语言模型对于英伟达提高生产效率的作用,恐怕也可以同样作用于这些行业的企业身上。

而对于这些行业来说,他们在应用AI时很有一些共性。

比如说企业训练AI模型的数据往往来自于企业内部,而且格式和语言类型相对标准固定。律师事务所日常面对的法律条款和法律文书,金融企业面对的各种财务报表,IT企业面对的程序代码和技术文档等等,这些数据往往有着相当标准的格式和大量反复使用、定义明确的专业名词。因此,单个企业自身的业务数据库从数据量到语言复杂程度上,都远远小于整个互联网上几十亿网民创造出来的繁杂内容。

另一个应用特点则是企业内部用户向AI模型提问的问题类型也相对严肃集中,基本局限在技术和业务方面的疑问,不像广大网民对网上已经公布的通用型AI大语言模型五花八门的提问,天南海北无所不包,甚至有人专门选择偏僻晦涩的知识点和逻辑复杂的问题来找乐子。

以上应用场景的差别也带来了一个“to B”和“to C”之间的重要区别:训练数据库之间的量级差距。面向通用场景下的ChatGPT 4大语言模型共有1750亿个参数,训练数据库据说有13万亿个离散文本单元(token)。而英伟达的内部大语言模型公司训练数据则只包含了240亿个token,规模只有ChatGPT 4的0.2%左右。

据说国内目前几个公开测试的大语言模型,训练数据库规模也大多在万亿token以上,已经远远超越英伟达这样的业界龙头企业的需求了。而除了几个互联网平台企业之外,国内大部分企业自身产品研发过程积累的数据量,恐怕没有英伟达这么多。

数据规模和复杂程度在很大程度上决定了训练模型所需算力的多少,而算力需求又很大程度上决定了对于硬件设备尤其是芯片性能的需求。所以,企业内部自用的AI模型所需的算力和芯片性能,也远远不如类似ChatGPT 4这样的通用型模型那么夸张。

国内的AI芯片虽然因遭到禁运而落后于欧美先进水平,导致在运算成本和时间上都比国外训练AI模型花费更高,但是国内企业已经进口的现有AI芯片,包括国内自主设计、制造的AI芯片,已经足以完成这些针对企业内部提高生产效率的专门AI大语言模型的训练和应用。用一个比喻来描述这个现象,游戏玩家们必须要买最新的4090显卡来流畅运行最新的3A大作,因为老显卡往往带不动这些游戏。但如果只是玩一些如仙剑奇侠传1这样的老游戏,显卡对于游戏运行流畅度的影响就不那么重要了,玩家们也没必要一定要去血拼4090。

从英伟达这样的龙头科技企业的投入方向来看,目前AI模型对于生产力刺激最明显最有效的应用方向,依旧是应用在企业内部的这些场景项目。而这些方向也恰恰是用国内算力完全可以实现,受到国外芯片禁运影响最小的应用场景。

当然,这并不是说国内和国外在企业内部AI应用上就没有差距了,从大语言模型软件的开发和调试,以及企业内部数据、知识的整理和将AI模型应用与实际科研结合这些问题上,国内知识密集型企业大多还是落后一些距离,但是相比“to C”的通用消费者应用上,这个方向受到的硬件制约最少,追上国际先进水平的阻力最小,而产生的潜在经济回报却最大。

与“to B”领域的相对乐观前景不同,由于起步晚、财力有限,再加上芯片禁运的影响,国内在大语言模型“to C”的通用性应用上差距更大,短期追赶难度也更高。当OpenAI在刚刚结束的开发者大会上提出要搞应用商店平台,类似十几年前移动互联网刚开始发展时候的苹果应用商城,在形成产业生态和抢占商业应用市场方面占了先河。国内的通用型大语言模型在技术上还落后OpenAI一至两代,加上硬件受限严重,短期内虽然可以抢占国内市场,但是依然无力在国际市场上与国外的厂商进行竞争。

在“to C”领域,目前最现实的策略依然是尽量紧紧跟随,从国外探索验证过的通用领域里面选择商业最成熟的模式再进行投入,这样可以最好发挥有限资本的使用效果。

面对现实,在继续推动国内自身半导体软硬件和设备研发国产化的同时,在知识密集型企业中推动利用专门的AI模型来提高研发效率,是符合中国经济挑战的最有效应对策略。一方面中国产业升级和向高端产品攻关的重任恰好落在这些知识密集型企业身上,如果AI模型的应用可以提升企业研发和生产效率,这就有助于国内加速突破外部封锁,完成产业升级的主要战略目标。另一方面,这些企业开发适合自身的AI模型,本身也会为国内半导体软硬件厂商提供宝贵的需求和产品验证的机会,这和美国各个科技大厂向英伟达下单,为英伟达的产品持续升级换代提供了大量资金是一个道理。

因此,目前在AI产业化的进程上,中国还处在追赶世界先进水平的地位上。面对外部封堵持续升级的现状,最现实有效的从AI发展中获益的方式,恐怕就是加快推动研发AI模型在企业层面的应用落地,切实利用AI促进实体经济的生产力进步,为AI大语言模型的应用从PPT上落地到实际生产研发过程中寻找突破口,这反过来也可以支持AI领域更快更好的发展。

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。