7月6日,2023世界人工智能大会在上海举办。以ChatGPT为代表的新兴AI应用带动了算力需求“爆发式”增长,算力短缺的矛盾也变得越发突出。未尽研究创始人周健工,联想集团副总裁、ISG中国服务器事业部总经理陈振宽,申万宏源证券研究董事总经理、TMT部门总监及首席分析师刘洋三位嘉宾就此共同展开了讨论。
主持人:这个世界跟人工智能的关系越来越深刻,尤其身处世界人工智能大会的现场,你会明显感受到人工智能世界何等丰富,发展有多发展。今天我们要找一个专门切入点叫“算力”。
我们都知道,数据、算法、算力是敲开AI大门的三把钥匙,如果说数据是其中生产资料的话,生产力就是算力,生产关系就是其中一些算法。我们今天具体要来说一下跟算力有关,我们演播室请来三位嘉宾,分别是未尽研究创始人周健工,申万宏源证券研究董事总经理、TMT部门总监及首席分析师刘洋,还有联想集团副总裁、ISG中国服务器事业部总经理陈振宽。我们和三位嘉宾一起,围绕算力深入探讨。
AI有惊喜,算力引焦虑
主持人:算力是推进AI往前发展的重要动能之一。大家都知道各大平台现在都在出各种各样大模型,大模型需要训练,到应用阶段对算力的要求更是无穷无尽的,所以,算力发展的现状怎样、未来趋势如何,算力的缺口有多大、有什么样的解决方案,就是我们今天要和各位嘉宾一起聊到的。
先想和各位嘉宾聊一聊,您觉得据您观察现在人工智能世界到底发展到什么样的程度,给你的惊喜是什么?
周健工:我觉得AI最大惊喜就是在一些完成任务上,比如说对话,我们一直在说图灵测试,这是我第一个感受。第二个感受大家都在谈通用人工智能,以前觉得是相当科幻的概念,现在我记得GPT4出来之后,微软科学家做了一个测试,那篇论文业内大家看得很多了,标题是通用人工智能的火花。我觉得这个比喻比较贴切,我们看到一个火花但是还是处于通用人工智能比较早期阶段。
陈振宽:ChatGPT现在用的是ChatGPT3.5的技术,大概是1750亿的参数,大家可能有一些相关资料显示,人的大脑神经元大概是在800亿到1000亿之间,大脑皮层神经元在100亿级别。在800亿到1000亿这样一个参数实际上跟人的神经元数量是非常相似的,所以也是大参数、大模型。到了1750亿级别的时候,人工智能不止是我们训练它,它根据我们训练去学习、去成长,更重要是它会自己学习、自己进化。所以,在今天深层次AI技术爆发的时候,大家发现一下子大门打开了。
刘洋:AI的整个复杂度大了很多。小模型精度很高,通用性、智能性弱一些;大模型有可能精度不用那么高,但是智能性高很多。所以对我们来讲,最大的痛苦不光是横向扩的很多,关键是可能性多了,究竟是用大模型还是小模型,用以前的还是组合的,或是垂类的。这些问题都会让我们焦虑,需要用的东西太多了。所以我觉得人工智能2C、2B的应用,带来今天算力焦虑这个话题,其实都会变得比较复杂,这是我们目前已经看到的情况。
主持人:如果应用到了让每一个人都便捷的程度,现有算力背后能不能支持,这中间还有什么缺口?在过去一段时间大模型发展过程当中,如何突破算力落差的瓶颈?
周健工:其实大模型是每18个月是它的规模是增长35倍,但是摩尔定律是每18个月增长2倍,这是一个速度上的落差。第二,我们也看到国外有些大型企业不同业务部门之间,也在争抢算力,从这一点上说中国也存在。
主持人:算力落差就是因为芯片落差吗?今年英伟达生意很好供不应求,买不到芯片是不是意味着差距就特别明显?
陈振宽:这一定是其中一个影响因素,但我看到另外一个因素。刚才讲到,我们的大参数里面跟人的神经元数量一样,但这个算力所消耗的功耗跟人的大脑所消耗的功耗,完全不是一个数量级。要支撑这么大的算力,功耗的要求是非常高的。我们需要研究,当我们的算力不断增长的时候怎么解决功耗的问题,如何实现碳达峰要求。所以在技术上,我们可能要考虑是否能够从现在风冷的散热变成液冷散热,是不是能够有一些更好条件来支撑我们算力不断增长,但是功耗仍然控制在我们的星球所能承受范围之内。这是我们未来要考虑的另外一个因素,即除了做算力竞赛以外,可能还要考虑如何在节能减排方面有更好更优方案。这个方面做得好了,我相信即便有落差,我们总有一天也能迎头赶上。
算力发展仍在“热身阶段”
主持人:我们目前算力市场整体发展到什么程度,够用吗?
周健工:我只能大面讲,陈总是专家。我自己觉得总量上,中国和国外国家不相上下,在普通算力、智能算力、超算总量上不相上下。甚至有一些中国还占优势,比如说智能算力。但是在这一轮跟大模型和人工智能相关算力上,中国是存在比较大的落差。另外一块当然从企业做数据中心、云计算这一块,中国企业跟国际头部有比较明显的差距。第三方面,我们现在处在一个模型训练算力比较紧缺,但是将来如果是生成人工智能发展普及比较快,将来会更多是应用更广,对推理需求是更高的,其实对算力时延要求更高。所以我们希望到那时候,整个算力发展能满足这些需求。
主持人:陈总作为专业人士作为联想专业人士,您是如何来解读算力目前缺口大还是未来缺口大?
陈振宽:我们把人工智能的算力当成一种赛事的话,这个比赛才刚开始。今天很多企业在这场赛事里面参赛,实际上都是早期阶段做了基础准备。现在在热身或者是刚进入热身阶段的企业,它们在大模型的投入上已经是按照百亿人民币投入的。但是要真正去训练好大模型,这还有很多工作要做,我相信这是要持续进行投入的地方。
以联想来说,我们自己不会参与到大模型赛道,不会去做去训练大模型,但是我们为所有搭建和训练大模型的企业去提供基础设施和服务,比如说提供GPU服务器,人工智能服务器。以前,如果不是人工智能服务器,一个通用服务器的研发投入大概是两千万人民币,但是做GPU、人工智能服务器投入是需要通用计算五倍,是按亿作为计算的。除了更加复杂以外,里面还要考虑刚才提到的散热、更快联接速度等很多要素。所以在技术上的投入是非常庞大的。另外,在未来训练完以后要开始做推理,推理用于各种场景无处不在,边缘甚至个人,这个对算力要求仍然会持续增加。所以,如何在这样的场景中持续进行优化,以更加普慧的能力去提供未来整体人工智能相关的产业理论服务,这是我们持续要考虑的地方。
所以,路还很长。
主持人:我刚才咨询了微软投OpenAI开发出的ChatGPT,其实背后微软数据中心建设就跟联想有很大关系。具体情况是怎样的?
陈振宽:联想是一家全球化走得比较早、做得也比较成功的一家中国企业,我们海外业务占了差不多3/4左右。微软是我们海外客户的一个代表。我们还有很多微软这样非常优秀的客户。我们在全球大概有7个生产制造基地,有10个研发中心。我们也希望,能够在未来积极参与到国内人工智能的服务当中,服务好我们的客户。
主持人:从资本市场来看,这个细分的行业当中再细分有哪些投资机会?。
刘洋:一方面很明显我们的机架里面包括服务器要升级,其中AI渗透率我感觉会慢慢达到50%是有可能,价格量价齐升。还有很多工程设计问题,液冷、风冷、散热等等各种各样的,以及相关的光器件、光模块。其实我们还有一些市场还没有特别注意。比如说很有可能我们现在超算数据中心里面,专门针对科学或者一些蛋白质分子生成或者是气象预测,这种东西是由于以前算力不具备,我们就没有办法衍生,但是可以大大提升科研和学术的下限,把很多很难测的东西变成可能。总之我现在觉得,至少是AI芯片、服务器,光器件、光模块,封装测试技术和芯片架构,相应的一些AI应用都会有很大机会。现在市场基本上是注意到了AI服务器、芯片和光器件,后面还有一些没有特别注意,而且周期和机会可能会反复来袭。
普慧算力建设正当时
主持人:中国算力基础设施,在全球竞赛建设当中是处于一个什么样的位置?
陈振宽:联想是一个服务提供商,是这个赛道上面帮助做大模型搭建算力提供商。从我们自身来看,联想今天在全球的服务器厂商当中现在是全球前三,前两名是两个美国企业,中国企业排在全球市场也排最前面。我们也希望,未来能够更好地投身在国内所有的人工智能算力建设过程中,能够更多赋能我们国内企业,能够给他们提供更大的助力。
主持人:提到赋能更多企业,我注意到联想提供一个普慧算力新的主张。普慧算力具体指什么?
陈振宽:普慧算力把它解读拆开来一个是普适(Inclusive),一个是智慧(Intelligent),在普适里面我们提出三个A。一个是(Affordable)人人可得,一个是(Available)人人可用,一个是(Adaptable)人人适用,这是普适的意思。另外对于智慧来说,我们对智慧的理解应该是说他能够去自己去适应(Self-adapting),自己的学习(Self-learning),自己的进化(Self-evolving),所以这是三个S,三个A,三个S,我们对普慧算力的解读。我们希望,普慧算力最要能帮助到我们国家产业升级,其次帮助我们各个企业去实现数智化转型,最终惠及到每一个人。
主持人:周总,您觉得未来对于民众来说普慧算力需求有多大?
周健工:我觉得很大,我自己有一个观点,我认为将来现在往手机端部署,消费级GPU也可以去跑一个模型了,自己手机就下载了。其实我觉得将来很可能手机上每一个APP都是一个模型。我们可以走着瞧。包括现在设备端芯片,整个架构芯片,都是围绕生命智能、人工智能的部署在发生。普慧的意义,就是每一个人都可以用。
主持人:如何实现真正的实惠?
陈振宽:我相信这是一个要持续要去做的工作。今天单位的算力成本,在五年前、十年前看是无法想像的,但是今天通过科技的发展确实达到了。我们对未来的展望,一定会跟随技术的进化,技术的迭代,技术的创新。我们相信,最终到每一个人看算力就好像你在使用电力一样时,你不会感觉到他的存在,甚至也不会为支付这个电的成本感觉到你有巨大支出存在,以后算力也一样。