“过去一台AI服务器装四张显卡,现在客户要的都是能装八张甚至十张显卡的高端设备。”12月18日,在2023 AI Tech Day暨首届人工智能生态发展峰会现场,服务器厂商正展示全新升级的AI大模1型服务器。中国证券报记者在现场了解到,AI大模型迭代速度越来越快,厂商对智能算力投入大幅增加,支持存储和训练的高端AI服务器的需求激增。不少AI服务器厂商今年订单都集中在高端AI服务器上。
业内人士表示,随着AI大模型加速迭代,智能算力已成为稀缺资源。未来较长一段时间内,我国AI服务器市场维持供不应求状态,国产AI芯片市场规模增长迎来关键窗口期。
高端AI服务器抢手
当前,大模2型厂商产品迭代如火如荼。据百川智能创始人、CEO王小川介绍,目前百川大模型保持每个月一次模型数据的迭代。
AI大模型正带动AI服务器算力需求持续扩张。安擎3计算机相关负责人告诉记者,2023年,由于行业投资趋于谨慎,判别式AI应用场景收缩,AI服务器市场整体销售台数同比有所下降,但订单金额同比将会呈现增长态势。这是由于AI大模型算力需求集中爆发,成为智能算力的最大需求方。
“AI大模型厂商都在加快迭代速度,客户根本等不起你去建机房,而是希望拎包入住。”鸿博股份副总裁、英博数科CEO周韡韡告诉记者,“我们现在都是找一些已经建好的机房,然后把设备放进去,快速组网,调试好后交付给客户。AI大模型的发展让人看到的不仅是效率提升,似乎全行业迭代周期都在缩短。”
高端AI服务器设备十分紧俏。“大模型训练所需数据激增,AI大模型厂商需要的是能够支持存储和训练的高端AI服务器。因此各服务器厂商目前都在升级芯片规格、扩大卡组数量,向高端AI服务器方向升级。”上述安擎4计算机相关负责人称。
我国智能算力资源稀缺。艾瑞咨询发布的《2023年中国智能计算中心行业发展白皮书》显示,2022年,中国智能算力规模占全部算力的比重为22%;从服务器结构来看,2022年,我国通用服务器占服务器总量比重为93.2%,而AI服务器仅占服务器总量的6.8%。多位业内人士表示,未来较长一段时间内,我国AI服务器市场维持供不应求状态。
算力产业链迎利好
随着AI大模型算力需求强劲,今年以来,国内算力产业链公司接连斩获新订单。
12月4日,鸿博股份公告称,子公司英博数科向百川智能提供一定规模的英伟达智算服务器,及其5所有的算力资源以及配套软件应用和技术服务,涉及交易总金额预计达313.82亿元。据周韡韡介绍,截至2023年12月,英博数科累计签约额超18亿元。
公开资料显示,神州数码在10月29日至11月19日期间共签订四笔销售神州鲲泰品牌昇腾AI服务器订单,合同总金额达6.24亿元。
青云科技10月15日公告称,公司向高新兴讯美科技股份有限公司采购6.84亿元GPU服务器(含配套产品),并与客户签订6.90亿元销售合同,向其销售上述GPU服务器(含配套产品)。
在AI大模型浪潮的带动下,人工智能芯片、服务器、数据中心市场规模将显著提升。IDC预计,2023年中国人工智能芯片出货量将达到133.5万片,同比增长22.5%。
人工智能服务器方面,IDC预计,2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%;2027年将达到134亿美元,年均复合增长率为21.8%。
智算中心建设步伐加快。据不完全统计,截至2023年8月,全国已有超过30个城市建设智算中心。
中信证券表示,AI的持续发展拉动智能算力需求和建设水平提升,为光6模块、服务器等领域带来持续增长机会。
做好生态建设
AI大模型时代,进口品牌GPU等高端芯片供应面临周期波动挑战,为国产AI芯片加速推向市场打开关键窗口。不过,AI大模型的训练、推理和海量数据存储无一不需要高性能算力支撑,也对国产算力底层基础设施能力和生态建设提出考验。
艾瑞咨询产业数字化研究院负责人徐樊磊表示,在AI大模型爆发之前,国内的智能算力资源主要用于推理端。AI大模型趋势到来,使国内厂商开始推出训练端的算力硬件产品和服务,但目前相关产品能力比起全球领先算力能力仍有较大差距。
业内人士表示,在计算层面,由于芯片厂商在开发过程中使用的技术路线不同,导致芯片适配服务器等设备的开发周期普遍很长。在训练层面,单芯片算力有限,而大模型训练需要大规模的算力集群,需要算力系统具有灵活的算力扩展能力。在存储层面,多模态大模型的训练和推理对存储提出了更高要求。
近年来,我国AI算力市场高度依赖英伟达GPU硬件和相应的软件生态。周韡韡坦言,全球90%的AI工程师都在使用英伟达GPU配套的CUDA软件生态,这和英伟达GPU在全球的垄断地位完全匹配。“一些国产GPU计算性能并非绝对不够,而是若要把国产GPU和基于CUDA架构开发的设备进行适配,需要在调试和优化上花费大量精力,导致用户使用算力的效率下降。”
然而,随着英伟达芯片进口难度不断提升,国产AI芯片自主创新任重道远。
记者梳理发现,浪潮信息、海光信息、希姆计算、中科通量、瀚博半导体、墨芯人工智能、摩尔线程、天数智芯、寒武纪、燧原科技等芯片公司推出了应用于不同场景的AI推理和训练任务的芯片加速卡,涉及CPU、GPU、RISC-V等不同设计架构。
海光信息表示,海光DCU兼容CUDA生态,对文心一言等大多数国内外主流大模型适配良好。依托DCU可以实现LLaMa、GPT、Bloom、ChatGLM、悟道、紫东太初等为代表的大模型全面应用。
如何进一步提升国产AI芯片竞争力?中国工程院院士、清华大学教授郑纬民认为,要开发基于国产AI芯片的系统,这一过程中最重要的是做好生态建设。“国产AI芯片只要达到国外芯片60%的性能,如果生态做好了,客户也会满意。”郑纬民称。
徐樊磊建议,做好自主创新要从人才、设施、科研和生态领域四方面突破,逐步提升智能算力设备软硬件功能。在硬件方面,提高国产AI芯片的稳定性和兼容性,特别是提升芯片之间、服务器集群之间的数据传输效果。在软件生态方面,降低适配门槛,让开发者逐渐使用国产芯片生态。