ChatGPT引发的人工智能热潮,揭开了生成式人工智能AIGC发展的新一页。当人工智能开始从1.0时代进入到2.0时代时,一场“千模”大战在所难免,IDC更是预言大模型行业“玩家”格局将在三年内确定基本格局。
在一片AI产品热潮中,红帽在2024红帽全球峰会上,也推出了红帽企业Linux AI(RHEL AI),并发布了红帽OpenShift AI的最新动态。然而,与众多厂商聚焦大模型不同,红帽却定位在AI应用落地中为用户提供全方位的支持。红帽总裁兼CEO Matt Hicks近日解开了其中的秘密,畅谈了红帽的AI愿景。
AI 落地的新途径
关于AIGC应用的发展,IDC将其商业化进程总结为三个阶段,分别是到2027年的产品落地阶段、到2029年的商业模式发展成熟阶段,以及2030年以后的规模化盈利阶段。如此前景再加上每月都不断爆出的大模型性能提升的消息,让我们以为普智阶段的来临是一蹴而就的事情。但事实上,这中间却还是有太多的工作需要做。
在实际工作中,大量应用场景需要的是精准小模型。就算克服了AI落地需求高度碎片化,领域数据繁多复杂的大模型,在实际应用场景中也只是一位语言水平极高的“翻译”,而行业需要的却是精通专业术语和技术细节的“专业型翻译”。必须通过大语言模型(L)、向量数据库(Vector)和提示词Prompts(P)的联动,才能解决大型语言模型在实时信息和垂直私域数据处理上的挑战。
这样也就不难理解,人工智能模型从概念期到落地期的变迁过程中,用户会面临包括硬件成本增加、数据稳私以及基于SaaS的模型共享数据信任等诸多难题。这些再叠加上每月都有重大突破的AIGC领域的技术变化,就使得问题的难度被扩大化了。而要破解这些难题,企业的最佳解决方案就是构建可靠的核心人工智能平台,使其能够在本地或云端运行。
IDC将这种演变趋势概括为:要想成功利用人工智能,企业需要对许多现有应用和数据环境进行现代化改造,消除现有系统和存储平台之间的障碍,提高基础架构的可持续性,并在云端、数据中心和边缘之间谨慎选择部署不同工作负载的位置。
Matt Hicks针对AI落地难题的破解,做了这样的解释:“人工智能平台必须具备灵活性,以支持企业在采用人工智能的过程中取得进展,并且适应需求和资源的变化。红帽的变化,就在于提升了用户运行AI的灵活性,同时我们致力于支持小型的开源模型进行混合部署。这样用户就可以在公有云或他们的数据中心训练他们所需的模型,并在边缘部署它们。”
AI的迅猛发展给了红帽一次难得的发展机会,Matt Hicks坦言甚至感受到了上世纪90年代末的Linux所具备的潜力。当时技术人员私下应用Linux却很少将它公布出来,因此几乎没人认识到Linux的价值,但日后的Linux却凭借其开放性,带动了整个开源软件走向主流。
Matt Hicks详细介绍说:“这次变化确实让我想起了上世纪90年代末的Linux,虽然只是处于起步阶段,但你凭直觉就能感受到这将带来重大变化。更重要的,是我们确实是开放的,我们的平台被设计成支持所有GPU提供商,包括NVIDIA、AMD和Intel。这种能力就类似于在Linux早期我们对红帽企业版Linux的设计,要求其编译的应用可以在不同的硬件平台之间移动。只不过我们今天换成了让硬件以及模型的运行位置更具灵活性,贯穿从公共云到边缘的全部位置。”
混合人工智能新时代
从AI的本质来看,要让AI在实际业务中发挥作用,算法、算力和数据的三位一体至关重要。算法的突破让OpenAI等成为了耀眼的巨星,算力的需求也让英伟达脱颖而出,除此之外,红帽已经进行了一系列的产品和技术创新,在算力、算法和数据三个方面,都可以让用户的人工智能平台更具灵活性。
其中,红帽OpenShift AI 2.9在增加了边缘模型服务、增强型模型服务、采用Ray支持分布式工作负载、改进模型开发、模型监控和可视化、采用新的加速器配置文件等特性之后,可以提供底层硬件到服务和工具的全方面支持。
新推出的红帽企业Linux AI(RHEL AI)则是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型,其中整合了IBM研究院的开源授权Granite大型语言模型(LLM)系列、基于大规模对话机器人对齐(LAB)方法的InstructLab模型对齐工具,以及通过InstructLab项目实施的社区驱动模型开发方法。
红帽的传统长项在混合云的管理,此次更新意在建立一个坚实的混合云基础,实现对企业AI的支撑。Matt Hicks对此解释说:“许多客户尝试过使用规模较小的模型进行微调和训练,但往往成效不佳。他们转而开始采用大模型,这些大模型可以称为‘全知模型’,在公有云中运行,参数量会超过一万亿。尽管这些模型开箱即用可以完成许多任务,但它们的运行和训练成本非常高。当你受限于云环境时,很多应用场景都难以应对。而我们的思路是改进小模型,使其能够更好地适应实际任务。同时在用户的笔记本电脑、工厂边缘甚至是汽车里,都可以充分发挥AI的潜力。所以我们做的是能够让用户针对他们的具体应用场景,在笔记本电脑、边缘设备、汽车或数据中心训练这些模型。”
而谈起此次红帽的产品和技术更新对于混合人工智能新时代的支撑作用,Matt Hicks表示:“能够运行一个已经构建好的模型是一回事,但更为强大的能力是实现通过训练模型来定制自己的解决方案。这意味着将模型部署为服务,用户在实际工作中可以与之交互,调用它,并向它提问。我们做了一些调整,RHEL用于运行所有可以在Linux上运行的应用程序,RHEL AI则用于运行用户可以通过训练和定制的大语言模型的AI部分。OpenShift用于管理可以在RHEL上以分布式方式跨集群运行的所有应用程序,而OpenShift AI则以相同的方式管理一系列模型,实现高效分割训练、使用和提供服务。要明白人工智能并不是孤立存在的,它只是你的应用程序,是你的员工和开发人员能够使用的一种工具。”
开源与创新
如果我们回溯开源世界的起源,会发现它不过是IT高手们因为对于已存在的应用不满足,而创造的一个与商业应用形成镜像关系的自由世界。因此,从一开始,开源就源于针对更好应用体验的创新。AI作为一种新工具,对于企业业务进行了更强的赋能。换句话说,用户应用AI,就可以实现更多创新。也正是因为这个原因,开源在新一轮的AI浪潮中将起到更为重要的作用。
在企业AI落地的过程中,其难度远不仅限于选定一个模型,而是会遇到成本和人才短缺两支拦路虎。
从成本的角度来看,AI实施过程中会遇到显著的成本问题。这包括购置AI基础设施或使用AI服务的费用,针对特定商业需求调整AI模型的复杂流程所产生的成本,以及将AI融入企业应用和管理应用程序及其模型生命周期的相关费用。
再从人才瓶颈角度来看,企业需要具备专业知识来为特定场景调整适当的模型,这包括数据科学家和AI专家的知识和技能,以确保模型能够在特定的业务环境中有效运行。但当前市场上数据科学人才的稀缺性却增加了实施AI策略的难度。而这两个问题的破解答案,却都可能存在于开源之中。
在过去三十多年中,开源技术不仅推动了快速创新,还大幅降低了IT成本并降低了创新门槛。这一次也不例外,通过使用InstructLab对齐工具、Granite模型和RHEL AI,由于在生成式AI落地时获得了自由获取、重复利用、透明开放等开源项目的优势,企业的AI落地成本必然会因此而降低。再扩大参与AI项目的人员范围,利用开源AI社区培养AI技术人员,企业就有望真正降低进入AI创新的门槛。
IBM研究院开发了大规模对话机器人对齐(LAB)技术,这是一种利用分类指导合成数据生成和创新的多阶段调整框架的模型对齐方法。此方法通过减少对昂贵人工注释和专有模型的依赖,使AI模型的开发变得更加开放和易于接触。采用LAB方法,可以通过指定分类下的技能和知识,大规模生成影响模型的合成数据,并利用这些数据训练模型。
在意识到LAB方法能显著提升模型性能后,IBM和红帽决定推出InstructLab,这是一个围绕LAB方法和IBM开源Granite模型构建的开源社区。InstructLab项目的目标是使开发者通过简化LLM的创建、构建和贡献过程,像参与任何其他开源项目一样,将LLM开发的权力交到开发者手中。Matt Hicks透露,InstructLab上线几个月后,已经进入了高速成长期。
谈及开源大模型的优势,Matt Hicks表示:“我相信开源模型凭借众多参与者的优势能够产生更好的结果和更安全的软件。我们还提供了一个合作的共同分类法,使得像Meta、LLaMA或与Granite、Mistral一样的组织在AI模型的安全挑战上能够合作。这种合作将使开源AI模型更加强大、更有能力、更快解决问题,并且更加透明。最终,我相信这些开源模型将证明自己是更好的选择,就像开源软件因其安全性和清晰性而闻名一样。”
过去三十多年,开源技术一直是快速创新的引领者。对红帽而言,从21世纪初通过RHEL提供开放式企业Linux平台,到通过红帽OpenShift推动容器和Kubernetes成为开放式混合云和云原生计算的基础,这些因素最终引导红帽进入了高速成长期。
谈及红帽高速成长的原因时,Matt Hicks坦承:“我们一开始的优势仅仅在Linux和虚拟化方面,但我们很快就将优势领域扩展到了容器等更多方面。我发现许多竞争对手很难摆脱自己的固有优势,而红帽却成功实现了从Linux到虚拟化、中间件等方面的跨越,现在我们又扩展到了人工智能。我们的自我颠覆能力以及紧跟技术趋势不断前进的能力使我们独具特色,这种适应性出使红帽成为了一个有价值的合作伙伴,帮助我们的用户与行业一起航行在技术道路上,避免了对于过时技术的依赖。”