作者 | Tina
AI 大模型超全落地场景&金融应用实践,8 月 16 - 19 日 FCon x AICon 大会联诀来袭、干货翻倍!
在 2024 世界人工智能大会(WAIC 2024)期间,百度创始人、董事长兼首席执行官李彦宏,与第一财经传媒集团总编辑杨宇东和《硅谷 101》创始人陈茜,进行了一场圆桌访谈。
在一个小时的对话中,李彦宏讲了几个独特观点:
一,现在很少有幻觉问题了。解决幻觉问题是在原来 Transformer 架构上,增加一些东西,“专业词语叫 RAG”。
二,模型的推理成本,其实几乎是可以忽略不计。
三,开源其实是一种智商税。你永远应该选择闭源模型。
另外,李彦宏认为“没有应用的大模型一文不值”,呼吁行业不要卷模型了,要去卷应用。应用其实离大家并不遥远,基于基准模型应用在各行各业已经开始逐步渗透。他援引文心一言的调用量数据,两个月前还在 2 亿,现在已经到了 5 亿,说明大模型背后代表了真实的需求,有人真的从大模型当中获益了。
杨宇东:由 ChatGPT 掀起的这个热潮已经持续一年多了,你也曾表达,接下来超级应用什么时候出现?我们看到国内面向 C 端的大模型产品形态,看起来都差不多,都是搜索框+问答这种模式,你怎么看?有没有可能产生一种差异化的竞争?什么样的好产品会出现?
李彦宏:我倒不是说一定在等待一个超级应用的出现。我更觉得,在基础模型之上,应该能够诞生数以百万计各种各样的应用。这些应用有些是很小的领域,一个大家可能不太容易想到的应用,但它对于那个领域的问题,解决得比以前好很多。确切的讲,我现在还没有看到,能够比肩移动互联网时期超级应用那样的 AI 时代的原生应用。但是已经看到,越来越多在各种各样场景、尤其是 To B 场景中,利用大模型提升了效率,产生了更多的收入,或者说节省了更多成本的情况出现。
今天,大家都在想,我能不能从 0 到 1,做出一个人们想也没想到过的东西?变成一个 DAU10 亿的超级应用?这个当然很重要,假以时日也一定会出现。但是,更重要的是大模型在各个领域、各个场景的应用。
从百度文心一言的日调用量来看,已经非常明显。我们在 4 月份曾经公布过一个数据,文心一言的调用量每天有 2 亿次。前几天,我们再公布的时候,文心一言调用量已经到了 5 亿次。也就是说,两个月的时间调用量是 double。调用背后意味着什么?意味着它在给应用产生价值。因为没有价值的话,人家也不会花钱去调用。
杨宇东:C 端用户会有什么样很好的场景?包括端侧、手机上的 APP,如何去调用 AI 能力?
李彦宏:我觉得分两类:一类是大家比较关注的,过去从来没有过的应用。现在比较流行的、类似于 ChatGPT 这样的 ChatBot,就是聊天机器人。国内每一个大模型公司,都会推出一个相应的 APP,或者是网站来做 ChatBot。
对于现有这些 To C 的应用,其实它的信息增益作用也是非常大的。我们在 4 月份的时候,公布过一个数据,百度搜索今天有 11%的搜索结果会由 AI 来生成,这个比例还在不断提升。再比如说百度文库,过去,百度文库是大家在上面找一些现成的文档。今天,百度文库经过大模型改造之后,已经更多地变成了生成式 AI 应用。你不管想要生产什么样的文档,是 PPT、是论文的格式、甚至是漫画,它都可以根据你的要求生成。今年以来,文库已经有大约 2600 万付费用户。如果说用超级应用的标准来看,它也没有达到超级应用的水准,但是要看它实际产生的价值,有那么多人愿意为这个产品付费,还是很厉害。这些产品都是过去已经存在,但经过了大模型改造之后,它的能力跟以前完全不一样了。
陈茜:我特别同意你最近在多个场合强调的,去卷 AI 原生应用,大模型才有意义。但到今天,我们还没有看到应用的爆发,可能很多应用出来也不太尽人意。所以我的问题或者疑惑在于,如果从模型能力上看,是不是现在还没有到去卷应用的时候?
李彦宏:大模型应用其实已经逐步在浮现出来,它对于现有业态的改造作用,比从 0 到 1 的颠覆作用,更早到来。这个过程一开始大家觉得,没有那么性感,但是它对于人的工作效率的提升,对于成本的下降,对于打开新的可能性,产生的促进作用,是比那些从 0 到 1 的应用,反而更大。如果仅仅是从 0 到 1,你可能会希望出现某几个 Super APP,也就是几个公司从中受益。但是今天,几乎各行各业所有的公司,被大模型加持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。
只是大家觉得,以前都存在,这个东西我以前见过,所以没有新鲜感。或者它更多诞生在生产力场景,它的受众群体,或者单一应用的受众群体,不会过亿过十亿。尤其在 C 端,在公众层面体感没有那么集中。这是大家一直在寻找一个 Super APP 的原因。
杨宇东:我们前面聊的是“卷应用”,接下来还有一个关键词叫“智能体”。你说过好多次,AI 时代最看好的应用是智能体。但我们目前并没有看到智能体的爆发,为什么你认为智能体是 AI 时代的未来趋势呢?
李彦宏:我觉得智能体正在爆发,只是说它现在基数还比较小,大家的体感没有那么强烈。但是你要看业界大模型公司,都在做智能体。智能体就是一个几乎可以“放之四海而皆准”的基于大模型的应用。今天大多数 AI 原生应用,你用智能体的方式都可以做出来,效果也不错。由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。
门槛足够低,就意味着越来越多的人,可以做出他想要的智能体。这个有点像 90 年代中期时候的互联网网站。你可以把它做得非常复杂,比如雅虎就是很厉害的网站。但是在学校读书的大学生,他也可以做一个自己的 Home Page。由于做网站很简单,在 90 年代中后期,就诞生了数以百万计的网站。大浪淘沙之后,最终出来了一些非常优秀的网站,像 Google、Facebook,这是若干年之后才出现。但是早期看,这些网站都是乱糟糟的,一个大学生就能做一个网站出来,这有啥价值?但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个 Super APP。
陈茜:业界对 AI Agent 的定义,还是有一点不同。你对 Agent 的定义是什么?
李彦宏:我首先要考虑,这个门槛要足够低,一个小白,大一的学生,他也可以很方便地制作一个智能体。当然在此之上,可以有各种各样比较 fancy 的玩法,调用工具、反思、长期的记忆等等,这些能力会逐步加进去。
不是说用了最先进的这些能力之后,它才叫一个 AI Agent。我反而觉得,我们要把门槛降得足够低,让大家觉得,我也可以搞一个 AI Agent。
说实话,我认为现在 AI Agent 用到的这些能力,仍然是非常初级的,未来还会产生我们今天想也想不到的 Agent 能力。但是这些能力的诞生,反而要依赖数以百万计的开发者,去开发各种各样的应用。在他们使用的过程当中产生新的需求,这些需求被解决的过程,就是一个创新过程,就是 AI Agent 进化的过程。
陈茜:百度有什么比较有意思的 AI Agent 案例,可以给我们分享一下吗?
李彦宏:有很多。国内高考是一个非常大的事件,不仅是学生,还有家长都非常重视。过去大模型在干什么事?高考有作文题,我们用大模型来写一个作文,看它能得多少分。其实你想一想,这个东西在哪用呢?不可能让一个考生带着大模型去参加高考。但是高考完了之后,你要估分,要报志愿,要选择学校,你要选择专业,一个考生他该报哪个学校,哪个专业,每个人情况都是不一样,每个人的问题也都是不一样。这种情况下,哪有一个全能的辅导老师可以告诉你,你最适合的是哪个学校哪个专业?但是 AI Agent 就可以干这个事情。我们开发了一个高考填报志愿的 AI Agent。在高峰时期,一天有 200 万人在使用,足见大家对这个东西的认可度和依赖度还是非常高的。
杨宇东:通用大模型和行业垂直大模型,它将来到底是什么样的关系?
李彦宏:大模型在各个垂直场景里怎么用?我们经过了一个探索过程。最初我们的想法是,我把这个基础模型做得越来越强大,大家叫通用人工智能,在什么场景我都能做得很好。后来发现这件事情没有那么容易,每个场景都有它自己的道。当应用场景需要反应快的时候,我们需要更小的模型。这种小的模型,它由于没有大模型通用的能力,所以在垂直场景当中,还要对它做精调,就是 SFT,把你行业的数据怎么灌进去,再经过各种各样的调教,在这个场景里的效果,就能够跟大模型相比差不多。
类似这种场景,我们也见了很多。去年 10 月份,我们发了文心 4.0 之后,主要精力在做什么呢?就是根据最强大的模型,去裁剪各种体量的小模型,比如说十亿量级的模型,百亿量级的模型,千亿量级的模型,这个模型也许擅长角色扮演,那个模型也许擅长逻辑推理等等,根据客户不同使用场景的不同要求,做出各种各样的模型。这些模型大多数速度都比 EB4 要快,推理成本比它要低,所以这种应用是大家更爱用的。今天你要看市场需求的话,规模更小一点的模型,市场需求量是更大的。
杨宇东:你为什么认为,大模型对 B 端的改造,比互联网对 B 端的影响更大?
李彦宏:互联网对 C 端的改造,我们都是感同身受的,是非常彻底的,是颠覆性的。但是互联网对 B 端的改造,我觉得一般般。用的技术比较简单,产生的增益也没有那么明显。但大模型不一样。我们接触到的一些能源电力、生产制造等企业,都有类似的需求。比如说,现在国内电动车卷得也很厉害,车内的对话系统,很多也在用文心大模型,使用量也不小,但是对百度来说,这就是一个 To B 的应用,我们不直接提供给用户,它是经过了 OEM,经过了车厂的集成之后,把这个应用提供给了终端消费者。这种事情其实非常多,而且我们就看调用量,如果调用量上得很快,这就说明我们的客户需要这些东西,B 端靠着这个大模型,靠着 AI 原生应用产生了价值。
杨宇东:在金融、医疗等这些比较严谨的领域,生成式 AI 的幻觉问题,怎么破解?
李彦宏:今天,应该说你会很少发现幻觉问题了,尤其是用最大规模、最强大模型的时候,已经很少出现幻觉问题了。为什么呢?一开始,纯粹用原来的 Transformer 去做出来的大模型,它确实是非常难避免幻觉的,因为它是个概率模型。
要解这个问题,就要在原来 Transformer 架构上,增加一些东西,专业词语叫 RAG。我只要稍微借助一点工具,就可以消除这样的幻觉。随着使用这种工具的能力越来越强,你就会发现,在各种场景下,幻觉是越来越少的。
当然,今天这种生成式人工智能,更像是一个 Copilot,在特别严肃、对准确度要求特别高的场景下,我们还不能让它全部自动实现,还要靠人把最后一道关。这样,一方面可以提升效率;另一方面,在准确度上、在消除幻觉上,也能够起到比较重要的作用。
陈茜:现在企业对 AI 的使用成本怎么看?是否愿意为 AI 付费?你在跟一些企业客户交流的时候,他们的态度是什么样子的?
李彦宏:当你处在市场经济环境当中,企业其实是非常理性的。尤其是中小企业,账算得非常精。如果这件事情能够让我降本增效,能够让我赚到更多的钱,那我就会用它。如果不能,你再吹破天,我也不会用。市场会告诉你,大模型到底有用还是没用?我们看到调用量的迅速提升,确实是因为在用户侧、在客户侧,它为企业产生了降本增效的作用。
我再举个例子,比如说在招聘场景。过去是怎么做的?是 HR 坐在那,一份一份简历筛查,然后一个一个面试,面试 100 个人,最后筛出来 10 个人,再进行下一步面试,效率是非常非常低。但是大模型进来之后,它可以非常明显地去提升效率。因为,用大模型去理解这是一个什么人,理解这个老板要招什么样的人,然后进行匹配,它的效率就会高很多。
而且,你去算一算模型的推理成本,其实几乎是可以忽略不计的。尤其在国内,现在大模型价格战是非常厉害的,百度的轻量级模型都是免费的,这个免费不仅仅指的是模型免费,实际上算力也送你了,你本来要有电脑,要有带宽等等,这些都没有了,你只要来用就好。
杨宇东:开源闭源问题是业界关注焦点。你认为,闭源模型会持续领先。但我们看到,开源大模型越来越多,甚至有些能力都不亚于我们说谓的 GPT4 了,这个问题你怎么看,你们还是会坚定的走闭源路线?
李彦宏:我觉得,开源其实是一种智商税。你仔细想一想,我们为什么要做大模型?是它能够有应用,这些应用在各种场景下,能够为客户为用户提升效率、降低成本,产生过去产生不了的作用。所以当你理性的去想,大模型能够给我带来什么价值?以什么样的成本给我带来价值?你永远应该选择闭源模型。今天这些闭源模型,无论是 ChatGPT 还是文心一言,以及其他各种各样的闭源模型,它的平均水平,一定是比这些开源模型更强大,推理成本一定是比开源模型更低。
陈茜:百度对 To B 客户,是“闭源+公有云”这样一套打法,有什么考量吗?
李彦宏:ToB 的客户,他要选择的是一个性价比最好的模型。一方面,模型要对他的应用产生价值,另外一方面,成本要足够低。很多时候,你看着有用,一算成本不划算,客户就放弃了。这是为什么我刚才讲,开源模型打不过闭源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就会发现,最好还是去选择闭源模型。当然,闭源模型不是一个模型,它是一系列的模型,根据你的使用场景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的变种,可以根据用户的需求,让他来做选择。
闭源模型还有一个开源模型不具备的优势:这些相对来说规模更小的模型,都是从最大最 powerful 的模型裁剪出来的,裁剪出来这些更小规模的模型,仍然比那些同样规模的开源模型要效果更好。
陈茜:百度对于中小模型、模型蒸馏上,有什么样的策划?
李彦宏:我们看到的真实需求,在绝大多数情况下都不是最大的模型,它都要求这个模型变小。变小意味着什么?速度快,成本低。比如说,我干这个事儿,总共能够给我带来每年 100 万的增益,但使用最大的模型要 120 万的成本,那我肯定不干了。那我就会给大模型公司提要求,把成本降到 80 万,甚至降到 8 万。那我们就得想,怎么把最强大的模型,蒸馏到足够小,成本足够低,满足这个场景需求。因为闭源有一个最强大的基础模型,根据模型蒸馏或者裁剪出来的小模型,比那些开源模型做出来的东西更有竞争力。所以我们觉得,To B 的机会仍然在闭源不在开源。
杨宇东:我们现在看到价格战已经开始打起来,其实还是蛮出乎我们的预料,这么快。
李彦宏:价格战几乎不可避免,在中国互联网干了这么长时间,其实已经对价格战非常熟悉。但就像你讲的,确实来得比我想象的更早一点,这么早就开始把价格打到几乎不可思议低的地步。但某种意义上讲也不是坏事儿,当你足够低,甚至免费的时候,就会有更多人有积极性来尝试,在大模型基础上去开发各种各样的应用,大模型对于各行各业的渗透速度会更快。
杨宇东:很多闭源大模型 API 调用费越来越低,大模型靠推理收费的商业模式未来成不成立?以后大模型比拼的是哪些点?
李彦宏:大模型技术天花板还是很高的,今天我们还是对于大模型的能力有很多不满意的地方,仍然需要很多非常优秀的技术人员、需要很多算力、需要很多数据,才能训练出下一代大模型,我们还可能需要下下一代、下下下一代的大模型。
所以最终我觉得大家是要去拼谁的技术更好,你的技术好,你为客户产生了更好的价值。今天之所以把这个模型打到足够低,是因为现在模型的这个能力其实还没有到最好,没到最好的时候,大家都差不多的时候,就会谁的价格低就用谁的。
时间长了之后,市场本身会回归理性。最终还是比谁的技术好,谁的效率高,谁会胜出。
陈茜:你觉得这个价格战会持续多久的一个时间呢?
李彦宏:这个很难讲,现在有些创业公司是玩家,也有很多非常大型的互联网平台公司是玩家,其实理论上讲是可以烧很长时间。但我觉得烧钱不是事情本质,事情本质仍然是谁的技术更好,谁的效率更高,当你的技术好、效率高的时候,你就不怕去打这个价格战,所以多长时间都 OK,最终会是优胜劣汰的过程。
陈茜:你觉得在中国市场会是一个赢家通吃这样的一个局面吗?还是说等价格战之后会剩下几个主要的?可能还有一些更小一点的?
李彦宏:这次生成式 AI 是对整个 IT 技术栈的大变革,过去 IT 技术栈是芯片层、操作系统层、应用层或者软件层,就这三层。到生成式 AI 之后,IT 技术栈变成了四层,芯片、深度学习框架层、模型层、应用层,我认为在每一层可能都会诞生至少 2—3 个大玩家。
应用层的话,可能会有数以百万计、甚至数以千万计的各种各样应用出来,也会逐步出现超级应用,既然是超级应用,当然不会很多,可能是三五个。
模型层我觉得也许两三个就足够了,因为最后大家比拼的是效率,你的效率如果不够高的话,慢慢就觉得说还不如用别的。
杨宇东:Scaling Law 还会持续有效吗?
李彦宏:Scaling Law 可能还会有若干年的生命周期。但与此同时,在此之上会叠加各种各样的创新。刚才讲的智能体,它的反思、进化能力等,其实跟 Scaling Law 已经是两个路线在发展,但它仍然是基于 Transformer 这类大模型往上做。未来再过一两年,还会出现什么新的技术创新,在此基础上再去叠加,大家都在探索。换句话说,我觉得 Scaling Law 短期之内不会被颠覆,但是在 Scaling Law 之上会叠加出来很多我们现在可能还无法想象的创新。
杨宇东:你认为 AGI 实现的标准是什么?还有哪些路径可以让我们更快地通向 AGI?
李彦宏:业界确实还没有一个标准答案。以前大家觉得,通过图灵测试就实现 AGI 了,实际上现在大模型已经通过了图灵测试。人们所说的 AGI,其实大多数时候已经不是只通过图灵测试了。
那么什么叫 AGI?在我心目中,AGI 就是机器或者说 AI,能够具备人在任何场景下所具备的能力。Artificial General Intelligence,就是通用人工智能,它不管在什么场景下,能力都是跟人一样的,这是一个很高的要求。
所以真正要实现 AGI,我认为还需要很多很多年。业界有人说 AGI 可能再过 2 年,或者再过 5 年能实现。我自己的判断是 10 年以上,也许更长的时间。我们听到很多人讲,AGI 是一种信仰,当你把它当做一种信仰的时候,谁的信仰会明年就实现?这是自相矛盾的。如果是一个信仰,它就是你值得为之长期奋斗的一个目标。
陈茜:现在 GPT5 一直在延后,担忧的声音也越来越高,AGI 没有办法用 Scaling Law 这个方式去带我们实现了,你对这个有担忧吗?
李彦宏:我不是很担心这件事情,我觉得大家应该更关注应用,而不是关注基础模型,某种意义上基础模型迭代速度稍微放缓一点不是坏事,如果今天的应用开发者,有一个相对稳定的基础来开发应用,其实是效率更高一些的,如果模型天天在那儿练,每天都要重写一遍过去的代码,那是很累的。但是在现有基础模型上不断去做微调,去做一些渐进式的迭代和和创新,其实你看到是一直在发生的,无论是 OpenAI 不断在推的,还有百度我们的 Turbo 模型、更小量级的模型等等,都是在根据市场的需求在做迭代。
但长远来讲,我确实认为下一代大模型一定会比现在这一代模型强大得多。什么时候推出来我不是很着急,我们应该更多的去看真实的市场需求,下一代模型在迭代的时候,要根据市场需求来迭代。
原文链接:李彦宏WAIC圆桌访谈:开源模型是智商税,智能体正在爆发_生成式 AI_Tina_InfoQ精选文章