参考消息网5月29日报道英国《经济学人》周刊网站近日发表文章称,科技巨头的投资潮可能是非理性狂欢。世界报业辛迪加同日发文探讨,人工智能悲观主义者正在错过什么?两篇文章如下:
观点1: “非理性狂欢”或将重蹈覆辙?
据英国《经济学人》周刊网站5月16日报道,从19世纪的铁路狂热到互联网时代初期的电信业繁荣,这种人们在新技术刺激下对基础设施过度投资的警示事例,在历史上可谓比比皆是。随着生成式人工智能(AI)兴起,历史正在重演。最近几周,四家科技巨头——“字母表”、亚马逊、元宇宙和微软——承诺今年斥资总计近2000亿美元,主要构建数据中心、芯片和其他用于构建、培训和部署生成式AI模型的设备。这比去年的井喷式投资还高出45%。元宇宙平台公司的马克·扎克伯格等行业大佬承认,这项投资可能要很久才形成回报。这是一场AI军备竞赛。
科技企业不仅在购买基础设施,过去的几年里,还一头扎进竞相向OpenAI(开放人工智能研究中心)、Anthropic公司和其他基础模型制造商风投的热潮。传统风投公司抱怨,互联网繁荣以来,它们还没有见过大企业如此大张旗鼓地抢生意。这些科技巨头企业资金充裕因此挥霍得起。
但是,如果历史可以提供借鉴,那么泡沫破裂即将来临。这些公司在股市中的地位举足轻重,如果它们的亢奋情绪导致产能过剩,后果将很严重。历史可以说明问题。早期的铁路轨道为机车铺设,但这些机车很快就被功率更大的车型取代。随着列车质量越来越大,车轨不得不换成更坚固的材料。
不仅如此,据摩根士丹利称,20世纪90年代,电信公司为铺设6亿公里的电缆,投资增加2.5倍。因为电信公司相信人们愿意为上网支付高价。但用户认为互联网应该免费。
摩根士丹利还把这种情况与今天的数据中心类比,这些数据中心的设备配置可能不足以应对日益强大的图形处理单元,也就是用于训练和运行生成式AI的芯片。科技巨头们认为人们愿意为聊天机器人和其他先进的生成式AI工具付费,但这种假设可能同样错误。
所有迹象都表明,大型科技企业已经屈服于非理性热情。支出失控是风险之一。华尔街已经开始预计,这四家企业的资本支出未来五年将达到令人咋舌的1万亿美元(苹果的策略较为谨慎)。
相应地,营收可能会增加,但成本也会增加。这些成本包括支付优秀工程师的高额薪水,以及能满足生成式AI配置要求的数据中心巨额电费。即使现在,投资者也对这种赌局反应冷淡。最近几周,他们赞赏谷歌的资本支出计划,但给元宇宙的计划泼了冷水。
另一个风险是模型将被商品化。这些“超大规模云服务商”,即“字母表”、亚马逊和微软,已经建立并投资被认为是最先进的大型专有AI模型。它们也运行更小的、开源的替代模型(包括元宇宙平台公司制作的那些)。这些开源AI模型正越来越完善,越来越便宜。作为AI爱好者的聚合平台,美国抱抱脸公司列出超过65万个模型。它们从大型专有模型那里分得的市场份额越多,可能的投资回报就越低。
最后的风险是规模导致收益递减。随着运算能力增强和数据增加,科技巨头们的AI模型越来越大。但人们不应想当然认为,这些模型的进步会与投资增加完全成正比。5月13日,OpenAI发布了名为GPT-4o的模型新版本。它更快,语言技能更强,意味着你可以与它进行更多轮聊天。但它不是一些研究人员希望的全新GPT-5。越来越大的模型能通过“价有所值”的考验吗?就像一切的军备竞赛中,企业投入这些开支的背后,既有防御性考虑,也有进攻性考虑。上面说的这四家公司都不想被落在后面,成为颠覆性技术进步的牺牲品。幸运的是,这种投资狂热对整个社会的伤害可能有限。就像铁轨和电信电缆一样,产能过剩会降低成本。在许多基础设施建设热潮中,受益更多的是使用者,而不是奠基者。
如果这种情况再次发生,不要惊讶。
观点2: “悲观主义者”正在错失时机?
据世界报业辛迪加5月16日报道,关于生成式人工智能(AI)当下的辩论,不成比例地集中在它可能带来的破坏方面。虽然技术进步总是会破坏传统行业以及现有系统和流程,但人们绝不能忽视它们可以创造的机会或可以减轻的风险。
目前关于生成式AI的讨论弥漫着悲观情绪。舆观调查公司(YouGov)今年3月的调查发现,多数美国人对AI“谨慎”或“担忧”,只有五分之一的人对AI“抱有希望”或“兴奋”。大约四成的人十分或有些担心AI可能会终结人类。
这种担忧表明,人类倾向更多地关注可能失去的东西,而非从技术变革中获得的东西。AI进步将造成混乱。然而创造性破坏既能破坏也能创造,这个过程最终是有益的。通常,新技术产生的问题也可通过它来解决。我们已经在AI看到这点,未来几年我们将看到更多。
回想一下,当开放人工智能研究中心(OpenAI)首次展示其聊天生成预训练转换器(ChatGPT)工具可以使用自然语言时席卷各大学校和高校的恐慌。
许多教育工作者提出合理担忧,即生成式AI会帮助学生在作业和考试中作弊,学生受到的教育会大打折扣。然而,使这种滥用成为可能的技术反过来也能发现和预防此类行为。
此外,生成式AI可以帮助提高教育质量。长期以来的课堂教育模式面临着严峻挑战。在同一间教室里,每个学生的资质和准备参差不齐,学习风格、参与程度、注意力和集中程度也不尽相同。此外,不同班级的教学质量也各异。
AI可以通过充当每个学生的私人导师解决这些问题:
如果某个学生学习数学的最佳方式是玩数学游戏,AI便可以陪玩数学游戏。如若另一个学生喜欢安静地解决问题并在需要时寻求帮助,AI也能适应这一情况。如果有学生没跟上进度,而同一教室中的其他学生已掌握相关知识并感到无聊,AI导师便可以帮助落后学生补习,并为后者提供更具挑战性的学习内容。AI系统还可作为定制教学助理,帮教师制订课程计划和打造课堂教学。
未来,这些应用程序的经济效益巨大。当每个孩子都拥有私人AI能享受家教时,教育成果将得到整体改善,弱势学生和较差学校的学生或将从中受益匪浅。而受过良好教育的学生将成长为更具生产力的工人,拿更高的薪水。他们也将成为更为明智的公民,能够照亮民主的前景。鉴于民主是长期繁荣的基础,而这也将带来积极的经济效应。
许多评论人士担心,AI将通过增加错误信息和虚假信息破坏选举。例如“深度伪造”的美国总统拜登宣布美国将退出北约,或者美国前总统特朗普发生医疗事故。此类病毒视频的说服力极大,以至于可能会在11月大选前夕影响公众舆论。
尽管针对政治领导人和高层候选人的严重造假是实实在在的威胁,但对AI导致选举风险的担忧被夸大了。同样,允许深度伪造和其他形式信息战的相同技术也可以反过来对抗它们。这样的工具已经存在。例如,由谷歌“深层思维”公司(DeepMind)开发的数字水印工具SynthID,可为AI生成内容添加人类无法察觉、但软件可以检测到的数字签名。三个月前,OpenAI为ChatGPT生成的所有图像添加了水印。
AI武器会创造一个更危险的世界吗?现在下结论为时过早。但就像上面的例子,能够创造更先进的进攻武器的技术,同样也能创造出更佳的防御武器。许多专家认为,AI将通过缓解“防御者窘境”——坏人只需一次成功,而防御系统必须次次有效——的不对等性提高安全性。
今年2月,谷歌首席执行官孙达尔·皮柴报告称,谷歌已经开发出专门用于网络防御和威胁情报的大型语言模型。他写道:“我们的一些工具在检测恶意脚本方面的效率已经提高70%,在识别利用漏洞的文件方面效率提高了300%。”
同样的逻辑也适用于国家安全威胁。军事战略家担心,如果由AI控制和协调,大量低成本、易于制造的无人机可能会威胁到大型的、昂贵的航空母舰、战斗机和坦克。而同样的基本技术已被用于创建针对此类攻击的防御。
最后,许多专家和民众担心AI会取代人类劳动力。但正如我几个月前写的那样,这种普遍恐惧反映了误解经济发展方式的零和思维。
尽管生成式AI将取代许多劳动力,但它也将创造新的机会。未来的工作将与今天的工作大不相同,因为生成式AI将创造出需要人力才能生产出的新商品和服务。
之前的技术进步也出现类似过程。正如麻省理工学院(MIT)经济学家戴维·奥特及其同事表明的那样,如今大多数工作岗位都产生在1940年之后。
目前关于生成式AI的争论不成比例地集中在其可能带来的破坏上。但技术进步不仅会颠覆,同时也会创造。总会有坏人试图利用新技术搞破坏。幸运的是,对抗这些风险,以及保持和产生利润的经济刺激是巨大的。
个人电脑和互联网为窃贼提供便利,助长虚假信息的传播,导致劳动力市场严重混乱。而今时光无法倒流。历史应该激发信心——而非自满——生成式AI将带来更美好的世界。(编译/文怡 朱丽)