穿越奇点:复旦管院李文文揭秘Sora成为AI界新宠

发表时间: 2024-02-22 20:30

封面新闻记者 吴雨佳

近日,OpenAI发布文本生成视频的AI模型Sora,瞬时刷屏网络,成为2024年新晋顶流。将心中所想的文字直接变成视频,过去只存在于科幻作品,而现在,幻想正无限接近现实。

“AIGC产品在以UGC为核心的平台上惊艳亮相,可能是AI时代的一个重要转折。”2月22日,对于Sora带来的影响力以及AI大模型领域的未来发展前景,复旦大学管理学院信息管理与商业智能系李文文向封面新闻记者分享了她的最新观察。

重新定义人类与AI的交互关系

在李文文看来,UGC(User Generated Content,即用户生成内容)与AIGC(Artificial Intelligence Generated Content,即生成式人工智能)可能存在一定的竞争,但更多的是交融。未来可能出现一个新的概念U-AIGC (User-AI Generated Content),即用户与AI共同生产的内容。某种意义上,AIGC产品在以UGC为核心的平台上惊艳亮相,可能成为AI时代的一个重要转折。

那么,在应用层面,Sora会带来哪些新变化?李文文认为,主要有以下两点——

第一,“真实”与“虚拟”的边界将愈发模糊。凭借以假乱真的视频生成能力,Sora的出现势必能为很多行业带来新的机遇,例如短视频和游戏行业等。与此同时,传统的影视制作流程和商业模式也可能面临重塑。例如,使用AI生成视频的需求增加,相应可能会减少对人类演员、编导等创造性角色的用人需求,影视行业的就业格局就很可能发生巨大变化。

同时,基于AI技术强大的图片和视频生成能力,已经引发了人们对于伪造照片和视频的担忧。这类AI技术可能加剧虚假信息的泛滥,因此我们也需要多角度地思考“真实”与“虚拟”交融所带来的影响。目前,Sora也正在进行评估关键领域潜在危害或风险的工作,OpenAI还邀请了一批视觉艺术家、设计师和电影制作人加入,期待这些反馈可以进一步完善Sora的能力。

第二,人与AI之间的新交互与新关系。GPT和Sora的出现彻底变革了人机交互模式,让用户通过直接说话与AI交流,让自然语言交互成为可能,极大地提高了可操作性。

新的交互模型会如何影响组织中的人机协同?很多人都会提出这样的问题:“AI到底会辅助人类的工作,与人类合作,还是取代人类的工作?”“人机共生是否不再遥远?”“人类与机器的关系将何去何从?”对于个体而言,技术进步虽然带来了不少挑战,但也提供了新的机遇。与其盲目担忧工作被取代,不如思考我们应该如何定位自己,如何适应AI时代,如何将技术为我所用。

换一个角度来看,AI中的“A”可以解读为assistance和augmentation,AI应该作为人类的“辅助”“增强”工具,而不是替代工具,或者说,AI应该是人类的工作伙伴。

AI的意义在于让更多人从简单重复的劳动中解脱出来,以更高的效率去创造更大的价值。当自然语言的交互模式极大降低了AI技术的应用门槛,任何人都能够简单地使用AI辅助自己的工作。例如,Sora让视频制作更加简单高效,让更多人将自己的想法转化成生动的视频,也可以让人们更加聚焦于创意和故事本身,所以,未来基于Sora的U-AIGC可能会越来越多。

中国科技企业“逐浪”还是“造浪”

从ChatGPT到Sora,大模型为科技公司不断带来充满前景的新赛道。去年仅8个月内,中国就诞生了238个大模型,几乎一天一个。

很多科创企业都在思考一个问题:是自研大模型还是使用已有大模型聚焦垂直领域应用?

李文文表示,如果采用自研大模型,目前国内只有头部的几家公司有自研大模型的能力,他们也发布了自家的产品,但是性能和GPT-4比还是有一定差距的,这是我们需要面对的现状——国内企业在算力和数据资源方面都远远落后于OpenAI。对很多科创公司而言,另一个更可行的路线是购买已有大模型的服务,聚焦于垂直领域的应用。但是我们现在观察到一个现象是,不少体量较小的科创公司都宣称研发了自己的大模型。如果仔细调研这些大模型,就会发现不少背后都有成熟的大模型的身影,比如GPT-4,ChatGPT之类。

“科创企业热衷于大模型技术可以理解,毕竟有市场、资本和用户等各方面的因素,但大模型不应该成为面子工程或者充门面的产品。”李文文称,纵观全球的大模型发展格局,头部的三家公司是OpenAI, Google和Anthropic, 他们的代表性产品分别是GPT-4, Gemini, Claude-2。中国企业在这场大模型竞赛中一直处于追随者的位置。尽管追上头部的大模型产品比较困难,但我们的科创企业必须要追赶,而且需要考虑如何解决两个非常大的挑战——

首先是算力问题。模型训练必须的GPU显卡是一个瓶颈。目前GPU的主要提供商NVIDIA供应能力有限,处于供不应求的局面。2023年年中,OpenAI曾提出要用一千万张GPU训练模型,近日,OpenAI CEO山姆·奥尔特曼 (Sam Altman)更提出了筹资7万亿美元的生产自研AI芯片计划。虽然计划尚未正式展开,但也说明他们具有一定能力。与之相比,国内公司在算力上差距还比较大。

其次是数据问题。大模型提升能力需要大数据训练,能力升级就能吸引更多用户,从而获得更多数据和资源,帮助进一步提升模型能力。未来,大模型市场可能会出现比较显著的马太效应,头部的两、三个大模型产品会占据绝大部分市场。所以,国内企业一定要在大模型发展的初期持续发力,努力追赶。

“现在的大模型裹挟了太多东西,有资本的狂热,用户的期待,也有学界的争论。科创企业身处热潮,更需要冷静地思考,大模型对自身业务的价值到底在哪里?能否研发出真正有核心技术的产品,而不是做简单的‘套壳’产品。国内企业很擅长找出应用场景,做技术落地的应用,在人工智能领域,可能需要更多能够研发核心技术和具备技术壁垒的企业。”李文文表示,大模型并不一定“大力出奇迹”,除了超强的算力,超大规模的数据,模型架构具体要怎样实现?模型训练的策略是什么?大数据怎样处理会使模型训练效果更好?里面包含非常多的核心技术和经验,正是这些技术和经验导致了不同模型之间巨大的性能差距。期待中国的科创企业能够在核心技术和前沿技术研发上投入更多精力,从而在大模型以及人工智能领域具备更强的竞争力。

【如果您有新闻线索,欢迎向我们报料,一经采纳有费用酬谢。报料微信关注:ihxdsb,报料QQ:3386405712】