【文/观察者网 王恺雯 编辑/冯雪】
从去年11月底面世至今,ChatGPT热度不减。
作为AlphaGo之后又一个基于人工智能(AI)技术的现象级应用,ChatGPT颠覆了公众对聊天机器人的认知,也再次唤醒了人类对人工智能的担忧。
在学术界和教育界,ChatGPT已经遭到不同程度的“封杀”;不安情绪同样弥漫在各行各业,很多人对“技术性失业”的焦虑感倍增。
在同济大学人文学院特聘教授杜严勇看来,现在说ChatGPT之类的AI工具取代人类,还为时过早,“它在创造性、社会性以及个性化等方面无法与人类相媲美,这也是人工智能和人类智能的本质区别。”
曾从事算法研发工作、目前是数字营销领域创业者的彭璐瑶认为,技术的产生和进步,并不是为了和人类竞争或是取代人类工作,而是让人类从简单重复的工作中解脱出来,有时间去做更深入的研究、更多创造性的工作。
近年来人工智能快速发展,然而它也如同双刃剑。ChatGPT之类的大型语言模型是否会被用来生产虚假信息和仇恨言论?其生成内容的版权归谁?谁又该为其内容负责?一系列可能牵涉的伦理及法律问题,让我们在拥抱新技术的同时,又不得不有所警惕。
作为国内较早从事人工智能伦理研究的学者,杜严勇坦言,“不少科技工作者对伦理学家比较‘反感’,觉得你们老是在质疑,老是在批判,但人工智能是个例外,大家普遍认可人工智能技术应该受到伦理和法律约束。”
值得一提的是,2022年我国相继发布《关于加强科技伦理治理的意见》和《互联网信息服务深度合成管理规定》。美国《华尔街日报》日前指出,作为算法监管先行者的中国,已经将注意力转向了深度合成技术。
图源:视觉中国
为什么是ChatGPT?
编写代码、通过顶尖高校考试、写出全班最高分论文,这是过去两个多月里ChatGPT创造的“传奇”。
据瑞银数据,自11月底发布以来,短短两个月,ChatGPT的月活跃用户已达到1亿。相比之下,TikTok达到1亿用户花了约9个月时间,Instagram则用了两年多。“在互联网领域发展的20年里,我们想象不到有哪个互联网应用发展得(比ChatGPT)更快。”瑞银表示。
ChatGPT靠什么爆红“出圈”?
“ChatGPT是由OpenAI开发的一种大型语言模型(LLM,Large Language Model),通过学习大量文本内容和语言知识,它能够生成人类可读的语言……”ChatGPT在和观察者网对话时这样自我介绍。
2015年,埃隆·马斯克(Elon Musk)和山姆·阿尔特曼(Sam Altman)联合创办了OpenAI,并得到了微软等投资者的支持。2020年,OpenAI推出了超大规模语言训练模型GPT-3,其参数达到1750 亿,是当时全球最大的AI语言模型。
观察者网专栏作者陈经介绍,OpenAI在GPT-3的基础上开发出“GPT-3.5”也即ChatGPT。相较于GPT-3,ChatGPT的关键优势在于人工优化——GPT-3肚里有大量干货,但不擅长理解人的对话,需要“懂行”人士的引导才能输出有效内容;OpenAI则经过了大量人工测试,人工对不对劲的反馈进行训练修正,用有点意外的方式解决了问题。
上投摩根基金认为,对于资本市场来说,ChatGPT的出现提升了人类NLP(Natural Language Processing,自然语言处理)能力的上限,直接打开了市场对AI题材的想象力天花板,因此在国内外都引起了市场的高度关注。
然而,也有不少专家指出,ChatGPT在技术层面并没有革命性突破。复旦大学管理学院信息管理与商业智能系系主任、教授张诚日前接受封面新闻采访时表示,从技术应用上看,ChatGPT并没有创新性可言,其出圈的关键在于选对了落脚点。
在同济大学人文学院特聘教授杜严勇看来,从技术的角度来说,目前大多数人工智能产品并没有实质性的创新,都是对一些已有的人工智能技术的应用。而ChatGPT可以成功出圈的关键因素在于,它是技术进化的一个标志性结果。
“和过去的聊天机器人相比,ChatGPT最大的区别在于智能性更高了,而且它的文字处理能力很强大。”杜严勇说,“ChatGPT生成的论文、诗歌,不能说非常文学化,但至少没有明显的语病,看上去还挺像样。”
杜严勇指出,2016年AlphaGo的横空出世,掀起了一轮人工智能投资高潮,但它只是一个下围棋的程序,几乎没什么日用性,而ChatGPT不存在这种限制,它可以和所有人交流,势必会掀起新一轮人工智能投资热潮。
“这些年,人工智能引发了一些恐慌,我们常听到‘人工智能威胁论’。在AlphaGo之后,ChatGPT可以让我们更清楚地看到人工智能和人类智能的差别,以及两者间的优势和劣势,可以让我们更清醒地认识到人工智能可以干什么,不能干什么,思考未来该怎么办。”
2016年3月,AlphaGo对战韩国职业围棋手李世石,以4比1的总比分获胜 图源:视觉中国
数字营销领域创业者彭璐瑶经常使用人工智能协助工作,她认为,ChatGPT的不同之处在于,它是一个比较“通用”的语言内容生产工具,基于大量的文本数据进行训练,可以适用于很多任务。
“我平时用得比较多的是Jasper AI,它和ChatGPT很相似,但更专注于商业领域,例如营销文案、广告文案之类的文本生产,而ChatGPT几乎什么内容都可以生产。”此外,ChatGPT是一个更强大的互动式内容生成工具,“你和ChatGPT的对话越深入,它所提供的回答就越精准。”
彭璐瑶同样认为,从技术上来说,ChatGPT并没有什么突破,“它真正的突破与创新在于其‘通用’的定位,能与各个场景进行非常好的对接,让各行各业的人都能将其运用到自己的领域中。”
在ChatGPT的引领下,越来越多的科技企业加入了这场人工智能竞赛。微软、谷歌、Meta等美国科技巨头纷纷重金布局相关赛道,大幅增加对AI领域的投资。国内大厂同样在快速跟进类ChatGPT技术,百度、阿里、三六零、网易有道等公司相继确认正在开发相关产品。
彭璐瑶认为,AIGC(AI Generated Content,指利用人工智能技术来生成内容)还是一个新的风口,“这个市场有三个要素:资金、市场、技术。国内不缺资金,内容分发平台也有很多,内容需求很旺盛,市场还是挺大的。技术方面,我认为国内要注重开源模型、技术共享。”
“市场关注度多,资金投入大了,国内市场可能会一窝蜂投资很多类似的项目。在这种情况下,竞争的焦点可能变成谁的成本更低,或者谁的速度更快,从而忽略了技术创新。”彭璐瑶表示,“AIGC是一个有很大发展空间和想象空间的领域,目前这个时候,技术落地是一方面,另一个重点则是不断推动技术创新。”
2022年12月12日,杭州,参观者在首届全球数字贸易博览会上体验AI作画 图源:视觉中国
人们在担心什么?
尽管ChatGPT还算不上完美,但它无疑在重建我们对人工智能的认知,也再次唤醒了人类对人工智能的焦虑。
“我们没有预料到将‘孩子’带到这个世界会带来这种程度的兴奋。事实上,我们甚至对它感到有些不安。我很好奇,它将从哪些领域开始为人们带来效用,而不仅仅是新奇和纯粹的好奇心。”ChatGPT开发商OpenAI首席技术官米拉·穆拉蒂(Mira Murati)2月初接受美国《时代》杂志采访时表示。
在学术界和教育界,ChatGPT已经掀起了不小的风波。近期,《科学》《自然》《肿瘤学》等多家科学期刊发表声明,不接受论文将ChatGPT列为“合著者”。《暨南学报(哲学社会科学版)》等国内C刊也发布声明,暂不接受任何大型语言模型工具单独或联合署名,如有隐瞒使用情况,将对文章直接退稿或撤稿处理。
“ChatGPT很好玩,但它不是作者。”1月26日,《科学》刊登了其总编辑霍尔顿·索普(Holden Thorp)的文章,指出对于《科学》而言,“原创”一词足以表明用ChatGPT编写的文本是不可接受的,这等同于从ChatGPT中抄袭。
在美国、澳大利亚、法国等国,ChatGPT也遭到了教育系统不同程度的“封杀”,或是限制其师生在公立学校的设施和网络上访问ChatGPT,或是将使用ChatGPT视为“作弊”。还有人开发出GPTZero软件,靠分析文本的“困惑性”和“突发性”检测其内容是否由人工智能生成,用魔法打败魔法。
美、法等国部分学校“封杀”ChatGPT
不安情绪同样弥漫在各行各业,ChatGPT的出现再次引发人们对“技术性失业”和“生存危机”的焦虑。在大家的讨论中,分析师、记者、程序员、教师、律师等都成了可能被ChatGPT取代的“高危职业”。
不过,在杜严勇看来,现在说ChatGPT之类的人工智能工具取代人类,还为时过早。
“从表面上看,ChatGPT会给你一个非常全面,甚至可以说圆滑的回答,让你从直观上看挑不出多少毛病。但如果想要获得一些个性化、专业化,能强调个人观点的答案,对ChatGPT这种回答模式的接受程度可能就不会很强了。”
杜严勇表示,ChatGPT的本质还是通过优化算法以及大量的训练,在海量的数据库中快速搜索答案,再转化成文字表达,它在创造性、社会性以及个性化等方面无法与人类相媲美,这也是人工智能和人类智能的本质区别。
他以教育为例,指出现在很多人工智能所谓的“深度学习”,其过程是一个“黑箱”,“但教育不是这样。教育更多是一种过程,一个重要的目的就是培养学生的素质和能力,这是人工智能所不具备的。”
但杜严勇认为,随着人工智能的发展,现有的教育理念和教育模式会产生变化,将进一步推动素质教育、个性化教育的发展。
相较于“取代人类”,杜严勇更认可人工智能可以协助人类,“人类大脑的‘容量’毕竟是有限的,而人工智能存储容量可以说是无限的。我们让人工智能来弥补人类智能的不足,让它们做我们的好助手,但最终决策还是要靠人类自己来完成。”
曾从事算法研发工作的彭璐瑶认为,技术的产生和进步,并不是为了和人类竞争或是取代人类工作,其初衷是辅助人类的工作,让人类从简单重复的工作中解脱出来,有时间去做更深入的研究、更多创造性的工作。
彭璐瑶表示,人类的技能随着科技发展而进步,不断适应科学的发展,“当所有作家都会用ChatGPT写故事,所有程序员都会用ChatGPT生成代码,我想大家关心的重点应该是如何比别人更好地完成任务,如何脱颖而出,而不是关注技术本身是否能替代自己。我认为机器和人类并没有竞争关系,人和人才是互相竞争的对象。”
她还提及,知名经济学家凯恩斯曾预言,随着社会的进步,到了21世纪人类会更加闲暇,每周只需要工作15小时。“但今天的我们反而更忙了,技术进步拉动人们的需求,产生更多机会,包括工作机会,人们因此可能会更加忙碌,而不是担心自己的工作会被替代。”
外界对于ChatGPT的担忧,并不限于是否将导致更多人失业或作弊行为,还有它可能带来的更多伦理和法律问题。
ChatGPT的开发者也意识到“有很多难题要解决”,包括如何让模型做我们希望它做的事情?如何确保它与人类的意图相一致,并最终为人类服务?以及一系列关于社会影响的问题。
穆拉蒂此前表示,ChatGPT带来的影响是双向的,“技术塑造我们,我们也要塑造它”。她承认,“AI可能被滥用,也可能被坏人利用”,因此还要考虑如何在全球范围内管理AI的使用,以及如何以符合人类价值观的方式管理AI的使用。
对OpenAI首席执行官阿尔特曼来说,GPT模型也有让他“感到害怕”的事,“我确实一直在密切关注开源图像生成器所生成的报复性色情图片,我认为这会造成巨大且可预见的伤害。”阿尔特曼本月初接受《福布斯》采访时表示。
OpenAI首席执行官阿尔特曼 图源:视觉中国
谈及公司是否有责任确保上述问题不会发生,阿尔特曼表示:“人们无论如何都会采用开源模型,这样做的结果在大多数情况下都是好的,但也会有一些不好的事情发生。在此基础上建立的公司,以及与终端用户有最后关系的公司也将不得不承担一些责任。因此,我认为这种情况将会采用共同责任和问责制度。”
“科技工作者总反感伦理学家挑刺,但人工智能是例外”
穆拉蒂认为,ChatGPT应该受到监管。“对于OpenAI和其他类似公司来说,以一种可控和负责任的方式让公众意识到这些问题非常重要,但我们是一小群人,我们还需要对这个系统投入更多,不仅仅是技术范围的投入,还包括监管机构、政府和社会各界的参与。”她对《时代》杂志表示。
杜严勇指出,对ChatGPT等人工智能工具的监管确实是非常重要的问题。作为国内较早从事机器人与人工智能伦理研究的学者,他坦言,伦理学家研究科学技术可能会导致哪些社会影响,他们通常是带着批判和质疑的,“因此不少科技工作者对伦理学家比较‘反感’,觉得你们老是在质疑,老是在批判。”
“但人工智能是个例外。”杜严勇表示,不管是科技工作者还是企业家,抑或社会公众,大家普遍认可人工智能技术应该受到伦理和法律的约束。
时代周刊:ChatGPT的创造者认为人工智能应该受到监管
“这些人工智能产品,包括聊天工具、机器人,应该怎么使用?应该在哪些场景中使用?都要有明确的管理办法,这些单靠技术人员是无法完成的,要由政府、伦理学家共同参与,制定一个伦理框架或者有关的法律条文。”
杜严勇表示,新的技术不断涌现,和法律相比,伦理更加“灵活”,伦理学家应该提出伦理治理的框架体系,它的适用性和适用范围更广,适用时间也更长。“在这些基本原则的指导下,面对一些普遍的人工智能产品,我们就知道怎么做。”
2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,提出了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明等五项原则。
杜严勇表示,这五项原则就相当于一个大的指导框架,“下一步我们可以对它进行细化,在某个新的人工智能产品出来之后,去指导大家应该如何使用。”
另一方面,2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
深度合成技术,即利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。
《规定》明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。
《规定》还要求,深度合成服务提供者应当落实信息安全主体责任;深度合成服务提供者提供深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
有关部门就《规定》答记者问时强调,出台《规定》,能够划定深度合成服务的“底线”和“红线”,维护网络空间良好生态。
“算法监管的先行者——中国,将注意力转向治理‘深度伪造’。”美国《华尔街日报》1月8日刊文,指出中国关于深度合成技术新规的实施,标志着全球首次有主要监管机构对限制这一“最具爆炸性和争议性”的人工智能新技术进行全面的尝试。
文章指出,在全球范围内,对滥用深度合成技术来生成“深度伪造”内容的担忧持续增长。斯坦福大学研究学者、“数字中国项目”负责人格雷厄姆·韦伯斯特(Graham Webster)表示,中国正在和世界一起了解这些事情可能造成的影响,并且正在更快速地推进强制性规则和执法。
韦伯斯特表示,中国的规定将为中国以外的观察人士提供一个研究案例,让他们研究这种规则如何在现实世界中发挥作用,以及它们可能对企业产生何种影响。
报道还指出,美国的立法者也试图解决“深度伪造”内容的扩散和潜在的滥用问题,但这些努力因所谓的“言论自由”而停滞不前。
此外,据路透社报道,欧盟内部市场专员蒂埃里·布雷顿(Thierry Breton) 表示,拟议中的欧盟人工智能规则将解决外界对ChatGPT和人工智能技术风险的担忧。报道称,这是首次有欧盟高官对ChatGPT发表评论。
“正如ChatGPT 所展示的那样,人工智能解决方案可以为企业和公民提供巨大的机会,但也会带来风险。这就是为什么我们需要一个坚实的监管框架来确保基于高质量数据的可信赖人工智能。”布雷顿说。
(江苏科技大学科学技术史研究所副教授杨凯组稿)