距科技公司Open AI推出聊天机器人ChatGPT已接近一年,各家的大模型具备竞赛仍在持续。技术发展伴随着安全隐忧,当下围绕人工智能治理的讨论愈加热烈。
近日,在北京理工大学法学院主办的第六届智能科技法治论坛上,就有专门的议程聚焦生成式人工智能的法律治理问题。不可否认的是,由人工智能引发的风险确实存在,但一味地禁止技术发展也不现实。如何实现法律与技术的良性互动,让人们从人工智能中获益又能避免伤害,成为各方热议焦点。
当天论坛上,有法律专家提到,“甘蔗没有两头甜”,人工智能治理需要考虑不同的价值判断与利益权衡。如果对公众使用过程中暴露的各类问题予以严格规制,可能让产业发展陷入被动。也有来自科技公司的代表直言,中国企业要想在这波大模型的国际竞争中处于领先,需要先做的是“挤上牌桌”,呼吁良法善治助力技术创新。还有学者表示,一个普遍共识是人工智能的治理不是零风险的治理,而是在平衡各方利益的情况下,将风险置于可控范围。
南都记者梳理发现,当前各国政府也在积极探索人工智能监管方案。今年8月,中国推出全球首个生成式人工智能监管文件,近日又首次系统阐述全球视野下的人工智能治理方案。而在海外,欧盟的人工智能法案正紧锣密鼓地推进;美国似乎更重行业自律,已经两次在白宫召集科技公司承诺发展安全可信的人工智能。
虚假信息、算法歧视……如何为生成式AI设立护栏?
当ChatGPT编造出“林黛玉倒拔垂杨柳”的情节时,多数人可能当作是个笑话,可是在一些关键领域,这样的出错将带来棘手的麻烦。比如,ChatGPT被指诽谤澳大利亚一名地方市长卷入行贿丑闻,所生成虚假判例遭美国律师错误引用……
以ChatGPT代表的大模型确实掌握更多的信息,但机器不会慢思考,它根据统计概率生成的内容,并非完全真实可靠。除了虚假信息之外,面对生成式AI带来的算法歧视、数据安全、个人隐私保护、知识产权等问题,如何予以回应?从法律规制的角度,又该怎样为生成式AI设定护栏?
日前,在北理工法学院举办的一场主题为“生成式AI的法律治理”的论坛上,多位专家学者从不同维度尝试提出他们的治理思路。
中国公安大学法学院教授苏宇认为,人工智能治理离不开算法透明。据他介绍,算法透明的实现方式包括文字解释说明、披露源代码、披露“代码+参数”以及实行基于算法解释的透明度报告,建议通过算法解释实现算法透明。
在他看来,突破算法解释才有望突破算法标准、算法认证的技术约束,并为算法审计和算法影响评估提供最优技术路径,要求一定形式的算法透明度报告既是必要的,在技术上也是值得期待的,对于公共机构而言,算法透明更具有基础性的法治价值。
“之所以如此关注算法透明和算法解释,是为了把更多的牌放在桌上。”苏宇建议在生成式人工智能时代,也应当坚持发展、优化和完善算法透明的相关法律机制。
北京师范大学法学院教授汪庆华则提出“双边规制”的框架反思,认为针对大模型的规制可以分为:输入端的数据规制和输出端的内容规制。
具体而言,在输出端持续原有的内容监管敏捷规制、多元规制、靠前规制的特点,防范人工智能带来的各种内容风险。比如今年7月,国家网信办联合多部门发布的《生成式人工智能服务管理暂行办法》,就是一种在输出端是内容监管的方式。这延续了原来关于互联网内容监管的工具手段,对于内容上的规制相对于以往的规定而言,并没有更加严格。
在输入端,汪庆华建议适当宽松,通过法律建立自由流动的数据要素市场。对于数据抓取规制,以民事行政调解为主,避免利用刑事手段带来的寒蝉效应,并鼓励企业进行数据共享,进一步开放政府数据。
“如果在语料这一块,我们限制得过于严格的话,大模型能够带来的这种革命性的变革,对社会各个领域的赋能作用会打折扣。”汪庆华说。
“甘蔗没有两头甜”,生成式AI治理要考虑不同利益权衡
在生成式AI治理中,不可避免地需要考虑不同价值判断与利益权衡问题。
中国海洋大学法学院教授李晟提到,治理需要考虑如何避免公众使用过程中产生的各类风险、国家间的人工智能产业竞争,以及信息基础设施的独立自主可控性等问题。
“但是甘蔗没有两头甜,能否追求两全其美的方法——既能避免技术给公众带来的负面影响,又能将技术做到世界领先?”李晟认为,对公众端暴露出来的问题予以严格规制,那么产业发展可能陷入被动。他主张对应用的治理比对模型的治理更重要、对使用者的治理比对研发者的治理更重要。
如何实现法律与技术的良性互动,也是各方尤为关心的问题。甘肃政法大学法学院副教授罗艺表示,目前的伦理规则是基于对生成式人工智能的基础认知,而技术的迭代转换异常迅速,因而不可避免地出现认知盲区,或是对风险以及可能存在的失范性行为无法预估。目前还没有构建起完整的法律体系性框架应对,更多的是具有“试验”性质的立法。
当天研讨会上,百度AI业务法务负责人徐全全提到,中国企业要想在国际竞争中处于领先,首先需要做的是“挤上牌桌”。她呼吁良法善治助力技术创新,通过创新政策引导,支持国内头部企业开展AI大模型核心技术攻关。同时,建议国家推动公共高质量数据资源开放,引导和规范高质量行业数据的共享和流通。
出于不同现实情况和利益诉求,有关人工智能的治理逻辑或许有所不同,但也逐步形成一定的共识。对外经贸大学教授张欣提到,现在普遍认为人工智能的治理不是零风险的治理,而是在平衡各方利益的情况下,将风险置于可控范围。
南都记者注意到,为应对人工智能技术发展带来的新挑战,主要政府已经有所行动。欧盟立法者正在积极推进人工智能法案,目前该法案还处于成员国、议会和欧盟委员会的三方谈判阶段。美国似乎更重视行业自律,今年下半年两次共召集15家AI公司达成自愿承诺协议,以“推动人工智能技术的安全、可靠和值得信赖的发展”。
聚焦国内,人工智能法已被列入国务院2023年立法工作计划。今年10月18日,中方还发布《全球人工智能治理倡议》,其中从发展、安全、治理三方面,首次系统阐述全球视野下的人工智能治理中国方案。
当天研讨会上,工业和信息化部产业政策与法规司法规处杨艳秋处长表示,当前人工智能治理受到全球高度关注,各国立法进程不断加速,我国也已经发布了全球第一部针对生成式人工智能的监管办法。
“下一步应当围绕新一代人工智能技术产业发展与主要问题,加强人工智能化重点问题的立法研究工作,在法治轨道上促进人工智能产业健康有序发展。”杨艳秋说。
出品:南都数字经济治理研究中心
采写:南都记者 李玲