林北征
广州互联网法院二级法官,法学博士
本文系国家社会科学基金青年项目“公共算法决策的法律规制研究”(项目编号:22CFX050)的阶段性成果。
文章发表于《法律适用》2024年第10期“法官说法”栏目,第148-163页。因文章篇幅较长,为方便电子阅读,已略去原文注释。
摘要
生成式人工智能的技术特性使得侵权风险具有高度随机性,直接导致因果关系复杂化,增加侵权责任在司法裁判中的认定难度。生成式人工智能服务提供者在被诉侵权时,往往陷入过错抗辩难题,无法明确界定自身责任。在此背景下,得益于裁判合理性、技术兼容性及成本可控性,注意义务可改良现有“避风港”规则,指引服务提供者在合理范围内采取必要措施,降低侵权风险。注意义务既可源于公法义务的转化,也可通过服务协议加以明确。以生成内容的标识义务、使用服务的提示义务以及侵权投诉的处理义务构建和落实注意义务体系,有利于服务提供者履行法律责任,保护服务使用者和第三方的合法权益,促进技术创新与法律规制之间的平衡。
关键词生成式人工智能 服务提供者 注意义务 侵权客观化 裁判方法
1 问题的提出
《中共中央关于进一步全面深化改革 推进中国式现代化的决定》指出:“(8)健全因地制宜发展新质生产力体制机制。……完善推动新一代信息技术、人工智能、……战略性产业发展政策和治理体系,引导新兴产业健康有序发展。”“(40)健全网络综合治理体系。……完善生成式人工智能发展和管理机制。”生成式人工智能(Generative AI,以下简称“生成式AI”)技术能通过大量的数据学习生成文本、图像、音频等内容,是现阶段人工智能技术发展的一个重要里程碑。虽然生成式AI具有自主性、复杂性、演化性等特征,并呈现出“类人化”趋势,但主流观点认为,生成式AI目前并非民法上的承责主体。随着输入数据的爆炸式增长与积累,模型输出转换性内容的概率也不断提升,AI生成物侵权过错认定问题在审判实践中也日益凸显。目前,AI生成物侵权纠纷主要可分为人格权侵权和著作权侵权两大类,人格权侵权如“AI声音侵权案”,著作权侵权如“奥特曼案”“春风少女案”“AI写手案”等。
根据《民法典》第1195条的规定,网络用户利用网络服务实施侵权行为的,权利人合格通知后,网络服务提供者未及时采取必要措施的,应对损害的扩大部分与该网络用户承担连带责任。但生成式AI服务使用者(以下简称“AI服务使用者”)侵权与传统网络侵权不同,侵权主体并不直接向平台发布侵权内容,而是通过输入提示词命令AI生成侵权内容。在侵权内容生成的过程中,生成式AI的算法设计者、数据提供者、模型开发者、服务提供者、第三人甚至“被侵权人自己”都有可能成为侵权主体。相较于服务使用者侵权,目前学界与实务界针对生成式AI服务提供者(以下简称“AI服务提供者”)的过错认定问题讨论较多。服务使用者输入提示词时生成侵权的肖像、个人信息及其与他人作品高度相似的作品,可直接确定AI服务提供者具有过错;而对于传播型侵权者承担损害赔偿责任,则需证明过错的存在。亦有意见认为,对于直接侵权而言,行为人作为理性人,违反了著作权法明确规定的不得擅自实施的法定义务,应当推定行为人存在过错。
具体到生成式AI领域,多数观点认为,AI服务提供者的侵权过错认定应以过失为主,故意为例外。因为倘若以一般侵权论处,采用“知道”标准来认定AI服务提供者的过错,既与生成式AI的技术特征不符,又无法满足对AI服务提供者过错认定的复杂需求。对于过失侵权,我国理论和实践多采用注意义务说。从类案裁判的实践来看,围绕注意义务违反来分析过错是主流和成熟的法律论证方法。注意义务实质上是将行为主体的过错(过失)认定标准客观化,即侵权责任的确定不再单纯依赖于行为人的主观过错,而是更多地依据是否违反了社会公认的行为标准。当行为人的行为偏离了这些标准,即便无主观过错,也可能因未达到客观上要求的注意水平而承担责任。相关研究也建议在讨论AI服务提供者过错时,以注意义务为中心展开。具体而言,可重点考量AI服务提供者能否证明在损害发生时,已按照当时技术水平采取必要措施预防损害来认定其过错,从而降低AI服务提供者法律风险,促进技术发展。有论者在此基础上,对生成式AI平台责任与新“避风港制度”进行分析展望。
“科技创新本身属于一个复杂性工程,单一的治理范式并不能有效推动人工智能技术创新,而需要采取‘风险预防—市场激励—创新资源保障’的综合治理范式。”在涉生成式AI纠纷具体裁判过程中明确注意义务标准,具有三方面的实践意义:一是定边界,注意义务可以明确生成式AI服务提供者的合法边界,减少违法风险;二是保发展,AI技术的长足进步需要宽松有度的发展空间,明确的注意义务标准能够确保司法裁判对新兴技术的有效规制与引导,避免为人工智能产业发展与治理提供不稳定的预期;三是促自律,注意义务有助于推动行业自律机制的建立,主动改善生成式AI的部署流程和技术措施。故此,本文的问题意识聚焦于注意义务对类案裁判方法有何价值、AI服务提供者注意义务的规范来源如何确定、在个案中如何评价注意义务三个方面。
2 AI服务提供者侵权的过错认定难题
涉生成式AI纠纷为司法裁判带来了许多独特的挑战。生成式AI的侵权行为往往是算法设计、数据集选择和服务使用者输入等多重因素共同作用的结果,这不仅使得生成的内容会根据服务使用者输入和情境的不同而变化,侵权行为的发生难以预测,给权利人追踪侵权内容带来困难,也导致因果关系因为多方主体介入而变得更加动态化,难以精确判定责任主体与过错大小。
(一)生成机制的侵权风险随机化
生成式AI算法高度复杂,由于模型幻觉、模型过拟合,抑或“用户投毒”等原因,大多数情况下,权利人会遭遇偶发侵权,且AI生成物造成的损害结果具有非特定性,往往会分别侵犯不同主体的权利。对AI服务使用者而言,AI生成的内容会因为不同的指令或者在不同环境提问而不同,同一个问题换一种表达方式会产生不同答案,上一次输出的侵权内容未必会在下一次对话中出现。这进一步增加了追溯生成内容来源的难度,权利人难以发现和证明侵权行为,也使得知情同意机制难以有效实施,AI服务使用者无法充分理解自己的数据如何被使用以及生成内容的潜在风险,且单个权利人即使发现了侵权行为,也难以有效追究每个侵权行为的责任,更勿论侵权内容可能在权利人发现并采取措施之前就已广泛传播。此外,AI技术的不透明性和统计推导特性,很难预测和核算由此产生的错误,AI服务使用者对于生成式AI的设计和工作原理缺乏理解,即使算法出现了错误,使用者(特别是非专业用户)却没有完善的途径对结果进行充分验证和审查。当技术造成的错误不再单纯是使用者的过失,对过失的界定和责任的追究无疑更加模糊。进言之,这一特点不仅常会造成一部分AI服务使用者因为生成式AI的错误和缺陷受到伤害,而其他使用者受益的情况,比如学者上传自己的论文初稿并让AI提出修改意见,但AI转而向提交相关主题提示语的使用者“生成”学者的论文初稿,而且直接增加了过失界定和追究责任的困难。
对于权利人与AI服务提供者而言,生成式AI未经授权使用了训练数据集中的受著作权或人格权保护的内容,生成内容多样且数量大,其中不可避免会包含受版权或人格权保护的内容。主流文生图模型Stable Diffusion、Midjourney是基于LAION-5B数据集创建模型,该数据集包含近60亿张从全网不加区别地抓取编译的标记图像,包含大量版权作品。加之AI可以快速生成大量内容,即使投入大量时间和资源,依旧会面临效率低下和成本高昂的问题,要让权利人或AI服务提供者审核这些内容是否侵权并不现实。《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第5条第1款规定,鼓励生成式人工智能技术在各行业、各领域的创新应用,探索优化应用场景,构建应用生态体系。因此,如果都按照一般侵权责任论之并不现实,对AI服务提供者课以较重的自证义务反而容易导致逐底竞争,不利于鼓励创新政策的推动落地。
(二)侵权行为的因果关系模糊化
因果关系,是指侵权行为是导致损害发生的“直接”原因。生成式AI的侵权行为发生是程序设计、算法算力、数据集和人机交互等多重因素共同作用的结果,技术架构的复杂性致使行为人的具体“行为”与损害之间的直接联系往往模糊不清。生成式AI侵权归责的核心争议是如何理解对生成式AI服务的控制权。传统理论认为,责任归属通常与控制权挂钩,行为人对其控制范围内的风险负责。但生成式AI可在没有明确人为干预的情况下自行操作和学习,这就会使确定“控制”何时和如何行使变得复杂起来。生成式AI的设计者、部署者或使用者对系统的最终输出都有一定程度的影响,但他们的控制力度和时点各不相同。设计者通过选择算法和训练数据集对系统有初期控制,而使用者可通过调整系统设置来影响最终输出。与传统的产品或服务符合初期的安全标准即可投入市场的“一次性”审查不同,生成式AI的动态学习能力要求AI服务提供者持续监控其性能和行为。因此,在具体案件的裁判中,需要调整预见性的标准,不能仅依赖于传统的“合理人”视角,而要主动结合AI的具体技术特性和行业标准,如引入AI行为“合理预测性”标准。
生成式AI通常基于复杂的算法和大量数据自主学习和做出决策,这些决策过程中的具体逻辑对于使用者、甚至开发者本身也是不透明的。生成式AI的技术架构包括多层次的算法设计,如深度学习、神经网络、机器学习等。这些算法能够处理并分析大量的数据,自动学习和调整其行为,以改进其决策过程。生成式AI的深度学习模型通过在多个层级上分析数据,可以识别和利用数据中的复杂模式和关系,这是传统算法难以实现的。这种多层次、基于数据的决策制定过程,使得其决策逻辑不透明,难以被普通使用者或法律专业人士理解和预测。如果生成式AI训练数据中包含了受保护的材料或具有误导性的信息,那么该系统生成的内容也有一定概率会不自觉地侵犯著作权或传播错误信息。如,专门的医疗诊断问答AI因为训练数据的偏差导致诊断错误,但这种错误在实践中很难直接追溯到具体的人为操作或决定。
(三)AI服务提供者的过错抗辩悖论
对于侵权行为的责任承担问题,AI服务提供者可有两种抗辩理由:一是对AI生成物所涉的著作权或人格权等拥有合法授权或构成合理使用;二是主张自身是网络服务提供者而不存在侵权行为。
对于第一种抗辩,需要考虑到模型学习“凡所应有,无所不有”的学习特性,主张自身对海量AI生成物所涉的人格权或著作权等拥有合法授权并不实际。关于主张合理使用而无过错的问题,很多AI服务提供者都在用户协议里把著作权让渡给使用者,如OpenAI用户协议明确表示,用户对由其输入生成的内容拥有所有权。但是否就可据此认为,使用者就当然获得AI生成物的著作权呢?答案显然是不行。同样地,如果AI生成物为某特定自然人的肖像也会造成侵权事实,更勿论当事人主张AI未经同意处理个人信息。有不同观点认为,使用者的生成是一种“私人复制”行为,在没有传播的情况下,可以构成《著作权法》第24条第1款第1项规定的“个人使用”。但是,合理使用的前提是“不得不合理地损害著作权人的合法权益”。虽然没有传播的私人复制可以构成合理使用,但是大规模的使用者使用,使得个别的私人复制集聚起来,产生传播效应,从而替代著作权人作品的市场,损害著作权人的合法权益。对于通过用户协议本身并不能变更已有在先版权的归属问题,更无法无责处理真实存在的人格权保护客体。此时,AI服务提供者更应当负有审慎避免致害后果发生的义务。
对于第二种抗辩,网络服务提供者需以有效控制为事实前提,以负有事前审查义务和事后删除义务为主要规则。若将AI服务提供者纳入网络服务提供者,将导致网络服务提供者内部体系上的割裂,其将会根据情势的不同被细分为能有效控制内容与无法控制内容两类主体,进而适用不同的义务规则。这种形式上的二分,会导致定性悖论:一方面,AI服务提供者希望自己对内容施加有效控制,但AI生成结果的随机性和自我学习能力使得AI服务提供者在内容有效控制上力有不逮;另一方面,AI服务提供者由于实际上无法控制内容,就无法被有效认定为网络服务提供者,进而无法适用“避风港”规则。执意将AI服务提供者纳入网络服务提供者,反而会变相要求AI服务提供者必须实现不可控的承诺。就著作权或人格权的裁判文书写作循例而言,侵权成立与赔偿责任承担与否并不分开评述。因为对于多数该类侵权的权项侵害而言,行为人的过错明显,已无需再行评述。但这种纯粹类型化的裁判思路会对AI后续的类案裁判产生巨大的限制。目前,已有法院关注到这一点,在判决书全文中并未使用“网络服务提供者”的表述。
3 AI服务提供者注意义务的价值分析
为了应对生成式AI的侵权随机性和因果关系模糊的问题,对AI服务提供者设置的注意义务更侧重于过程中的预防措施,相较于直接追溯生成内容的侵权行为,其在责任认定上较为灵活合理。在不同的技术场景下,服务提供者的注意义务既要与其技术控制能力相匹配,保证责任划分的科学性;又应当注重衡量规制的经济负担,避免注意义务的履行对AI服务提供者造成过重负担,防止不合理的高成本要求抑制生成式AI技术的创新与发展。因此,要补强生成式AI类案过错认定体系,注意义务的设立与履行需要考察义务内容的理论支撑性、技术可行性和经济合理性。
(一)注意义务的裁判合理性
采用注意义务的思路来认定生成式AI服务提供者过错,在裁判论证上更为合理。上文述及,生成式AI的侵权风险具有高度的随机性,AI服务使用者输入的变化和AI模型生成内容的不确定性,使得每次生成的内容也不同,侵权行为难以预测,单靠事后追溯侵权行为变得困难。而注意义务的核心在于要求AI服务提供者在技术设计和服务提供过程中采取合理的措施,预见并防范潜在风险。这种预见性原则可以解决生成式AI输出内容的不可预见性问题,因为它不是在结果上只追究生成内容是否侵权,而是在过程上确保AI服务提供者尽到了合理的注意义务。通过明确AI服务使用者输入的合法性要求、设置侵权内容举报处理机制,AI服务提供者能够在内容生成前或生成后迅速采取行动,降低由于生成机制不确定性带来的法律风险,而不单纯依赖结果的确定性,从而有效缓解生成内容的随机性问题。
一般而言,侵权责任的成立要求证明侵权行为是损害结果的直接原因,但在生成式AI中,这一因果链条往往难以清晰界定,苛求证立侵权行为的因果关系会导致过多的诉讼成本和不确定性。注意义务在这里发挥的作用,主要体现在对AI服务提供者的合理行为标准上。通过注意义务的设定,法院可以在技术、服务和服务使用者行为的综合框架下,合理分配责任,在AI服务提供者规避不必要风险的同时,权利人的合法权益也能得到有效保护。只要AI服务提供者采取了合理的预防措施,并且能够证明其在技术和管理上已经尽到了合理的注意义务,即使因果关系难以完全明确,法院仍可根据AI服务提供者是否尽到了注意义务来判定其是否存在过错。这种方式降低了侵权行为与损害结果之间因果关系模糊带来的证明负担,使得责任认定更加可操作。注意义务的认定使得法律能够更加灵活地处理生成式AI技术的侵权责任问题。与此同时,不仅注意义务的有无违反可用于判定侵权责任是否成立,而且注意义务违反的程度大小可用于认定AI服务提供者过错大小,进而确定承担何种赔偿责任。
我国涉知识产权司法裁判中长期以“直接侵权/间接侵权”二分法为主要归责工具,但我国著作权相关立法、民法典侵权责任编均尚无相应的规定。随着互联网业态的发展和丰富,二分法逐渐在生成式AI语境下暴露自身的理论短板,因为间接侵权的传统标准需要证明主观上的“帮助”或“引诱”他人实施侵权行为,但在AI技术应用中,侵权行为的发生具有更高的间接性和自动化程度,难以用传统的主观意图标准来评判。故此,确定被告是否具有主观意图或实质性帮助并非易事。在这种情况下,注意义务在生成式AI的过错认定中可以弥补间接侵权制度的短板,通过考量AI模型开发者或服务提供者的行为是否符合合理预防侵权标准,来认定其是否存在过错。假设AI服务提供者在明知可能存在侵权风险的情况下,没有采取有效的预防措施,比如存在忽视AI服务使用者对模型的误用、未对生成内容进行过滤等情形,即便难以证明其有明确的引诱或帮助他人侵权的意图,也可认为其违反了注意义务。因此,注意义务实质上扩展了具体业态中责任认定的类型,使得那些虽然没有直接侵权意图,但由于疏于尽责而促成侵权发生的行为主体也能够被课以责任,从而弥补了传统间接侵权判定方法的不足。
(二)注意义务的技术兼容性
注意义务本身是一个开放的概念,有关规定对于注意义务本身没有进行正面的规定,而是通过对网络服务提供者构成间接(共同)侵权的情形进行规定,从中可笼统地反推出网络服务提供者应承担的注意义务。《民法典》第1197条主要着重在如何认定网络服务提供者违反注意义务的描述上,即“网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。”这里“应当知道”指的是一个正常理性人在负有某种注意义务而且具有注意能力的情况下,将能够认识到某一事实的存在,而“注意义务”指的是“行为人采取合理的注意而避免给他人的人身或财产造成损失的义务”。此外,有关“注意义务”直接表述的规范性条文并不多。网络服务提供者应尽注意义务的具体内容及适用标准在个案中具有一定的弹性空间。AI的开发者对生成式AI的初始设计和训练负有注意义务,但当生成式AI部署后,使用者对系统的具体使用方式也会影响系统的行为。承担注意义务的主体是AI开发者、使用者还是其他相关方,承担这一义务的具体内容又往往难以明确。因此,应当厘清模型类型和原理、算法是否能够增加AI服务提供者对于侵权内容的识别能力,才能判断AI服务提供者注意义务的有无与大小。
注意义务在网络版权领域的使用相对较为成熟,可以兼容生成式AI过错认定的需要:
第一,从技术特点而言,在“胖虎打疫苗案”中,法院就认为网络服务平台应承担的合理注意义务应当根据其平台性质、交易模式、技术特点、平台控制力、营利模式等多角度予以综合考虑并认定。法院认定NFT数字藏品平台应承担较高的注意义务,在未尽到相关合理审查等义务的情况下,应承担平台内容侵权相应的责任。
第二,从是否营利而言,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(法释〔2020〕19号)第11条第1款指出:“网络服务提供者从网络用户提供的作品、表演、录音录像制品中直接获得经济利益的,人民法院应当认定其对该网络用户侵害信息网络传播权的行为负有较高的注意义务。”虽然这一规定针对侵害著作权中信息网络传播权的纠纷案件,但事实上该规定的原则也为很多法院在审理网络用户其他著作权侵权和其他知识产权侵权时参考。
第三,从过错相抵而言,在“奥特曼案”判决中,法院认定“某公司作为提供搜索链接服务的网络服务提供者,现无证据证明某公司知道或应当知道在其提供的推广服务中存在侵权行为,且其在收到本案起诉后及时采取了相关措施,已经尽到了合理的注意义务,不存在主观过错,故未认定某公司构成侵权。”
由此可见,随着互联网的发展,网络服务平台的样式日趋多样化,其角色已经不局限于传统的技术服务平台,部分平台对于其内容的把控能力越来越强,也存在与其用户共同进行版权运营、内容输出并分享利润等情况。因此,法院对于网络服务平台是否构成侵权的认定趋势已经不是简单适用“避风港”规则或者技术中立原则,而是往往根据其具体情况分析适用。
(三)注意义务的成本可控性
AI服务提供者对AI生成内容侵权涉及的义务主要包括两个方面:一是文本与数据挖掘合法,二是侵权生成内容的事后及时处置,如在发现侵权内容后,提供者可以做到对侵权内容的过滤与屏蔽。但数据训练是AI技术发展的底层支撑,AI通过海量的数据进行训练,要求提供者“事前授权”并不现实。生成式AI会出现潜伏问题,比如通过暗语或者时间触发AI漏洞。对于中小模型而言,由于生成式AI的训练和优化难度较大,中小企业会通过训练中小模型的专业化路径来赋能组织工作效能,该类模型也主要为自用。由于缺乏对生成式AI的自主决定性,将注意义务作为AI服务提供者的过错认定工具,更为妥帖。
鉴于生成式AI技术特点,一种建议的方案是提升生成式AI的可解释性和透明性,通过法律要求增强生成式AI的可解释性,使得生成式AI的决策过程更加透明和可追踪,有助于在发生侵权行为时确定责任所在。考虑到生成式AI可解释性的经济成本和技术标准较高,在技术没有明显发展的情况下,强行推行AI可解释性技术势必存在现实阻力。从规制的一般原理而言,有效的规制应当就规制对象可接受的最低限度加以设置,并鼓励规制对象采取高于该最低限度的自我规制。考虑到国产生成式AI产业正在克服算力、数据与算法的优化与赶超任务,此时设置过高的规制义务势必会抑制产业发展。因此,可以通过吸纳标准文件与部门规章等方法,以注意义务建立明确的责任链条,明确在生成式AI算法设计、数据选择、开发部署和运行维护各阶段应承担的法律责任,从而保证注意义务的内容友好与成本可控。
4 AI服务提供者注意义务的规范来源
社会中每一个人或多或少都有注意义务,某一注意义务都有特定的主体,如出于民事主体之间的特定联系或特定身份。民事侵权责任中的注意义务概念来源于罗马法和欧洲大陆法系的侵权法发展,后逐步演变为现代民法中的重要原则。注意义务是指行为人在社会活动中应当采取合理的措施,以避免对他人造成不当损害的义务。注意义务来源很广,主要产生于法律规定、特定身份、习惯、合同或委托、先行行为等。此处的法律规定是指广义上的法律规定,包括部门规章、地方性法规等。我国大量的法律和法规都确定了注意义务的标准,特别是在医疗活动、交通运输、产品生产和销售等领域中出现了越来越多的技术性规则,这些规则向行为人提出了明确的注意义务,对这些义务的违反即构成过失。
(一)源于公法义务转化的注意义务
有不少讨论认为,现阶段正处于我国人工智能产业的快速发展期,应当对生成式AI尽可能免责,以促进产业发展。一种典型的观点认为,注意义务是法律义务,并非道德义务,AI服务提供者虽会违反《暂行办法》规定,但被侵权人和被侵害法益不处于相应规范的保护范围,其不应当作为AI服务提供者承担责任。混淆公法与私法的边界,会产生责任认定和法律适用的不确定性,导致AI服务提供者会因为公共监管义务而承担过多责任而抑制创新与竞争。该观点是值得商榷的。
“并非完全二元对立的私法与公法在法律规范层面存在不同种类的协动形式,私法公法协动论可以有效解释公法私法的新关系。私法与公法的协动既存在于利益层面,也存在于主体层面。”从侵权法的原理出发,公法规范的义务可以转变为侵权法上的注意义务,其关键是该义务是否为保护权利人的“保护性义务”。故提供者违反该办法规定之内容是否承担民事责任,取决于AI服务提供者是否构成对保护他人之法律的违反。表面上这种行为是违反法律法规,实则违反了应有的注意义务,故此行为人当然具有过失,而非被推定具有过失。在探讨私主体履行注意义务的来源时,除私法中的合同约定或侵权法规定外,特别是在涉及保护性义务的情况下,公法可以成为注意义务的重要来源。
“长期以来,我国法学界否认公私法之分。近代以来,公私法之合的强劲走势,导致了传统公私法之分的危机,形成了社会法等新领域。”现代社会的复杂性和全球化的发展也推动了法律统一化,使得法律体系不再严格分割为公法和私法。“公法私法的融合趋势、弱权力和非权力行政领域的出现、行政权力权利化和职责化、平等型行政法律关系的生成和拓展等因素,导致作为传统公法的行政法正逐步嬗变为集公法私法于一体的法律部门。”技术进步,特别是像生成式AI这样的技术,往往涉及多方利益和风险。生成式AI的输出涉及数据隐私、知识产权、消费者保护等多领域问题,如职能部门的监管和政策制定的公法监管义务和私法的合同义务之间的界限日益模糊。产生这种“混合义务”的深层次原因在于技术监管的多维度需求。在新兴技术领域中,立法者和政府应当通过公法的方式为私法领域的市场参与者提供明确有度的行为框架。这意味着公法的监管义务不仅仅是限制性的,更是一种针对风险的预防性和指导性措施,确保新兴技术的使用不会损害公众利益。因而不应通过法律形式来区分公法与私法,而是应基于其功能加以评价相关主体及其行为。这在《暂行办法》的第1条和第5—7条都有直接体现。不仅是我国,欧盟《人工智能法案》(AI Act)及其正在商讨的配套性立法——《产品责任指令》(PLD)和《人工智能责任指令》(AILD)亦是如此,此等立法筹划会同时影响公法和私法的义务履行。在此情势下,公法与私法的界限就变得难以明确划分,有关生成式AI的监管义务具有明显扩展性,并逐步呈现出与合同义务交织的特点,也为生成式AI服务提供者的注意义务提供了合法来源。
具体以AI生成内容标识义务为例。AI服务提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识,提高内容的透明度,防止虚假信息、深度伪造等不当内容的传播,是公法上的注意义务。而标识义务又是基于民法上的诚实信用原则和经济法上的产品信息披露义务共同的要求,是私法上的注意义务。虽然《暂行办法》未明确其为一种保护性义务,但在侵权法中,保护性义务并不一定需要明确的法律规定。通过法律推理,依然可以得出标识义务能够起到对权利人保护的作用。假设使用者故意诱导生成式AI生成并公开传播侵权内容。由于使用者诱导生成的对话记录受服务协议及隐私权等保护,权利人一般无法直接锁定恶意使用者。此时,标识可提高内容可追溯性,相对于追究使用者,权利人可以“按图索骥”,根据生成内容的具体标识向AI服务提供者维权,实现对权利人利益的间接保护。作为例证,相关判决对标识义务也对此加以论证:“经标识后,有关权利人能够明确认识到生成物系由AI生成,进而采取更具针对性和有效的维权措施,更好地保护其权利。因此,标识义务不仅是对公众知情权的尊重,也是对权利人的一种保护性义务。”由此可见,允许注意义务在复杂的技术场景下向可源于公法义务转化,更有利于有效解决新型侵权问题。
(二)源于服务协议约定的注意义务
注意义务是私法概念中的核心内容,主要体现在合同法和侵权法中。特别是在合同关系中,各方有义务尽到合理的注意,确保其行为不会给对方带来不合理的风险或损害。在生成式AI的场景中,AI服务提供者的注意义务可以通过用户服务协议中的具体约定来设定,保证AI服务提供者与服务使用者承担相应的合同责任,降低各自的法律风险。《暂行办法》第9条第2款规定:“提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。”《生成式人工智能服务安全基本要求》(TC260-003)第5.2条也规定,AI服务提供者:“4)应在用户服务协议中,向使用者告知使用生成内容时的知识产权相关风险,并与使用者约定关于知识产权问题识别的责任与义务;……”通过准行政性的标准文件形式要求生成式AI服务提供者通过用户协议约定自身的注意义务,与上述通过法律推理等方式直接转化公法义务相比,具有三个优势:
第一,协议注意义务具有更大的灵活性,AI服务提供者可以根据自身技术特点和服务使用者需求进行定制,而公法义务通常具有强制性和普遍适用性,不易体现场景化和个性化的特点。不同类型的生成式AI平台面临的版权侵权风险差异很大,如图像生成平台和文本生成平台的注意义务要求也会有所不同,通过服务协议进行定制化约定,更好地应对这类差异。
第二,协议注意义务更具契约性和可预测性,可为AI服务提供者和服务使用者之间的权利义务关系提供明确的法律依据,有效平衡双方之间的利益关系,合理分担风险,减少由于立法滞后或规定不明确而引发的责任不清问题。比如,生成式AI的服务协议会明确规定输出结果的“不保证条款”,提示AI服务使用者生成内容可能并不完全准确,并建议其不要直接依赖这些内容进行法律、医疗等方面的决策。
第三,服务协议可以主动引导AI服务使用者行为,促进合理使用生成内容,减少侵权风险,这种事前引导相比于公法义务侧重于事后惩罚更具预防性。AI服务提供者可在协议中规定其对生成内容的审核责任仅限于技术可行范围内,并在特定情况下对内容进行合理的技术控制,如通过关键词屏蔽机制来避免生成侵权或不当内容。在此基础上,通过市场竞争机制,不同的AI服务提供者可以根据服务使用者反馈和行业发展动态优化调整服务协议内容,更好地满足用户需求并提高依法运营水平,弥补公法义务响应技术和市场变化的时差。
5 AI服务提供者注意义务的审查方法
当下,伴随生成式AI在各领域的深入应用以及各类纠纷的出现,如何通过科学设置AI服务提供者的注意义务,在促进创新与保护个人私益、公共利益之间取得平衡,日渐成为注意义务设置讨论中的重要议题。为了平衡发展与安全的需要,应当在司法裁判中构建必要的注意义务审查方法,以便更好地为AI服务提供者提供明确的行为预期,确定行为边界。
(一)生成内容的标识义务
2024年9月14日,国家互联网信息办公室和全国网络安全标准化技术委员会分别发布了《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《标识办法》)和配套国家标准《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》(以下简称《标识方法》),领先全球对AI生成合成内容的“标识”问题,给出了系统化标识义务的要求和落实标识义务的实施方案。
《标识办法》明确了标识分为显式标识和隐式标识,显式标识通过文字、声音、图形等方式明确告知服务使用者内容为生成合成内容;隐式标识通过嵌入元数据的技术措施,实现标识信息的隐蔽存储。《标识办法》要求AI服务提供者需根据要求在生成内容中添加显式或隐式标识,传播平台则需验证内容标识是否符合相关规定,并在发布内容时做出显著提示。应用程序分发平台在应用上架审核时也需核验标识功能的设置,以便明确各主体在AI生成内容管理中的责任,规范生成式人工智能的应用,防止因不当使用AI生成内容带来的社会风险。
《标识方法》进一步细化了标识的操作指引,区分显式和隐式标识的具体要求,包括位置、形式、元数据等。就显式标识而言,文本内容应在开头或结尾添加提示文字,图片应在边角位置附加包含“人工智能生成”的标识,音频可使用语音提示或摩斯码表示,视频内容则需在画面的显著位置加以标记。而元数据隐式标识格式则明确要求内容生成属性、生成者和传播者的编码、唯一编号等,并通过特定的编码格式嵌入到文件中,确保内容的来源和传播过程可追溯。
需要注意的是,除上述公法范畴外,就私法范畴而言,标识义务也不会加重AI服务提供者的义务。对于权利人主张AI服务提供者在侵权生成内容标记,应当承担侵权责任的情况,司法实务中较为普遍的共识是,仅仅加注数字水印等网站标识或对存储格式进行改变,并不足以构成《信息网络传播权保护条例》第22条所称的“改变”,不应据此认定存在过错。
(二)使用服务的提示义务
AI服务提供者可通过使用前的知情同意、动态生成提示、生成后的责任提示,以及明确的隐私和版权提示,引导AI服务使用者正确使用生成服务及其内容。为了防止生成内容被误用或滥用,AI服务提供者应在生成前、生成过程中和生成后,提示使用者生成内容的局限性。
第一,使用前的说明提示。AI服务提供者应在使用者开始使用生成式AI工具前,通过用户协议与生成操作界面提供清晰的提示,告知使用者生成内容的性质及潜在风险。在使用者输入提示语或指令前,页面或应用程序可显示提示信息,说明生成内容为AI生成,并且可能包含错误、偏见或不完整的信息。AI服务提供者还应明确告知使用者,输入的数据可能会被用于进一步训练模型,提示使用者不要输入受著作权保护的内容或敏感的个人信息,避免侵权或隐私泄露的风险。
第二,生成中的动态提示。在生成内容的过程中,AI服务提供者可以设置动态提示,提醒使用者生成内容的进展和可能性。AI服务提供者可通过弹窗或进度条提示使用者:“AI系统正在基于输入内容生成结果,该结果可能与预期不完全一致。”动态提示机制可以采用错误风险提示的形式,告知使用者“生成内容可能存在语法错误、事实不准确或信息不完整的情况,建议使用者对内容进行二次验证。”而当使用者生成涉及法律、医疗或其他敏感领域的文本时,系统可提示使用者“该内容不应作为专业建议或法律依据,建议咨询专业人士。”
第三,生成后的责任提示。在生成内容完成后,AI服务提供者应针对涉及版权、隐私和使用限制等方面的生成内容,为使用者提供后续的提示。一是版权风险提示,AI服务提供者需要提醒使用者生成内容可能涉及第三方版权,建议使用者在公开或商业使用前进行适当的法律审查;二是使用限制提示,提示使用者生成内容仅供个人使用,不得用于公开传播或商业目的,除非获得相关权利人的授权。此外,AI服务提供者可为使用者提供常见问题解答(Q&A)、用户手册或在线支持服务,解释生成式AI的工作原理、内容生成的风险以及如何避免法律纠纷等问题。
(三)侵权投诉的处理义务
《暂行办法》第15条规定:“提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。”作为细化和补充《暂行办法》的配套国家标准,《生成式人工智能服务安全基本要求》(TC260-003)也在第5.2条规定,AI服务提供者:“3)应建立知识产权问题的投诉举报渠道;……”AI服务提供者应当建立服务使用者投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合要求时,应当采取措施,停止生成,防止危害持续。具体而言,应在收到侵权通知之后或侵权行为明显之时,及时采取停止生成(提供停止侵权内容生成按钮)、停止输出(阻止侵权内容被发送给使用者)、消除具体侵权内容,避免AI重复输出侵权内容。如果AI服务提供者未能及时尽到上述义务,则应就损害的扩大部分与使用者共同承担侵权责任。
生成式人工智能输出内容是循环往复不断运行的,当其生成违法内容而不被干预时,很有可能再次生成相似的内容。就具体处置方式而言,删除在理论上似乎可以避免侵权风险,但在实践中存在诸多挑战。生成式AI为了生成内容安全性,都设置了相应的防护机制,并由人工干预与调试。但如果频繁微调参数,大概率会瓦解模型的防护机制。因此,通过微调模型实现权利人要求,不应被频繁启用。在具体处置时,AI服务提供者应当特别注意采取有效的屏蔽措施。屏蔽措施在具体个案裁判中评价是否合格,可重点审查以下四点:第一,AI服务提供者是否基于权利人的起诉或者投诉,及时发现并阻止侵权行为的继续。AI服务提供者可举证其已根据合格通知所提及的侵权内容清单(如AI对话记录链接等),识别、分析屏蔽侵权内容,保证输入原有侵权提示词后不再复现侵权内容。第二,考虑到大规模服务使用者的实际使用情况,AI服务提供者可举证是否通过建立和完善服务使用者异常行为监控机制,用于预防或者有效降低因服务使用者违规操作带来的侵权风险。对首次试图诱导和利用AI生成侵权内容的服务使用者可考虑采取明确警告、限制使用等措施,对于多次诱导和利用AI生成侵权内容的使用者可考虑采取暂停或终止向其提供服务。第三,AI服务提供者是否提供有关服务使用者非正常使用情形的证据,如可证明服务使用者大量注入攻击或不正常的测试行为的操作日志。第四,AI服务提供者能否举证其生成式AI已达到同类模型同等或更优的屏蔽效果,用于判断AI服务提供者在技术上的投入是否达到一般行业标准,证明其已尽到合理注意义务。
6 结语
如何在新的科技环境下合理界定注意义务的边界,以及如何在技术进步与法律责任之间取得平衡,是当代侵权法学中的重要课题。尽管侵权制度在解决与确定生成式AI使用责任问题存在不少的困难,但可通过对过失责任规则进行兼容性解释加以应对。正如相关判决所强调的:“考虑到生成式AI产业正处于发展初期,需要同时兼顾权利保障和产业发展,不宜过度加重服务提供者的义务。在技术的飞速发展过程中,服务提供者应当主动积极履行合理的、可负担的注意义务,从而为促进形成安全与发展相济、平衡与包容相成、创新与保护相容的中国式AI治理体系提供助益。”回归侵权责任的基础逻辑,引入注意义务来分析AI服务提供者的过错认定问题,并逐步探索建立以明确注意义务的基础的改良版“避风港”规则,既可以促使AI服务提供者在技术设计、数据选择和服务使用者协议中更加谨慎,主动设立防范机制,减少潜在的侵权风险,也能为裁判实践提供一个更加周延可拓展的推理框架,加强对侵权行为发生时的责任界定,凝聚此类个案的共识性规则,实现自下而上的裁判指引,推动“司法个案的规则创设”,更好地服务与保障新质生产力的安全、稳定发展。
声明:本文转载自“法律适用”微信公众号,在此致谢!
编辑:朱 琳
排版:张馨叶
审核:刘 畅