人工智能时代隐私保护的挑战与思考

发表时间: 2024-04-11 20:19


斯坦福大学发布白皮书《反思人工智能时代的隐私问题——针对“以数据为中心”世界的政策建议》,探讨了隐私和数据保护立法对人工智能发展的当前和未来影响,并提供了在人工智能时代减轻隐私损害的建议。元战略摘编重要内容,为探讨人工智能监管问题提供参考。




第1章

导 言

该白皮书中重点关注人工智能监管与两个特定领域的交叉:隐私和数据保护立法。隐私与人工智能之间的连接组织是数据,几乎所有形式的人工智能都需要大量的训练数据来开发分类或决策能力。无论人工智能系统是否处理或提供有关个人的决策,如果一个系统的训练数据中包含个人信息,尤其是可识别的个人信息,那么该系统就有可能受到隐私和数据保护法规的约束。


该白皮书就美国和欧盟现有及未来的隐私和数据保护法规,将如何影响人工智能系统的开发和部署提出了一系列论点和预测。此外,白皮书探讨了人工智能对消费者和个人隐私造成的独特风险。与许多主要影响个人的技术隐私危害不同,这些风险汇聚在一起会造成社会层面的风险,而现有的隐私监管框架并不是为了应对这些风险而设计的。白皮书指出,现有的治理方法主要基于全球公认的公平信息实践(Fair Information Practices,FIPs),不足以应对这些系统性隐私风险。最后,白皮书提出了降低这些风险的解决方案,同时也为该领域的监管提供了新的方向。


第2章

数据保护与隐私:

主要概念和监管格局


#1

《公平信息实践》:

数据保护和隐私背后的框架

大多数现代隐私立法的核心都基于《公平信息实践》(FIPs),FIPs是全球公认的为个人提供个人数据正当程序权利的基本框架。FIPs提出了有关个人隐私的5项保障要求,作为确保“信息正当程序”的一种手段。


FIPs并没有像《联合国世界人权宣言》和《欧洲基本权利宪章》那样把信息隐私权作为一项基本人权,而是在个人(数据主体)和记录保存者(数据处理者)之间列出了一套规则和义务。这一假设——数据收集对于现代国家的运作是必要的和适当的,但必须公平地进行,并有程序保障——被纳入了随后对FIPs的修订中,甚至越来越多地应用于私营部门。


最具国际影响力的版本由经济合作与发展组织(OECD)于1980年制定,并于2013年进行了修订,将最初的FIPs合并并扩展为8项原则,涵盖收集限制、数据质量、目的规范、使用限制、安全保障、公开性、个人参与和问责制。


尽管早在商业互联网出现之前就已提出,更不用说社交媒体平台和生成式人工智能工具了,但FIPs的核心内容(如数据最小化和目的限制),通过限制公司在多大程度上可以重新利用为某一背景或目的收集的数据来创建或训练新的人工智能系统,直接影响了当今的人工智能系统。欧盟的《通用数据保护条例》(GDPR)、美国加利福尼亚州的隐私法规和拟议中的《美国数据隐私与保护法案》(ADPPA)在很大程度上都依赖于这些原则。


#2

《通用数据保护条例》:

数据保护的“全球标准”

《通用数据保护条例》(General Data Protection Regulation,GDPR)于2016年通过,2018年生效,是欧盟试对图更新 1995 年的《数据保护指令》的更新,旨在协调欧盟各成员国之前各自为政的国家数据隐私制度,并更有力地落实欧洲人的数据权利。GDPR的核心是个人数据,其定义是“与已识别或可识别的自然人有关的任何信息”。它赋予个人(“数据主体”)处理其个人数据的权利,如知情权和有限的被遗忘权,并指导企业如何处理个人信息。它可以说是当今世界上最重要的数据保护立法,引发了仿效立法,影响了全球数据保护的框架。由于GDPR对人工智能的直接适用性及其在全球范围内的主导地位,欧盟的人工智能法案在很大程度基本上没有涉及数据保护和隐私问题。


尽管GDPR并没有明确包含“人工智能”一词,但它包含几项适用于人工智能系统的规定,尽管它并没有明确包含“人工智能”一词。相反,第22条规定保护个人免受“完全基于自动化处理”的个人数据决策,这种决策无需人工干预,也称为自动化决策(ADM)。鉴于在健康、贷款审批、求职申请、执法和其他领域广泛使用自动决策,该条款在确保此类决策过程中最低程度的人类参与方面发挥了至关重要的作用。


除第22条外,GDPR还制定了几项影响人工智能系统的关键数据保护原则。最值得注意的是,“目的限制”原则禁止为收集数据时指定的目的之外的其他目的而处理个人数据,“数据最小化”原则将数据的收集和保留限制在绝对必要的范围内。这些原则在理论上遏制了数据密集型人工智能应用中常见的不受约束的个人数据收集(或数据挖掘)。尽管人们普遍认为,数据越多,人工智能就越强大好,并认为而且这种对数据收集和使用的限制会阻碍人工智能的发展,但大量研究表明,在这些限制条件下构建自动化决策系统是可行的,甚至进而是可取的。


GDPR 还以规则的形式规定了透明度义务,即当个人信息处理的目的是为了进行特征分析或 自动化决策 时,应向个人发出通知。GDPR还制定了规则,赋予个人“访问自己数据的权利”,并确保数据处理的准确性。最后,它引入了数据保护影响评估(DPIA),这是一种问责措施,要求收集组织在进行数据处理活动之前评估其潜在的风险和危害(不仅涉及相关组织,还包括潜在的社会层面的危害)。


#3

美国各州隐私法:

填补联邦隐私保护空白


截至2024年,美国仍未制定类似于GDPR的联邦综合消费者隐私法。美国最接近通过消费者隐私法规的是《美国数据隐私与保护法》(American Data Privacy and Protection Act,ADPPA),该法案于2022年在众议院提出,但在该届会议上没有进行投票表决,至今尚未再次提出。与GDPR类似,ADPPA将对“个人信息的收集、使用和共享”施加限制,要求这一过程“必要且相称”。该法案承认信息隐私与公民权利之间的联系,加强了相关的民权法律,实质上提出了拜登政府随后提出的《人工智能权利法案蓝图》中的隐私部分。


由于缺乏专门针对消费者的联邦立法,几十年来,一些部门性法律已经形成了一套零散的隐私保护措施,如《家庭教育权利和隐私法案》(FERPA)、《儿童在线隐私保护法案》(COPPA)、《健康保险便携性和责任法案》(HIPAA),甚至还有《视频隐私保护法案》(VPPA)等等。在这种分散的局面下,美国各州纷纷通过了自己的消费者隐私法。截至2023年,已有12个州通过了消费者隐私法规,但美国加利福尼亚州的《消费者隐私法》(CCPA)影响最为深远。CCPA有时被称为加州版的GDPR,它与2022年更新的《加州隐私权法案》(CPRA)一起,可以说是迄今为止州一级在制定严格而广泛的消费者隐私保护方面所做的最重要努力。


CCPA的最初版本规定了数据访问权、删除权和可移植性,以及在两年周期内拒绝销售个人数据的权利和目的限制条款。企业有义务就其收集的数据类型发出通知,在收集13至16岁儿童的数据时获得其同意,并在收集、使用或再利用数据时遵守目的限制,这些限制必须符合个人的一般期望和收集时所指定的目的。随后作为投票提案(第24号提案)获得通过的CPRA修订了CCPA,增加了数据最小化原则、纠正个人数据的权利、选择不处理各类敏感个人数据的权利。以及与GDPR相类似的,选择不处理某些形式自动决策的权利(例如住房和就业等具有重大影响的自动决策),美国加州隐私监管机构在法规草案中将其解释为包括人工智能系统。企业必须进行隐私风险评估和网络安全审计,为选择退出者提供获取服务的替代方案,并且不得因消费者行使这些权利而对其进行歧视。


美国加利福尼亚州隐私制度与其他州的一个显著区别是,加利福尼亚州仍然是唯一一个设立了具有规则制定权的执行机构,即加利福尼亚州隐私保护局(CPPA)的州,而不是像许多此类法律那样将这一职能委托给州检察长办公室。在实践中,这可能意味着加利福尼亚州隐私保护局比大多数州的总检察长拥有更多的内部专业知识,以及通过发布指南进行主动执法、解决人工智能与个人数据交叉领域复杂和突发问题的自由度。


#4

预测式人工智能与生成式人工智能

数据保护监管的拐点

在生成式人工智能系统于2022年末进入公众和政策制定者的视野之前,有关人工智能监管的讨论主要集中在预测式人工智能系统上,这些系统利用数据对结果进行分类、排序和预测。在预测式人工智能的范围内,关注点主要集中在这些系统产生的结果上,而较少关注用于训练这些系统的数据。有关人工智能的政策讨论和法规提案主要涉及算法审计和影响评估、透明度和可解释性以及行使公民权利,以此来确保决策输出的公平和公正。


说生成式人工智能极大地改变了人工智能监管讨论的条件并不为过。人们对图像生成器(如DALL-E或Midjourney)和大语言模型(如ChatGPT)的能力感到惊叹的同时,也对这些系统是如何构建的,以及使用了哪些数据为其提供动力的问题提出了质疑。随着人们越来越普遍地认识到,生成式人工智能系统主要是基于从互联网上搜集的数据建立起来的,人们开始关注到底是什么数据,以及谁的数据,为这些系统提供了动力。


第3章

质疑与预测


在本章中,白皮书提出了4项质疑和预测,提出了我们在继续监管隐私和人工智能时必须面对的关键问题。第一,白皮书预测,由于数据是人工智能系统的基础,人工智能的持续发展将继续增加开发者对数据的需求。第二,白皮书强调,数据收集在很大程度上不受限制所造成的隐私危害已经超出了个人层面,延伸到了群体和社会层面,这些危害无法仅通过行使个人数据权利来消除。第三,白皮书认为,虽然基于FIPs的现有和拟议隐私立法将对人工智能发展进行隐性监管,但它们不足以解决社会层面的隐私危害。第四,即使是包含关于算法决策,以及其他形式人工智能明确规定的立法也是有限的,并没有提供对人工智能系统中使用的数据进行有意义监管所需要的数据治理措施。


总体而言,基于FIPs的隐私和数据保护法律没有预见到人工智能系统或生成式人工智能等变体的增长,无法对人工智能发展所需的数据进行充分监管。从根本上说,隐私和数据保护框架无法扩展,让个人在数百甚至数千个数字关系和渠道中承担管理其数据的主要责任,无法成功保护个人隐私,它也无法化解人口或社会层面的隐私风险和危害。正如法律理论家萨洛姆·维尔乔恩(Salomé Viljoen)所指出的,“要充分应对数据生产的经济要求和社会影响,就必须超越个人主义数据主体权利的提议,转而从理论上探讨负责任的数据治理所需的集体制度形式。”


第4章

减轻人工智能隐私风险的建议

人工智能的快速发展和应用引发了人们对其可能给人类带来的风险的合理担忧。白皮书建议,在评估这些问题时,政策制定者还必须考虑到,除非采取特别措施保护数据隐私,否则应用人工智能的副作用可能是所有人的数据隐私大幅减少。下文中的建议正是基于这个问题:数据隐私与人工智能如何才能共存?


虽然数据隐私是白皮书的重点,但它并不是考虑如何监管人工智能的唯一视角或优先事项。非个人信息以及他人的个人信息也可用于对个人和群体进行推断,这是数据隐私政策制定必须超越个人控制,更广泛地制定明确的数据收集和使用规则的另一个原因。


另一个关键的方面是,拥有数据会产生相当大的市场力量。此外,倡导提升数据质量是一个重要事项,因为更高质量的数据有助于解决偏见和歧视问题,但我们必须承认,数据质量也可以成为权力和优势的来源,因为大型企业可以花费资源来改进自己的数据,或从其他企业获得高质量数据的许可。同时,也需要抵制技术决定论。只有当模型能够产生准确可靠的输出时,能够以类似人类的方式进行推论和推理的大语言模型才是有用的。


最后,需要指出的是,这些问题既涉及商业领域,也涉及政府领域。白皮书主要关注的是商业数据收集。但政府可以(也确实)从私营部门购买数据,并指导政府部署人工智能系统,这些系统在个人信息上进行训练或处理个人信息,这引发了有关潜在监控和对公民自由影响的问题。



1

将数据收集默认非规范化,将数据收集从“选择不接受”转为“选择接受”。


数据收集者必须通过“默认隐私”战略促进真正的数据最小化,并为有意义的同意机制采用技术标准和基础设施。


2

关注人工智能数据供应链,改善隐私和数据保护。


确保数据集在整个生命周期内的透明度和问责制,必须成为任何解决数据隐私问题的监管体系的重点。


3

改变个人数据的创建和管理模式。


政策制定者应支持开发新的治理机制和技术基础设施(如数据中介和数据许可基础设施),以支持个人数据权利和偏好的行使并使之自动化。



免责声明:本文转自元战略,原作者流景。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!



转自丨元战略

作者丨流景


研究所简介


国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。


地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er