全球首个针对人工智能的法律正式颁布

发表时间: 2024-05-23 07:50

当地时间5月21日,欧洲理事会批准了《人工智能法案》。

这是全球首部监管人工智能的法律,作为一项开创性的监管法,为人工智能技术制定了全面的规则。

遵循“基于风险”的考量

《人工智能法案》遵循“基于风险”的考量,这意味着对社会造成伤害的风险越高,规则就越严格。

新法律旨在促进私人和公共行为者在欧盟单一市场上开发和采用安全、值得信赖的人工智能系统,同时确保尊重欧盟公民的基本权利,刺激欧洲人工智能的投资和创新。

新法律根据风险对不同类型的人工智能进行分类。低风险的人工智能系统将面临最低的透明度要求,而高风险的人工智能系统则必须满足严格的标准才能获准在欧盟使用。

高风险人工智能系统涵盖自动驾驶汽车或医疗设备,根据它们对公民的健康、安全和基本权利构成的风险进行评估。此外,高风险人工智能系统还包括人工智能在金融服务和教育领域的应用,这些领域的人工智能算法存在偏见的风险。

某些人工智能应用,如认知行为操纵和社交评分,因其不可接受的风险而被直接禁止。立法还禁止将人工智能用于基于种族的预测性警务,以及根据种族、宗教或性取向等生物特征数据对个人进行分类的系统。

该法规还涉及通用人工智能(GPAI)模型。不构成系统性风险的GPAI模型将遵守有限的透明度要求。但是,那些被认为有系统性风险的模型必须遵守更严格的规定。

为确保有效实施,《人工智能法案》设立了多个管理机构,包括欧盟委员会内部的人工智能办公室,负责执行相关规则;一个由独立专家组成的科学小组,为执法活动提供支持;由成员国代表组成的人工智能委员会,就人工智能法案的一致应用提供建议;一个利益相关者咨询论坛,提供技术专业知识。

在违规处罚方面,违反《人工智能法案》的行为将被处以罚款,罚款额度为违规公司上一财政年度全球年营业额的一定百分比或预先确定的金额,以较高者为准。中小型企业(SME)和初创企业将面临相应比例的行政罚款。

新法规还要求,在公共服务部门部署高风险人工智能系统之前,各实体必须评估其对基本权利的影响。该条例要求提高高风险人工智能系统开发和使用的透明度。这些系统以及使用它们的某些公共实体必须在欧盟高风险人工智能系统数据库中注册。情绪识别系统必须在用户使用此类系统时告知个人。

或为全球AI监管提供参照

欧盟委员会于2021年8月提交了人工智能法案提案,目的是保护公民免受这种新兴技术的危害。

近期,随着OpenAI的ChatGPT和谷歌聊天机器人Gemini等生成式人工智能的日益普及,人们对人工智能造成虚假信息和侵权的担忧在全球范围内加剧。

在经过多轮谈判和协商后,欧洲议会于今年3月批准了该法案。欧洲议会和欧洲理事会是欧洲两大立法机构,目前这两大机构均已批准这项法案。

随后,欧洲议会议长和欧洲理事会主席将签署该立法法案。该法案将在《欧盟官方公报》上公布,并在20天后生效。

新法规针对不同条款规定了具体的适用时间表:禁止行为将在生效6个月后适用;实践准则将在生效9个月后实施;通用人工智能的规则和管理将在生效12个月后生效;高风险系统的义务将在生效36个月后执行。

针对此次立法通过,比利时数字化大臣马修·米歇尔在周二(21日)的声明中表示:“人工智能法案的通过是欧盟的一个重要里程碑。”

欧洲理事会主席米歇尔称:“通过人工智能法案,欧洲强调了在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。

世界各地的机构都在寻求对AI技术进行更合理的监管,《人工智能法案》目前仅适用于欧盟法律范围内的领域,军事、国防和研究等用途除外。不过,如果欧盟之外的人工智能系统供应商在欧盟内提供服务,同样适用于该法案。

一些观点认为,《人工智能法案》或为人工智能监管制定全球标准。一些主要AI公司也对此次欧洲立法表示关注。

直接受到影响的欧洲AI企业认为,新法案的影响有利有弊。一些中小企业担心,法案会导致相关成本被转嫁给供应链下游开发和使用人工智能的公司,尤其是中小企业。

咨询人士建议,相关公司应开始进行初步评估,以确定它们是否受到《人工智能法案》的约束。在约束范围内的公司应开始考虑依据法案的相关要求,作出相应的部署。

本文源自国际金融报