中国在提升人工智能安全治理方面的主导权

发表时间: 2024-04-08 04:15

作者:罗伟华(重庆市中国特色社会主义理论体系研究中心重庆市委党校分中心特约研究员、重庆市科学社会主义学会副秘书长)

人工智能是发展数字经济的重要引擎,是引领全球新一轮科技革命和产业变革的战略性关键技术。新一代人工智能的应用开发对人类生产生活方式、经济社会发展、全球治理格局等将产生重大变革性影响。世界主要发达国家把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在新一轮全球竞争中掌握主导权。

据工信部最新数据,中国人工智能核心产业规模超过5000亿元,企业数量接近4500家,算力规模位居世界第二。相较于其他国家,中国人工智能呈现出多元化发展的领先优势,不断为中国的高质量发展提供新动能。与此同时,以ChatGPT类大模型为代表的人工智能呈现出深度学习力强、更新速度快、跨界融合度高、自主操控性大等显著特征,引发了世界各国对大模型人工智能的强烈关注与深切担忧。新一代人工智能发展伴生而来的全球智能鸿沟加大、军事武器滥用、隐私泄露严重、算法意识形态加深等现实问题,威胁着国家安全,攸关全人类命运。

协力促进全球人工智能治理

今年1月,美国智库阿斯彭研究所发布《用人工智能展望网络未来》报告,从正反两个角度分析了人工智能未来可能改善和危害网络安全的方式,并提出恪守网络安全原则、主动规划和管理人工智能工具、保持人工智能的透明度等引导人工智能助益网络安全的七项建议,以最大限度地提高网络安全效益,减少网络安全风险。

中国2023年提出的《全球人工智能治理倡议》指出,各国应坚持发展和安全并重的原则,不断提升人工智能技术的安全性、可靠性、可控性和公平性,协力共同促进人工智能治理。借助人工智能赋能网络意识形态安全治理,完善人工智能等重点领域的科技伦理原则与规范。

具体而言,一是辩证看待人工智能带来的安全风险。全面认识人工智能发展带来的重大机遇,客观看待与人工智能发展伴生的多重安全风险交织叠加的问题,持续更新人工智能安全治理理念,把握好、运用好发展与安全的辩证统一关系。同时,加深对人工智能技术内生、应用衍生等风险挑战的研究,保持清醒审慎,防范化解人工智能安全风险。二是明确人工智能安全治理的目标。深刻认识维护国家安全与民族利益、促使人工智能造福人类是全世界协同治理人工智能安全的共同目标,牢牢掌握国家自主权与话语权,通过对话和合作凝聚国际共识。三是强化人工智能安全治理的科技伦理原则。坚持推动“科技向善”“智能向善”成为世界各国共识,深入开展科技伦理教育和宣传,构建良好人工智能伦理氛围,推动人工智能朝着安全可控、健康有序的方向发展。

《全球人工智能治理倡议》强调增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等,主张开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距,有助于化解人工智能治理集体行动力缺失和治理方案碎片化的现实困局,推动全球人工智能治理走向多边主义和公平正义,增进世界各国对于人类命运共同体理念的理解和认同。

全面提升人工智能安全治理水平

党的十八大以来,总体国家安全观的创造性提出与丰富发展,为人工智能的安全治理提供了根本遵循,命运与共、合作共赢始终贯穿人工智能安全治理的中国话语体系。

加强对人工智能的安全风险评估和管理,是全面提升人工智能安全治理水平的关键环节。首先,落实人工智能安全工作责任制。确立人工智能安全主体责任人,清晰界定相关主体权利、义务及责任边界,建立追溯和问责机制,明确各安全岗位的职责和考核机制,贯彻执行各项制度和开展监督检查等。明确人工智能技术的使用范围,建立健全上下联动的人工智能安全应急协调和通报响应工作机制,提高对人工智能安全的监管与干预能力,形成维护人工智能安全的强大合力。其次,加强对人工智能安全风险的研判能力。建立健全人工智能安全风险等级测试评估体系,引入“数据收集—筛选—生成—交互—反馈”的全过程管理,对人工智能技术应用场景的安全性进行全面评估,确保其应用符合法律法规和社会伦理,避免出现不良后果。最后,打造防范化解人工智能安全风险的治理共同体。加强政府主导,提升公众对人工智能安全治理的认知和参与度,规范行业内的行为和准则,支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在人工智能安全风险防范等方面开展协作,积极推动人工智能安全治理从政府主导向“政府+市场”主导转型。

人工智能安全保障体系的建设,是实现人工智能安全治理的基石。一是构建人工智能安全治理的制度体系。加强人工智能安全治理的顶层设计,持续深化人工智能安全、网络安全、数据安全等相关法律法规,对人工智能安全涉及的相关领域进行分类分级管理,建立关键信息基础设施安全保护、人工智能安全审查、跨境数据安全监管、人工智能安全服务认证等一系列重要制度,构建人工智能安全治理政策法规体系的“四梁八柱”。二是推动人工智能安全技术的创新。加强原创性、引领性科技攻关,制定实施战略性科学计划和科学工程。加大对高端芯片、传感器件、关键算法等人工智能安全软硬件核心技术的研发力度,提升人工智能算法的鲁棒性和创新性,不断突破升级人工智能安全技术。同时,规范科研共同体的自我约束,推动人工智能安全教育、技术、产业融合发展,探索优化应用场景的安全性,加速形成人才培养、技术创新、产业发展的良性生态。三是持续培育人工智能安全的专业人才。强化人工智能安全的基础研究和实践能力提升,加大对交叉学科融合创新发展项目的支持力度,持续打造人工智能安全的高水平人才队伍。

全面深化人工智能安全国际合作

2023年11月,首届人工智能安全峰会发布了《布莱奇利宣言》,意味着包含中国在内的28国在全球共同应对人工智能安全风险和挑战方面达成了前所未有的高度共识。在此基础上,我们应从标准制定、司法合作、平台搭建、提升话语权等层面全面深化人工智能安全合作方式变革。

一是建立国际人工智能安全的通用标准。针对人工智能算法行为不可控、决策机制难以解释等问题,在伦理、监管、安全等方面为人工智能制定标准,以国际标准体系确保人工智能应用过程中数据的可靠性、安全性和隐私性,促进各国在人工智能安全治理领域的协同发展。

二是推进全球人工智能安全治理的高质量司法合作。各国应加强立法交流与情报共享,建立联合执法机制,增强各国在人工智能安全领域的执法能力和协作能力,有效打击人工智能犯罪行为,保障人工智能技术的合法合规使用。

三是搭建全球人工智能安全的共治共享平台。建立人工智能安全治理的国际组织,秉持协商共治的原则,打破不同国家、不同地区间的数字权力区隔,共同推进全球人工智能安全共治共享平台的建设。

四是提升中国人工智能安全治理方案的国际话语权。持续倡导以人为本、智能向善理念,充分发挥中国在联合国、上合组织等多边机制的积极作用,积极参与人工智能相关国际规则制定,加强面向发展中国家的国际合作与援助,积极打造和推广中国人工智能安全治理的成功模式,为保障国家安全、构建人类命运共同体贡献中国智慧。

《光明日报》(2024年04月08日 12版)

来源: 光明网-《光明日报》