程学旗在中科院讨论:人工智能治理的跨学科挑战

发表时间: 2024-05-25 21:19

21世纪经济报道记者冯恋阁 福州报道

从ChatGPT到Sora,人工智能技术为人类带来许多惊喜。然而,在当下,仍有安全、伦理、隐私风险与AI应用相伴而生。随着人工智能技术深度介入人类的生产生活,如何做好社会利益和技术进步之间的平衡,是当前必须要面对的问题。

“我国的人工智能发展与治理间并不存在本质冲突。”中国科学院计算技术研究所副所长、研究员,中国科学院网络数据科学与技术重点实验室主任,CCF中国数字经济50人论坛秘书长程学旗在数字中国建设峰会特色活动“院士专家行”会后接受21世纪经济报道记者采访时指出。

全球范围内,人工智能治理步伐都在逐渐加快。

今年,欧盟《人工智能法案》即将正式落地、美国参议院AI工作组发布《推动美国在AI领域的创新:参议院AI政策路线图》指导美国国会监管人工智能,提供立法框架。而我国早在去年就发布《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》等,为AI厂商合规提供服务指明方向。

然而,当前,部分人工智能从业者却担心过于严格的标准可能会因为合规资源占用导致成本飙升,进而影响行业发展。

程学旗认为,人工智能治理工作应当持续推进,确保技术发展和应用与社会价值观和法律法规保持方向一致。

AI正逐步走向千行百业,应用范围不断扩大。事实上,除了已经进入办公室的大语言模型,AI技术在更早之前就广泛地存在于推荐算法、自动驾驶等场景之中。

从技术角度出发,AI本身就具有“不确定性”。“算法不可避免地会有黑箱化的部分,AI模型在设计过程中可能也存在意图不清晰等问题。这些都会导致人工智能有潜在的安全、伦理、隐私风险。常常被担忧的用户数据泄露、大模型‘幻觉’都是不确定性带来的负面影响。”程学旗指出。

我国人工智能产业的发展可以用日新月异来形容——模型大战参战者成“百”上“千”,具身智能等新应用、新场景不断涌现。技术跑得快,治理也要跟上。制定法律规则对其监管成为一种必然。“所以,我认为目前监管步调适度加快是可以理解的。”他指出。

他透露,目前,国家相关部门还在尝试从技术出发,构建部分智能化算法的技术发展谱系。“完成谱系建构后,我们对其可信性、鲁棒性、可解释性和安全性等技术性质的判断将更加精准,进而可以更加针对性地确认其应尽的合规义务。”他指出。

更多内容请下载21财经APP