减少治理赤字,让AI造福人类
在数十亿物种中,人类或智人之所以优越,唯一的原因就是他们的思考能力。正是思考,让人类在时间的长河中不断进步。
这条漫漫长路,从人类的诞生开始,进入历史的跌宕起伏,绝非一帆风顺。安全、自由、人权和民主等基本权利在科技化、现代化和全球化的进程中缓慢展现。最后,历史以令人惊讶的方式呈现出新的面貌——人工智能时代悄然来临。
在人工智能发展的早期,技术主要受制于计算能力的限制。与今天相比,数据处理的速度慢得令人痛苦,只有极少数计算机科学家在创建和使用新生的人工智能应用。
几十年后,我们进入了一个全新时代,各国政府和各大科技公司都致力于利用人工智能改变我们的生产和生活。强大的人工智能工具现在触手可及。
但是,即便是在利用人工智能的所有善意举措中,比如开展数据驱动决策、提高经济生产力和实现医疗自动化等,滋生负面后果的风险也在不断增加。随着技术边界的缩小,我们面临着越来越大的紧迫性,必须缩小治理差距,引导这项先进技术实现公平和可持续发展——换句话说,让人工智能造福人类。
一个人工智能良好治理的框架离不开三点诉求。
首先,我们必须将人工智能治理植根于合理、共同的价值观,如透明度、真实性和隐私。
透明度可促进利益相关者间的信任和问责,并使技术得到公平评估,以确保符合伦理和法律规定。这在交通出行和医疗保健等领域尤为重要,因为这些领域的公共安全取决于可预测和可靠的人工智能行为。
要创建准确、公正的人工智能系统,防止科学、教育和媒体中的错误信息,加强社会信任,确保人工智能的良好应用,真实性至关重要。这种新型系统将日益依赖于所收集到的大量个人数据,隐私也变得至关重要。
价值观诉求指向人工智能的集体利益,例如,利用人工智能来支持关键的全球目标,包括提高教育质量、减轻贫困和应对气候变化。
其次,应根据这些价值观展开分层次行动,并不一定都依靠自上而下的方法,而是多主体齐头并进地推动。
这些行动影响着人工智能的积极、向上的良性发展,并影响着管理人工智能的法律。例如,如果我们的目标是为训练人工智能算法的数据制定全球隐私标准,那么我们就需要一个国际体系结构来制定和审查这些标准。如果我们想促进准确的公共健康教育,那么我们还需要建立行动机制,以遏制错误信息的传播。
现在有了像GPT-4一样强大的开源模型,但基本上没有任何保障措施可以阻止恶意行动者利用它传播错误信息。偏见构成另外一个令人担忧的问题,因为训练集可能存在偏差。以医疗应用而言,医疗保健系统中固有的偏差被编入数据中,而人工智能又将其自动化并实现可操作化。由此,为了确保人工智能在医疗保健领域得到安全、负责任的应用,必须对人工智能模型严格评估,甚至由监管部门将模型视同医疗设备一样进行监管。
最后,确定人工智能治理的最关键领域,优先考虑技术开发和使用链条中的主要环节——数据、算法、计算和应用。
数据治理可对数据收集、存储、分析和跨境流动进行监督,同时保护和防止滥用敏感数据。算法治理可确保人工智能的判断不带歧视和偏见,从而准确、安全地为银行、执法和医疗保健等部门的应用提供信息。
从云计算和重要基础设施的安全性和互联互通,到数据中心的高耗水量和对劳动力市场的影响,人工智能若实施不当,完全可能扰乱经济和生态系统。这要求我们对半导体芯片、边缘计算、云计算、环境计算、量子计算、计算能源和计算用水进行管理。与此同时,有效的应用管理可防止滥用,减少不可预见的影响,并确保公平的利益分配。
薄弱的人工智能治理机制留下了治理赤字,原因是现有倡议不足、治理格局存在差距以及难以就更合适的机制达成一致。挑战很大程度源于地缘政治,国际合作的程度因政策领域而异,并受到国家意图的不确定性、信任程度和利益一致等因素影响。目前,开发和监管人工智能的能力高度集中,这表明中国、欧盟和美国之间的多边协议可能足以降低关键风险。不过,理论上虽有很大协议空间,但在必要的政策应对方面却几乎没有共识。欧盟强调新法规,美国采取更加自由放任的方法,而中国则依靠行业自律和有针对性立法来治理人工智能。
为人工智能建立一个全球治理机制听起来似乎有些天方夜谭,但困难并非完全不可克服。一方面,需要积极协调众多利益相关者,推动建立普遍参与的国际机制;另一方面,也不妨利用多中心秩序,鼓励地方政府和私营公司采取多层次行动,制定适合其具体情况的创新政策。