OpenAI 加强内部安全措施以应对AI威胁

发表时间: 2023-12-19 07:31

#文章首发挑战赛#

OpenAI的安全咨询小组和更新的框架

OpenAI正在采取措施来应对与人工智能开发相关的风险,通过成立安全咨询小组并更新其准备框架。咨询小组将向领导层提供建议,董事会有权否决决策。该框架侧重于识别和减轻与人工智能模型相关的灾难性风险。它对风险进行分类,如网络安全和模型自主性,高风险或重大风险的模型将不会被部署或进一步开发。

评估风险类别和缓解措施

OpenAI的准备框架评估人工智能模型的风险类别,包括网络安全、说服力、模型自主性和CBRN威胁。考虑到缓解措施,如果一个模型仍然被认为有高风险,将不会被部署。该框架为每个类别提供具体的风险级别,并有记录的定义。该框架确保风险评估不是由个人自行决定,而是基于客观标准。

安全咨询小组的角色和决策过程

为了增强评估和决策过程,OpenAI正在组建一个跨职能安全咨询小组。该小组将审查技术团队的报告,并从更高的角度提供建议。这些建议将同时发送给董事会和领导层,他们将最终决定是否继续进行模型。董事会还有权利撤销领导层的决定,确保更全面和透明的决策过程。