当前位置:AIGC资讯 > AIGC > 正文

由18个国家支持的AI安全指南发布

英国国家网络安全中心(NCSC)发布了新的指导方针,可以帮助AI系统的开发者和提供商“建立按预期运行的AI系统,在需要时可用,并且在不向未经授权的各方泄露敏感数据的情况下工作。”

如何将网络安全置于AI系统的核心

安全AI系统开发指南涵盖了ML应用程序开发生命周期的四个关键阶段。

安全设计取决于所有相关人员 - 系统所有者、开发人员和用户 - 意识到AI系统面临的独特安全风险,并被教导如何避免这些风险。

指导方针指出:“对系统的威胁进行建模,并从安全、功能和性能的角度设计系统。”此外,开发人员在选择他们的AI模型时应该考虑安全好处和权衡(越复杂并不总是更好)。

安全发展的前提是确保供应链安全;保护资产(模型、数据、提示、软件、日志等);记录模型、数据集和元或系统提示;以及管理技术债务。

安全部署需要安全的基础设施(在系统生命周期的每个部分),并持续保护模式和数据不受直接和间接访问。为了应对(不可避免的)安全事件,必须制定全面的事件响应、升级和补救计划。

AI应该负责任地发布,即只有在其安全性经过彻底评估(并且用户已经评估了限制或潜在故障模式)之后才能发布。

理想情况下,最安全的设置将作为唯一选项集成到系统中。当需要进行配置时,默认选项应该针对常见威胁大体上是安全的(即默认情况下是安全的)。你应用控制措施以防止以恶意方式使用或部署你的系统。

最后,为了确保安全运行和维护,敦促运营商监控其系统的行为和输入,在默认情况下开启自动更新,并保持透明和响应能力,特别是在出现故障(例如漏洞)时。

AI网络安全指南是面向谁的?

这些指导方针是在美国网络安全和基础设施安全局(CISA)和来自世界各地的类似机构和CERT以及行业专家的帮助下起草的。

“由英国牵头的新准则是第一个在全球范围内达成一致的准则,他们将帮助使用AI的任何系统的开发人员在开发过程的每个阶段做出知情的网络安全决策——无论这些系统是从头开始创建的,还是建立在其他人提供的工具和服务之上的,“英国国家网络安全中心指出。

“[指导方针]主要面向AI系统的提供商,无论是基于组织托管的模型还是使用外部应用程序编程接口。然而,我们敦促所有利益攸关方(包括数据科学家、开发人员、经理、决策者和风险所有者)阅读这些指南,以帮助他们就其机器学习AI系统的设计、部署和运营做出明智的决定。

在发布这些指导方针之前,美国总统拜登发布了一项行政命令,旨在启动旨在保护美国人免受AI系统潜在风险(欺诈、隐私威胁、歧视和其他滥用)的行动。

更新时间 2023-11-28