英国国家网络安全中心(NCSC)发布了新的指导方针,可以帮助AI系统的开发者和提供商“建立按预期运行的AI系统,在需要时可用,并且在不向未经授权的各方泄露敏感数据的情况下工作。”
安全AI系统开发指南包括了ML应用程序开发生命周期的四个关键阶段
安全设计取决于所有相关人员 - 系统所有者、开发人员和用户 - 意识到AI系统面临的独特安全风险,并被教导如何避免这些风险。
在指导方针中提到:“应对系统威胁进行建模,从安全、功能和性能的角度设计系统。”此外,在选择AI模型时,开发人员应该考虑安全利益和权衡(并不是越复杂就越好)
保障供应链安全是实现安全发展的前提,同时需要保护资产(如模型、数据、提示、软件、日志等),记录模型、数据集和元数据系统的提示,以及管理技术债务
安全部署需要安全的基础设施(在系统生命周期的每个部分),并持续保护模式和数据不受直接和间接访问。为了应对(不可避免的)安全事件,必须制定全面的事件响应、升级和补救计划。
AI发布应该负责任,这意味着只有在经过彻底评估其安全性后,并且用户已经评估了限制或潜在故障模式之后才能进行发布
理想情况下,最安全的设置将作为唯一选项集成到系统中。当需要进行配置时,默认选项应该针对常见威胁大体上是安全的(即默认情况下是安全的)。你应用控制措施以防止以恶意方式使用或部署你的系统。
最终,为了保障运行和维护的安全,建议运营商监控其系统的行为和输入,启用自动更新并保持透明度和响应能力,特别是在出现故障(如漏洞)时
这些指导方针是在美国网络安全和基础设施安全局(CISA)和来自世界各地的类似机构和CERT以及行业专家的帮助下起草的。
“由英国牵头的新准则是第一个在全球范围内达成一致的准则,他们将帮助使用AI的任何系统的开发人员在开发过程的每个阶段做出知情的网络安全决策——无论这些系统是从头开始创建的,还是建立在其他人提供的工具和服务之上的,“英国国家网络安全中心指出。
“[指导方针]主要面向AI系统的提供商,无论是基于组织托管的模型还是使用外部应用程序编程接口。然而,我们敦促所有利益攸关方(包括数据科学家、开发人员、经理、决策者和风险所有者)阅读这些指南,以帮助他们就其机器学习AI系统的设计、部署和运营做出明智的决定。
在发布这些指导方针之前,美国总统拜登发布了一项行政命令,旨在启动旨在保护美国人免受AI系统潜在风险(欺诈、隐私威胁、歧视和其他滥用)的行动。
以上是18个国家联合发布AI安全指南的详细内容。更多信息请关注PHP中文网其他相关文章!