IT之家11 月28 日消息,美國網路安全兼基礎架構安全管理署(CISA)及英國國家網路安全中心(NCSC)日前正式發布《安全AI 系統開發指引》(Guidelines for Secure AI System Development )白皮書。
該白皮書號稱“首份全球 AI 安全標準”,旨在從設計階段強化 AI 系統的安全性,以防範可能的安全風險。
據悉,這份指引是由包括美、英、德、法、日、韓、新加坡在內 18 國,並聯合微軟、谷歌、OpenAI、Anthropic、Scale AI 等 23 個網路安全組織參與制定。
▲ 圖源英國相關部門
具體而言,指引包含4 個主要部分:安全設計、安全開發、安全部署及安全營運(operation and maintenance),指引為每個部分都提出可能的安全風險及避免方法,以協助開發人員從源頭降低相關安全風險。
▲ 圖源英國相關部門
IT之家注意到,這個指南的主要目的是提供開發AI系統所需的必要建議,並強調開發AI系統應遵循「安全設計」的原則。英國CISA指出,這個指南將客戶安全、透明度和責任以及建立「安全設計」組織結構列為首要任務
這份指引適用於所有類型的 AI 系統,除了涵蓋產業內的“尖端模型”,還包含其他利用外部代管的模型或是 API 系統。
以上是英美等國聯合發布《AI系統開發指引》,號稱全球首份相關安全標準的詳細內容。更多資訊請關注PHP中文網其他相關文章!