英國國家網路安全中心(NCSC)發布了新的指導方針,可以幫助AI系統的開發者和提供者「建立按預期運行的AI系統,在需要時可用,並且在不向未經授權的各方洩露敏感資料的情況下工作。」
安全AI系統開發指南包括了ML應用程式開發生命週期的四個關鍵階段
安全設計取決於所有相關人員- 系統所有者、開發人員和用戶- 意識到AI系統面臨的獨特安全風險,並被教導如何避免這些風險。
在指導方針中提到:「應對系統威脅進行建模,從安全、功能和性能的角度設計系統。」此外,在選擇AI模型時,開發人員應該考慮安全利益和權衡(不是越複雜越好)
保障供應鏈安全是實現安全發展的前提,同時需要保護資產(如模型、資料、提示、軟體、日誌等),記錄模型、資料集和元資料系統的提示,以及管理技術債務
安全部署需要安全的基礎設施(在系統生命週期的每個部分),並持續保護模式和資料不受直接和間接存取。為了因應(不可避免的)安全事件,必須制定全面的事件回應、升級和補救計畫。
AI發布應該負責任,這意味著只有在經過徹底評估其安全性後,並且用戶已經評估了限製或潛在故障模式之後才能進行發布
理想情況下,最安全的設定將作為唯一選項整合到系統中。當需要進行配置時,預設選項應該針對常見威脅大體上是安全的(即預設是安全的)。你應用控制措施以防止以惡意方式使用或部署你的系統。
最終,為了保障運行和維護的安全,建議運營商監控其係統的行為和輸入,啟用自動更新並保持透明度和響應能力,特別是在出現故障(如漏洞)時
這些指導方針是在美國網路安全和基礎設施安全局(CISA)和來自世界各地的類似機構和CERT以及行業專家的幫助下起草的。
「由英國牽頭的新準則是第一個在全球範圍內達成一致的準則,他們將幫助使用AI的任何系統的開發人員在開發過程的每個階段做出知情的網路安全決策——無論這些系統是從頭開始創建的,還是建立在其他人提供的工具和服務之上的,「英國國家網路安全中心指出。
「[指導方針]主要面向AI系統的供應商,無論是基於組織託管的模型還是使用外部應用程式介面。然而,我們敦促所有利益攸關方(包括資料科學家、開發人員、經理、決策者和風險所有者)閱讀這些指南,以幫助他們就其機器學習AI系統的設計、部署和運營做出明智的決定。
在發布這些指導方針之前,美國總統拜登發布了一項行政命令,旨在啟動旨在保護美國人免受AI系統潛在風險(欺詐、隱私威脅、歧視和其他濫用)的行動。
以上是18個國家聯合發布AI安全指南的詳細內容。更多資訊請關注PHP中文網其他相關文章!