大型、敏感的資料集經常被用於訓練AI模型,從而產生隱私和資料外洩風險。人工智慧的使用增加了組織的威脅向量,並擴大了其攻擊面。人工智慧進一步為良性錯誤創造了新的機會,對模式和業務結果產生不利影響。
不了解的風險無法減輕。 Gartner最近對首席資訊安全長的一項調查顯示,大多數組織沒有考慮到人工智慧帶來的新的安全和業務風險,或者他們必須採取新的控制措施來降低這些風險。人工智慧需要新型風險和安全管理措施以及緩解框架。
以下是安全與風險領導者應該關注的五大優先事項,以有效管理其組織內的人工智慧風險和安全:
機器學習模型對大多數使用者來說是不透明的,並且與一般的軟體系統不同,它們的內部工作原理甚至連最熟練的專家都不知道。資料科學家和模型開發人員通常理解他們的機器學習模型試圖做什麼,但他們不能總是破解模型處理資料的內部結構或演算法手段。
這種理解能力的缺乏嚴重限制了組織管理AI風險的能力。人工智慧風險管理的第一步是列出組織中使用的所有人工智慧模型,無論它們是第三方軟體的元件、內部開發或透過軟體即服務應用程式存取。這應該包括識別各種模型之間的相互依賴關係。然後根據營運影響對模型進行排序,並考慮到風險管理控制可以根據確定的優先順序逐步應用。
一旦模型被列出,下一步就是使它們盡可能的可解釋或可解釋性。 「可解釋性」意味著產生細節、原因或解釋的能力,為特定的受眾闡明模型的功能。這將為風險和安全管理者提供管理和減輕由模型結果帶來的業務、社會、責任和安全風險的環境。
員工意識是人工智慧風險管理的一個重要組成部分。首先,讓所有參與者,包括CISO、首席隱私官、首席資料長以及法律和合規官,重新調整他們對AI的心態。他們應該明白,人工智慧「不像任何其他應用」——它會帶來獨特的風險,需要特定的控制來減輕此類風險。然後,與業務利益相關者聯繫,以擴大對需要管理的AI風險的認識。
與這些利害關係人一起,確定跨團隊和隨著時間的推移建立AI知識的最佳方式。例如,看看是否可以在企業的學習管理系統中新增一門關於基本AI概念的課程。與應用程式和資料安全部門合作,幫助在所有組織成員中培養AI知識。
#根據Gartner最近的一項調查,隱私和安全性一直被視為人工智能實現的主要障礙。採用資料保護和隱私程序可以有效消除AI內部和共享資料的暴露。
有一系列方法可以用於存取和共享基本數據,同時仍然滿足隱私和數據保護要求。確定哪種資料隱私技術或技術組合,對組織的特定用例最有意義。例如,調查諸如資料屏蔽、合成資料生成或差分隱私等技術。
在向外部組織匯出或匯入資料時,應滿足資料隱私要求。在這些場景中,像是完全同態加密和安全多方運算等技術,應該比保護資料不受內部使用者和資料科學家的影響更有用。
AI模型需要特殊用途的流程作為模型操作或ModelOps的一部分,以使人工智能可靠且高效。隨著環境因素的不斷變化,AI模型必須持續監測業務價值洩漏和不可預測的(有時是不利的)結果。
有效的監控需要對AI模型的理解。專門的風險管理流程必須成為ModelOps的一個組成部分,以使AI更值得信任、準確、公平,並對對抗性攻擊或良性錯誤更有彈性。
控制措施應該持續應用-例如,貫穿模型開發、測試和部署以及持續營運的整個過程。有效的控制將檢測到惡意行為、良性錯誤和AI數據或模型的意外變化,這些變化會導致不公平、損壞、不準確、模型性能和預測不佳,以及其他意想不到的後果。
偵測並阻止對人工智慧的攻擊需要新的技術。對AI的惡意攻擊可能導致重大的組織損害和損失,包括財務、聲譽或與智慧財產權、敏感客戶資料或專有資料相關的資料。與安全部門合作的應用程式負責人必須在他們的AI應用程式中添加控制,以檢測異常資料輸入、惡意攻擊和良性輸入錯誤。
圍繞AI模型和資料實施一整套傳統的企業安全控制,以及針對AI的全新完整性措施,如容忍對抗性AI的訓練模型。最後,使用詐欺、異常檢測和機器人檢測技術,防止AI資料中毒或輸入錯誤檢測。
以上是如何管理人工智慧風險和安全?的詳細內容。更多資訊請關注PHP中文網其他相關文章!