ホームページ > 記事 > テクノロジー周辺機器 > AI のリスクと安全性をどのように管理するか?
大規模な機密データセットは AI モデルのトレーニングによく使用され、プライバシーとデータ漏洩のリスクが生じます。人工知能を使用すると、組織の脅威ベクトルが増加し、攻撃対象領域が拡大します。 AI はさらに、モデルやビジネス結果に悪影響を与える良性エラーの新たな機会を生み出します。
理解されていないリスクは軽減できません。 Gartner が最高情報セキュリティ責任者を対象に行った最近の調査では、ほとんどの組織が、人工知能によってもたらされる新たなセキュリティおよびビジネス リスク、またはそれらのリスクを軽減するために導入する必要がある新たな管理を考慮していないことが明らかになりました。人工知能には、新しいリスクと安全性の管理手段と緩和フレームワークが必要です。
セキュリティおよびリスクのリーダーが組織内の AI リスクとセキュリティを効果的に管理するために重点を置くべき上位 5 つの優先事項は次のとおりです:
機械学習モデルはほとんどのユーザーにとって不透明であり、一般的なソフトウェア システムとは異なり、その内部の仕組みは最も熟練した専門家にもわかりません。データ サイエンティストやモデル開発者は、機械学習モデルが何をしようとしているのかを理解していることがよくありますが、モデルがデータを処理する内部構造やアルゴリズム手段を常に解読できるわけではありません。
この理解の欠如により、AI リスクを管理する組織の能力が大幅に制限されます。 AI リスク管理の最初のステップは、サードパーティ ソフトウェアのコンポーネントであるか、社内で開発されたものであるか、またはサービスとしてのソフトウェア アプリケーションを通じてアクセスされたものであるかに関係なく、組織で使用されているすべての AI モデルをリストすることです。これには、さまざまなモデル間の相互依存関係の特定が含まれる必要があります。次に、特定された優先順位に基づいてリスク管理制御を段階的に適用できることを考慮して、運用上の影響に基づいてモデルがランク付けされます。
モデルをレイアウトしたら、次のステップは、モデルをできるだけ解釈可能または説明可能にすることです。 「説明可能性」とは、特定の対象者に対してモデルの機能を明確にする詳細、理由、または説明を生成する能力を意味します。これにより、リスク管理者とセキュリティ管理者に、モデルの結果から生じるビジネス、社会、責任、セキュリティのリスクを管理および軽減する環境が提供されます。
従業員の意識は、人工知能リスク管理の重要な要素です。まず、CISO、最高プライバシー責任者、最高データ責任者、法務およびコンプライアンス責任者を含むすべての関係者が、AI に対する考え方を再調整しましょう。 AI は「他のアプリケーションとは異なる」ことを理解する必要があります。AI には特有のリスクがあり、そのようなリスクを軽減するには特定の制御が必要です。次に、ビジネス関係者と連携して、管理する必要がある AI リスクについての理解を深めます。
これらの関係者と協力して、チーム全体で時間をかけて AI の知識を構築するための最良の方法を決定します。たとえば、AI の基本概念に関するコースを企業の学習管理システムに追加できるかどうかを確認してください。アプリケーションおよびデータ セキュリティ部門と協力して、組織メンバー全員が AI の知識を習得できるようにします。
Gartner の最近の調査によると、プライバシーとセキュリティは人工的なものとみなされています。インテリジェンスの実現に対する主な障害。データ保護とプライバシーの手順を採用すると、AI 内の内部データや共有データの暴露を効果的に排除できます。
プライバシーとデータ保護の要件を満たしながら、重要なデータにアクセスして共有するために使用できるさまざまな方法があります。組織の特定の使用例に最も適したデータ プライバシー テクノロジー、またはテクノロジーの組み合わせを判断します。たとえば、データ マスキング、合成データ生成、差分プライバシーなどの技術を調査します。
データを外部組織にエクスポートまたはインポートする場合は、データ プライバシー要件を満たす必要があります。このようなシナリオでは、内部ユーザーやデータ サイエンティストからデータを保護するよりも、完全準同型暗号化や安全なマルチパーティ計算などの手法の方が役立つはずです。
AI モデルには、人間のスマートな機能を実現するためのモデル運用または ModelOps の一部として特別目的のプロセスが必要です。 、信頼性が高く効率的です。環境要因が変化し続ける中、AI モデルはビジネス価値の漏洩や予測不可能な (場合によっては不利な) 結果を継続的に監視する必要があります。
効果的なモニタリングには、AI モデルを理解する必要があります。 AI の信頼性、正確さ、公平性を高め、敵対的な攻撃や無害なエラーに対する回復力を高めるには、専用のリスク管理プロセスが ModelOps の不可欠な部分になる必要があります。
制御は、モデル開発、テストと展開、継続的な運用などを通じて継続的に適用する必要があります。効果的な制御により、悪意のある動作、良性のエラー、不公平、破損、不正確さ、モデルのパフォーマンスや予測の低下、その他の意図しない結果につながる AI データやモデルの意図しない変更が検出されます。
人工知能に対する攻撃を検出してブロックするには、新しいテクノロジーが必要です。 AI に対する悪意のある攻撃は、財務、評判、知的財産に関連するデータ、機密性の高い顧客データ、専有データなど、組織に重大な損害や損失をもたらす可能性があります。セキュリティに取り組むアプリケーション リーダーは、異常なデータ入力、悪意のある攻撃、無害な入力エラーを検出するためのコントロールを AI アプリケーションに追加する必要があります。
AI モデルとデータに関する従来のエンタープライズ セキュリティ管理の包括的なセットと、敵対的な AI を許容するトレーニング モデルなどの AI の新しい整合性対策を実装します。最後に、詐欺、異常検出、ボット検出テクノロジーを使用して、AI データポイズニングや入力エラー検出を防ぎます。
以上がAI のリスクと安全性をどのように管理するか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。