ホームページ  >  記事  >  テクノロジー周辺機器  >  安全監督要件の4つの側面を提案した世界初の「AIシステムセキュリティ開発ガイドライン」を公表

安全監督要件の4つの側面を提案した世界初の「AIシステムセキュリティ開発ガイドライン」を公表

WBOY
WBOY転載
2023-11-28 14:34:43922ブラウズ

安全監督要件の4つの側面を提案した世界初の「AIシステムセキュリティ開発ガイドライン」を公表

2023年11月26日、米国、英国、オーストラリアなど18カ国のサイバーセキュリティ規制当局は共同で、AIシステムのセキュリティ開発ガイドラインを世界で初めて公表しました。 AI モデルを悪意のある改ざんから保護し、AI モデルを開発または使用する際に「設計によるセキュリティ」にもっと注意を払うよう AI 企業に促します。

安全監督要件の4つの側面を提案した世界初の「AIシステムセキュリティ開発ガイドライン」を公表

米国サイバーセキュリティ・インフラセキュリティ庁 (CISA) は主要参加者の 1 つとして、世界は AI テクノロジーの急速な発展において転換点を経験していると述べました。そして AI テクノロジーは、今日最も影響力のあるテクノロジーになる可能性があります。ただし、安全で信頼性の高い AI システムを構築するには、サイバーセキュリティを確保することが重要です。この目的を達成するために、私たちは複数の国のサイバーセキュリティ規制当局を結集し、Google、Amazon、OpenAI、Microsoft などの企業の技術専門家と協力して、AI テクノロジー アプリケーションのセキュリティを向上させることを目的としてこのガイドラインを共同で作成、発行しました

このガイドラインは、公的機関が発行した世界初の AI システム開発の安全性に関するガイダンス文書であるとされています。このガイドラインでは、AI企業が顧客にとって安全な結果を確保することを優先し、AIアプリケーションの透明性と説明責任のメカニズムを積極的に主張し、安全設計を最優先に組織の管理構造を構築する必要があることを明確に求めている。このガイドラインは、AI のサイバーセキュリティを向上させ、AI テクノロジーの安全な設計、開発、展開を確保することを目的としています。

さらに、サイバーセキュリティ リスク管理における米国政府の長年の経験に基づき、このガイドラインでは、すべての AI 研究開発企業に対し、新しい AI ツールを公開する前に十分なテストを実施し、セキュリティ対策が講じられていることを確認することが求められています。社会的危害(偏見や差別など)とプライバシーの懸念を最小限に抑えるため。このガイドラインでは、AI 研究開発企業に対し、脆弱性を迅速に発見して修復できるよう、バグ報奨金制度を通じてサードパーティが自社の AI システムの脆弱性を発見して報告できるよう支援することを約束することも求めています

具体的には、今回公開されたガイドライン

1. 「設計によるセキュリティ」と「デフォルトによるセキュリティ」を優先する

AI 開発企業は、「セキュリティによるセキュリティ」を繰り返し強調してきました。ガイドラインの「設計」と「デフォルトで安全」の原則。これは、AI 製品を攻撃から保護するための対策を積極的に講じる必要があることを意味します。ガイドラインに準拠するために、AI 開発者は、製品の機能やパフォーマンスだけに焦点を当てるのではなく、意思決定プロセスにおいて安全性を優先する必要があります。このガイドラインでは、製品が最も安全なデフォルトのアプリケーション オプションを提供し、そのデフォルト設定を上書きするリスクをユーザーに明確に伝えることも推奨しています。さらに、規範で求められているように、AI システムの開発者は、セキュリティの制御を顧客に依存するのではなく、下流のアプリケーションの結果に責任を負う必要があります。

リクエストからの抜粋: 「ユーザー ( AI プロバイダーは、使用している AI システムに関連するリスクを完全に理解、評価、または対処するための十分な可視性と専門知識を欠いていることが多いため、「設計による安全性」の原則に従って、AI プロバイダーは「コンポーネントは、サプライ チェーンの下流のユーザーのセキュリティ上の影響に対して責任を負う必要があります。」

2. 複雑なサプライ チェーンのセキュリティに細心の注意を払う

AI ツール開発者は、次のような場合にサードパーティのコンポーネントに依存することがよくあります。基本的なモデル、トレーニング データセット、API などの独自の製品を設計します。大規模なサプライヤー ネットワークは AI システムへの攻撃対象領域を拡大し、そこに脆弱な部分があると製品のセキュリティに悪影響を与える可能性があります。したがって、ガイドラインでは、開発者がサードパーティのコンポーネントを参照することを決定する際に、セキュリティ リスクを十分に評価することが求められています。サードパーティと協力する場合、開発者はベンダーのセキュリティ体制を確認および監視し、ベンダーに自社の組織と同じセキュリティ標準を遵守するよう要求し、インポートされたサードパーティ コードのスキャンと隔離を実装する必要があります。

リクエストからの抜粋: 「ミッションクリティカルなシステムの開発者は、サードパーティのコンポーネントがセキュリティ基準を満たしていない場合、代替ソリューションに切り替える準備ができている必要があります。企業は NCSC のサプライを使用できます」サプライ チェーンとソフトウェア開発のライフ サイクル認定を追跡するソフトウェア アーティファクト サプライ チェーン レベル (SLSA) などのチェーン ガイダンス リソース。"

#3. AI アプリケーションで直面する固有のリスクを考慮する

#AIシステムは適用されるといくつかの固有の脅威 (プロンプト インジェクション攻撃やデータ ポイズニングなど) を生成するため、開発者は AI システム固有のセキュリティ要素を十分に考慮する必要があります。 AI システムに対する「安全な設計」アプローチの重要な要素は、機密データの漏洩を防ぎ、ファイル編集などのタスクに使用される AI コンポーネントの動作を制限するために、AI モデルの出力に安全ガードレールを設定することです。開発者は、AI 固有の脅威シナリオをリリース前テストに組み込み、システムを悪用する悪意のある試みがないかユーザー入力を監視する必要があります。

必須抜粋: 「「敵対的機械学習」(AML) という用語は、ハードウェア、ソフトウェア、ワークフロー、サプライ チェーンなどの機械学習コンポーネントにおけるセキュリティの脆弱性の悪用を説明するために使用されます。AML により、攻撃者は、モデルの分類や回帰のパフォーマンスに影響を与える、ユーザーが不正な操作を実行できるようにする、モデルの機密情報を抽出するなど、機械学習システムで予期しない動作を引き起こす可能性があります。」

4. AI システムのセキュリティ開発は、次のことを行う必要があります。継続的かつ協調的

このガイドラインでは、AI システムの設計、開発、導入、運用、保守のライフサイクル段階全体におけるセキュリティのベスト プラクティスを概説し、導入された AI システムの継続的な監視を強調しています。モデルの動作の変化と不審なユーザー入力。 「設計によるセキュリティ」の原則は、ソフトウェア更新の重要な要素であり、ガイドラインでは開発者がデフォルトで自動的に更新することを推奨しています。最後に、開発者は、システムのセキュリティを継続的に向上させるために、AI コミュニティの膨大なフィードバックと情報共有を活用することをお勧めします。

リクエストからの抜粋: 「AI システム開発者は、必要に応じて、発生したセキュリティ問題を報告できる 脆弱性の開示に応じて、一般的な脆弱性の詳細かつ完全な列挙を含むアナウンスを発行するなど、問題をより大きなコミュニティにエスカレーションする セキュリティ問題が発見された場合、開発者は軽減および修正するための措置を講じる必要があります

参考リンク:

書き換えが必要な内容は以下のとおりです: 2023 年 11 月、米国、英国およびグローバルパートナーは声明を発表しました。

世界的な人工知能の安全性ガイドラインの 4 番目の重要なポイント

以上が安全監督要件の4つの側面を提案した世界初の「AIシステムセキュリティ開発ガイドライン」を公表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。