ホームページ > 記事 > テクノロジー周辺機器 > 機械学習は新たな攻撃対象領域を生み出し、特殊な防御が必要になります
ほぼすべての業界の企業が人工知能 (AI) テクノロジーをハードウェア製品やソフトウェア製品に統合するにつれて、機械学習 (ML) の入出力がますます一般的になってきています。顧客に。これは当然、悪意のある攻撃者の注意を引きます。
HiddenLayer の CEO、Christopher Sestito が、企業が懸念すべき機械学習セキュリティの考慮事項と関連する脅威について語ります。
機械学習資産の保護に重点を置いている企業はほとんどなく、機械学習のセキュリティにリソースを割り当てている企業はさらに少ないです。これには、予算の優先順位の競合、人材の不足、そして最近までこの問題に対処するセキュリティ製品の不足など、多くの理由があります。
過去 10 年にわたり、あらゆる業界が前例のない方法で AI/機械学習を導入し、利用可能なデータを使用してあらゆるユースケースに対処するのを見てきました。その利点は証明されていますが、他の新しいテクノロジーで見てきたように、それらはすぐに悪意のある攻撃者にとって新たな攻撃対象領域となります。
機械学習の運用が進むにつれて、データ サイエンス チームは、有効性、効率、信頼性、説明可能性の点でより成熟した AI エコシステムを構築していますが、セキュリティはまだ優先されていません。機械学習 L システムを攻撃する動機は明確であり、攻撃ツールは利用可能で使いやすく、潜在的なターゲットは前例のない速度で増加しているため、これはもはや企業にとって実行可能な手段ではありません。
機械学習モデルはますます多くの実稼働システムに統合されており、ハードウェア製品やソフトウェア製品、Web アプリケーション、モバイル アプリケーションなどで顧客に実証されています。 「エッジ AI」と呼ばれることが多いこの傾向は、私たちが毎日使用するすべてのテクノロジーに驚異的な意思決定と予測機能をもたらします。機械学習をより多くのエンドユーザーに提供しながら、同じ機械学習資産を脅威アクターに公開します。
オンラインで公開されていない機械学習モデルも危険にさらされています。これらのモデルは従来のサイバー攻撃手法を通じてアクセスでき、敵対的な機械学習の機会への道を開きます。攻撃者がアクセスを取得すると、さまざまな種類の攻撃を使用できるようになります。推論攻撃は、モデルのマッピングまたは「反転」を試み、それによってモデルの弱点を悪用したり、製品全体の機能を改ざんしたり、モデル自体をコピーして盗んだりすることができます。
人々は、ウイルス対策やその他の保護メカニズムをバイパスするためにセキュリティ ベンダーを攻撃する実際の例を目にしています。攻撃者は、モデルのトレーニングに使用されるデータをポイズニングして、システムを誤って学習させ、意思決定を攻撃者に有利に導くこともできます。
あらゆる種類の敵対的な機械学習攻撃を防御する必要がありますが、企業ごとに優先順位は異なります。機械学習モデルを活用して不正取引を特定する金融機関は、推論攻撃に対する防御に重点を置くことになります。
攻撃者が不正検出システムの長所と短所を理解していれば、それを利用して手法を変更し、モデルを完全にバイパスして検出されないようにすることができます。医療企業はデータポイズニングに対してより敏感になる可能性があります。医療分野は、膨大な過去のデータセットを使用した機械学習による結果の予測を早くから採用していました。
データポイズニング攻撃は、誤診、医薬品試験結果の改ざん、患者集団の誤った表示などを引き起こす可能性があります。セキュリティ企業自体は現在、ランサムウェアやバックドア ネットワークの導入に積極的に使用されている機械学習回避攻撃に重点を置いています。
今日、最高情報セキュリティ責任者 (CISO) に与えることができる最善のアドバイスは、新興テクノロジーで学んだパターンを受け入れることです。クラウド インフラストラクチャの進歩と同様、機械学習の導入は、特殊な防御を必要とする新たな攻撃対象領域となります。 Microsoft の Counterfit や IBM の Adversarial Robustness Toolbox などのオープンソース攻撃ツールを使用することで、敵対的機械学習攻撃への参入障壁は日々下がっています。
もう 1 つの重要な考慮事項は、これらの攻撃の多くは明らかではないため、攻撃を探していないと、攻撃が発生していることが理解できない可能性があるということです。セキュリティ専門家として、私たちはランサムウェアに慣れています。ランサムウェアは、ビジネスが侵害され、データがロックまたは盗難されたことを明確に示しています。敵対的な機械学習攻撃は、長期間にわたって発生するように調整することができ、データ ポイズニングなどの一部の攻撃は、時間はかかりますが、永続的な損害を与えるプロセスとなる可能性があります。
以上が機械学習は新たな攻撃対象領域を生み出し、特殊な防御が必要になりますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。