ホームページ > 記事 > テクノロジー周辺機器 > サイバーセキュリティの擁護者は AI ツールボックスを拡大しています
科学者は、深層強化学習 (DRL: Deep Reinforcement Learning) と呼ばれる人工知能テクノロジーを使用してコンピューター ネットワークを保護し、重要な一歩を踏み出しました。
#厳密にシミュレートされた環境で複雑なサイバー攻撃に直面した場合、深層強化学習は 95% の確率でより効果的に実行されます。相手の目標達成を妨げます。このテスト結果は、自律型人工知能がプロアクティブなサイバー防御において役割を果たすという期待を与えています。
米国エネルギー省の太平洋岸北西部国立研究所 (PNNL) の科学者たちは、ワシントン D.C. で開催された人工知能推進協会で 2 月 14 日に発表された研究論文でその発見を文書化しました。研究成果は、年次総会中のサイバーセキュリティのための人工知能シンポジウムで発表されました。
プロジェクトの出発点は、さまざまな種類の敵が関与する多段階の攻撃シナリオをテストするためのシミュレート環境の開発でした。このような動的な攻撃と防御の実験用シミュレーション環境を構築すること自体が成果です。この環境は、研究者に、制御されたテスト環境でさまざまな AI ベースの防御の有効性を比較する方法を提供します。
これらのツールは、深層強化学習アルゴリズムのパフォーマンスを評価するために重要です。このアプローチは、サイバーセキュリティ専門家にとって強力な意思決定支援ツールになりつつあり、DRL は、学習し、急速に変化する環境に適応し、自律的な意思決定を行う能力を備えた防御モデルです。これまでは、他の形式の人工知能が侵入の検出やスパムのフィルタリングの標準でしたが、深層強化学習は、敵との日々の対決において、一連の意思決定計画を調整する防御側の能力を拡張します。
深層強化学習は、よりスマートなネットワーク セキュリティ、ネットワーク環境の変化を早期に検出する機能、サイバー攻撃を阻止するための先制手段を講じる機会を提供します。
チームの研究を紹介したデータサイエンティストのサムラット・チャタジー氏は次のように述べています。「効果的なサイバーセキュリティ AI エージェントは、収集できる情報とその決定の結果に基づいて感知する必要があります」 「システム状態とオプションのアクションの数が大きくなる可能性があるため、深層強化学習にはこの分野で大きな可能性があります。」
DRL強化学習 (RL) と深層学習 (DL) を組み合わせることで、複雑な環境で一連の意思決定を行う必要がある状況に特に適しています。幼児が衝突や擦り傷から学習するのと同じように、深層強化学習 (DRL) ベースのアルゴリズムは、良い決定に報酬を与え、悪い決定に罰を与えることによってトレーニングされます。望ましい結果につながる良い決定は、肯定的な報酬 (数値として表現) によってサポートされ、減点によって訓練されます。悪い結果につながる間違った選択を阻止するための報酬。
チームは、オープンソース ソフトウェア ツールキット OpenAI Gym を基盤として使用し、4 つの深層強化学習アルゴリズムの長所と短所を評価するためのカスタム制御シミュレーション環境を作成しました。
MITRE Corporation が開発した MITRE ATT&CK フレームワークも使用し、3 人の異なる対戦相手が展開する 7 つの戦術と 15 のテクニックを組み合わせます。防御側には、攻撃の進行を阻止または阻止するための 23 の緩和策が装備されています。
攻撃の段階には、偵察、実行、持続、防御回避、指揮統制、収集、フィルタリング (データがシステム外に転送されるとき) などの戦術が含まれます。 。攻撃者が最終フィルタリング段階に正常に到達すると、攻撃は勝利したものとして記録されます。
### ###「私たちのアルゴリズムは競争環境で動作します。これは、システムに損害を与えることを目的とした敵対者との競争です。これは多段階の攻撃です。この攻撃では、敵対者は複数の攻撃パスを追求する可能性があり、それらが切り替わる可能性があります。」 「彼らは偵察から悪用に移ろうとするのに時間がかかります。私たちの課題は、深層強化学習に基づく防御がどのようにしてこの攻撃を阻止できるかを示すことです。」 ##########DQN は他の方法より優れたパフォーマンスを示します##### #######チームは 4 つの深層強化学習アルゴリズムに基づいています: DQN (Deep Q-Network) とその他の 3 つのバリアント 防御エージェントを訓練するためのアルゴリズムは、サイバー攻撃に関するシミュレートされたデータで訓練され、その後、観測中に観察されなかった攻撃でテストされましたトレーニング。 ######
DQN が最も優れたパフォーマンスを示しました:
低レベルの複雑な攻撃: DQN は、攻撃フェーズの途中で攻撃の 79% をブロックしました。最終段階で攻撃の 93% を阻止しました。
中程度複雑な攻撃: DQN は攻撃の中盤で 82%、最終段階では 95% をブロックしました。
最も複雑な攻撃: DQN は、攻撃の途中で 57%、最終段階で 84% をブロックしました。これは、他の 3 つのアルゴリズムよりもはるかに高かったです。
目標は、敵の最も可能性の高い次の動きを理解し、それを計画し、システムを保護するために可能な限り最善の方法で対応できる自律型防御エージェントを作成することです。 ."
進歩にもかかわらず、サイバー防御を人工知能システムに完全に任せようとする人は誰もいません。代わりに、DRL ベースのサイバーセキュリティ システムは人間と連携して機能する必要があると、PNNL の元共著者である Arnab Bhattacharya 氏は述べています。 「AI は特定の戦略から防御するのは得意ですが、敵が取る可能性のあるすべてのアプローチを理解するのはあまり得意ではありません。AI が人間のサイバー アナリストに取って代わる段階にはまだ程遠いです。人間のフィードバックとガイダンスが重要です。」
Chatterjee 氏と Bhattacharya 氏に加えて、ワークショップ論文の著者には PNNL の Mahantesh Halappanavar 氏と元 PNNL 科学者の Ashutosh Dutta 氏が含まれています。この研究はエネルギー省科学局から資金提供を受けており、この特定の研究を推進する初期の研究の一部は、実験室主導研究開発プログラムを通じた PNNL の科学における人工推論数学プログラムから資金提供を受けました。
以上がサイバーセキュリティの擁護者は AI ツールボックスを拡大していますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。