検索
ホームページテクノロジー周辺機器AI深層強化学習における敵対的な攻撃と防御

01 はじめに

この論文は、攻撃に抵抗するための深層強化学習の取り組みについて説明しています。この論文では、著者はロバスト最適化の観点から、敵対的攻撃に対する深層強化学習戦略のロバスト性を研究します。ロバストな最適化の枠組みの下では、戦略の期待利益を最小限に抑えることで最適な敵対的攻撃が与えられ、それに応じて最悪のシナリオに対処する戦略のパフォーマンスを向上させることで優れた防御メカニズムが実現されます。

攻撃者は通常、トレーニング環境では攻撃できないことを考慮して、環境と対話することなく戦略の期待利益を最小限に抑えようとする貪欲な攻撃アルゴリズムを提案します。さらに、著者は、最大最小ゲームを使用して深層強化学習アルゴリズムの敵対的トレーニングを実行する防御アルゴリズム。

Atari ゲーム環境での実験結果は、著者が提案した敵対的攻撃アルゴリズムが既存の攻撃アルゴリズムよりも効果的であり、戦略の返還率が低いことを示しています。この論文で提案されている敵対的防御アルゴリズムによって生成される戦略は、既存の防御方法よりもさまざまな敵対的攻撃に対して堅牢です。

02 予備知識

2.1 敵対的攻撃

任意のサンプル (x, y) とニューラル ネットワーク f が与えられた場合、敵対的サンプルを生成する最適化目標は次のとおりです。

深層強化学習における敵対的な攻撃と防御

ここで、 はニューラル ネットワーク f のパラメーター、L は損失関数、は敵対的摂動セット、

は x を中心とし、半径。 PGD​​ 攻撃を通じて敵対的サンプルを生成するための計算式は次のとおりです: 深層強化学習における敵対的な攻撃と防御

深層強化学習における敵対的な攻撃と防御

ここで、

は投影演算を表します。入力が標準球の外側にある場合、入力はx を中心とし、半径として球上に投影されることは、PGD 攻撃の 1 ステップの外乱サイズを表します。 深層強化学習における敵対的な攻撃と防御

2.2 強化学習とポリシー勾配

強化学習問題は、マルコフ決定プロセスとして説明できます。マルコフ決定プロセスは、

の 5 つ組として定義できます。ここで、S は状態空間、A はアクション空間、深層強化学習における敵対的な攻撃と防御 は状態遷移確率、r は割引係数を表します。強学習学習の目標は、値関数 深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御

深層強化学習における敵対的な攻撃と防御 を最大化するパラメータ ポリシー分布を学習することです。ここで、 は初期状態を表します。強力な学習には、アクション価値関数の評価が含まれます。

深層強化学習における敵対的な攻撃と防御 上記の式は、状態が実行された後にポリシーに従うという数学的な期待を表します。この定義から、価値関数と行動価値関数が次の関係を満たすことがわかります。

深層強化学習における敵対的な攻撃と防御#表現を容易にするため、著者は主にマルコフ過程に焦点を当てています。ただし、すべてのアルゴリズムと結果は、連続する設定に直接適用できます。

03 論文法

深層強化学習戦略の敵対的攻撃と防御は、ロバストな最適化 PGD

のフレームワークに基づいています。

ここで、深層強化学習における敵対的な攻撃と防御 は、敵対的な摂動シーケンスのセットを表します 深層強化学習における敵対的な攻撃と防御、すべての 深層強化学習における敵対的な攻撃と防御 について、満足のいく 深層強化学習における敵対的な攻撃と防御 上記の式は、攻撃と防御に対抗するための深層強化学習のための統一フレームワークを提供します。

一方、内部最小化最適化は、現在の戦略に誤った決定をさせる対立的な摂動シーケンスを見つけようとします。一方、外部最大化の目的は、摂動戦略の下で期待される収益を最大化するための戦略分布パラメータを見つけることです。上記の敵対的攻撃と防御ゲームの後、トレーニング プロセス中の戦略パラメーターは敵対的攻撃に対する耐性が高くなります。

目的関数の内部最小化の目的は敵対的摂動を生成することですが、強化学習アルゴリズムが最適な敵対的摂動を学習するには非常に時間と労力がかかり、またトレーニング環境が脅威となるためです。ブラックボックスであるため、この論文では、攻撃者がさまざまな状態で摂動を注入するという実際的な設定を検討します。教師あり学習攻撃シナリオでは、攻撃者は分類器モデルを騙して誤分類させ、間違ったラベルを生成するだけで済みます。強化学習攻撃シナリオでは、アクション値関数が追加情報、つまり小さな動作値を攻撃者に提供します。その結果、期待される収益はわずかになります。これに対応して、著者は、深層強化学習における最適な敵対的摂動を次のように定義します。

定義 1: 状態 s に対する最適な敵対的摂動は、状態の期待されるリターンを最小限に抑えることができます

深層強化学習における敵対的な攻撃と防御

上記の式の最適化と解決は非常に難しいことに注意してください。攻撃者がエージェントをだまして最悪の意思決定動作を選択できるようにする必要があります。ただし、攻撃者にとって、エージェントのアクション値は関数は不可知論的であるため、摂動に対して最適であるという保証はありません。次の定理は、政策が最適であれば、アクション値関数

にアクセスせずに最適な敵対的摂動を生成できることを示しています。 定理 1: 制御戦略 深層強化学習における敵対的な攻撃と防御 が最適な場合、アクション値関数と戦略は次の関係を満たす

深層強化学習における敵対的な攻撃と防御

# ここで、 はポリシーのエントロピーを表し、 は状態に依存する定数で、 0 に変化すると、それも 0 に変化します。 さらに、次の式

は次のことを証明します。ランダム戦略 深層強化学習における敵対的な攻撃と防御 が最適に達すると、価値関数 深層強化学習における敵対的な攻撃と防御 も最適に達します。これは、各状態で、次のような他の行動分布を見つけることは不可能であることを意味します。価値関数 深層強化学習における敵対的な攻撃と防御 が増加すること。同様に、最適なアクション値関数 深層強化学習における敵対的な攻撃と防御 が与えられた場合、制約付き最適化問題を解くことで最適な戦略を取得できます。深層強化学習における敵対的な攻撃と防御

深層強化学習における敵対的な攻撃と防御

2 行目と 3 行目は確率を表します。 KKT 条件に従って、上記の最適化問題は次の形式に変換できます:

深層強化学習における敵対的な攻撃と防御

############で###。

がすべてのアクション 深層強化学習における敵対的な攻撃と防御 に対して正定であると仮定すると、次のようになります。

深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御

の場合、

が存在し、その後に任意の ' が存在する必要があります。 s 深層強化学習における敵対的な攻撃と防御、次に

があるため、アクション値関数と戦略

深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御

のソフトマックスの間の関係が得られます。

深層強化学習における敵対的な攻撃と防御

深層強化学習における敵対的な攻撃と防御 上の最初の方程式を 2 番目の方程式に組み込むと、

深層強化学習における敵対的な攻撃と防御

ここで

## になります。

深層強化学習における敵対的な攻撃と防御

#上記の式で、

はソフトマックス形式の確率分布を表し、そのエントロピーは に等しい。が 0 に等しいときは 0 になります。この場合、 は 0 より大きいので、この時点では

になります。

深層強化学習における敵対的な攻撃と防御定理 1 は、戦略が最適であれば、摂動戦略と元の戦略のクロスエントロピーを最大化することで最適な摂動を取得できることを示しています。議論を簡単にするため、著者は定理 1 の攻撃を戦略的攻撃と呼び、PGD アルゴリズム フレームワークを使用して最適な戦略的攻撃を計算します。具体的なアルゴリズムのフローチャートを以下のアルゴリズム 1 に示します。

深層強化学習における敵対的な攻撃と防御深層強化学習における敵対的な攻撃と防御

著者が提案する摂動防御のためのロバスト最適化アルゴリズムのフローチャートを以下のアルゴリズム 2 に示します.このアルゴリズムは戦略的攻撃敵対的トレーニングと呼ばれます。トレーニング段階では、摂動ポリシーは環境と対話するために使用され、摂動ポリシーのアクション値関数

はポリシーのトレーニングを支援するために推定されます。

具体的な詳細は、価値関数が減少することが保証されていないにもかかわらず、著者が最初に戦略的攻撃を使用してトレーニング段階で摂動を生成していることです。トレーニングの初期段階では、ポリシーはアクション価値関数に関連していない可能性がありますが、トレーニングが進むにつれて、それらは徐々にソフトマックス関係を満たすようになります。 深層強化学習における敵対的な攻撃と防御

一方、著者はアクション価値関数を正確に推定する必要があります。

摂動ポリシーを実行することで軌跡が収集され、これらのデータを使用してアクション価値関数を推定するため、扱いが困難です。動揺しない方針は非常に不正確である可能性があります。 深層強化学習における敵対的な攻撃と防御

PPO を使用した最適化された摂動戦略 深層強化学習における敵対的な攻撃と防御 の目的関数は

であり、深層強化学習における敵対的な攻撃と防御 は摂動戦略の平均関数 深層強化学習における敵対的な攻撃と防御 の推定値です。実際には、深層強化学習における敵対的な攻撃と防御 は GAE 手法によって推定されます。具体的なアルゴリズムのフローチャートを下図に示します。 深層強化学習における敵対的な攻撃と防御

深層強化学習における敵対的な攻撃と防御

04 実験結果

右下の 3 つのサブ図は、さまざまな攻撃摂動の結果を示しています。逆トレーニングされたポリシーと標準ポリシーの両方がランダムな摂動に対して耐性があることがわかります。対照的に、敵対的な攻撃はさまざまな戦略のパフォーマンスを低下させます。結果はテスト環境と防御アルゴリズムに依存しており、さらに 3 つの敵対的攻撃アルゴリズム間のパフォーマンスの差が小さいことがわかります。

対照的に、比較的困難な設定では、アルゴリズム干渉を攻撃するために論文の著者が提案した戦略は、はるかに低い利益をもたらします。全体として、この論文で提案されている戦略的攻撃アルゴリズムは、ほとんどの場合で最も低い報酬を生成します。これは、テストされたすべての敵対的攻撃アルゴリズムの中で実際に最も効率的であることを示しています。

深層強化学習における敵対的な攻撃と防御

次の図は、さまざまな防御アルゴリズムと標準 PPO の学習曲線を示しています。パフォーマンス曲線は、環境と対話するために使用される戦略の期待収益のみを表すことに注意することが重要です。すべてのトレーニング アルゴリズムの中で、論文で提案されている ATPA はトレーニングの分散が最も低いため、他のアルゴリズムよりも安定しています。また、特にトレーニングの初期段階では、ATPA の進行が標準の PPO よりもはるかに遅いことにも注目してください。これは、訓練の初期段階において、不利な要因によって妨害されると、政策訓練が非常に不安定になる可能性があるという事実につながります。

深層強化学習における敵対的な攻撃と防御

#表は、さまざまなアルゴリズムを使用したさまざまな摂動下での戦略の期待収益をまとめたものです。 ATPA で訓練された戦略は、さまざまな敵対的干渉に対して耐性があることがわかります。比較すると、StageWise と DataAugment は敵対的攻撃にある程度対処できるようになりましたが、すべてのケースにおいて ATPA ほど効果的ではありません。

深層強化学習における敵対的な攻撃と防御

さらに広範な比較として、著者らは、最も効果的な戦略的攻撃アルゴリズムによって生成されるさまざまな程度の敵対的干渉に対するこれらの防御アルゴリズムの堅牢性も評価しています。以下に示すように、ATPA は再びすべてのケースで最高のスコアを獲得しました。また、ATPA の評価分散は StageWise や DataAugment に比べて非常に小さく、ATPA の生成能力が高いことがわかります。

深層強化学習における敵対的な攻撃と防御

同様のパフォーマンスを達成するには、ATPA では標準の PPO アルゴリズムよりも多くのトレーニング データが必要です。著者らは、摂動戦略の安定性を研究することで、この問題を掘り下げています。著者らは、トレーニングプロセスの途中と終了時に異なるランダムな初期点を持つPGDを使用してポリシー攻撃を実行することによって得られた摂動ポリシーのKL発散値を計算しました。以下の図に示すように、敵対的トレーニングがなければ、標準 PPO が収束した場合でも大きな KL 発散値が継続的に観察され、異なる初期点で PGD を実行することによって生成される摂動に対してポリシーが非常に不安定であることを示しています。

深層強化学習における敵対的な攻撃と防御

次の図は、異なる初期点を使用した摂動戦略の KL 発散プロットを示しています。図内の各ピクセルが 2 つの KL 発散値を表していることがわかります。これら 2 つの摂動戦略は、ATPA アルゴリズムのコア公式を最大化することによって与えられます。 KL 発散は非対称メトリックであるため、これらのマッピングも非対称であることに注意してください。

深層強化学習における敵対的な攻撃と防御## ####################################

以上が深層強化学習における敵対的な攻撃と防御の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
AIゲーム開発は、激動の夢想家ポータルでエージェントの時代に入りますAIゲーム開発は、激動の夢想家ポータルでエージェントの時代に入りますMay 02, 2025 am 11:17 AM

激動ゲーム:AIエージェントとのゲーム開発に革命をもたらします BlizzardやObsidianなどの業界の巨人の退役軍人で構成されるゲーム開発スタジオであるUpheavalは、革新的なAIを搭載したPlatforでゲームの作成に革命をもたらす態勢を整えています。

UberはあなたのRobotaxiショップになりたいと思っています、プロバイダーはそれらを許可しますか?UberはあなたのRobotaxiショップになりたいと思っています、プロバイダーはそれらを許可しますか?May 02, 2025 am 11:16 AM

UberのRobotaxi戦略:自動運転車用の乗車エコシステム 最近のCurbivore Conferenceで、UberのRichard Willderは、Robotaxiプロバイダーの乗車プラットフォームになるための戦略を発表しました。 で支配的な位置を活用します

ビデオゲームをプレイするAIエージェントは、将来のロボットを変革しますビデオゲームをプレイするAIエージェントは、将来のロボットを変革しますMay 02, 2025 am 11:15 AM

ビデオゲームは、特に自律的なエージェントと現実世界のロボットの開発において、最先端のAI研究のための非常に貴重なテストの根拠であることが証明されています。 a

スタートアップインダストリアルコンプレックス、VC 3.0、およびジェームズクーリエのマニフェストスタートアップインダストリアルコンプレックス、VC 3.0、およびジェームズクーリエのマニフェストMay 02, 2025 am 11:14 AM

進化するベンチャーキャピタルの景観の影響は、メディア、財務報告、日常の会話で明らかです。 ただし、投資家、スタートアップ、資金に対する特定の結果はしばしば見落とされています。 ベンチャーキャピタル3.0:パラダイム

AdobeはAdobe Max London 2025でクリエイティブクラウドとホタルを更新しますAdobeはAdobe Max London 2025でクリエイティブクラウドとホタルを更新しますMay 02, 2025 am 11:13 AM

Adobe Max London 2025は、アクセシビリティと生成AIへの戦略的シフトを反映して、Creative Cloud and Fireflyに大幅な更新を提供しました。 この分析には、イベント以前のブリーフィングからの洞察がAdobeのリーダーシップを取り入れています。 (注:ADOB

すべてのメタがラマコンで発表しましたすべてのメタがラマコンで発表しましたMay 02, 2025 am 11:12 AM

MetaのLlamaconアナウンスは、Openaiのような閉じたAIシステムと直接競合するように設計された包括的なAI戦略を紹介し、同時にオープンソースモデルの新しい収益ストリームを作成します。 この多面的なアプローチはBOをターゲットにします

AIは単なる通常のテクノロジーに過ぎないという提案に関する醸造論争AIは単なる通常のテクノロジーに過ぎないという提案に関する醸造論争May 02, 2025 am 11:10 AM

この結論に関して、人工知能の分野には深刻な違いがあります。 「皇帝の新しい服」を暴露する時が来たと主張する人もいれば、人工知能は普通の技術であるという考えに強く反対する人もいます。 それについて議論しましょう。 この革新的なAIブレークスルーの分析は、AIの分野での最新の進歩をカバーする私の進行中のForbesコラムの一部です。 一般的な技術としての人工知能 第一に、この重要な議論の基礎を築くためには、いくつかの基本的な知識が必要です。 現在、人工知能をさらに発展させることに専念する大量の研究があります。全体的な目標は、人工的な一般情報(AGI)を達成し、さらには可能な人工スーパーインテリジェンス(AS)を達成することです

モデル市民、なぜAI価値が次のビジネスヤードスティックであるのかモデル市民、なぜAI価値が次のビジネスヤードスティックであるのかMay 02, 2025 am 11:09 AM

企業のAIモデルの有効性は、現在、重要なパフォーマンス指標になっています。 AIブーム以来、生成AIは、誕生日の招待状の作成からソフトウェアコードの作成まで、すべてに使用されてきました。 これにより、言語modが急増しました

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

WebStorm Mac版

WebStorm Mac版

便利なJavaScript開発ツール

SublimeText3 英語版

SublimeText3 英語版

推奨: Win バージョン、コードプロンプトをサポート!

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

強力な PHP 統合開発環境

AtomエディタMac版ダウンロード

AtomエディタMac版ダウンロード

最も人気のあるオープンソースエディター