ホームページ >テクノロジー周辺機器 >AI >説明可能な不正防止 AI について話しましょう
近年、人工知能は急速に発展し、さまざまな業界の無数のユースケースで強力な革新的なツールとして使用されています。しかし、大きな責任には多くの場合、大きな能力が必要です。 AI と機械学習のおかげで、不正行為対策テクノロジーはより正確になり、これまで以上に急速に発展しています。リアルタイム スコアリング テクノロジーにより、ビジネス リーダーは不正行為を即座に特定できます。ただし、AI-ML 主導の意思決定の使用には、透明性に関する懸念も生じます。また、一か八かの環境で ML モデルが登場すると、解釈可能性の必要性も生じます。
機械によって行われる重要な意思決定の数が増え続けるにつれて、説明可能性と理解可能性がますます重要になっています。テクノロジー研究者のティム・ミラーは次のように述べています。「理解可能性とは、人間が意思決定の理由を理解できる度合いです。」したがって、信頼できる自動化ソリューションの開発を促進するには、ML モデルの解釈可能性を開発することが重要です。
開発者、消費者、リーダーは全員、不正防止に関する意思決定の意味とプロセスを理解する必要があります。ただし、パラメーターがわずかに多い ML モデルは、ほとんどの人にとって理解するのが困難です。しかし、説明可能な AI 研究コミュニティは、理解可能ツールの開発により、ブラック ボックス モデルはもはやブラック ボックスではなくなったと繰り返し述べてきました。これらのツールの助けを借りて、ユーザーは重要な意思決定を行うために使用される ML モデルを理解し、より信頼できるようになります。
SHAP (SHApley Additive exPlanations) は、現在最も一般的に使用されているモデルに依存しない説明ツールの 1 つです。協力ゲームからシャープ値を計算し、機能の影響を均等に共有します。 SHAP の TreeExplainer アルゴリズムは、アンサンブル手法を使用して表形式のデータに基づいて不正行為に対処する場合に、多項式時間で局所的な説明を取得する機会を提供します。このツールでは近似のみが可能です。これは、ニューラル ネットワーク ベースの説明と比較して大きな進歩です。
ホワイト ボックスは通常、不正度スコアを計算するルール エンジンを指します。基本的に、ブラック ボックスはマシンがデータから学習した内容に基づいて結果を生成するのに対し、ホワイト ボックスは事前定義されたルールに基づいてスコアを生成するため、ブラック ボックスとホワイト ボックスは異なる結果を生成します。これらの違いに基づいて、両方の方法で開発できます。たとえば、ブラックボックス モデルによって発見された不正ループに基づいてルールを調整します。
ブラック ボックス テストと SHAP を組み合わせると、モデルの全体的な動作を理解し、不正行為の検出に使用されるモデルの主な特徴を明らかにすることができます。同時に、モデル内の望ましくないバイアスも明らかになる可能性があります。たとえば、モデルは特定の人口統計を差別する可能性があります。グローバル モデルの解釈を通じてそのような状況を検出できるため、不正確な予測を防ぐことができます。
さらに、モデルによって行われた個々の予測を理解するのにも役立ちます。 ML モデルのデバッグ プロセス中に、データ サイエンティストは各予測を個別に観察し、それに応じて解釈できます。その機能の貢献は、モデルが何を行っているかを認識するのに役立ち、これらの入力からさらに開発を進めることができます。 SHAP を活用することで、エンド ユーザーはモデルの基本的な特徴を取得できるだけでなく、各特徴がモデル出力の不正確率にどのように (どの方向に) 影響するかを理解することもできます。
最後に、SHAP の助けを借りて、成功モデルに対する信頼を得ることで顧客から信頼を得ることができます。一般的に、製品がどのように機能するかを理解していれば、製品に対する信頼感が高まります。人は自分が理解できないものを嫌います。解釈ツールの助けを借りて、ブラックボックスの内部を調べ、それをよりよく理解し、信頼することができます。そして、モデルを理解することで、継続的にモデルを改善することができます。
Explainable Booster (EBM) は、SHAP 勾配を使用して ML モデルをブーストする代替手段です。これは InterpretML (Microsoft の人工知能企業) の主力製品で、いわゆるガラスの箱です。 Glass Box という名前は、その構造によってその性質が解釈できることに由来しています。元のドキュメントによると、「EBM は一般に、完全な解釈可能性を維持しながら、最先端のブラック ボックス モデルと同じくらい正確です。EBM は他の最新のアルゴリズムに比べてトレーニングに時間がかかりますが、非常にコンパクトで予測が高速です。」ローカルで解釈可能なモデル - モデルに依存しない解釈 (LIME) も、ブラックボックス解釈に使用できる優れたツールです。ただし、非構造化データ モデルの方が一般的です。
上記のツールと透明なデータポイントを活用することで、組織は自信を持って意思決定を行うことができます。すべての関係者は、ツールがどのように最適な結果を生み出すかを知る必要があります。ブラックボックス ML とそれに組み合わされたさまざまなテクノロジーを理解することは、組織がビジネス目標の達成に役立つ結果にどのように到達するかをより深く理解するのに役立ちます。
人間にとって、未知のものは恐怖を感じ、信頼できないことがよくあります。 AI-ML による意思決定のアルゴリズム モデルは「ブラック ボックス」のようなもので、構造を理解することはできても、その動作原理や結果の信頼性を知ることはできません。特に不正防止分野などの高リスク環境では、AI や ML テクノロジーの適用がより困難になっています。解釈可能ツールの導入により、「ブラック ボックス」が徐々に透明化され、ユーザーの疑問や懸念が大幅に払拭されると同時に、「ブラック ボックス」自体が発展する条件が整いました。
以上が説明可能な不正防止 AI について話しましょうの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。