ホームページ >テクノロジー周辺機器 >AI >説明可能な人工知能システム (XAI) を構築するための 6 つの推奨 Python フレームワーク
AI は独自に意思決定できるブラック ボックスのようなものですが、その理由は人々にはわかりません。 AIモデルを構築し、データを入力し、結果を出力しますが、問題の1つは、AIがなぜそのような結論に達するのかを説明できないことです。文脈や説明なしに出力された結果をただ受け入れるのではなく、AI がどのようにして特定の結論に達するのか、その背後にある理由を理解する必要があります。
解釈可能性は人々が理解できるように設計されています:
この記事では、解釈可能性を高めるための 6 つの Python フレームワークを紹介します。
SHapley 加算的説明 (SHApley 加算的説明) は、機械学習モデルの出力を説明するためのゲーム理論手法です。ゲーム理論とその関連拡張からの古典的な Shapley 値を利用して、最適なクレジット割り当てをローカルな解釈に関連付けます (詳細と引用については論文を参照してください)。
データセット内の各特徴のモデル予測への寄与は、Shapley 値によって説明されます。 Lundberg と Lee の SHAP アルゴリズムは 2017 年に初めて公開され、このアルゴリズムはさまざまな分野のコミュニティで広く採用されています。
pip または conda を使用して、shap ライブラリをインストールします。
# install with pippip install shap# install with condaconda install -c conda-forge shap
Shap ライブラリを使用してウォーターフォール チャートを作成します
##Shap ライブラリを使用して Beeswarm チャートを作成します##Shap ライブラリを使用した部分依存関係グラフの構築
LIME
モデルがそのように予測する理由を知ることは、アルゴリズムを調整する上で非常に重要です。 LIME の説明を読めば、モデルがなぜこのように動作するのかが理解できます。モデルが計画どおりに実行されない場合は、データ準備フェーズで間違いが発生した可能性があります。
#pip を使用してインストール
pip install lime##LIME が作成した説明図の一部 LIME によって構築された Beeswarm グラフ
Shapash
「Shapash は、機械学習を誰にとっても解釈可能かつ理解できるようにする Python ライブラリです。Shapash は、いくつかの種類の視覚化を提供し、明確なラベルを表示します。 「誰もが理解できます。データ サイエンティストは、より簡単にモデルを理解し、結果を共有できます。エンド ユーザーは、最も標準的な概要を使用して、モデルがどのように判断したかを理解できます。」
# #ストーリー、洞察、および情報を含む調査結果を表現するためデータ内のモデル、対話性、美しいグラフが不可欠です。ビジネスおよびデータ サイエンティスト/アナリストが AI/ML の結果を提示して操作するための最良の方法は、結果を視覚化して Web 上に公開することです。 Shapash ライブラリは、インタラクティブなダッシュボードを生成でき、多くの視覚化チャートのコレクションを備えています。形状/ライムの解釈可能性に関連します。 SHAP/Lime をバックエンドとして使用できるため、見栄えの良いチャートのみが提供されます。 #Shapash を使用した機能貢献グラフの構築 Shapash ライブラリを使用して作成されたインタラクティブ ダッシュボード
#Shapash を使用して構築された部分解釈グラフ
InterpretML
InterpretML は、機械学習の解釈可能性アルゴリズムを研究者に提供するオープンソースの Python パッケージです。 InterpretML は、解釈可能なモデル (グラスボックス) のトレーニングと、既存の ML パイプラインの解釈 (ブラックボックス) をサポートします。
InterpretML は、2 種類の解釈可能性を示します。グラスボックス モデル – 解釈可能性を目的に設計された機械学習モデル (例: 線形モデル、ルール リスト、一般化された加算モデル)、およびブラック ボックス解釈可能性手法 – 既存のシステムを説明するために使用されます (例: 部分依存関係、LIME)。 。統合 API を使用し、複数のメソッドをカプセル化し、組み込みの拡張可能な視覚化プラットフォームを備えたこのパッケージにより、研究者は解釈可能アルゴリズムを簡単に比較できます。 InterpretML には、説明ブースティング マシンの最初の実装も含まれています。これは、多くのブラック ボックス モデルと同じくらい正確な、強力で解釈可能なガラスボックス モデルです。
#InterpretML を使用して構築されたローカル説明対話型グラフ InterpretML を使用して構築されたグローバル説明グラフ#ELI5
#ELI5 ライブラリを使用してグローバル ウェイトを生成する
ELI5 ライブラリを使用してローカル ウェイトを生成する
OmniXAIOmniXAI (Omni Explained AI の略) は、Salesforce によって最近開発され、オープンソース化された Python ライブラリです。実際に機械学習モデルを生成する際に判断が必要ないくつかの問題を解決するために、説明可能な人工知能と説明可能な機械学習の機能を幅広く提供します。 OmniXAI は、ML プロセスのさまざまな段階でさまざまなタイプのデータ、モデル、説明手法を解釈する必要があるデータ サイエンティストや ML 研究者向けに、説明可能な AI をシンプルにするワンストップの包括的なライブラリを提供したいと考えています。以下は、OmniXAI が提供するものと他の同様のライブラリとの比較です。
以上が説明可能な人工知能システム (XAI) を構築するための 6 つの推奨 Python フレームワークの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。