ホームページ > 記事 > テクノロジー周辺機器 > 研究者が AI の意思決定を適切に理解するための 3 つの方法
人工知能の意思決定を理解することは、研究者、政策立案者、一般の人々にとって重要です。幸いなことに、より多くのことを確実に学ぶ方法があります。最先端の AI 企業や学者が使用するディープラーニング モデルは非常に複雑になり、モデルを構築している研究者ですら、行われている意思決定を理解することが困難になっています。
これは、あるトーナメントで最も明確に反映されました。このゲームでは、最強の手とはみなされない非公式なゲームを行うため、データ サイエンティストやプロの囲碁プレイヤーは、ゲーム中の人工知能の意思決定にしばしば混乱します。
AI 研究者が構築するモデルをより深く理解するために、AI 研究者は 3 つの主要な解釈方法を開発しました。これらはローカルな説明方法であり、モデル全体の決定ではなく、1 つの特定の決定のみを説明しますが、規模を考えると困難な場合があります。
機能を通じてアトリビューションを行うと、AI モデルは入力のどの部分が特定の意思決定にとって重要であるかを特定します。 X 線の場合、研究者は、モデルが決定において最も重要であると考えるヒート マップまたは個々のピクセルを確認できます。
この特徴属性の解釈を使用すると、偽の相関をチェックすることができます。たとえば、透かし内のピクセルが強調表示されているかどうか、または実際の腫瘍内のピクセルが強調表示されているかどうかが示されます。
意思決定をするとき、私たちは混乱して、なぜ AI がこの決定を下したのか疑問に思うかもしれません。 AI は刑務所、保険、住宅ローン融資などのリスクの高い現場に導入されているため、AI の拒否要因や控訴の理由を理解することは、次回の申請時に承認されるのに役立つはずです。
反事実解釈アプローチの利点は、決定を覆すために入力をどのように変更する必要があるかを正確に教えてくれることであり、これは実用的な用途がある可能性があります。住宅ローンを申し込んだものの、住宅ローンを組めなかった人のために、望む結果を得るために何をする必要があるかを説明します。
サンプルの重要度を解釈するには、モデルの背後にある基礎となるデータにアクセスする必要があります。研究者がエラーと思われるものに気付いた場合は、サンプルの有意性解釈を実行して、AI が計算できなかったデータが入力されて判断ミスにつながっていないかどうかを確認できます。
以上が研究者が AI の意思決定を適切に理解するための 3 つの方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。