ホームページ > 記事 > テクノロジー周辺機器 > 人工知能を説明可能にするにはどうすればよいでしょうか?
RegTech Company Hawk: AI 最高技術責任者の Wolfgang Berner 氏は、本当に説明可能性が多くのアプリケーションにとって特に重要であると述べました。
バーナー氏は、「マネーロンダリング対策などの高度に規制された分野では、人工知能の使用において透明性と説明可能性を考慮することは完全に適切である。AIの決定が元のデータやデータからあまりにも切り離されている場合、アルゴリズムの仕組み、透明性が欠如している場合、この古典的な「ブラック ボックス AI」に関する懸念が生じます。
Hawk AI は、業界のコンプライアンス、信頼、受け入れの鍵は高レベルのデータであると考えています。透明性。したがって、同社にとって、AI の説明可能性に対するニーズは、純粋な規制要件をはるかに超えています。
わかりやすい人工知能を使えば、金融機関はニューラル ネットワークなどの複雑なモデルであっても概要を把握し、制御することができます。 Hawk AI の場合、説明可能性は 2 つの側面で構成されます。AI による個別の決定の理論的根拠は何でしょうか?人工知能を支援するアルゴリズムはどのように開発されているのでしょうか?
Hawk AI は次のように述べています: 「Hawk AI にとって、これは明らかです。最終的には技術的に説明可能なものだけが受け入れられます。決定の正確な基準、または特定のリスクの統計的確率とアルゴリズムの構成が重要です」 「AI の意思決定プロセスを完全に文書化することが重要です。また、これらすべてが純粋に専門用語ではなく、明確でわかりやすい言語で表現されていることも重要です。」
同社は、あらゆる詳細とすべての事項が重要であると信じています。データ ソースはすべて検証可能である必要があります。たとえば、特定の値が特定のピア グループと比較して大幅に高いか低いかなどです。なぜ AI が特定の期待値を想定するのか、そしてこれらの値がどのように相互に関係するのかが透明でなければなりません。データの全体像は、コンプライアンス担当者が同じデータを使用して同じ決定を下せるほど明確でなければなりません。
さらに、一貫したフィードバックと検証プロセスは意思決定を継続的に改善するのに役立ちます。そのため、AI はコンプライアンス チームの意思決定から直接学習し、将来的にはより適切にサポートできるようになります。
Hawk 氏は、AI はアプリケーションの開始時に透過的である必要がある (新しいデータにさらされることで独自に改善されるため) だけでなく、そのような最適化を理解できる必要があると述べました。この目的のために、同社は、AI のすべての変更プロセスもソフトウェアに文書化され、明示的な承認が必要であると主張しています。したがって、コンプライアンス チームがそれを理解して制御できなければ、AI は決して進化しません。
Hawk AI は次のように結論付けています:「AI マネーロンダリング対策は準備が整っています。Hawk AI を使用すると、透明性と安全性が確保されます。これらの理由から、Hawk AI は人工知能に関連する「ホワイト ボックス AI」について話しており、そのテクノロジーは完全に「ブラック ボックス AI」と比較して、コンプライアンス チームにとって理解可能です。その結果、当社のソフトウェアは完全な制御とセキュリティを提供します。金融における人工知能の適用は、金融との戦い、犯罪との戦いに革命をもたらしています。
「テクノロジー」 -マネーロンダリング対策は、効率と有効性の点で従来のシステムを大幅に上回るだけでなく、犯罪行為のパターンから学習できるため、特に将来を見据えています。したがって、長期的には、金融犯罪と戦うための人工知能の使用が業界の標準になるでしょう。このテクノロジーは長年にわたり実際に実証されています。非常に大規模な金融機関でさえ、今日ではすでに使用されているか、少なくとも最初の試験運用では確立されています。
Hawk AI は、金融と小売におけるコネクテッドコマースの実現におけるリーダーである Diebold Nixdorf と提携し、前者の AML ソリューションの範囲を拡大しました。
以上が人工知能を説明可能にするにはどうすればよいでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。