ホームページ  >  記事  >  テクノロジー周辺機器  >  選択的リスクにより AI の公平性と精度が向上する可能性がある

選択的リスクにより AI の公平性と精度が向上する可能性がある

WBOY
WBOY転載
2023-04-12 11:03:001480ブラウズ

MIT 人工知能研究所の研究者らは、この手法を使用すると、データ セット内で過小評価されているグループのモデルの全体的なパフォーマンスが低下する可能性があるため、特定のシナリオでの選択回帰の使用を非難しようとする新しい論文を発表しました。

選択的リスクにより AI の公平性と精度が向上する可能性がある

こうした過小評価されているグループは女性や有色人種である傾向があり、彼らの無視が人種差別や人工知能に関する懸念を引き起こしています。性差別の。ある報告では、リスク評価に使用された人工知能が、白人囚人の 2 倍の確率で黒人囚人に誤ってフラグを立てたという。別のケースでは、背景のない男性の写真は、女性よりも医師や主婦として特定される率が高かった。

選択的回帰では、AI モデルは入力ごとに 2 つの選択 (予測するか棄権する) を行うことができます。モデルは、決定に自信がある場合にのみ予測を行い、複数のテストを通じて、正しく評価できない入力を除外することでモデルのパフォーマンスが向上します。

ただし、入力が削除されると、データセットにすでに存在するバイアスが増幅されます。これにより、AI モデルが現実社会に導入されると、開発中に可能であったように過小評価されたグループを削除したり拒否したりすることができないため、過小評価されたグループの不正確性がさらに高まることになります。最終的には、モデルの広範なエラー率を最小限に抑えるだけでなく、グループ全体のエラー率を賢明な方法で考慮する必要があります。

MIT の研究者は、各サブグループのモデルのパフォーマンスを向上させるために設計された新しい手法も導入しました。この手法は単調選択的リスクと呼ばれるもので、一方のモデルは棄権せず、代わりに人種や性別などの敏感な属性を含めますが、もう一方のモデルは含めません。同時に、両方のモデルが意思決定を行い、機密データを含まないモデルがデータセット内のバイアスの調整として使用されます。

この特定の問題に対する公平性の正しい概念を考え出すのは困難です。しかし、この基準 (単調選択リスク) を強制することにより、カバレッジを削減すると、すべてのサブグループにわたってモデルのパフォーマンスが実際に向上することを保証できます。

メディケア データセットと犯罪データセットを使用してテストしたところ、新しい手法はモデルの全体的なパフォーマンスに大きな影響を与えることなく、過小評価されたグループのエラー率を減らすことができました。研究者らは、この技術を住宅価格、学生の成績平均、ローン金利などの新しいアプリケーションに適用し、他のタスクにも使用できるかどうかを確認する予定です。

以上が選択的リスクにより AI の公平性と精度が向上する可能性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。