ホームページ > 記事 > テクノロジー周辺機器 > NIST: AI のバイアスはデータそのものをはるかに超えています
現時点では、ほとんどの人工知能が何らかの形で問題のあるバイアスに基づいて構築されており、現在使用していることに異論を唱える人はいないはずです。これは何百回も観察され、証明されてきた課題です。組織にとっての課題は、より優れた偏りのないデータに満足するのではなく、AI のバイアスを根絶することです。
出版物「人工知能におけるバイアスの識別と管理の標準に向けて」(NIST 1270 特別出版物) の大幅な改訂で、昨年の公開コメント期間の後、国家標準技術研究所 (NIST) は、AI のバイアスを明らかにして破壊するために、データだけでなく ML プロセスさえも視野に入れるよう強く主張しました。
著者らは、収集が不十分なデータやラベル付けが不十分なデータを非難するのではなく、AI における偏見の次のフロンティアは「人的および体系的な制度的および社会的要因」であると述べ、A からの移行を推進しています。社会技術的な観点からより良い答えを探します。
「コンテキストがすべてです」と、人工知能のバイアスに関する NIST の主任研究者であり、報告書の著者の 1 人でもあるレバ・シュワルツ氏は述べています。 「AI システムは単独で動作するわけではありません。AI システムは、人々が他の人々の生活に直接影響を与える意思決定を行うのに役立ちます。信頼できる AI システムを開発したいのであれば、AI に対する社会の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の中には、次のようなものがあります。私たちがさまざまな人々や組織から受け取ったコメントによって強調されているように、その多くはテクノロジー自体を超えてテクノロジーに影響を与えています。」
NIST のレポートによると、人間は個人と集団という 2 つの大きなカテゴリーに分類され、それぞれのカテゴリーには多くの特有の偏見が存在します。
人間の個人的なバイアスには、自動化されたスキルに過度に依存する自動化の自己満足、暗黙のバイアス、誰かの意思決定に影響を与える無意識の信念、態度、連想、または固定観念が含まれます。また、人々が自分の既存の信念と一致する、または一致する情報を好む確証バイアスもあります。
グループ 人間の基礎には、グループに合わせたい、または意見の相違を避けたいという欲求から、人々が最適ではない決定を下す現象である集団思考、報告が偏っている場合の資金提供バイアスが含まれます。資金提供機関や財政支援者に影響を与える可能性があり、さらに個人/グループの偏見を受ける可能性があります。
組織的バイアスについて、NIST 報告書は、それを歴史的、社会的、制度的バイアスと定義しています。基本的に、長年にわたる偏見は時間の経過とともに社会や制度に成文化され、主に「事実」または「物事のありのまま」として受け入れられています。
これらの偏見が問題となる理由は、AI の導入が今日の組織の働き方にどれほど大きな影響を与えているかにあります。人種的に偏ったデータのせいで、人々は住宅ローンを拒否され、初めて住宅を所有する機会を奪われています。求職者が面接を拒否されているのは、歴史的に女性よりも男性を優遇する採用決定を下すようにAIが訓練されているためである。有望な若い学生は、苗字が過去の成功者と一致しないという理由で、面接や大学への入学を拒否されます。
言い換えれば、バイアスされた AI は、効率的な開口部と同数の鍵のかかったドアを作成します。組織が導入時の偏見を排除するために積極的に取り組んでいない場合、組織の考え方や運営方法に対する深刻な信頼の欠如がすぐに発生することになります。
その核心となるのは、AI アプリケーションの結果は単なる数学的および計算上の入力ではないという認識です。開発者やデータサイエンティストによって作成され、その立場や機関はさまざまであり、いずれも一定のレベルの負担を抱えています。
NIST のレポートには次のように書かれています:「AI への社会技術的アプローチでは、データセットからモデル化された価値観と行動、それらと対話する人間、および複雑な組織的要因が考慮されます。これらの要因が関係しています」 「
NIST は、社会技術的なレンズを通じて、組織がプライバシー、信頼性、堅牢性、セキュリティ、セキュリティ回復力を向上させることができると信じています。」信頼。
彼らの推奨事項の 1 つは、組織がテスト、評価、検証、検証 (TEVV) プロセスを実装または改善することです。特定のデータセットまたはトレーニングされたモデルのバイアスを数学的に検証する方法が必要です。また、AI 開発の取り組みにおいてさまざまな分野や立場からの関与を増やし、さまざまな部門や組織外から複数の関係者を巻き込むことも推奨しています。 「人間参加型」モデルでは、個人またはグループが基本的な ML 出力を継続的に修正します。これはバイアスを排除するための効果的なツールでもあります。
これらの報告書と改訂された報告書に加えて、NIST の人工知能リスク管理フレームワーク (AI RMF) があります。これは、AI システムに関係するリスクを管理するためのコンセンサス主導の一連の推奨事項です。完了すると、AI テクノロジーと製品の透明性、設計と開発、ガバナンスとテストがカバーされます。 AI RMF の最初のコメント期間は過ぎましたが、AI のリスクと緩和策について学ぶ機会はまだたくさんあります。
以上がNIST: AI のバイアスはデータそのものをはるかに超えていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。