ホームページ > 記事 > テクノロジー周辺機器 > 顔認識技術の倫理原則
さまざまな分野における顔認識テクノロジーの大きな可能性は、ほとんど想像を絶するものです。ただし、最も複雑なアプリケーションを実装する前に、その機能における特定の一般的な落とし穴といくつかの倫理的考慮事項に対処する必要があります。
正確な顔認識システムは、生体認証技術を使用して写真やビデオから顔の特徴を描画します。この情報を既知の顔のデータベースと比較して、一致するものを見つけます。顔認識は個人の身元を確認するのに役立ちますが、プライバシーの懸念も生じます。
数十年前、私たちは顔認識が将来私たちの生活にほぼ不可欠な部分になるとは予想できませんでした。スマートフォンのロック解除からオンライン (またはオフライン) 取引の実行に至るまで、このテクノロジーは私たちの日常生活に深く浸透しています。これは、人工知能のコンピューター ビジョンと機械学習コンポーネントの驚くべき応用です。
顔認識システムは次のように動作します。
#訓練されたアルゴリズムは、目の間のピクセル数や数値など、人の顔のさまざまな固有の詳細を決定します。唇の弧、特に詳細を論理的に解釈して、システム内で顔を再構築します。これらの再構成された顔は、システムのデータベースに保存されている大規模な顔のセットと比較されます。再現された顔がデータベース内に存在する顔と数学的に一致することがアルゴリズムによって検出された場合、システムはそれを「認識」し、ユーザーのタスクを実行します。
今日の顔認識システムは、プロセス全体を数ナノ秒で完了するだけでなく、低照度、低解像度の画像や視野角でも動作することができます。
他の人工知能テクノロジーと同様、顔認識システムをさまざまな目的で使用する場合は、いくつかの倫理原則に従う必要があります。これらの規制には次のものが含まれます:
まず第一に、顔認識装置の開発では、システムが削減を完全に防止するか、少なくとも最小限に抑える必要があります。人種、性別、顔の特徴、奇形、またはその他の側面に基づく、個人またはグループに対する偏見。顔認識システムの運用が 100% 公平である可能性が低いことを示す十分な証拠が現在あります。その結果、このテクノロジーをサポートするシステムを構築する企業は、システム内で見つかったバイアスの痕跡をすべて除去するのに何百時間も費やすことがよくあります。
マイクロソフトのような評判の高い組織は、できるだけ多くの民族コミュニティから資格のある専門家を雇用することがよくあります。顔認識システムの研究、開発、テスト、設計の段階で、多様性により、AI データ モデルをトレーニングするための大規模なデータ セットを作成することができました。データセットが大きいとバイアス指数が低下しますが、多様性も象徴的です。世界中から個人を選ぶことは、現実世界の多様性を反映するのに役立ちます。
顔認識システムからバイアスを排除するには、組織は特別な努力をする必要があります。これを達成するには、機械学習とラベル付けに使用されるデータセットが多様である必要があります。最も重要なことは、公平な顔認識システムの出力品質は信じられないほど高く、偏見の要素もなく世界中のどこでもシームレスに動作することです。
顔認識システムの公平性を確保するために、開発者はベータ テスト段階でエンド顧客を関与させることもできます。このようなシステムを現実のシナリオでテストできれば、その機能の品質が向上するだけです。
職場で顔認識システムやサイバーセキュリティ システムを使用している組織は、機械学習情報がどこに保存されているかを詳細に把握する必要があります。このような組織は、日常業務にテクノロジーを導入する前に、テクノロジーの制限と機能を理解する必要があります。 AI テクノロジーを提供する企業は、これらの詳細について顧客に対して完全に透明性を持たせる必要があります。さらに、サービス プロバイダーは、顧客が都合に応じてどこからでも顔認識システムを使用できるようにする必要があります。システム内の更新は、続行する前にクライアントによって有効に承認される必要があります。
前述したように、顔認識システムは複数の部門に導入されています。このようなシステムを製造する組織は、特にテクノロジーが個人やグループに直接影響を与える可能性がある場合 (法執行機関、監視)、システムに対する責任を負わなければなりません。このようなシステムにおける説明責任とは、身体的または健康に基づく危害、金銭的流用、またはシステムから発生する可能性のあるその他の問題を防止するためのユースケースを含めることを意味します。プロセスに制御要素を導入するには、資格のある個人が組織内のシステムを担当し、慎重かつ論理的な意思決定を行います。さらに、顔認識システムを日常業務に組み込んでいる組織は、テクノロジーに対する顧客の不満に直ちに対処する必要があります。
通常の状況では、個人またはグループの同意なしに、顔認識システムを使用して個人、グループ、またはその他の行動を監視することはできません。グループ。欧州連合 (EU) などの一部の機関には、権限のない組織が統治機関の管轄内で個人をスパイすることを防止するための標準化された一連の法律 (GDPR) があります。このようなシステムを導入している組織は、米国のデータ保護法とプライバシー法をすべて遵守する必要があります。
中央政府または決定的な統治機関の許可がない限り、国家安全保障またはその他の重要な事態に関連して使用されます。そうでない場合、組織は顔認識システムを使用して個人やグループを監視することはできません。基本的に、この技術を利用して被害者の人権や自由を侵害することは固く禁じられています。
顔認識システムは例外なくこれらの規制に準拠するようにプログラムされていますが、オペレーターのミスにより問題が発生する可能性があります。このテクノロジーに関連する主な問題のいくつかは次のとおりです:
前述したように、デジタル決済アプリには顔認識が含まれています。ユーザーが取引を確認できるシステム。このテクノロジーの存在により、顔の個人情報の盗難やデビット カードの詐欺など、支払いを目的とした犯罪行為が行われる可能性が非常に高くなります。顧客が顔認識システムを選択するのは、ユーザーに大きな利便性を提供するためです。しかし、このようなシステムでは、一卵性双生児がお互いの銀行口座から不正に支払いを行うためにシステムを使用する場合に間違いが発生する可能性があります。懸念されるのは、顔認識システムにはセキュリティプロトコルが導入されているにもかかわらず、顔のコピーが資金の不正流用につながる可能性があるということだ。
顔認識システムは、公的犯罪者を逮捕する前に識別するために使用されます。このテクノロジーは概念としては間違いなく法執行機関に役立ちますが、その動作には明らかな問題がいくつかあります。犯罪者はこのテクノロジーをさまざまな方法で悪用する可能性があります。たとえば、偏った AI の概念では、システムが有色人種を区別できない場合があるため、法執行官に不正確な結果が提供されます。通常、このようなシステムは白人男性の画像を含むデータセットでトレーニングされます。したがって、他の人種の人々を識別する場合、システムの仕組みは間違っています。
組織や公的機関が高度な顔認識システムを使用して民間人を違法にスパイしたとして告発されるケースがいくつかあります。常時監視下にある個人によって収集されたビデオ データは、さまざまな不正な目的に使用される可能性があります。顔認識システムの最大の欠点の 1 つは、顔認識システムが提供する出力が一般的すぎることです。たとえば、ある人が重罪を犯した疑いがある場合、その人に犯罪歴があるかどうかを確認するために、その人の写真が撮影され、複数の犯罪者の写真とともに表示されます。ただし、このデータを積み重ねることは、顔認識データベースにその男性と経験豊富な重罪犯の写真が保持されることを意味します。そのため、たとえその人が比較的無実であっても、プライバシーが侵害されることになります。第二に、その人は誰から見ても無実であるにもかかわらず、悪い目で見られる可能性があります。
前述したように、顔認識テクノロジーに関連する主な問題やエラーは、テクノロジーの進歩の欠如、データセットの多様性の欠如、組織によるシステムの非効率な取り扱いに起因しています。しかし、人工知能の応用範囲と実際のニーズへの応用は無限であるはずです。顔認識テクノロジーに関するリスクは、そのテクノロジーが実際に必要とされているのと同じように機能しない場合に発生することがよくあります。
しかし、将来的にはテクノロジーの継続的な進歩により、テクノロジー関連の問題が解決されることが予測されます。 AI アルゴリズムのバイアスに関する問題は、最終的には解消されるでしょう。ただし、このテクノロジーが倫理規範に違反することなく完璧に機能するには、組織はそのようなシステムに対して厳格なレベルのガバナンスを維持する必要があります。ガバナンスが強化されれば、顔認識システムのバグは将来的に対処される可能性があります。したがって、前向きな解決策を達成するには、そのようなシステムの研究、開発、設計を改善する必要があります。
以上が顔認識技術の倫理原則の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。