ホームページ >テクノロジー周辺機器 >AI >EU、人工知能規制草案を発表
ほとんどの場合、リスクが限定的または最も低いカテゴリの人工知能システムは以前と同様に動作できます。EU は、EU 国民の安全やプライバシーを損なう可能性のある人工知能システムに対処するための法整備を進めています。
欧州連合は、人工知能の規制に関する法案草案を発表しました。これは、人工知能のサプライヤーとディストリビューターが EU の市場を開発するための重要な枠組みになります。
EU は法律において、人工知能システムを 3 つのリスク カテゴリ (許容できないリスク、高リスク、限定的または最小限のリスク) に分類しています。ほとんどの場合、限定的または最小限のリスク カテゴリにある AI システムは以前と同様に動作できますが、EU の法律では EU 国民の安全やプライバシーを侵害する可能性のある AI システムに特に対処しています。
欧州委員会のウルスラ・ゲルトルート・フォン・デア・ライエン委員長は、「人工知能は欧州にとって素晴らしい機会であり、国民は信頼できるテクノロジーに可能な限りアクセスする権利がある。」「本日、我々は信頼できるAIのための新しいルールを提案する。彼らは、このルールを設定した」と語った。
最小限または低リスクの AI システムには、チャットボット、スパム メール フィルター、ビデオおよびコンピューター ゲーム、在庫管理システム、およびすでに世界中で導入されているその他のほとんどの非個人的な AI システムが含まれます。 。
高リスク AI システムには、消費者信用スコアリング、人材採用、セキュリティ クリティカルなインフラストラクチャなど、現実世界に影響を与えるほとんどの AI が含まれます。これらは禁止されていませんが、EU の法律は、データを適切に保護できなかった場合により高額な罰金を課すとともに、これらのシステムの要件と監視を厳格化することを目的としています。
EUは、高リスクリストを毎年見直し、新しい人工知能システムを追加するか、高リスクではあるが社会で常態化しているか、社会とは異なる危険因子を持つ一部の人工知能システムを格下げする予定です。
この AI 規制の可決後、EU は許容できないリスクをもたらす AI システムを許可しません。これらには、サブリミナル、操作、または搾取的な技術を使用する AI システムが含まれます。これはカテゴリではなく、ターゲットを絞った政治広告や、顔の表情を通じて感情を解釈する AI などの形式の AI の一般的な禁止です。
人工知能の規制では、特に法執行機関が個人を識別するために使用する場合、遠隔生体認証システムも禁止されます。
EU 内または経済圏内で人工知能システムを運用または配布している組織にとって、この法律は今後何が起こるかを示す最初の明確な兆候です。 EUが細部に合意するまでには12~24カ月かかる見通しだが、法案は最初の草案から大きく変わる可能性は低い。
これにより、高リスク AI システム カテゴリに属する組織は、AI プログラムが EU 内で確実に実行可能であることを確認するために、短期間で再調整して雇用することができます。 AI システムが検査に合格することを保証するには、追加の人的監視、透明性、リスク管理が必要になります。また、コンプライアンス違反に対する罰金は現在、3,000 万ユーロまたは世界収益の 6% に設定されているため、大規模な組織の場合、コストにより再生産が不可能になる可能性があります。 AIシステムを装備すればEUから離脱するだろう。
以上がEU、人工知能規制草案を発表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。