ホームページ  >  記事  >  テクノロジー周辺機器  >  人工知能規制に関する EU の合意を検討する

人工知能規制に関する EU の合意を検討する

WBOY
WBOY転載
2024-05-07 17:34:32903ブラウズ

3日間の「マラソン」交渉を経て、評議会議長と交渉担当者は、人工知能調整規則について合意に達したところです。これは最終的には「人工知能規制のための人工知能法」となる予定です。 「。」この規制草案は、EU における安全で人権を尊重した AI システムの導入を優先するコンプライアンスの枠組みを提供することに重点を置いています。この人工知能に関する規制は、ヨーロッパ諸国に人工知能分野への投資と革新を促すだけではありません。

人工知能規制に関する EU の合意を検討する

人工知能法は、人工知能の利用がより良いセキュリティとセキュリティのためのツールとなる環境を作り出す画期的な法律です。信頼を築き、EU全域の官民機関の利害関係者の関与を確保します。主なアイデアは、社会に害を及ぼす AI の能力に基づいて AI を規制する「リスクベース」のアプローチに従うことです。リスクが有害であればあるほど、より多くの制限を設ける必要があります。この法律は、他の法域における人工知能の規制における世界的な先例となる。対照的に、GDPR は個人データの保護という点で同様の方法でこれを達成し、それによって技術規制に対する EU のアプローチを世界的に推進します。

暫定合意の主な内容

欧州委員会の暫定提案と比較すると、規制に関する暫定合意の主な新要素は次のとおりです。人工知能は次のように要約できます。

  • カテゴリ 将来のシステミック リスクを伴う影響の大きい一般的な AI モデルと、それらを制御する高リスクの AI システム。
  • EUレベルでの調整権限によるガバナンスシステムの改善、または経済政策の全面的見直し。
  • 禁止品目のリストは拡大されましたが、警察官は公共の場所で遠隔生体認証を使用できますが、これには悪用を防止する条件が適用されます。
  • 潜在的に危険なシステムを導入する AI アクターに、それらのシステムを使用する前にその基本的な権利への影響を理解するよう要求することで、権利の執行を強化します。

より具体的には、暫定合意には次の側面が含まれます。

  • 定義と範囲

選択協定、OECD シェルターを選択しようとする AI システムの定義は、提案された手順に対応します。このように、人工知能システムの標準は、単純なソフトウェア システムをより明確に区別するのに役立ちます。

さらに、暫定協定では、この規則の規則は EU 法の分野に該当する分野はカバーしておらず、国家安全保障や国家安全保障の分野における加盟国の権利をいかなる形でも損なうことはできないとさらに詳細に説明しています。国家安全保障の分野で責任を共有する当事者の能力。それだけでなく、人工知能法は軍事または防衛目的のみに使用される人工知能システムには適用されません。同時に、この条約は、人工知能システムが科学および研究目的だけでなく、非人工知能技術者や非人工知能技術者によって使用される場合など、非科学的および非革新的な理由でも使用される場合には、法律が適用されるとも述べています。専門家。

  • AI システムを高リスクで禁止された AI 実践として分類します

レベル 1.1 の「潜在的な」重大/重大な危害を含む水平のセキュリティ障壁を作成します。そのような脅威をもたらすと予測されていなかった人工知能システムを除外する権利」。ユーザーに危害を及ぼす危険性がわずかにある AI システムには、最小限の透明性要件が設けられます。たとえば、コンテンツを使用するかさらなるアクションを実行するかを決定できるように、コンテンツが人工知能によって生成されたことをユーザーに通知する必要があります。

EU領土内で稼働するさまざまな人工知能ベースのシステムが承認されます。ただし、EU 市場に参入するには満たさなければならない要件と責任があります。これらの共同立法者は、技術的によりシンプルかつ明確にするためにいくつかの規定を追加および修正し、たとえばデータ品質の提供や中小企業が人工知能を認証するために準備する必要がある技術文書などの利害関係者の負担を軽減しました。安全に構築されており、現在の規制に準拠しています。

AI システムは要求の厳しいバリュー チェーン環境内で作成および提供されるため、妥協案では、とりわけ、そのチェーン内のさまざまな関係者 (つまり、サービスのプロバイダーとユーザー) を反映するように企業の行動を修正する必要があります。技術体系)責任・影響範囲の明確化。また、AI 法案に基づく AI 固有の義務が、EU のデータ法や分野別法などの他の法律に定められた義務とどのように相互作用し、競合するかについても規定しています。

人工知能の適用はリスクが高いため拒否され、人工知能の特定の用途では禁止されています。したがって、これらのデバイスは EU に導入されません。予備合意によると、禁止される活動には、行動制御のための認知技術、インターネットからの目的のない顔画像の収集、施設や教育における感情認識、社会的スコアリング、性的指向や宗教的信念や一部の個人の家系図を判断するための生体認証方法が含まれる。警察の目的のため。

  • 法執行機関の例外

法執行機関の特殊な性質と、職務遂行にコンピュータを使用する必要性を考慮すると、法執行に対する委員会の例外 AI によって提案されたルールには、いくつかの重要な変更が加えられています。慎重な対策が講じられている限り、これらの変更は、事業者が情報プライバシーを保護する必要性につながるでしょう。この例としては、高リスクの AI 実装のための緊急手順の開始が挙げられますが、緊急事態における適合性評価の実施は含まれません。さらに、人権を保護し、人工知能アプリケーションの悪用を防止するための権限を与えるための具体的な行動が策定されました。

さらに、暫定合意の本文には、公共の場所でリアルタイムの遠隔生体認証システムを使用する理由が明確に示されていますが、これは法執行上の理由のみであり、当局は例外的な状況でのみ使用を許可されます。 。妥協案は追加の安全措置を規定し、これらの例外を容疑者の殺害の場合に限定し、実際の脅威があった場合にのみ捜索が行われることを保証し、最も重大な犯罪を犯した疑いがある場合のテロ攻撃や捜索を防止する。

  • 一般的な人工知能システムと基本モデル

人工知能システムが多目的に使用されるシナリオ、つまり一般的な人工知能用と独立したシステム、新しい規制を策定しました。もう 1 つの高リスク システムである自動運転車は、一般的な人工知能と統合されています。移行協定には GPA (GPAI) も含まれています。 GPA の監督は契約の中核部分です。

テキスト生成、ビデオセグメンテーション、自然言語の処理、コードのレンダリング、その他多くのコンピュータータスクなどの複雑なアクティビティの機能を実証できるシステムとして説明される基本モデルも完成しました。暫定取り決めでは、基本モデルが市販される前に除染要件を満たすことが求められる。 「影響力の高い」基本モデルを構築するために必要なポリシーは、はるかに厳格です。これらの平均的なデータ モデルは、大規模で高度な複雑さ、機能を備えているため、企業のバリュー チェーン全体にシステミック リスクを引き起こす可能性があり、これらのリスクは参加するすべての企業で共有されます。

  • 新しいガバナンス構造

新しい GPAI モデルの制限措置と EU レベルでの標準化されたモニタリングの必要性を考慮して、欧州委員会はa Unique Artificial Intelligence Office は、これらの最先端の AI モデルを監督し、仕様とテスト手順の確立を促進し、すべての加盟国で主要な規則を施行します。技術専門家の独立した科学グループは、ベースモデルと技術的能力を評価する方法を開発し、市場投入に備えて GPAI ステータスとベースモデルの評価を実施し、ベースモデルに関連する潜在的な問題を監視することにより、モデルサイジングに関するアドバイスを GPAIAI オフィスに提供します。材料の安全性。

この目的のために、加盟国をメンバーとして構成され、委員会の調整プラットフォームおよび諮問機関として機能する人工知能委員会は、加盟国が規制の実施において顕著かつ重要な役割を果たすことができるようにするものとします。その分野では、基本モデルの実践規範として。最後になりましたが、業界関係者、中小企業、新興企業、市民社会、大学を代表とする個々の利害関係者によるフォーラムが設立されます。これにより、AI 委員会が使用できる技術的知識が提供される可能性があります。

  • 罰則

人工知能法に違反する企業を結び付け、制裁を科します。最低罰金は一定の金額であり、最大罰金は世界全体の割合です。会計年度の年間売上高。上記の人工知能アプリケーションへの違反は 3,500 万ユーロ (7%) の罰金、人工知能法に基づく義務の違反は 1,500 万ユーロ (3%) の罰金、および誤解を招く情報の提供は罰金となります。罰金 750 万ユーロ (1.5%) が科せられます。それにもかかわらず、暫定協定には、中小企業や新興企業が人工知能法の規定を遵守することを約束する場合に与える影響が少ない特別な罰金が含まれています。

人工知能法との簡潔な合意では、自然人または法人が関連する市場監視機関に正式に苦情を申し立てる権利を有することが規定されています。さらに、庁は、当該苦情を処理する際に、その特定の所定の手順に従うものとします。

  • 透明性と基本的権利の保護

注目すべきことに、暫定合意では、高リスクのシステムを市場に投入する前に人工知能システムの導入者が求められています。 、エンドユーザーの保護措置の権利影響評価を実施します。この暫定合意は、高度な人工知能と自動真実検出システムを広く使用するための良い出発点ともなります。これにより、システムの実装範囲が明確になります。特に、提案されている欧州委員会の規制の一部は、高リスク AI 機械学習システムを EU データベースに登録している、高リスク AI システムの様々な不定期政府ユーザーを参照するために修正されています。これに加えて、更新された製品ラインでは、感情認識システムを操作しているユーザーに、システムにさらされたことを知らせるメッセージも送信されます。

  • イノベーションを支援するための措置

規制のこの部分は、イノベーションを促進するために大幅に改訂されており、これは、より多くの制度を確立するための委員会の提案です。科学的イノベーション EU 全体で持続可能な規制環境を確保するために継続的に適応する枠組みの重要な側面。

Required Artificial Intelligence Regulatory Sandbox は、新しい人工知能システムの開発、テスト、検証のための制御された環境を確保するように設計されており、各機関が現実世界の条件下でそれらをテストできるようになります。さらに、AI システムが現実世界の環境でテストされる場合、特定の条件下でシステムを使用できるようにするための新しい制限が有効になりました。今回の臨時協定は、中小企業の事務負担を軽減し、低所得の中小企業に対する支援計画を策定するものです。このような場合、法的に制限され厳密に限定されている場合には、免除が許可されます。

  • 発効日

「人工知能の管理に関する暫定協定」では、一定の例外を除き、「人工知能法」は、施行日から 2 年間適用されます。

以上が人工知能規制に関する EU の合意を検討するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。