ホームページ > 記事 > テクノロジー周辺機器 > 一般的な人工知能について知っておくべきこと
最近、特にいくつかの大規模な言語モデルや画像ジェネレーター (DALL-E や Midjourney など) がリリースされた後、生成型人工知能ツールに関する議論が増えています。
これらの発明により、汎用人工知能 (GPAI) が再び脚光を浴びるようになり、GPAI は規制されるべきかどうかなどの仮説上の疑問が再び生じました。
可能性をさらに探求する前に、まず GPAI の概念、その意味、いつ導入されたかなどを理解してください。
2年前の2021年4月、欧州委員会は汎用人工知能を立ち上げました。当初の AI 法案提案では、一般的な人工知能の作成者は、多くの法的文書やその他の責任基準の遵守を免除されていました。
その理由は、法案の中でその目的と文脈に基づいて明確に言及され、説明されている高リスクの人工知能にのみ適用されるためです。
別の規制である第 28 条は、この主張を支持しており、AGI 開発者がリスクの高い用途にのみ AI システムに大幅な調整や開発を行うことを推奨しています。
しかし、最近の報道によると、欧州議会は元の汎用人工知能プロバイダーに対する特定の「義務」も検討しているそうです。
EU 人工知能法の基本的な目的は、人工知能を使用したシステムの開発と展開に関与するさまざまな主体の連鎖を分類して分類することです。
一般人工知能に対する人工知能法のアプローチは、世界的な人工知能の害に対処するための規制の雰囲気を確立するのに理想的です。最近、生成型 AI に対する社会の関心が高まっているため、規制のスタンスが現在の問題に過度に適応するリスクもあります。
驚くべきことに、ChatGPT、dall-e2、Bard などの新しいイノベーションは実際には問題にさえならず、実際、それらは氷山の一角にすぎません。
推奨: 責任ある人工知能 - 規制環境で倫理モデルを採用する方法
最初に理解しなければならないのは、汎用人工知能インテリジェンスは巨大なカテゴリであるため、チャットボットや LL.M. に限定するのではなく、幅広いテクノロジー分野に適用するのが合理的です。
EU 人工知能法案が本質的に未来的なものであることを保証するには、はるかに大きな規模に対処する必要があります。まず、GPAI の適切な説明には、他の人工知能システムの基礎として機能する多くの技術 (「タスク」) が含まれている必要があります。
欧州理事会はこれを次のように定義しています:
「プロバイダーは、画像と音声の認識、オーディオとビデオの生成、パターン検出、質問応答、翻訳など、一般的に適用可能な機能を実行することを意図しています。 ; 一般的な人工知能システムは複数のシナリオで使用でき、他の複数の AI システムに統合できます。」
一般的な人工知能は広範囲にわたる害を引き起こす可能性があります
ただし、これらのリスクは適用できません。レイヤー内の問題は完全に克服されましたが、さまざまなアプリケーションやアクターに影響を与える可能性があるという事実は否定できます。私たちは、AI 規制に対する一般的なアプローチを開発する際に、AI テクノロジー、その応用、およびその仕組みの現状を考慮する必要があります。
たとえば、一般的な AI モデルには、性的、人種的、宗教的少数派を対象としたヘイトスピーチなど、反民主主義的な言説が生成されるリスクがあります。これらのモデルのリスクは、基礎となるデータに制約されたビューや歪んだビューが定着してしまうことです。
汎用人工知能が利害関係者の多様性を考慮するには、製品ライフサイクル全体を通じて管理される必要があります。アプリケーション層で。開発の最初の段階は非常に重要であり、これらのモデルを作成する企業は、利用する情報とアーキテクチャ上の決定に対して責任を負わなければなりません。 AI 供給ネットワークの既存のアーキテクチャにより、参加者は、開発層での監督不足による結果的な責任を回避しながら、リモートの下流アプリケーションから効果的に利益を得ることができます。これには、データの収集、クリーニング、注釈付けのプロセスと、モデルの作成、テスト、評価のプロセスが含まれます。
一般的な人工知能の作成者が、基本的な法的免責条項を使用して責任を排除することは不可能です。このアプローチは、元の開発者からすべての責任を解放し、すべてのリスクを管理する能力を持たない下流のアクターに責任を負わせる危険な脆弱性につながる可能性があります。同評議会は一般的なアプローチに例外を設けており、これにより、AGI 開発者は、指示で高リスクの使用をすべて除外し、システムが悪用できないことを保証する限り、いかなる責任も免除されることになります。
推奨: 隠れた AI バイアスを発見し、対処し、誤りを暴く
一般的な評価を行うための実践に関する基本的かつ統一的な文書AI モデル、特に生成 AI モデルは、さまざまな危険にまたがる現在進行中の研究分野です。表面的なチェックボックスの実行を避けるために、規制は狭い評価方法を防止する必要があります。
一般的な人工知能システムは、実装または一般公開される前に、細心の注意を払い、検証、検査を受ける必要があります。一般的な人工知能モデルを AI 法案の範囲内に含めるという最近の提案は、将来の特定の基準の開発 (委員会によって決定される) を延期するか、AI 法案の文言の中でそうしようとしています。
たとえば、コンセンサス社会では、プロトタイプがコミュニティ全体で構築および使用されるか、小規模なコミュニティで使用されるかによって、考えられる影響の分布が異なる可能性があります。
EU 人工知能法案は、いつかすべての国の統一標準となる初の広範な人工知能法になろうとしています。このため、人工知能の分野を取り上げ、誰もが従うことができるグローバルなテンプレートに変換することが重要です。
以上が一般的な人工知能について知っておくべきことの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。