ホームページ >テクノロジー周辺機器 >AI >AI規制とは何ですか? AIを規制すべきなのは誰ですか?
AI について一般の人々の見解は異なります。機械が人間の労働者に完全に取って代わると信じている人もいれば、AI は一時的な流行であると主張する人もいます。ただし、誰もが同意することの 1 つは、AI にはより厳格な監視が必要だということです。
AI 規制の重要性にもかかわらず、トレーニングは後回しになっています。開発者は次期最大の AI モデルの構築に夢中になるあまり、サイバーセキュリティと引き換えに急速な進歩を求めています。問題は、AI に規制が必要かどうかではありません。適切な資金、人材、技術力を備えた統治団体が主導権を握るのです。
では、誰がAIを規制すべきなのでしょうか?
消費者からテクノロジーリーダーに至るまで、さまざまな人々が政府が AI を規制することを望んでいます。公的資金を受けた機関には、そうするためのリソースがあります。 AI競争の2人の主要な推進者であるイーロン・マスク氏とサム・アルトマン氏でさえ、AIをめぐるプライバシー上の懸念の一部は、統治機関が看過できない危険すぎると信じている。
政府が AI 規制を引き継ぐ場合、有権者のプライバシーと市民的自由の保護に重点を置くべきです。サイバー犯罪者は、AI システムを悪用する方法を模索し続けています。 AI に詳しくない人は、合成音声、ディープフェイク ビデオ、ボット操作のオンライン プロフィールに簡単に騙されてしまう可能性があります。
しかし、AI を規制する政府に関する大きな問題の 1 つは、AI が意図せずイノベーションを抑制してしまう可能性があることです。 AI は複雑に進化するテクノロジーです。導入、開発、トレーニングのガイドラインを監督する当局者が AI の仕組みを理解していないと、時期尚早で非効率な判断を下してしまう可能性があります。
政府が AI を監視することで生じる可能性のある潜在的な障害を考慮すると、多くの人はむしろテクノロジー企業が規制の先頭に立ってほしいと考えています。彼らは、開発者はリリースするテクノロジーに対して責任を負うべきだと信じています。自主規制により、イノベーションを推進し、これらのシステムを効率的に進化させることに集中できます。
さらに、AI についての深い理解は、機能を損なうことなくユーザーの安全を優先する公平で情報に基づいたガイドラインを作成するのに役立ちます。他のテクノロジーと同様に、業界の専門知識により監視が合理化されます。ほとんど理解していない技術の規制に訓練を受けていない役人を任命すると、利益よりも問題の方が多くなる可能性があります。
Facebook のデータプライバシー法に関する 2018 年の米国上院公聴会を例に挙げてみましょう。ワシントン ポストのこのレポートでは、多くの議員が Facebook の基本的な機能について混乱していることがわかります。したがって、米国上院が技術専門家による唯一の部門を創設しない限り、AI のような高度で常に変化するシステムを規制する資格はおそらくないでしょう。
しかし、テクノロジー企業が自社を規制する際の主な問題は、いかがわしい企業が権力を乱用する可能性があることです。第三者が介入しないため、基本的にはやりたいことを自由に行うことができます。
政府や民間団体が AI システムを悪用するのではないかと懸念する人もいます。彼らは、特に AI がまだ進化しているため、このような強力なテクノロジーを少数の統治機関に完全に制御することを許可することに自信がありません。彼らは最終的には効率的な規制に取り組むのではなく、権限をめぐって争う可能性がある。
これらのリスクを軽減するために、懐疑論者は、エンド ユーザーが AI モデルを自由に好きなように使用できる権利があると信じています。彼らは、政府機関はAIユーザーが法律を破った場合にのみ介入すべきだと主張している。これは野心的な目標ですが、オープンソースの AI 開発者が市場シェアを独占すれば、技術的には達成できる可能性があります。
とはいえ、この設定ではテクノロジーに詳しくない人は不利になります。ユーザーはシステム内に制限を設定する責任がありますが、残念ながら、誰もがそれを行うためのリソースを持っているわけではありません。
独自モデルを市場から排除するのも短絡的です。オープンソース AI モデルの普及は、いくつかのプラスの影響とマイナスの影響をもたらします。一部の人にとっては、短所が長所を上回ります。
主要な団体が AI の規制の先頭に立つことになりますが、重要な役割を果たす団体もあります:
メディア報道機関は、AI に対する一般の人々の認識を形成する上で重要な役割を果たします。彼らは業界の発展を報告し、新しいツールを共有し、AI の有害な使用についての認識を高め、関連する懸念について専門家にインタビューします。
AI についてエンドユーザーが知っている事実のほとんどは、基本的にメディアから得られます。意図的かどうかに関係なく、虚偽のデータを公開すると、取り返しのつかない損害が生じます。誤った情報がどれほど速く拡散するかを過小評価することはできません。
いくつかの非営利組織は、AI ユーザーのプライバシーと市民的自由の保護を中心に活動しています。彼らは無料のリソースを通じて国民を教育し、新しい政策を提唱し、政府当局者と協力し、見落とされている懸念を表明します。
NPO の唯一の問題は、通常、リソースが不足していることです。彼らは政府とつながっていないため、日々の活動は民間の募金や寄付に頼っている。残念なことに、十分な資金を提供できるのはほんの少数の組織だけです。
AI に焦点を当てたテクノロジー業界団体は、公衆の権利と利益を代表することができます。 NPO と同様に、彼らは議員と協力し、関係者を代表し、公正な政策を提唱し、特定の問題に対する意識を高めます。
ただし、違いは、民間企業とのつながりがあることが多いということです。会員は今でも勧誘活動を行っているが、結果を出せば通常は親団体から十分な資金を得ることができる。
AI にはいくつかのリスクが伴いますが、本質的に中立です。すべての偏見、プライバシー問題、セキュリティエラー、潜在的なサイバー犯罪活動は人間に由来するものであるため、AI 自体は恐れるものではありません。
しかし、最新の AI モデルがどのように機能するかをすでに理解している人はほとんどいません。誤解はAIに対する人々の認識を歪め、AIが人類を乗っ取る、あるいは仕事を奪うといった根拠のない恐怖を永続させます。
学術機関は、アクセス可能なリソースを通じてこれらの教育のギャップを埋めることができます。最新の LLM と NLP システムに関する学術研究はまだそれほど多くありません。 AI の仕組みを完全に理解すれば、一般の人々はより責任を持って AI を使用し、サイバー犯罪と戦うことができます。
法執行機関は、AI を利用したサイバー攻撃にさらに遭遇することを予期する必要があります。生成モデルの急増により、犯罪者は音声を迅速に合成し、ディープフェイク画像を生成し、個人を特定できる情報 (PII) を収集し、まったく新しいペルソナを作成することさえできます。
ほとんどの機関には、これらの犯罪に対処するための設備が整っていません。新しいシステムに投資し、現代のサイバー犯罪について警察官を訓練する必要があります。そうしないと、犯罪者を捕まえるのが難しくなります。
AI のペースの速い性質を考慮すると、単一の統治機関が AI を制御できる可能性は低いです。確かに、テクノロジーリーダーは消費者よりも大きな権力を握ることになりますが、進歩を妨げることなく AI リスクを管理するには、さまざまな主体が協力する必要があります。汎用人工知能 (AGI) の目標がまだ遠いうちに、今すぐ制御措置を設定することが最善です。
とはいえ、AI 規制は AGI と同じくらい遠いです。それまでの間、ユーザーは AI による脅威に対抗するために安全対策を遵守する必要があります。オンラインでつながる人を制限したり、デジタル PII を保護したりするような良い習慣は、すでに大いに役立っています。
以上がAI規制とは何ですか? AIを規制すべきなのは誰ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。