ホームページ >テクノロジー周辺機器 >AI >大手モデルの時代に不適切なコンテンツをどのようにキャッチするか? EUの法案ではAI企業にユーザーの知る権利の確保を義務付ける
過去 10 年間で、大手テクノロジー企業は、言語、予測、パーソナライゼーション、アーカイブ、テキスト解析、データ処理など、多くのテクノロジで非常に優れています。しかし、有害なコンテンツを見つけて報告し、削除することは依然として苦手です。米国で広まっている選挙とワクチンの陰謀論については、過去 2 年間の出来事を振り返るだけで、それらが引き起こしている現実世界の害悪を理解することができます。
この違いにより、いくつかの疑問が生じます。なぜテクノロジー企業はコンテンツモデレーションを改善しないのでしょうか?彼らにこれを強制することはできるのでしょうか?人工知能の新たな進歩により、悪い情報をキャッチする私たちの能力は向上するでしょうか?
ほとんどの場合、ハイテク企業が米国議会から憎悪と誤った情報の拡散における自社の役割について説明を求められると、自社の失敗を言語自体の複雑さのせいにする傾向があります。幹部らは、さまざまな言語や文脈での文脈上のヘイトスピーチを理解し、防止するのは難しい課題だと語る。
マーク・ザッカーバーグの好きな言葉の 1 つは、テクノロジー企業が世界のすべての政治問題を解決する責任を負うべきではないというものです。
(出典: STEPHANIE ARNETT/MITTR | GETTY IMAGES)
ほとんどの企業は現在、テクノロジーと人間のコンテンツ モデレーターの両方を採用していますが、後者の仕事は過小評価されており、これが彼らのわずかな報酬に反映されています。
たとえば、現在 Facebook で削除されるすべてのコンテンツの 97% は AI が担当しています。
ただし、AI はニュアンスやコンテキストを解釈するのが苦手なので、たとえ人間がコンテンツモデレーターに取って代わる可能性は低いと、スタンフォードインターネット観測所の研究マネージャー、レニー・ディレスタ氏は述べています。 。
自動コンテンツ モデレーション システムは通常、英語のデータに基づいてトレーニングされるため、文化的背景や言語によって、他の言語のコンテンツを効果的に処理する際に課題が生じる可能性があります。
カリフォルニア大学バークレー校情報学部のハニ・ファリド教授が、より分かりやすい説明をしています。ファリド氏によると、コンテンツのモデレーションはテクノロジー企業の経済的利益にならないため、リスクに対応できていないという。それはすべて貪欲に関するものです。お金の問題ではないふりをするのはやめてください。 「
連邦規制がないため、オンライン暴力の被害者がプラットフォームに経済的責任を求めることは困難です。
コンテンツのモデレーションは、テクノロジー企業と悪意のある者との間の終わりのない戦争のようです。テクノロジー企業がコンテンツモデレーションルールを展開するとき、悪意のある者は検出を避けるために絵文字や意図的なスペルミスを使用することがよくあります。そして、これらの企業は抜け穴をふさごうとし、人々は新たな抜け穴を見つけるというサイクルが続きます。
さあ、大規模な言語モデルが登場します...
現在の状況はすでに非常に困難です。生成型人工知能や ChatGPT などの大規模言語モデルの出現により、状況はさらに悪化する可能性があります。生成テクノロジーには問題があります。たとえば、自信を持って物事をでっち上げ、事実として提示する傾向があります。しかし、1 つ明らかなことは、AI は言語能力が向上しており、非常に強力です。
ディレスタ氏もファリド氏も慎重ではあるが、事態がどのように展開するかについて判断を下すのは時期尚早であると考えている。 GPT-4 や Bard などの大規模モデルの多くにはコンテンツ管理フィルターが組み込まれていますが、それでもヘイトスピーチや爆弾の作り方の指示など、有害な出力を生成する可能性があります。
生成 AI を使用すると、悪意のある攻撃者はより大規模かつ迅速に偽情報キャンペーンを実行できます。 AI によって生成されたコンテンツを識別してラベルを付ける方法がひどく不十分であることを考えると、これは悲惨な状況です。
一方、最新の大規模言語モデルは、以前の人工知能システムよりもテキスト解釈のパフォーマンスが優れています。理論的には、自動コンテンツモデレーションの開発を促進するために使用できる可能性があります。
テクノロジー企業は、この特定の目標を達成するために、大規模な言語モデルの再設計に投資する必要があります。 Microsoft などの企業はこの問題を調査し始めていますが、まだ大きな活動は行われていません。
ファリド氏は次のように述べています。「私たちは多くの技術的進歩を見てきましたが、コンテンツモデレーションの改善については懐疑的です。」
大規模な言語モデルは急速に進歩していますが、文脈理解においては依然として課題に直面しており、投稿と画像の間の小さな違いを人間のモデレータほど正確に理解することができない可能性があります。異文化間の拡張性と特異性も問題を引き起こします。 「特定のタイプのニッチ向けのモデルを展開していますか? 国ごとに行っていますか? コミュニティごとに行っていますか? それは画一的な質問ではありません」とディレスタ氏は述べた。
新しいテクノロジーに基づいた新しいツール
生成 AI が最終的にオンライン情報環境に害を及ぼすか助けるかは、コンテンツが AI によって生成されたかどうかを知らせる、広く採用されている優れたツールをテクノロジー企業が考案できるかどうかに大きく依存する可能性があります。
DiResta は、合成メディアの検出は技術的な課題である可能性があり、困難であるため優先する必要があると私に言いました。これには、電子透かしのような方法が含まれます。電子透かしとは、添付されたコンテンツが人工知能によって作成されたことを示す永続的なマークとしてコードを埋め込むことを指します。 AI によって生成または操作された投稿を検出するための自動ツールは、ウォーターマークとは異なり、AI によって生成されたコンテンツの作成者によるアクティブなタグ付けを必要としないため、魅力的です。言い換えれば、機械によって生成されたコンテンツを識別しようとする現在のツールは十分に機能していないということです。
一部の企業は、コンテンツの生成方法などの情報の暗号署名を数学を使用して安全に記録することを提案していますが、これは透かしなどの自主的な開示技術に依存することになります。
欧州連合が先週提案した人工知能法(AI法)の最新版では、生成人工知能を使用する企業に対し、コンテンツが実際に機械によって生成された場合にユーザーに通知するよう義務付けている。 AI によって生成されたコンテンツの透明性への需要が高まるにつれ、今後数か月間で新しいツールについてさらに多くの情報が聞かれることになるでしょう。
サポート: レン
原文:
https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/
以上が大手モデルの時代に不適切なコンテンツをどのようにキャッチするか? EUの法案ではAI企業にユーザーの知る権利の確保を義務付けるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。