ホームページ >テクノロジー周辺機器 >AI >2024年のトップ9 AI論争-Analytics Vidhya

2024年のトップ9 AI論争-Analytics Vidhya

Lisa Kudrow
Lisa Kudrowオリジナル
2025-03-13 09:51:15477ブラウズ

2024年のトップ9 AI論争-Analytics Vidhya

2024年は、人工知能の変革的期間をマークし、大きな革新と課題によって特徴付けられました。推定5,000億ドルの世界的なAI市場価値により、産業と私たちの日常生活を変えた数え切れないほどのツール、アプリ、企業が作成されました。これらの技術的な驚異は、AI開発における倫理、社会的影響、説明責任に関する議論を引き起こした論争の波を伴っていました。この記事では、2024年のAIの主要な論争について説明しています。

目次

  • 2024年のトップ9 AI論争
    • Openai vs Elon Musk(2024年3月)
    • Grok AiはNBA Starが破壊行為を誤って非難する(2024年4月)
    • Openai vs Scarlett Johansson(2024年5月)
    • GoogleのAIの概要論争(2024年5月)
    • マクドナルドの終了IBMドライブスルー音声注文テスト(2024年6月)
    • DonotPay「ロボット弁護士」論争(2024年6月)
    • Ilya SutskeverがSafe Superintelligence Inc(SSI)を発売する(2024年6月)
    • ClearViewAI論争(2024年9月)
    • AmazonのAI採用ツールバイアス(進行中)
  • エンドノート

2024年のトップ9 AI論争

注目度の高い訴訟や企業スキャンダルから、ディープフェイクの道徳的ジレンマやAIの意思決定における間違いまで、ここに2024年のAI関連の論争があります。

Openai vs Elon Musk(2024年3月)

テスラのCEOであるElon MuskとSam Altmanは、2015年にOpenaiを非営利団体として共同設立し、より大きな利益のために人工知能を前進させるという使命を果たしました。しかし、2018年のマスクの組織からの脱却は、両者の間の論争のある関係の始まりを示しました。その後、Muskは、Openaiが営利モデルへの移行、そのリーダーシップ、およびMicrosoftのような企業とのコラボレーションについて懸念を提起しました。 2024年3月、ムスクはオープンアイに対する訴訟を起こすことにより、確執をエスカレートしました。彼は、自律運転モデル​​におけるテスラ独自のデータの誤用を主張した。

このライバル関係は、AIテクノロジーだけでなく、個人的な緊張も反映しています。ムスクは、アルトマンを「swindly sam」と呼んでいます。 Altmanは、マスクをインタビューで「いじめっ子」と名付けました。批評家は、確執は彼らの競合する野望によって促進されると主張している。特に、MuskがOpenaiの直接の競争相手であるXaiの設立によってです。この状況は、AIガバナンス、競争、および倫理的AI開発のより広範な意味を強調しています。

これが、イーロンがOpenaiを訴えている理由です:

「何かが非営利のオープンソースであり、何らかの形で営利の閉鎖源に変身することができるのは奇妙に思えます。」
- @elonmusk pic.twitter.com/zdghbq0h8e

- Tonya de Vitti(@tonyadevitti)2024年3月6日

また読む:責任あるAIとは何ですか、そしてなぜそれが必要なのですか?

Grok AiはNBA Starが破壊行為を誤って非難する(2024年4月)

2024年4月、Grok AiがNBAのスターであるKlay Thompsonがレンガの破壊行為に関与していたと報告したとき、警察がヘイワイアになったのを支援するための監視ツール。これはすべて、グロックがサクラメントキングスとの1試合でのトンプソンの不十分なパフォーマンスに関する議論の中でバスケットボールの俗語を誤解し、10回の試行のうちゼロを撃ちました。 「射撃レンガ」という用語は、失敗したショットを説明するためのバスケットボールの一般的な慣用的な表現です。 AIは、このフレーズを実際の破壊行為の例として誤解しており、サクラメントの家に投げ込まれたレンガが含まれていました。

根拠のない報告書は、家が破壊され、当局が事件を調査していると述べた。この偽のストーリーはソーシャルメディアに広く広まり、ユーザーの大衆は混乱と陽気さの状態になりました。多くの人がXの状況をock笑しました。彼らは、真実でない物語を広めるミームと陽気な投稿を作り始めました。コンテキストは簡単に誤解されましたが、Grokの報告は何日も生き続けていました。したがって、AIシステムが人間の言語のニュアンスとコンテキストをどのように知覚するかについての問題を強調します。

Grok Aiに対する反発はすぐに来ました。アクティビズムと解説は、AIシステムによるより強力な規制基準とより良い監査慣行を求めました。彼らは、偏ったトレーニングデータに固有の危険のいくつかを引用しました。たとえば、Grokは、少数派のコミュニティからの不釣り合いにフラグを立て、破壊的なステレオタイプを永続させ、真実を広めました。 Grok事件は、AIの失敗の影響に関するより広範な協議を開始しました。

Twitterの新しいAI駆動のトレンドタブは、Klay Thompsonがレンガで破壊された家を破壊したと非難されていると考えています

これは、Kings pic.twitter.com/kslnh4nqj8に対して0-10を撮影した後に発生します

- 文化は切望していますか? (@culturecrave)2024年4月17日

Openai vs Scarlett Johansson(2024年5月)

Scarlett Johanssonは、Openaiが彼女の声を使用してAIの生成されたウイルスビデオ広告を使用して、彼女の声が彼女の知識や許可なしに統合されていたことを知った後、2024年5月に訴訟を起こしました。ビデオ広告は、ソーシャルメディア全体で広く走り、使用されているディープフェイクテクノロジーに関する重要な法的および倫理的な問題を提起しました。

法廷で、ヨハンソンの弁護士は、彼女の肖像の無許可の使用がプライバシーと宣伝に対する彼女の権利を侵害したと主張した。この訴訟は、ディープフェイクテクノロジーの乱用の可能性に光を当て、より一般的な問題に注意を向けました。そのような技術は、同意なしに簡単に複製できる有名人や公人によってどのように誤用される可能性があります。それは、人々の肖像の使用における同意のためのAI生成されたコンテンツとプロトコルに関するより明確な規制に関する議論を開始しました。

このAIの論争により、Openaiはデータセットポリシーを修正する計画を発表して、より厳格な同意要件が前進するようにしました。この事件は、人工知能とディープフェイクの時代における知的財産権をめぐる進行中の議論における極めて重要な瞬間をマークし、AI開発における倫理基準の必要性を強調しました。

ChatGpt、特にSkyで声をどのように選んだかについて質問を聞いたことがあります。私たちは、スカイの使用を一時停止するように取り組んでいます。

これらの声を選んだ方法については、https://t.co/r8wwzju36lをご覧ください

- Openai(@openai)2024年5月20日

GoogleのAIの概要論争(2024年5月)

2024年5月、Googleは、AIの概要と呼ばれる新しいAIが展開していた新しいAIが生成した機能に関して、大きな反発に苦しみました。新機能は、検索結果を数文で要約して、ユーザーがより短い時間で回答を簡単に見つけることができるようにすることを目的としていました。しかし、発売から数日以内に、AIが生成されたコンテンツに対する国民の信頼を疑問視する一連の不条理で無意味な反応が悪名高いようになりました。

AIによる誤解を招く情報

ユーザーによると、AIは多くのトピックに関する誤解を招く情報を表示しました。

  1. 歴史的不実表示:米国のイスラム教徒の大統領についての質問に答えるとき、AIはオバマがその中に唯一の人であると述べた。
  2. 不条理な推奨事項:チーズがピザを滑らないようにするのを防ぐ方法を提案するように求められた後、AIは「非毒性接着剤のカップ」を追加することを推奨しました。明らかに無意味な答えです。他のとんでもない提案には、鉱物の含有量のために岩を食べ、風味のためにガソリンをスパゲッティに置くことが含まれていました。
  3. 危険なアドバイス: AIはまた、飛行機から飛び降りることになると、パラシュートはバックパックよりも優れていないという虚偽の陳述を行いました。これは、そのような誤った情報に依存する危険性を強調しています。

これらの虚偽は、ユーザーがその状況に対する不信感と欲求不満を投稿しているため、ソーシャルメディアにrid笑の洪水を引き起こしました。多くの人々は、GoogleのAIシステムと情報を提供する能力の完全性に疑問を呈することで状況をエスカレートしました。

それは怒りを見て、Googleから発せられる回答の問題を認めることにより、AIの概要が直面している問題に対する批判を受けました。 「これらは、情報のギャップ、珍しいクエリのようなものを裏付けるための優れた品質のソースがない状況に根ざした問題であり、「悪い」情報を生成するために時々劣る、しばしば評判の少ないサイトをもたらすことがあります。」

Googleは、システムの監視と品質チェックに関する一連のレビューとアップグレードを行っていると述べました。また、エラーのない出力のためのさらなる開発の作業を継続しながら、より具体的な検索問い合わせのアプリケーションをさらに制限します。

私はすでにAIに対して偏っていたことを知っていますが、それを試してみた後、Googleのことは本当にひどいです。ある時点で、すべての倫理的および経済的心配は、「これはうまくいかない」要因に後部座席を取るだけです。 https://t.co/fgudh2nxci

- クリス・ムーニー?÷−℃(@ChriskMooney)2024年5月19日

また読む:Googleによるトップ6 AIアップデート - 2024ラウンドアップ

マクドナルドの終了IBMドライブスルー音声注文テスト(2024年6月)

マクドナルドは、精度と顧客満足度に関する繰り返しの問題を受けて、2024年6月にIBMのAI搭載音声注文システムのテストをキャンセルしました。コンセプトは、ドライブスルスでの秩序プロセスをよりシンプルにすることでしたが、重大な運用上の問題に直面しました。

このテストでは、次の重大な問題が発生しました。

  1. 注文誤解:顧客は、注文がAIシステムによって誤っているか、誤っていると不満を述べています。それにより、ドライブスルーウィンドウで遅延と刺激が生じます。
  2. カスタマーエクスペリエンス:障害は、顧客にとって迷惑の原因であるだけでなく、待ち時間の増加にもつながりました。これは、AIの実装から予想される効率の向上とは正反対です。

業界のアナリストは、マクドナルドがトライアルを終了したときに、顧客サービスの役割における大量採用のためのAIテクノロジーの準備に関する質問を提起しました。多くのアナリストは、AIには潜在的な利益があるが、現在の制限は適切に対処されていなければ、大幅な運用上の混乱につながる可能性があると指摘した。

McDonaldsはIBMを雇い、AIベースのドライブを順序付けたドライブシステムを開発しました。

失敗率が高く、今ではMCDが引き出されています

IBMが間違ったベンダーであることをAIを使用する必要があることは明らかです。

どういうわけか、「IBMを購入するために誰も解雇されない」とはもう当てはまらないと思います。 pic.twitter.com/wh41hstoyv

- Sheel Mohnot(@pitdesi)2024年6月17日

DonotPay「ロボット弁護士」論争(2024年6月)

2024年6月、「世界初のロボット弁護士」として自分自身をブランド化した法的AIプラットフォームであるDonotPay。それは、その主張と供物の複数の法的および公的な精査により、その最大のAIの論争の1つで走っている地面に衝突しました。 2015年にJoshua Browderによって設立された同社は、当初、ユーザーが駐車券の争いや法的文書の生成などの法的課題と戦うのを支援することを目指し始めました。しかし、AIが悪い法的助言を与えたことが報告されました。これらの法的アドバイスは、そのサービスに依存している人々にとって深刻な状況につながった可能性があります。

FTCの苦情

連邦取引委員会が介入した後、論争は深まりました。彼らは、ドノトペイが法律の無許可の慣行に従事しており、約束を満たすことができなかったと主張していました。 FTCの苦情は、いくつかの主要なポイントを指摘しました。

  1. 誤解を招く主張: DonotPayは、「Ironclad」の法的文書を生成し、人間の弁護士のそれに匹敵するアドバイスを提供できると宣伝しました。しかし、FTCは、AIが適切なテストを受けていないことを発見し、その出力が適格な弁護士によって生成されたものと合法的に健全または同等であることを確認しました。
  2. 消費者の危害:ユーザーは、AIに生成されたドキュメントの起草が不十分であるか、不正確さが含まれている場合、法的文脈で使用できない場合を報告しました。ある原告は、標準以下の品質のためにDonotPayによって作成された文書を使用できなかったと述べた。
  3. 和解契約: FTCの調査結果のため、DonotPayは罰金で193,000ドルを支払うことに同意し、2021年から2023年の間にサービスを使用した消費者にDonotPayが販売した法的製品の制限を伝えることを抑制することに拘束されることに同意しました。また、将来、人間の弁護士をDonotPayの弁護士に置き換えることに関して、支持されていない主張をするのをやめることに同意しました。

このスキャンダルは、法律などのハイステークスドメインでAIを使用することの実現可能性と道徳に関する重要な疑問を提起します。批評家は、AIはいくつかのタスクを実行するために使用できるが、専門的な法的助言の代替として販売されるべきではないと主張している。この事件は、能力を表現し、消費者を保護するという点で、AI企業の責任に関する議論を引き起こしました。

ホットテイク:私は、テクノロジーが宣伝されているように機能しないという申し立てと同様に、私がドノトペイに対する法律の請求の不正行為についてあまり気にしているかどうかはわかりません。

[長いスレッド警告。]

- テッサ・モルナー(@Tessavmolnar)2023年3月10日

また読む:法律セクターのAI革命:チャットボットが法廷でセンターステージに上がる

Ilya SutskeverがSafe Superintelligence Inc(SSI)を発売する(2024年6月)

2024年6月、Openaiの共同設立者であるIlya Sutskeverは、人工知能開発のための倫理的枠組みの優先順位付けを目的としたイニシアチブであるSafe Superintelligence Inc.(SSI)の立ち上げを発表しました。この動きは、Openaiを取り巻くさまざまな論争に続いて、高度なAI技術の安全性と倫理的意味に関する懸念が高まっています。 SSIの使命は、高度なAIシステムが開発され、責任を持って展開されるようにすることです。主な目的は次のとおりです。

  1. 倫理的ガイドラインの確立: SSIは、安全性と説明責任を通じてAI開発の実践を導く全体的な倫理フレームワークを確立することを目指しています。
  2. 透明性の促進:グループは、AIがAIがどのように意思決定と機能を果たすかを詳細に理解できるように、より透明な方法でAI運用を行う原因を提唱します。
  3. 政策立案者のエンゲージメント: SSIは、AIテクノロジーを形成する規制ポリシーに関する政策立案者やビジネスリーダーとの関わりに取り組みます。

サポーターは、AIを取り巻く倫理的懸念に対処するために、サツケイバーの動きをタイムリーで非常に必要なものとして賞賛しました。しかし、一方で、批評家はそれをOpenaiの上昇する論争への反応と見なしました。彼らは、SSIが現状を変えるために本当に行動しているのか、それともOpenaiの反発を救うのを助けるために広報戦術に従事しているのかと疑問を呈した。

2/8 Ex-Openaiの共同設立者は、独自のAI会社を立ち上げました

Openaiを離れてからわずか1か月後、元共構築者のIlya Sutskeverは、Daniel GrossとDaniel LevyとともにSafe Superintelligence Inc.を立ち上げ、AIのブレークスルーを安全に高めました。 pic.twitter.com/nfx1rtqxup

- AI Edge(@the_ai_edge)2024年6月21日

ClearViewAI論争(2024年9月)

2024年9月、新たな怒りがClearview AIに対して浮上しました。これは、疑いを持たない個人のデータを削除して顔のデータベースを拡大するという最近の啓示が火災の増加にさらされているという悪名高い顔認識会社です。主に法執行機関にソフトウェアを提供する会社は、同意なしにインターネットやソーシャルメディアサイトから画像を取得する手段のために呼び出されました。この論争は、プライバシーの違反と法執行機関におけるそのような技術の適用の倫理に関する議論を新たにしました。

ClearView AIは、多くのオンラインソースから削られた300億を超える画像をホストしていると伝えられています。このような行為は、支持者と公民権団体の間で大きな警戒を提起しました。彼らは、法律と倫理基準に関するClearViewが犯した違反について懸念を提起しました。 ClearViewは、人々の同意なしに画像を集約していました。これはさらに、批評家が「永続的な警察のラインナップ」と考えるものを作成します。

ClearView AIに対する反発

ClearView AIに対する反発は新しいものではありません。同社は、さまざまな管轄区域における複数の訴訟と規制措置に直面しています。例えば:

  • 罰金と禁止: 2024年9月、オランダ当局は、違法な顔認識データベースを構築するためにClearView€3050万ユーロの罰金を科しました。オランダのデータ保護局は、顔認識技術は非常に邪魔であり、無差別に展開すべきではないことを強調しました。
  • 和解:以前の集落には、ACLUとの合意が含まれていました。それは、ClearViewが個人や企業にサービスを販売することを禁止しました。そのような訴訟にもかかわらず、ClearViewは依然として活発であり、適切な規制が十分に効果的であるかどうかを疑問視しています。

このスキャンダルは、顔認識技術を管理するより強力な規制措置を推進している市民の自由グループや活動家からの広範な非難を引き付けました。多くの人は、ClearViewの慣行は、監視能力のためにプライバシー権が脇に押し出される不穏な傾向を象徴していると言います。合法的な戦いは、人々の生体認証データを保護するための包括的な法律の緊急の必要性を示しています。

ClearView AIは、EUのプライバシー法に違反して、顔のデータを違法に収集したことでオランダ当局から3370万ドルの罰金を科しました。会社は不正行為を否定しています。

AIソリューションで10億ドルを販売した方法をご覧ください!今すぐ無料のコピーを入手してください!https://t.co/kswndycvgu?

- ノエル?? AIのラティーナ?? (@noellerussell_)2024年10月8日

AmazonのAI採用ツールバイアス(進行中)

Amazonの募集のためのAIツールは、雇用の性別と人種に偏っていると批判されています。すでに、病気を修正するためのいくつかの試みがなされていました。しかし、それは、あらゆる点で同等の女性に対する技術的なポストの男性候補者を支持していることを示しました。それは、AI主導の意思決定プロセスにおける公平性と説明責任についての深刻な疑問です。

AmazonのAI募集ツールをめぐる論争は、主に男性候補者からの10年以上にわたって提出された履歴書についてアルゴリズムが訓練されたという発見から始まりました。結果として:

  1. 性別バイアス:このツールは、女性の応募者に対するバイアスを開発しました。女性の経験や資格に関連する用語を含む履歴書を罰することでした。
  2. 人種格差:同様に、少数派の背景からの候補者は、トレーニングデータに埋め込まれた歴史的バイアスのために欠点に直面していました。

これにより、Amazonはツールを放棄することになりましたが、公平に公正な雇用慣行で効果がないことが証明された後にのみです。これらのバイアスが調整に直面し続けているにもかかわらず、Amazonによって開発されたAI募集ツールは、雇用を軽減するのではなく、不平等に対する批判が強化されているため、最後の日を見たことはありません。

Amazonは、プロセスをより効率的にするために、履歴書の並べ替えのAIを作成しました。それは例として過去の雇用慣行を使用することを教えました

AIは完全に機能しました。与えられた例を正確にコピーしました。それで、それは女性に対して非難を始めました。

例 @ 8:16https://t.co/eupwmjmkcb

- Askaubry? ? (@ask_aubry)2023年2月15日

エンドノート

2025年に入ると、2024年のAI論争はAIコミュニティにとって重要な教訓として存在します。新年は独自の課題をもたらしますが、これらのイベントは、より倫理的、透明性、説明責任のあるAI開発の必要性を強調しています。これらのAIの論争は、企業やイノベーターに、利害関係がこれまで以上に高くなっていることを思い出させます。 1つの間違いは、国民の信頼を侵食し、現実世界の害をもたらす可能性があります。しかし、論争には機会があります。これらの弱点に対処することにより、企業は人間の尊厳、プライバシー、社会的規範を尊重しながら革新するテクノロジーを作成できます。この旅は挑戦的ですが、より思慮深く、倫理的で、インパクトのあるAI主導の未来の約束を抱いています。

以上が2024年のトップ9 AI論争-Analytics Vidhyaの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。