ホームページ >テクノロジー周辺機器 >AI >2024年のトップ9 AI論争-Analytics Vidhya
2024年は、人工知能の変革的期間をマークし、大きな革新と課題によって特徴付けられました。推定5,000億ドルの世界的なAI市場価値により、産業と私たちの日常生活を変えた数え切れないほどのツール、アプリ、企業が作成されました。これらの技術的な驚異は、AI開発における倫理、社会的影響、説明責任に関する議論を引き起こした論争の波を伴っていました。この記事では、2024年のAIの主要な論争について説明しています。
注目度の高い訴訟や企業スキャンダルから、ディープフェイクの道徳的ジレンマやAIの意思決定における間違いまで、ここに2024年のAI関連の論争があります。
テスラのCEOであるElon MuskとSam Altmanは、2015年にOpenaiを非営利団体として共同設立し、より大きな利益のために人工知能を前進させるという使命を果たしました。しかし、2018年のマスクの組織からの脱却は、両者の間の論争のある関係の始まりを示しました。その後、Muskは、Openaiが営利モデルへの移行、そのリーダーシップ、およびMicrosoftのような企業とのコラボレーションについて懸念を提起しました。 2024年3月、ムスクはオープンアイに対する訴訟を起こすことにより、確執をエスカレートしました。彼は、自律運転モデルにおけるテスラ独自のデータの誤用を主張した。
このライバル関係は、AIテクノロジーだけでなく、個人的な緊張も反映しています。ムスクは、アルトマンを「swindly sam」と呼んでいます。 Altmanは、マスクをインタビューで「いじめっ子」と名付けました。批評家は、確執は彼らの競合する野望によって促進されると主張している。特に、MuskがOpenaiの直接の競争相手であるXaiの設立によってです。この状況は、AIガバナンス、競争、および倫理的AI開発のより広範な意味を強調しています。
これが、イーロンがOpenaiを訴えている理由です:
- Tonya de Vitti(@tonyadevitti)2024年3月6日
「何かが非営利のオープンソースであり、何らかの形で営利の閉鎖源に変身することができるのは奇妙に思えます。」
- @elonmusk pic.twitter.com/zdghbq0h8e
また読む:責任あるAIとは何ですか、そしてなぜそれが必要なのですか?
2024年4月、Grok AiがNBAのスターであるKlay Thompsonがレンガの破壊行為に関与していたと報告したとき、警察がヘイワイアになったのを支援するための監視ツール。これはすべて、グロックがサクラメントキングスとの1試合でのトンプソンの不十分なパフォーマンスに関する議論の中でバスケットボールの俗語を誤解し、10回の試行のうちゼロを撃ちました。 「射撃レンガ」という用語は、失敗したショットを説明するためのバスケットボールの一般的な慣用的な表現です。 AIは、このフレーズを実際の破壊行為の例として誤解しており、サクラメントの家に投げ込まれたレンガが含まれていました。
根拠のない報告書は、家が破壊され、当局が事件を調査していると述べた。この偽のストーリーはソーシャルメディアに広く広まり、ユーザーの大衆は混乱と陽気さの状態になりました。多くの人がXの状況をock笑しました。彼らは、真実でない物語を広めるミームと陽気な投稿を作り始めました。コンテキストは簡単に誤解されましたが、Grokの報告は何日も生き続けていました。したがって、AIシステムが人間の言語のニュアンスとコンテキストをどのように知覚するかについての問題を強調します。
Grok Aiに対する反発はすぐに来ました。アクティビズムと解説は、AIシステムによるより強力な規制基準とより良い監査慣行を求めました。彼らは、偏ったトレーニングデータに固有の危険のいくつかを引用しました。たとえば、Grokは、少数派のコミュニティからの不釣り合いにフラグを立て、破壊的なステレオタイプを永続させ、真実を広めました。 Grok事件は、AIの失敗の影響に関するより広範な協議を開始しました。
Twitterの新しいAI駆動のトレンドタブは、Klay Thompsonがレンガで破壊された家を破壊したと非難されていると考えています
- 文化は切望していますか? (@culturecrave)2024年4月17日
これは、Kings pic.twitter.com/kslnh4nqj8に対して0-10を撮影した後に発生します
Scarlett Johanssonは、Openaiが彼女の声を使用してAIの生成されたウイルスビデオ広告を使用して、彼女の声が彼女の知識や許可なしに統合されていたことを知った後、2024年5月に訴訟を起こしました。ビデオ広告は、ソーシャルメディア全体で広く走り、使用されているディープフェイクテクノロジーに関する重要な法的および倫理的な問題を提起しました。
法廷で、ヨハンソンの弁護士は、彼女の肖像の無許可の使用がプライバシーと宣伝に対する彼女の権利を侵害したと主張した。この訴訟は、ディープフェイクテクノロジーの乱用の可能性に光を当て、より一般的な問題に注意を向けました。そのような技術は、同意なしに簡単に複製できる有名人や公人によってどのように誤用される可能性があります。それは、人々の肖像の使用における同意のためのAI生成されたコンテンツとプロトコルに関するより明確な規制に関する議論を開始しました。
このAIの論争により、Openaiはデータセットポリシーを修正する計画を発表して、より厳格な同意要件が前進するようにしました。この事件は、人工知能とディープフェイクの時代における知的財産権をめぐる進行中の議論における極めて重要な瞬間をマークし、AI開発における倫理基準の必要性を強調しました。
ChatGpt、特にSkyで声をどのように選んだかについて質問を聞いたことがあります。私たちは、スカイの使用を一時停止するように取り組んでいます。
- Openai(@openai)2024年5月20日
これらの声を選んだ方法については、https://t.co/r8wwzju36lをご覧ください
2024年5月、Googleは、AIの概要と呼ばれる新しいAIが展開していた新しいAIが生成した機能に関して、大きな反発に苦しみました。新機能は、検索結果を数文で要約して、ユーザーがより短い時間で回答を簡単に見つけることができるようにすることを目的としていました。しかし、発売から数日以内に、AIが生成されたコンテンツに対する国民の信頼を疑問視する一連の不条理で無意味な反応が悪名高いようになりました。
ユーザーによると、AIは多くのトピックに関する誤解を招く情報を表示しました。
これらの虚偽は、ユーザーがその状況に対する不信感と欲求不満を投稿しているため、ソーシャルメディアにrid笑の洪水を引き起こしました。多くの人々は、GoogleのAIシステムと情報を提供する能力の完全性に疑問を呈することで状況をエスカレートしました。
それは怒りを見て、Googleから発せられる回答の問題を認めることにより、AIの概要が直面している問題に対する批判を受けました。 「これらは、情報のギャップ、珍しいクエリのようなものを裏付けるための優れた品質のソースがない状況に根ざした問題であり、「悪い」情報を生成するために時々劣る、しばしば評判の少ないサイトをもたらすことがあります。」
Googleは、システムの監視と品質チェックに関する一連のレビューとアップグレードを行っていると述べました。また、エラーのない出力のためのさらなる開発の作業を継続しながら、より具体的な検索問い合わせのアプリケーションをさらに制限します。
私はすでにAIに対して偏っていたことを知っていますが、それを試してみた後、Googleのことは本当にひどいです。ある時点で、すべての倫理的および経済的心配は、「これはうまくいかない」要因に後部座席を取るだけです。 https://t.co/fgudh2nxci
- クリス・ムーニー?÷−℃(@ChriskMooney)2024年5月19日
また読む:Googleによるトップ6 AIアップデート - 2024ラウンドアップ
マクドナルドは、精度と顧客満足度に関する繰り返しの問題を受けて、2024年6月にIBMのAI搭載音声注文システムのテストをキャンセルしました。コンセプトは、ドライブスルスでの秩序プロセスをよりシンプルにすることでしたが、重大な運用上の問題に直面しました。
このテストでは、次の重大な問題が発生しました。
業界のアナリストは、マクドナルドがトライアルを終了したときに、顧客サービスの役割における大量採用のためのAIテクノロジーの準備に関する質問を提起しました。多くのアナリストは、AIには潜在的な利益があるが、現在の制限は適切に対処されていなければ、大幅な運用上の混乱につながる可能性があると指摘した。
McDonaldsはIBMを雇い、AIベースのドライブを順序付けたドライブシステムを開発しました。
- Sheel Mohnot(@pitdesi)2024年6月17日
失敗率が高く、今ではMCDが引き出されています
IBMが間違ったベンダーであることをAIを使用する必要があることは明らかです。
どういうわけか、「IBMを購入するために誰も解雇されない」とはもう当てはまらないと思います。 pic.twitter.com/wh41hstoyv
2024年6月、「世界初のロボット弁護士」として自分自身をブランド化した法的AIプラットフォームであるDonotPay。それは、その主張と供物の複数の法的および公的な精査により、その最大のAIの論争の1つで走っている地面に衝突しました。 2015年にJoshua Browderによって設立された同社は、当初、ユーザーが駐車券の争いや法的文書の生成などの法的課題と戦うのを支援することを目指し始めました。しかし、AIが悪い法的助言を与えたことが報告されました。これらの法的アドバイスは、そのサービスに依存している人々にとって深刻な状況につながった可能性があります。
連邦取引委員会が介入した後、論争は深まりました。彼らは、ドノトペイが法律の無許可の慣行に従事しており、約束を満たすことができなかったと主張していました。 FTCの苦情は、いくつかの主要なポイントを指摘しました。
このスキャンダルは、法律などのハイステークスドメインでAIを使用することの実現可能性と道徳に関する重要な疑問を提起します。批評家は、AIはいくつかのタスクを実行するために使用できるが、専門的な法的助言の代替として販売されるべきではないと主張している。この事件は、能力を表現し、消費者を保護するという点で、AI企業の責任に関する議論を引き起こしました。
ホットテイク:私は、テクノロジーが宣伝されているように機能しないという申し立てと同様に、私がドノトペイに対する法律の請求の不正行為についてあまり気にしているかどうかはわかりません。
- テッサ・モルナー(@Tessavmolnar)2023年3月10日
[長いスレッド警告。]
?
また読む:法律セクターのAI革命:チャットボットが法廷でセンターステージに上がる
2024年6月、Openaiの共同設立者であるIlya Sutskeverは、人工知能開発のための倫理的枠組みの優先順位付けを目的としたイニシアチブであるSafe Superintelligence Inc.(SSI)の立ち上げを発表しました。この動きは、Openaiを取り巻くさまざまな論争に続いて、高度なAI技術の安全性と倫理的意味に関する懸念が高まっています。 SSIの使命は、高度なAIシステムが開発され、責任を持って展開されるようにすることです。主な目的は次のとおりです。
サポーターは、AIを取り巻く倫理的懸念に対処するために、サツケイバーの動きをタイムリーで非常に必要なものとして賞賛しました。しかし、一方で、批評家はそれをOpenaiの上昇する論争への反応と見なしました。彼らは、SSIが現状を変えるために本当に行動しているのか、それともOpenaiの反発を救うのを助けるために広報戦術に従事しているのかと疑問を呈した。
2/8 Ex-Openaiの共同設立者は、独自のAI会社を立ち上げました
- AI Edge(@the_ai_edge)2024年6月21日
Openaiを離れてからわずか1か月後、元共構築者のIlya Sutskeverは、Daniel GrossとDaniel LevyとともにSafe Superintelligence Inc.を立ち上げ、AIのブレークスルーを安全に高めました。 pic.twitter.com/nfx1rtqxup
2024年9月、新たな怒りがClearview AIに対して浮上しました。これは、疑いを持たない個人のデータを削除して顔のデータベースを拡大するという最近の啓示が火災の増加にさらされているという悪名高い顔認識会社です。主に法執行機関にソフトウェアを提供する会社は、同意なしにインターネットやソーシャルメディアサイトから画像を取得する手段のために呼び出されました。この論争は、プライバシーの違反と法執行機関におけるそのような技術の適用の倫理に関する議論を新たにしました。
ClearView AIは、多くのオンラインソースから削られた300億を超える画像をホストしていると伝えられています。このような行為は、支持者と公民権団体の間で大きな警戒を提起しました。彼らは、法律と倫理基準に関するClearViewが犯した違反について懸念を提起しました。 ClearViewは、人々の同意なしに画像を集約していました。これはさらに、批評家が「永続的な警察のラインナップ」と考えるものを作成します。
ClearView AIに対する反発は新しいものではありません。同社は、さまざまな管轄区域における複数の訴訟と規制措置に直面しています。例えば:
このスキャンダルは、顔認識技術を管理するより強力な規制措置を推進している市民の自由グループや活動家からの広範な非難を引き付けました。多くの人は、ClearViewの慣行は、監視能力のためにプライバシー権が脇に押し出される不穏な傾向を象徴していると言います。合法的な戦いは、人々の生体認証データを保護するための包括的な法律の緊急の必要性を示しています。
ClearView AIは、EUのプライバシー法に違反して、顔のデータを違法に収集したことでオランダ当局から3370万ドルの罰金を科しました。会社は不正行為を否定しています。
- ノエル?? AIのラティーナ?? (@noellerussell_)2024年10月8日
AIソリューションで10億ドルを販売した方法をご覧ください!今すぐ無料のコピーを入手してください!https://t.co/kswndycvgu?
Amazonの募集のためのAIツールは、雇用の性別と人種に偏っていると批判されています。すでに、病気を修正するためのいくつかの試みがなされていました。しかし、それは、あらゆる点で同等の女性に対する技術的なポストの男性候補者を支持していることを示しました。それは、AI主導の意思決定プロセスにおける公平性と説明責任についての深刻な疑問です。
AmazonのAI募集ツールをめぐる論争は、主に男性候補者からの10年以上にわたって提出された履歴書についてアルゴリズムが訓練されたという発見から始まりました。結果として:
これにより、Amazonはツールを放棄することになりましたが、公平に公正な雇用慣行で効果がないことが証明された後にのみです。これらのバイアスが調整に直面し続けているにもかかわらず、Amazonによって開発されたAI募集ツールは、雇用を軽減するのではなく、不平等に対する批判が強化されているため、最後の日を見たことはありません。
Amazonは、プロセスをより効率的にするために、履歴書の並べ替えのAIを作成しました。それは例として過去の雇用慣行を使用することを教えました
- Askaubry? ? (@ask_aubry)2023年2月15日
AIは完全に機能しました。与えられた例を正確にコピーしました。それで、それは女性に対して非難を始めました。
例 @ 8:16https://t.co/eupwmjmkcb
2025年に入ると、2024年のAI論争はAIコミュニティにとって重要な教訓として存在します。新年は独自の課題をもたらしますが、これらのイベントは、より倫理的、透明性、説明責任のあるAI開発の必要性を強調しています。これらのAIの論争は、企業やイノベーターに、利害関係がこれまで以上に高くなっていることを思い出させます。 1つの間違いは、国民の信頼を侵食し、現実世界の害をもたらす可能性があります。しかし、論争には機会があります。これらの弱点に対処することにより、企業は人間の尊厳、プライバシー、社会的規範を尊重しながら革新するテクノロジーを作成できます。この旅は挑戦的ですが、より思慮深く、倫理的で、インパクトのあるAI主導の未来の約束を抱いています。
以上が2024年のトップ9 AI論争-Analytics Vidhyaの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。