ホームページ  >  記事  >  テクノロジー周辺機器  >  米メディア:マスク氏らがAIトレーニングの中止を求めたのは正しい、安全のために速度を落とす必要がある

米メディア:マスク氏らがAIトレーニングの中止を求めたのは正しい、安全のために速度を落とす必要がある

王林
王林転載
2023-04-13 09:16:021336ブラウズ

米メディア:マスク氏らがAIトレーニングの中止を求めたのは正しい、安全のために速度を落とす必要がある

3月30日のニュースによると、テスラのCEOイーロン・マスク氏とアップルの共同創設者スティーブ・ウォズニアック氏、その他1,000人以上が最近、 GPT-4 よりも強力な AI システムのトレーニングを一時停止します。アメリカの主流オンライン メディアである BI は、社会全体の利益のために AI の開発は減速する必要があると考えています。

公開書簡の中で、ウォズニアック氏やマスク氏らは、AI技術がますます強力になるにつれ、安全ガードレールを設置し、より高度なAIモデルのトレーニングを一時停止するよう要請した。彼らは、OpenAI の GPT-4 のような強力な AI モデルについては、「その影響がプラスであり、リスクが制御可能であると確信できる場合にのみ開発すべきである」と考えています。

もちろん、人々が AI の安全ガードレールを要求するのはこれが初めてではありません。しかし、AIの複雑化・高度化に伴い、警戒を求める声が高まっています。

米国のコーネル大学のデジタルおよび情報法の教授であるジェームス・グリメルマン氏は、次のように述べています。「新しい AI モデルの開発を遅らせることは、非常に良い考えです。私たちにとって有益な場合は、数か月または数年待っても害はありません、いずれにせよ終わりに到達します、そして、それが有害である場合、私たちはまた、最善の対応方法を考え出し、戦い方を理解するために余分な時間を稼ぎます。

ChatGPT の台頭は、速すぎる動きの潜在的な危険性を浮き彫りにします

昨年 11 月、OpenAI のチャットボット ChatGPT が公開テストのために開始されたとき、大きなセンセーションを引き起こしました。当然のことながら、人々は ChatGPT の機能を宣伝し始め、社会に対するその破壊的な影響はすぐに明らかになりました。 ChatGPT は医療専門家試験に合格し始め、爆弾の作り方を指導し、さらには自分の分身も作成しました。

AI、特に ChatGPT やテキストから画像への変換ツール Stable Diffusion などのいわゆる生成人工知能 (AIGC) ツールを使えば使うほど、その欠点や偏見を生み出す方法が見えてきます。可能性、そしてその力を利用する上で私たち人間がいかに無力であるか。

BI 編集者のハサン・チョードリー氏は、AI には「ターボチャージャーとなり、私たちの間違いの蔓延を加速する」可能性があると書いています。ソーシャルメディアと同様に、それは人間の最良の部分と最悪の部分を利用します。しかし、ソーシャルメディアとは異なり、AIは人々の生活により深く組み込まれることになるでしょう。

ChatGPT や他の同様の AI 製品はすでに情報を歪めたり間違いを犯したりする傾向があり、これについてウォズニアック氏は公に語っています。いわゆる「幻覚」(真実ではない情報)が起こりやすく、OpenAI CEO のサム・アルトマンでさえ、同社のモデルが人種的、性差別的、そして偏った答えを生み出す可能性があることを認めました。 Stable Diffusion は著作権問題にも遭遇し、デジタル アーティストの作品からインスピレーションを盗んだとして非難されています。

AI がより日常的なテクノロジーに統合されるにつれて、より多くの誤った情報が大規模に世界に導入される可能性があります。休暇の計画を支援するなど、AI にとって無害であるように見えるタスクでも、完全に信頼できる結果が得られるとは限りません。

自由市場で急速な開発が求められる場合、責任を持って AI テクノロジーを開発するのは困難です

はっきり言っておきますが、AI、特に ChatGPT などの AIGC のようなテクノロジーは非常に革新的です。人間が嫌がる退屈な作業のほとんどを実行するマシンを開発することには、本質的に何の問題もありません。

テクノロジーは労働力に存亡の危機をもたらしましたが、テクノロジー業界の平等化ツールとしても歓迎されています。 ChatGPT が今後数年間にボット反乱を主導する準備をしているという証拠もありません。

多くの AI 企業は、責任を持ってこのテクノロジーを開発するために倫理学者を関与させています。しかし、製品の開発を急ぐことがその社会的影響を上回ってしまうと、AI を安全に作成することに重点を置いたチームは、安心して仕事を遂行することができなくなります。

この AI ブームにおいて、スピードは無視できない要素のようです。 OpenAI は、同社が十分な速さで行動すれば、競争をかわして AIGC 分野のリーダーになれると信じています。これにより、Microsoft、Google、その他ほぼすべての企業が追随するようになりました。

強力な AI モデルが完成する前に公開エクスペリエンスとしてリリースしても、テクノロジーは向上しません。 AI の最適なユースケースはまだ見つかっていません。開発者は自分たちが作成するテクノロジーによって生成されるノイズを遮断する必要があり、ユーザーはノイズに気を取られるからです。

誰もがスピードを緩めたいわけではない

マスク氏らの公開書簡は、要点を外していると考える他の人々からも批判されている。

ワシントン大学のエミリー・M・ベンダー教授はツイッターで、マスク氏や他のテクノロジーリーダーたちは、AIが引き起こす実際の損害ではなく、誇大広告サイクルにおけるAIの力にのみ焦点を当てていると述べた。

コーネル大学のデジタル・情報法教授ジェリー・メルマン氏は、公開書簡に署名したテクノロジーリーダーたちは「遅ればせながら到着」し、自らに結果をもたらす可能性のあるパンドラの箱を開けようとしていると付け加えた。同氏は、「彼らがこの書簡に署名した以上、方向転換して同じ政策を自動運転車などの他の技術に適用することはできない」と述べた。結果を達成する。しかし今、会話は方向転換したようだ。 AI は数十年前から存在していますが、おそらくあと数年は待ってもよいでしょう。

以上が米メディア:マスク氏らがAIトレーニングの中止を求めたのは正しい、安全のために速度を落とす必要があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。