ホームページ > 記事 > テクノロジー周辺機器 > シリコンバレーでの熱い議論: AI は人類を滅ぼすのか?
5 月 22 日のニュース、生成型人工知能などの新技術がテクノロジーの世界で新たなブームとなる中、人工知能が人類を滅ぼすかどうかをめぐる議論が激化しています。著名なテクノロジーリーダーが、人工知能が世界を征服する可能性があると警告した。他の研究者や幹部らは、この主張はSFだと言っている。
先週の米国議会公聴会で、人工知能スタートアップ OpenAI の CEO、サム アルトマン氏は、同社が公開したテクノロジーにはセキュリティ リスクがあることを全員に明確に思い出させました。
アルトマン氏は、ChatGPTチャットボットなどの人工知能技術が偽情報や悪意のある操作などの問題を引き起こす可能性があると警告し、規制を求めた。
同氏は、人工知能は「世界に深刻な害をもたらす」可能性があると述べた。
アルトマン氏の議会証言は、人工知能が世界を支配するかどうかをめぐる議論が主流になりつつあり、シリコンバレー全土で部門が成長し、技術の推進に努めている中で行われた。
かつては、機械の知能レベルが突然人間を超え、人間を滅ぼす可能性があると信じていた人もいましたが、現在、この非主流的な考えはますます多くの人々から支持されています。一流の科学者の中には、コンピュータが人間を超えて人間を制御できるようになるまでの時間が短縮されるとさえ信じている人もいる。
しかし、多くの研究者や技術者は、映画「ターミネーター」に登場するスカイネットのような殺人人工知能の出現を心配している人は多いが、この心配は論理的に正当な理由に基づいたものではないと述べています。むしろ、アルトマンが証言で述べた問題を含め、このテクノロジーがすでに引き起こしている本当の問題から目を逸らしてしまう。今日の AI テクノロジーは著作権を難読化し、デジタル プライバシーと監視に関する懸念を悪化させており、ハッカーがネットワーク防御を突破する能力を向上させるために使用される可能性があります。
Google、Microsoft、OpenAI はすべて、画期的な人工知能テクノロジーを公開しています。これらのテクノロジーは、ユーザーとの複雑な会話を実行し、単純なテキスト プロンプトに基づいて画像を生成できます。邪悪な人工知能をめぐる議論が激化している。
「これは SF ではありません」と、人工知能のゴッドファーザーで元 Google 従業員のジェフリー・ヒントンは言いました。ヒントン氏は、人間よりも賢い人工知能は、これまでの予測では30~100年かかるのに対し、5~20年以内に出現する可能性があると述べた。
「まるで宇宙人が地球に着陸したか、あるいはこれから着陸しようとしているようだ」と彼は言いました。 「彼らは流暢に話し、役に立ち、詩を書き、退屈な手紙に返事をするので、私たちはそれを本当に受け入れることができません。しかし、彼らは本当に宇宙人です。」
それでも、大手テクノロジー企業の社内では、テクノロジーに密接に関わっている多くのエンジニアは、AI が人間に取って代わることは現時点で心配する必要があるとは考えていません。
人工知能のスタートアップ Cohere が所有する研究所、Cohere for AI の所長で元 Google 研究者であるサラ・フッカー氏は、「研究者の中には、現在の現実世界のリスクに注意を払い、この分野に積極的に取り組んでいる人たちがいる」と述べた。人類の生存にリスクがあるかどうかを懸念している人々の方がはるかに多いのです。」
現在、現実には多くのリスクが存在します。たとえば、有害なコンテンツを公開するように訓練されたロボットが偏見と差別を深めます。人工知能の大部分がトレーニング データはすべて英語で、主に北米やヨーロッパからのものであるため、インターネットは大多数の人々の言語や文化からさらに逸脱する可能性があり、これらのボットは誤った情報を捏造して偽装することもよくあります。実際、場合によっては、ユーザーを攻撃する会話の無限ループに陥ることさえあります。さらに、人々はこのテクノロジーの波及効果についてよくわかっていません。あらゆる業界が、人工知能がもたらす可能性のある破壊や変化に備えています。弁護士や医師などの高収入の仕事さえも置き換えられるでしょう。
また、人工知能が将来人間に危害を加えたり、何らかの形で社会全体を制御したりする可能性があると信じている人もいます。人類の実存的リスクはより深刻であるように見えますが、定量化するのは難しく、具体的ではないと多くの人が信じています。
「これらは単なるアルゴリズムだと考える人々のグループがいます。彼らはオンラインで見たことを繰り返しているだけです。」 Google CEO のサンダー・ピチャイは今年 4 月のインタビューで次のように述べています。これらのアルゴリズムは、新しい特性、創造性、推論、計画能力を備えて登場しつつあります。」「この問題は慎重に扱う必要があります。」
この議論は、過去 10 年間にわたるコンピューター サイエンスの分野における機械学習テクノロジーの継続的な進歩に端を発しています。機械学習は、人間からの明示的な指示なしで、大量のデータから新しい洞察を抽出できるソフトウェアとテクノロジーを作成します。このテクノロジーは、ソーシャル メディア アルゴリズムから検索エンジン、画像認識プログラムに至るまで、さまざまなアプリケーションで広く普及しています。
昨年、OpenAI と他のいくつかの小規模企業は、新しい機械学習テクノロジである生成人工知能を使用するツールのリリースを開始しました。いわゆる大規模言語モデルは、Web から収集した何兆もの写真や文章を学習させた後、単純なプロンプトに基づいて画像やテキストを生成し、ユーザーとの複雑な会話を実行し、コンピューター コードを記述することができます。
フューチャー・オブ・ライフ研究所のエグゼクティブ・ディレクター、アンソニー・アギーレ氏は、大企業はほとんど監視されることなく、ますますスマートなマシンの開発を競っていると語った。 Future of Life Institute は、社会へのリスクを研究するために 2014 年に設立されました。同研究所はテスラのCEOイーロン・マスク氏の資金提供を受けて、2015年に人工知能が人類を滅ぼす可能性の研究を開始した。 人工知能が人間よりも優れた推論能力を獲得すれば、彼らは自制心を達成しようとするだろうとアギーレ氏は語った。これは、現在存在する現実の問題と同じように、人々が心配すべきことです。
彼はこう言った: 「彼らが軌道から逸脱するのをどのように抑制するかは、ますます複雑になるだろう。」 「多くの SF 小説はすでにそれを非常に具体的に示している。」
今年の 3 月に年、Ah Gire 氏は、新しい人工知能モデルのトレーニングを 6 か月間一時停止することを求める公開書簡の執筆に協力しました。この公開書簡には、2018年にコンピューターサイエンス分野で最高賞を受賞した上級人工知能研究者であるヨシュア・ベンジオ氏と、最も影響力のある人工知能スタートアップ企業の一つの最高経営責任者(CEO)であるエマ氏を支援する合計2万7000の署名が寄せられた。エマド・モスタクもその中にいた。
ムスクは間違いなくその中で最も目を引くものです。彼は OpenAI の創設に貢献し、現在は自身の AI 会社の設立に熱心に取り組んでおり、最近では AI モデルのトレーニングに必要な高価なコンピューター機器に投資しています。
マスク氏は長年にわたり、人間は超人工知能の開発がもたらす影響についてもっと注意を払うべきだと信じてきた。先週のテスラの年次株主総会でのインタビューで、マスク氏は当初、グーグル共同創設者ラリー・ペイジ氏が人工知能の脅威に対して「無頓着」だと感じたため、オープンAIに資金を提供したと述べた。
Zhihu Quora のアメリカ版も独自の人工知能モデルを開発しています。同社CEOのアダム・ディアンジェロ氏は公開書簡に署名しなかった。同氏は公開書簡について「この提案をする動機は人それぞれだ」と述べ、
OpenAI CEOのアルトマン氏も公開書簡の内容を認めていない。同氏は、公開書簡の一部には同意したが、全体的に「技術的詳細」が欠如しているのは人工知能を規制する正しい方法ではないと述べた。アルトマン氏は先週火曜日の人工知能に関する公聴会で、同社のアプローチはAIツールを早期に一般に公開し、テクノロジーがより強力になる前に問題を特定して解決することだと述べた。
しかし、テクノロジーの世界ではキラーロボットに関する議論が高まっています。最も厳しい批判の一部は、このテクノロジーの欠陥を長年研究してきた研究者からのものです。
2020 年、Google の研究者ティムニット ゲブルーとマーガレット ミッチェルは、ワシントン大学の学者エミリー M. ベンダーと共同で論文を執筆しました。エミリー M. ベンダーとアンジェリーナ マクミラン メジャーは共同で論文を執筆しました。彼らは、人間を模倣する大規模な言語モデルの能力が増大することで、人々が自分たちに知覚力があると考えるリスクが高まると主張している。
むしろ、これらのモデルは「ランダムなオウム返し」として理解されるべきであり、つまり、何を言っているのかを理解する必要がなく、純粋に確率に基づいて文の次にどの単語が来るかを予測するのに非常に優れているだけであると彼らは主張しています。 。他の批評家は、大規模な言語モデルを「自動補完」または「知識の浣腸」と呼んでいます。
彼らは、大規模な言語モデルがどのように性差別的コンテンツやその他の有害なコンテンツをスクリプトに従って生成することができるかを詳細に文書化しました。ゲブル氏は、この論文はグーグルによって隠蔽されたと述べた。彼女が記事を公開することを主張した後、Google は彼女を解雇した。数カ月後、同社はミッチェル氏を再び解雇した。
この論文の共著者4人も、マスク氏らが署名した公開書簡に応じて書簡を書いた。
「空想的な AI の理想郷や黙示録で私たちの気を紛らわすのは危険です。その代わりに、私たちは社会的不平等の悪化に急速に注力している開発会社の非常に現実的な搾取的慣行に焦点を当てるべきです。」と彼らは言いました。
Googleは当時、Gebru氏の解任についてコメントを控えたが、責任ある倫理的な人工知能の研究に取り組んでいる研究者はまだたくさんいると述べた。
「現代の人工知能が強力であることに疑いの余地はありませんが、それは人類の生存に差し迫った脅威をもたらすという意味ではありません」とコヒアの人工知能研究ディレクターのフッカー氏は述べた。
現在、人工知能が人間の制御から脱却することに関する議論の多くは、「ターミネーター」のスカイネットのように、人工知能が自らの限界をいかに迅速に克服できるかに焦点を当てています。
フック氏は次のように述べています:「ほとんどのテクノロジーとテクノロジーに存在するリスクは時間の経過とともに進化します。」「ほとんどのリスクは、現在存在するテクノロジーの制限によって悪化します。」
昨年、Google は次の人物を解雇しました。人工知能研究者のブレイク・ルモイン氏。彼はかつてインタビューで、Google の LaMDA 人工知能モデルには知覚機能があると強く信じていると述べました。当時、レモンは業界の多くの人から厳しく非難されました。しかし 1 年後、テクノロジー コミュニティの多くの人々が彼の意見を受け入れ始めました。
元 Google 研究者であるヒントン氏は、最新の人工知能モデルを使用した後、このテクノロジーの潜在的な危険性についての考えが変わったのはつい最近のことだと述べました。ヒントン氏は、コンピューター プログラムに複雑な質問をし、AI モデルがトレーニング データに基づいて考えられる答えを予測するだけでなく、彼の要求を大まかに理解する必要があると考えています。
今年 3 月、マイクロソフトの研究者らは、OpenAI の最新モデル GPT4 を研究しているときに、人間のように独立して考えることができる人工知能を指す「汎用人工知能の火花」を観察したと述べました。
Microsoft は、OpenAI と協力して Bing チャットボットを開発するために数十億ドルを費やしてきました。懐疑論者は、マイクロソフトが人工知能技術を中心にパブリックイメージを構築していると信じている。このテクノロジは常に実際よりも先進的であると考えられており、Microsoft はこのテクノロジから得るものがたくさんあります。
マイクロソフトの研究者は、この技術がトレーニングされたテキスト コンテンツのみに基づいて世界の空間的および視覚的な理解を開発したと論文を信じています。 GPT4 は、ユニコーンを自動的に描画し、卵を含むランダムなオブジェクトを卵が割れないように積み重ねる方法を記述することができます。
Microsoft 研究チームは次のように書いています:「言語の習得に加えて、GPT-4 は数学、プログラミング、視覚、医学、法律、心理学、その他の分野を含むさまざまな複雑な新しい問題も解決できます。特別なヒントはありますか。」 彼らは、AI の能力は多くの分野で人間に匹敵すると結論付けました。
しかし、研究者の一人は、人工知能の研究者は機械の知能を評価するための定量的な基準を開発しようとしてきたものの、「知能」をどう定義するかは依然として非常に難しいと認めました。
彼は、「それらはすべて問題があり、物議を醸している。」
以上がシリコンバレーでの熱い議論: AI は人類を滅ぼすのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。