ホームページ  >  記事  >  テクノロジー周辺機器  >  AIの専門家は警告しているが、差し迫った問題と人類滅亡のリスクのどちらを心配する価値があるだろうか?

AIの専門家は警告しているが、差し迫った問題と人類滅亡のリスクのどちらを心配する価値があるだろうか?

WBOY
WBOY転載
2023-05-04 16:52:071262ブラウズ

AIの専門家は警告しているが、差し迫った問題と人類滅亡のリスクのどちらを心配する価値があるだろうか?

5月4日のニュースでは、今日の基本的な人工知能技術を構築した「偉い人たち」が、この技術は潜在的に危険であると警告を発しました。しかし、現時点ではAIの危険性や取るべき予防策については合意が得られていない。

「人工知能のゴッドファーザー」として知られるジェフリー・ヒントン氏が、Googleからの辞任を発表した。彼は、機械が人間よりも賢くなり、人類の生存を危険にさらすことを恐れているため、自分の仕事の一部を後悔しています。

モントリオール大学のヨシュア・ベンジオ教授も、人工知能の分野における先駆者です。彼は、ヒントン氏と、Meta の主任人工知能科学者であるヤン・ルカン氏とともに、ChatGPT などの今日の人工知能アプリケーションの開発に不可欠な人工ニューラル ネットワークの画期的な進歩により、2018 年チューリング賞を受賞しました。水曜日、ベンジオ氏は、ChatGPTなどのチャットボットやその関連技術に関するヒントン氏の懸念に「強く同意する」と述べたが、単に「我々は運命にある」と言うだけでは問題は解決しないのではないかと懸念している。

ベンジオ氏はさらに次のように付け加えた。「主な違いは、彼(ヒントン)が悲観的で、私はより楽観的だということだ。これらの危険は、短期的にも長期的にも非常に深刻だと思う。」少数の研究者によって真剣に受け止められるだけでなく、政府や国民によっても真剣に受け止められる必要がある。」

政府がすべての当事者の声に耳を傾けている兆候は数多くあります。ホワイトハウスは木曜日、Google、Microsoft、ChatGPTメーカーOpenAIのCEOらを招集し、テクノロジーの短期的および長期的なリスクを軽減する方法に焦点を当てたカマラ・ハリス米国副大統領との「率直な」話し合いを行った。欧州の議員らも包括的なAI規制規則の可決に向けた交渉を加速させている。

そして、まだ存在していない超知能マシンを過剰に宣伝し、それが引き起こす最も恐ろしい危険について空想することで、現在の人工知能製品に対する実用的な安全装置の開発から人々の関心がそらされてしまうのではないかと心配する人もいます。規制されていないことが多い。

Google の AI 倫理チームの元責任者であるマーガレット・ミッチェル氏は、ヒントン氏が 10 年間 Google を率いていた間、率直な発言をしなかったことに動揺していました。特にこれは、著名な黒人科学者ティムニット・ゲブルー氏が 2020 年に解雇された後のことです。 Gebru は、大規模な言語モデルが ChatGPT や Google Bard などの製品として広く商品化される前に、その危険性を研究しました。

Gebru 氏の退職後、Mitchell 氏も Google からの退職を余儀なくされました。彼女は、「彼女(ゲブル)は幸運なことに、テクノロジー分野で疎外された人々にとって有害な、差別的なコミュニケーション、憎悪の言葉、女性蔑視、同意のないポルノの輪の外にいました。彼女はそれらすべてを無視しました」と述べた。

2018 年のチューリング賞受賞者 3 人のうち、大手テクノロジー企業で働いていないのはベンジオだけです。同氏は何年もの間、雇用市場の不安定性、自律型兵器の危険性、偏ったデータセットなど、人工知能の短期的なリスクについて懸念を表明してきた。

しかし最近、こうした懸念はより深刻になり、ベンジオ氏はテスラのCEOイーロン・マスク氏やアップル共同創業者のスティーブ・ウォズニアック氏と協力することになった。スティーブ・ウォズニアック氏を含む他のコンピュータ科学者やハイテクビジネスのリーダーらは、6つの意見を求めている。 -月 OpenAI の最新モデル GPT-4 よりも強力な人工知能システムの開発を一時停止します。

ベンジオ氏は水曜日、最新の人工知能言語モデルは「チューリングテスト」に合格したと信じていると述べた。チューリング テストは、英国の暗号解読者で AI のパイオニアであるアラン チューリングが 1950 年に開発した手法にちなんで名付けられ、人工知能が少なくとも表面的には人間と区別できなくなる時期を測定するように設計されています。

Bengio 氏は次のように述べています。「これは画期的な出来事ですが、注意しないと深刻な結果を招く可能性があります。私の主な懸念は、これらのテクノロジーがサイバー攻撃を開始し、偽情報やその他の邪悪な目的を広めるためにどのように悪用されるかです。」 「これらのシステムに話しかけると、実際の人間と対話しているように思えます。それを見分けるのは難しいのです。」

研究者らは、現在の人工知能言語システムが人間よりも賢い可能性があるかどうかについて議論しています。情報を捏造する傾向などの制限。

Aidan Gomez は、機械学習システム、特にテキストの一節からの学習のパフォーマンスを向上させるための、いわゆるコンバーター技術を紹介した独創的な 2017 年の論文の共著者の 1 人です。当時まだ 20 歳だったゴメスは、Google のインターンでした。彼は、チームが新聞を送った午前3時ごろ、カリフォルニア州本社のソファに横たわっていたことを覚えている。

ゴメス氏は、同僚が「これは大きな影響を与えるだろう」と言ったのを覚えています。その後、彼らの研究は、人間が書いた記事に似た記事を生成できる新しいシステムの出現を促進するのに役立ちました。

6年後、ゴメスは現在、彼が設立した人工知能会社CohereのCEOとなっています。彼はこれらのシステムの潜在的な応用に熱心でしたが、同時にテクノロジーに対する脅威にも悩まされていました。同氏は、これらのシステムの真の機能は現実から切り離されており、並外れた想像力と推論力に依存していると述べた。

これらのモデルが何らかの方法で核兵器を制御し、何らかの絶滅レベルの出来事を引き起こすという考えには根拠がなく、善を行おうとする真に現実的な政策努力には役立たないとゴメス氏は述べた。」 #

以上がAIの専門家は警告しているが、差し迫った問題と人類滅亡のリスクのどちらを心配する価値があるだろうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。