ホームページ > 記事 > テクノロジー周辺機器 > チューリング賞受賞者のヒントン「私は年をとったので、人間より賢いAIの制御はあなたに任せます」
「AI が人類を滅ぼす可能性があるかどうか」について専門家たちが 2 つの陣営に分かれていたことをまだ覚えていますか?
なぜ「AI がリスクを引き起こすのか」が理解できないため、Ng Enda 氏は最近、2 人のチューリング賞受賞者と対話シリーズを開始しました:
AI は存在しますか? AI とは何ですか?リスクは?
興味深いことに、ヨシュア・ベンジオ氏とジェフリー・ヒントン氏と徹底的に話し合った後、彼と彼らは「多くの合意に達した」 !
両氏は、人工知能が生み出す具体的なリスクについて双方が共同で議論し、その理解の範囲を明確にする必要があると考えています。ヒントン氏はまた、チューリング賞受賞者のヤン・ルカン氏を「反対派の代表」として具体的に言及した
この問題に関しては依然として非常に激しい議論が行われており、ヤン氏のような尊敬される学者でさえ、大規模モデルは実際には理解されていないと信じている彼らが何を言っているのか。
マスク氏もこの会話に非常に興味を持っていました:
さらに、ヒントン氏は最近、かつて知的財産会議に出席していました。人間よりも賢い超知能が間もなく現れるだろうと、再び AI のリスクについて「説教」しました:
私たちは、自分たちよりもはるかに賢いものについて、そしてそれをどのように行うかを考えることに慣れていません。彼らと交流する、彼らは交流する。
私は今、超知性が「制御不能になる」のを防ぐ方法がわかりません。そして私は年をとっています。私は、より多くの若い研究者が超知性を制御する方法を習得することを願っています。
これらの会話の核心点と、この問題に関するさまざまな AI 専門家の意見を見てみましょう。
最初の対話は、Bengio との対話です。 Ng 氏と彼は、重要な合意に達しました。
科学者は、「AI リスクが存在する特定のシナリオ」を特定するよう努めるべきです。
言い換えれば、どのようなシナリオで AI が人類に重大な危害をもたらし、さらには人類の絶滅につながるか、これは双方が達成する必要があるコンセンサスです。
Bengio は、AI の将来は「霧と不確実性」に満ちているため、AI が害を及ぼすいくつかの具体的なシナリオを見つける必要があると考えています。
その後、ヒントンとの会話が始まり、両者は 2 つの重要な合意に達しました。
一方で、良い政策を策定するには、すべての科学者が「AI リスク」の問題についてよく議論する必要があります;
他方では、AI は確かに世界を理解しつつあります。 AI の安全性の問題に関する主要な技術的問題を列挙することは、科学者が合意に達するのに役立ちます。
その過程で、ヒントン氏は到達すべき重要なポイント、つまり「GPT-4 や吟遊詩人は自分たちの言っていることを本当に理解しています。」:
自分は理解していると思う人もいれば、ただのランダムなオウムだと思う人もいます。
私たちは皆、自分たちが(話していることを)理解していると信じていると思いますが、ヤンのように私たちが非常に尊敬する学者の中には、自分たちは理解していないと考えている人もいます。
もちろん、「呼び出された」LeCun 氏も時間通りに到着し、真剣に自分の意見を表明しました。
この回答ではまだ「AI リスク」について言及されていませんでしたが、ルカン氏は AI の安全性を向上させるための実践的な提案 (AI の「ガードレール」の作成) を示し、人間よりもより良い生活を構想しました。 「似ている」(推論計画が可能な多感覚入力)。 AI にはセキュリティ上の問題があるという考えについては、双方ともある程度の合意に達しています。 ヒントン: 超知性は想像よりも近いですもちろん、これはアンドリュー・ンとの会話だけではありません。 最近 Google を退職したヒントンは、最近出席した Intelligent Source Conference を含め、AI リスクのテーマについて多くの機会に語ってきました。 カンファレンスでは、「インテリジェンスへの2つのルート」をテーマに、「知識の蒸留」と「重みの共有」という2つのインテリジェンスのルートと、AIをより賢くする方法、そして私自身の超知能の出現に関する見解。 簡単に言うと、ヒントンは超知性(人間よりも高い知性)が出現するだけでなく、人々が考えているよりも早く出現すると信じています。 それだけでなく、彼はこれらの超知能が制御不能になると信じていますが、現時点ではそれらを止める良い方法が思いつきません。私たちは皆、「いくつかの問題については全員が合意に達する必要がある」ということに同意します。また、LLM にはある程度の理解があり、それが「単なる統計」であると言うのは誤解を招くというヒントンの意見に私も同意します。
1. しかし、彼らが世界について理解していることは、主にプレーンテキストでしか訓練されていないため、非常に表面的です。視覚から世界がどのように機能するかを学習する AI システムは現実をより深く理解できるようになりますが、自己回帰 LLM の推論と計画の能力はそれに比べて非常に限られています。
2. 以下の条件がなければ、人間 (あるいは猫) レベルに近い AI は出現しないと思います:
(1) ビデオなどの感覚入力から学習される世界モデル
(2) (自己回帰だけでなく) 推論と計画ができるアーキテクチャ
3. 計画を理解するアーキテクチャがある場合、それらは目標駆動型、つまり、作業を計画するための推論時間 (トレーニング時間だけでなく) の最適化に基づいたものになります。これらの目標は、AI システムを「従順」かつ安全なものにするためのガードレールになる可能性があり、最終的には人間よりも優れた世界モデルを作成することさえできます。
問題は、安全性と効率性を保証する優れた目的関数を設計 (またはトレーニング) することになります。 ###4:これは工学的に難しい問題ですが、一部の人が言うほど難しくはありません。
超知能は簡単に制御できます。人を操作することでより大きな力を得る。私たちは、自分よりはるかに賢い物事や、それらとどのように対話するかを考えることに慣れていません。特定のフィクション作品から他人を騙す例を学ぶことができるため、人を騙すのが得意になります。 一度人を騙すのが上手になると、人に何でもやらせる方法を持っています...これは恐ろしいことだと思いますが、私は年をとっているので、これを防ぐ方法がわかりません。 私の希望は、あなたのような若くて才能のある研究者が、私たちがどのようにしてこのような超知性を持ち、私たちの生活をより良くするのかを解明してくれることです。「終わり」のスライドが表示されたとき、ヒントンは意味深に次のように強調しました:
これが私の最後の PPT であり、このスピーチの鍵です。参考リンク: [1]https://twitter.com/AndrewYNg/status/1667920020587020290
[ 2 ]https://twitter.com/AndrewYNg/status/1666582174257254402
[3]https://2023.baai.ac.cn/
以上がチューリング賞受賞者のヒントン「私は年をとったので、人間より賢いAIの制御はあなたに任せます」の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。