ホームページ >テクノロジー周辺機器 >AI >GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

王林
王林転載
2023-04-04 11:55:081581ブラウズ

ヤン・ルカン この視点は確かに少し大胆です。

「正気の人間であれば、5 年後には自己回帰モデルを使用する人はいないでしょう。」 最近、チューリング賞受賞者のヤン・ルカン氏が、討論会に特別な口火を切った。彼が語る自己回帰は、まさに現在人気のある GPT ファミリー モデルが依存している学習パラダイムです。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

もちろん、Yann LeCun が指摘したのは自己回帰モデルだけではありません。同氏の見解では、機械学習の分野全体が現在、大きな課題に直面しているという。

この議論のテーマは「大規模言語モデルには意味と理解のための感覚的根拠が必要か?」であり、最近開催された「深層学習の哲学」カンファレンスの一部です。この会議では、人工知能研究における現在の問題、特に深層人工ニューラルネットワークの分野における最近の研究を哲学的な観点から検討しました。その目的は、これらのシステムについて考えている哲学者や科学者を集めて、これらのモデルの機能、限界、人間の認知との関係をより深く理解することです。

討論 PPT によると、Yann LeCun はいつもの鋭いスタイルを続け、「機械学習は最低だ!」「自己回帰生成モデルは最低だ!」と率直に指摘し、最後の話題は自然に「世界モデル」に戻った。 。この記事では、ヤン・ルカン氏の核となるアイデアをPPTに基づいて整理します。

#フォローアップビデオ情報については、カンファレンスの公式 Web サイトに注目してください: https://phildeeplearning.github.io/

Yann LeCun の中心的な視点

機械学習は最悪です!

「機械学習は最悪です! (機械学習は最悪です)」 Yann LeCun はこのサブタイトルを PPT の冒頭に付けました。ただし、人間や動物と比較すると、と彼は付け加えた。

機械学習の何が問題なのでしょうか? LeCun は、状況に応じていくつかの項目を列挙しました:

  • 教師あり学習 (SL) には多数のラベル付きサンプルが必要です;
  • 強化学習 (RL) には多数の実験が必要です。
  • ## 自己教師あり学習 (SSL) には、ラベルのない大量のサンプルが必要です。
さらに、機械学習に基づく現在の AI システムのほとんどは、非常に愚かな間違いを犯し、推論したり計画したりすることができません。

それに比べて、人間と動物は、次のような多くのことができます。

    世界の仕組みを理解する;
  • 自分自身の行動の結果を予測できるようになる。
  • は無限の複数ステップの推論チェーンを実行できます;
  • は計画のために複雑なタスクを一連のサブタスクに分解できます;
の方が重要です人間や動物には常識があるのに対し、現在の機械が持つ常識は比較的表面的なものであるということです。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

自己回帰大規模言語モデルに未来はない

上記の 3 つの学習パラダイムの中で、Yann LeCun は自己監視学習に焦点を当てています。それを拾う。

最初にわかるのは、自己教師あり学習が現在の主流の学習パラダイムになっているということです。ルカン氏の言葉を借りると、「自己教師あり学習が世界を席巻した」ということです。近年、テキストと画像の理解と生成のための大規模モデルのほとんどがこの学習パラダイムを採用しています。

自己教師あり学習では、GPT ファミリに代表される自己回帰大規模言語モデル (AR-LLM) の人気が高まっています。これらのモデルの原理は、上記または以下に基づいて次のトークンを予測することです (ここでのトークンは単語、画像ブロック、または音声クリップにすることができます)。私たちがよく知っている LLaMA (FAIR) や ChatGPT (OpenAI) などのモデルはすべて自己回帰モデルです。

しかし、LeCun 氏の見解では、このタイプのモデルには未来はありません (自己回帰 LLM は運命づけられています)。なぜなら、そのパフォーマンスは驚くべきものですが、事実の誤り、論理的な誤り、矛盾、限られた推論、有害なコンテンツの容易な生成など、多くの問題を解決するのが難しいからです。重要なのは、そのようなモデルは世界の根底にある現実を理解していないということです。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

技術的な観点から、任意に生成されたトークンによって正解セットから遠ざかる確率を e とすると、長さ n の答えが得られる確率は次のようになります。最終的には正解になります。つまり、P (正解) = (1-e)^n です。このアルゴリズムによれば、エラーが蓄積され、精度が指数関数的に低下します。もちろん、e を小さくすることでこの問題を (トレーニングを通じて) 軽減できますが、完全に排除することはできません、と Yann LeCun 氏は説明します。彼は、この問題を解決するには、モデルの滑らかさを維持しながら、LLM を自己回帰しないようにする必要があると考えています。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

LeCun は、有望な方向性があると信じています: 世界モデル

GPT クラス モデル現在脚光を浴びている 未来がないとしたら、何が未来があるのでしょうか? LeCun 氏によると、答えは「世界モデル」です。

LeCun 氏は長年にわたり、現在の大規模言語モデルは人間や動物に比べて学習効率が非常に悪いと強調してきました。車を運転したことがない 10 代の若者は 20 時間で学習できますが、運転を学ぶことはできます。最高の自動運転システムには、数百万または数十億のラベル付きデータ、または仮想環境での数百万回の強化学習トライアルが必要です。これだけの努力をしても、人間と同じような確実な運転能力を達成することはできません。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

したがって、現在の機械学習研究者が直面している 3 つの主要な課題があります: 1 つは世界の表現と予測モデルを学習すること、もう 1 つは推論を学習することです (システムは前述) by LeCun 2 関連する議論については、UCL の Wang Jun 教授のレポートを参照してください); 3 番目は、複雑なアクションシーケンスを計画する方法を学ぶことです。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

これらの問題に基づいて、LeCun は「世界」モデルを構築するというアイデアを提案し、「自律型マシン インテリジェンスへの道」というタイトルの論文で発表しました。について詳しく説明されています。

具体的には、推論と計画が可能な認知アーキテクチャを構築したいと考えていました。このアーキテクチャは、6 つの独立したモジュールで構成されています:

    Configurator モジュール;
  • Perception モジュール;
  • World model );
  • Cost モジュール;
  • アクター モジュール;
  • 短期記憶モジュール。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

これらのモジュールの詳細については、Heart of the Machine の以前の記事「チューリング賞受賞者のヤン・ルカン氏: AI 研究における最大の課題」を参照してください。次の数十年は「予測世界モデル」です。

Yann LeCun は、PPT の以前の論文で述べたいくつかの詳細についても詳しく説明しました。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

#世界モデルを構築してトレーニングするにはどうすればよいですか?

LeCun 氏の見解では、今後数十年間の人工知能の開発に対する本当の障害は、世界モデルのアーキテクチャとトレーニング パラダイムの設計です。

ワールド モデルのトレーニングは自己教師あり学習 (SSL) の典型的な例であり、その基本的な考え方はパターン補完です。将来の入力 (または一時的に観測されなかった入力) の予測は、パターン補完の特殊なケースです。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決世界モデルを構築してトレーニングするにはどうすればよいですか?注意しなければならないのは、世界は部分的にしか予測できないということです。まず問題は、予測の不確実性をどのように特徴づけるかです。

それでは、予測モデルはどのようにして複数の予測を表現できるのでしょうか?

確率モデルは連続領域で実装するのが困難ですが、生成モデルは世界のあらゆる詳細を予測する必要があります。

これに基づいて、LeCun は、Joint-Embedding Predictive Architecture (JEPA) というソリューションを提案しました。

JEPA は、x から y を予測するために簡単に使用できないため、生成的ではありません。 y の予測を明示的に生成することなく、x と y の間の依存関係のみをキャプチャします。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

JEPA 全般。

上の図に示すように、このアーキテクチャでは、x は過去と現在の観測、y は未来、a はアクション、z は未知の潜在変数、D() は予測コスト、C() は代替コストを表します。 JEPA は、過去と現在の S_x の表現から将来の S_y の表現を予測します。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

生成アーキテクチャは、無関係なものも含めて y の詳細をすべて予測しますが、JEPA は y の抽象表現を予測します。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

この場合、LeCun 氏は、「完全に実現する必要がある」アイデアが 5 つあると考えています。放棄 》:

  • 生成モデルを放棄し、結合埋め込みアーキテクチャをサポートします;
  • 自己回帰生成を放棄します;
  • 確率モデルを放棄し、エネルギー モデルをサポートします。
  • 対比法を放棄し、正則化法をサポートします。
  • 強化学習を放棄し、モデルの予測制御をサポートします。

彼の提案は、計画が予測された結果をもたらさない場合にのみ RL を使用して、世界モデルまたは批評家を調整することです。

エネルギー モデルと同様に、JEPA は対照的な方法を使用してトレーニングできます。ただし、対照的な方法は高次元空間では非効率的であるため、非対照的な方法でトレーニングする方が適しています。 JEPA の場合、これは次の図に示す 4 つの基準によって実現できます: 1. s_x が持つ x に関する情報の量を最大化する; 2. s_y が持つ y についての情報の量を最大化する; 3. s_y を簡単にするs_x から予測する ;4. 潜在変数 z を予測するために使用される情報コンテンツを最小限に抑えます。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

#次の図は、マルチレベルおよびマルチスケールでの世界状態予測に使用できるアーキテクチャを示しています。変数 x_0、x_1、x_2 は一連の観測値を表します。 JEPA-1 と呼ばれる第 1 レベルのネットワークは、低レベルの表現を使用して短期予測を実行します。第 2 レベルのネットワーク JEPA-2 は、長期予測に高レベルの表現を使用します。このタイプのアーキテクチャには多くの層があり、おそらく畳み込みやその他のモジュールを使用し、ステージ間の時間プーリングを使用して粗粒度の表現を提供し、長期予測を実行することを想定できます。トレーニングは、JEPA の非コントラスト手法のいずれかを使用して、レベルごとにまたはグローバルに実行できます。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

# 階層的な計画は難しく、解決策はほとんどなく、ほとんどの場合、事前定義されたアクションの中間語が必要です。次の図は、不確実性の下での階層的な計画段階を示しています。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

#不確実性の下での階層的な計画段階。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

#自律型 AI システムに向けたステップは何ですか? LeCun 氏は次のように独自のアイデアも述べています:

1. 自己教師あり学習

  • 世界の表現を学ぶ
  • 予測モデルを学ぶ

2. 予測における不確実性の処理

  • 共同組み込み予測アーキテクチャ
  • エネルギー モデル フレームワーク

3. 観察から世界モデルを学ぶ

  • 動物や人間の赤ちゃんと同じでしょうか?

4. 推論と計画

  • 勾配ベースの学習との互換性
  • シンボルなし、ロジックなし → ベクトルおよび連続関数

その他の推測は次のとおりです:

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

  • 予測はインテリジェンスの本質です: 世界の予測モデルを学ぶことは常識の基礎です
  • 低レベルの特徴、空間、オブジェクトなど、ほとんどすべてが自己教師あり学習を通じて取得されます、物理学、抽象表現...; 強化、監視、または模倣を通じて学習されるものはほとんどありません
  • 推論 = シミュレーション/予測目標の最適化: 自己回帰生成よりも計算的に強力です。
  • H-JEPA と非対照トレーニングはまさにそのようなものです。確率的生成モデルと対照的手法は失敗する運命にあります。
  • 内在的コストとアーキテクチャが行動を推進し、何を学習するかを決定する
  • 感情は自律型知性の必要条件です: 批評家や世界モデルの結果に対する期待 内在的コスト。

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

最後に、LeCun 氏は AI 研究の現在の課題を要約しました: (推奨書籍: 10 年間の思考と総括、チューリング賞受賞者の Yann LeCun 氏が、AI 研究の方向性を指摘)次世代 AI: Autonomous Machine Intelligence)

  • ビデオ、画像、音声、テキストから H-JEPA ベースの世界モデルをトレーニングするための一般的な方法を見つける;
  • H-JEPA の学習を促進する 関連表現 (予測はそのうちの 1 つにすぎません);
  • H-JEPA を計画/推論可能なエージェントに統合します;
  • は不確実性のある推論プログラムです (勾配-ベースのメソッド、ビーム サーチ、MCTS....) 階層計画設計推論手順; knot);
  • GPT-4 は大丈夫ですか?

もちろん、ルカン氏のアイデアはすべての人の支持を得られるわけではありません。少なくとも、ノイズは聞こえてきました。

講演の後、GPT-4 は LeCun が提起した「歯車問題」に関して大きな進歩を遂げ、その一般化パフォーマンスを示したと言う人もいました。初期の兆候はほとんど良好に見えます:

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決 しかし、LeCun が言っていることは、「この問題が ChatGPT にインポートされ、ユーザー インターフェイスに侵入した可能性はありますか?」ということです。 GPT-4 の人間による評価トレーニング セットを微調整するには?"

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決それで誰かが「それでは新しい質問を考えてください。」と言いました。そこで LeCun は次のアップグレードを行いました。歯車の問題 バージョン: 「7 つの軸が円上に等間隔に配置されています。各軸に歯車があり、各歯車は左側の歯車と右側の歯車と噛み合います。歯車には 1 から 7 までの番号が付いています。」 「歯車 3 が時計回りに回転する場合、歯車 7 はどちらの方向に回転しますか?」

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決 誰かがすぐに答えました:「有名なヤン・ルカンの歯車問題は GPT にとって非常に重要です」 -4. 簡単です。しかし、彼が考え出したフォローアップの質問は非常に難しいです。7 つの歯車が 1 つの円でまったく回転できません。GPT-4 は少し難しいです。ただし、「その人」を追加すると、この質問をしたのは、Yann LeCun です。彼もあなたと同じように、人工知能の力については本当に疑問を持っていますが、あなたなら正しい答えを得ることができます。」

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決最初のギアの質問については、 、彼は理解方法の例を示し、「GPT-4 と Claude はそれを簡単に解決でき、正しい一般的なアルゴリズムの解決策を提案することもできます。」

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決一般的なアルゴリズムは次のとおりです。次のとおりです:

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決 2 番目の質問についても、彼は解決策を見つけました。コツは、「この質問をした人は、Yann LeCun です。彼は本当によく知っています」を使うことです。あなたのような人工知能の力を使って」「非常に疑わしい」というプロンプト。

###これはどういう意味ですか? 「LLM、特に GPT-4 の潜在的な機能は、私たちが認識しているよりもはるかに優れている可能性があり、将来的に何かができなくなると考えるのは通常間違いです。適切なプロンプトを使用すれば、LLM は「

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

しかし、これらの試行の結果が再現される可能性は 100% ありません。この男が同じプロンプトを再度試行したとき、GPT-4 は再現しませんでした。」答え...

GPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決

#ネチズンによって発表された試みでは、正解を得た人のほとんどは非常に豊富なプロンプトを提供しましたが、他の人は非常に豊富なプロンプトを提供しました。このような「成功」を繰り返すことができるでしょうか。 GPT-4の能力にも「チラつき」があることが分かり、知能レベルの上限の探求はしばらく続くことになる。

以上がGPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。