ホームページ >テクノロジー周辺機器 >AI >GPT-4 は ChatGPT と比べてどのような点が改善されていますか? Jen-Hsun Huang 氏が OpenAI 共同創設者と「炉辺チャット」を開催

GPT-4 は ChatGPT と比べてどのような点が改善されていますか? Jen-Hsun Huang 氏が OpenAI 共同創設者と「炉辺チャット」を開催

PHPz
PHPz転載
2023-03-31 22:39:091453ブラウズ

ChatGPT と GPT-4 の最も重要な違いは、GPT-4 に基づいて構築すると、次の文字をより高い精度で予測できることです。ニューラル ネットワークがテキスト内の次の単語をより正確に予測できるほど、テキストをよりよく理解できます。

制作: Big Data Digest

著者: Caleb

Nvidia が OpenAI と出会ったとき、どのような火花を起こすでしょうか?

先ほど、Nvidia の創設者兼 CEO の Huang Jensen 氏が、GTC のファイアサイド チャット中に OpenAI の共同創設者 Ilya Sutskever 氏と詳細な意見交換をしました。

GPT-4 は ChatGPT と比べてどのような点が改善されていますか? Jen-Hsun Huang 氏が OpenAI 共同創設者と「炉辺チャット」を開催

ビデオリンク:

https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessinotallow=16566177511100015Kus #/ session/1669748941314001t6Nv

2 日前、OpenAI はこれまでで最も強力な人工知能モデルである GPT-4 を発表しました。 OpenAIは公式ウェブサイトでGPT-4を「OpenAIの最も先進的なシステム」と呼び、「より安全でより有用な応答を生成できる」としている。

Sutskever氏は講演の中で、GPT-4はChatGPTと比較して多くの面で「かなりの改善」を示しており、新しいモデルは画像とテキストを読み取れると指摘した。同氏は、質問や問い合わせに応じて「将来のバージョンでは、(ユーザーが)グラフを取得できるようになるかもしれない」と述べた。

ChatGPT と GPT-4 の世界規模での人気に伴い、これもこの会話の焦点になっているのは間違いありません。GPT-4 とその前身 (ChatGPT 関連のトピックを含む) に加えて、Huang Renxun 氏と Sutskever 氏は、ディープ ニューラル ネットワークの機能、限界、内部操作、さらには将来の AI 開発の予測についても語りました。

Digest Fungus とのこの会話を詳しく見てみましょう~

ネットワーク規模やコンピューティング規模を誰も気にしていないときに始めましょう

Sutskever の話を聞くと、多くの人がそう思うかもしれません名前を聞いて最初に思い浮かぶのは OpenAI とその関連 AI 製品ですが、Sutskever 氏の経歴は、博士研究員、Google Brain 研究科学者、Seq2Seq モデルの共同開発者である Andrew Ng 氏に遡ることを知っておく必要があります。

ディープラーニングは最初からSutskeverと結びついていたと言えます。

Sutskever 氏は、ディープ ラーニングに対する自身の理解を語る際、これからディープ ラーニングが実際に世界を変えるだろうと述べました。しかし、彼の個人的な出発点は、AI が大きな影響を与える可能性についての直観、意識と人間の経験に対する強い関心、そして AI の開発がこれらの質問の答えに役立つという信念にあります。

2002 年から 2003 年にかけて、学習は人間だけができることであり、コンピューターには学習できないと人々は一般に信じていました。そして、コンピューターに学習能力を与えることができれば、AI の分野で大きな進歩となるでしょう。

これは、Sutskever 氏が AI 分野に正式に参入する機会にもなりました。

そこでサツケヴァーは、同じ大学のジェフ・ヒントンを見つけました。彼の見解では、ヒントンが取り組んでいるニューラル ネットワークは画期的な技術であると考えています。なぜなら、ニューラル ネットワークの特徴は、自動的に学習してプログラムできる並列コンピュータにあるからです。

当時は、ネットワークの規模や計算規模の重要性を誰も気にしていませんでした。人々が訓練したニューラル ネットワークは 50 または 100 個だけで、その数百はすでに大きなものとみなされ、パラメータが 100 万個ありました。また、巨大だと考えられていました。

さらに、BLAS を理解できる人がいないため、最適化されていない CPU コードでしかプログラムを実行できません。最適化された Matlab を使用して、質問して比較するためにどのような種類の質問を使用するかなどのいくつかの実験を行っています。

しかし、問題は、これらは非常に散在的な実験であり、実際には技術の進歩を促進できないことです。

コンピューター ビジョン用のニューラル ネットワークの構築

当時、Sutskever 氏は、教師あり学習が将来の進むべき道であることに気づきました。

これは単なる直感ではなく、議論の余地のない事実でもあります。ニューラル ネットワークが十分に深く、十分な大きさであれば、いくつかの困難なタスクを解決する能力があります。しかし、人々はまだ深くて大規模なニューラル ネットワークに注目していません。あるいは、ニューラル ネットワークにまったく注目していません。

良い解決策を見つけるには、適切な大規模なデータセットと多くの計算が必要です。

ImageNet がそのデータです。当時、ImageNet は非常に難しいデータ セットでしたが、大規模な畳み込みニューラル ネットワークをトレーニングするには、それに匹敵する計算能力が必要でした。

次は GPU の登場です。 Jeff Hinton の提案の下、ImageNet データセットの出現により、畳み込みニューラル ネットワークが GPU に非常に適したモデルであるため、非常に高速に作成でき、規模がますます大きくなっていることがわかりました。

その後、この手法はコンピュータ ビジョンの記録を直接かつ大幅に破りました。これは以前の手法の継続に基づくものではなく、鍵となるのはデータ セット自体の難しさと範囲です。

OpenAI: 100 人から ChatGPT へ

OpenAI の初期の頃、Sutskever 氏は、プロジェクトをどのように推進すればよいのか完全にわかっていなかった、と認めました。

2016 年の初め、ニューラル ネットワークはそれほど開発されておらず、研究者の数も現在よりもはるかに少なかったです。 Sutskever 氏は、当時の社内の従業員はわずか 100 名で、そのほとんどがまだ Google またはディープマインドで働いていたことを思い出しました。

しかし、当時彼らには 2 つの大きなアイデアがありました。

そのうちの 1 つは、圧縮による教師なし学習です。 2016 年、教師なし学習は機械学習における未解決の問題であり、誰もそれを実装する方法を知りませんでした。最近、圧縮についてあまり話題になりませんでしたが、GPT が実際にトレーニング データを圧縮していることに突然誰もが気づきました。

数学的に言えば、これらの自己回帰生成モデルをトレーニングするとデータが圧縮され、なぜそれが機能するのかが直感的にわかります。データが十分に圧縮されていれば、そこに存在するすべての隠された情報を抽出できます。これは、OpenAI の感情ニューロンに関する関連研究にも直接つながりました。

同時に、Amazon レビューの次の文字を予測するために同じ LSTM を調整したところ、次の文字を十分に予測できれば、LSTM 内に次の文字に対応するニューロンが存在することがわかりました。その心情。これは教師なし学習の効果を示す良い例であり、次の文字予測のアイデアも検証します。

しかし、教師なし学習のデータはどこから入手できるのでしょうか?サツケバー氏によると、教師なし学習の難しい部分は、データよりもむしろ、なぜそれを行うのか、そして次のキャラクターを予測するためにニューラル ネットワークをトレーニングすることには追求し探求する価値があると認識していることだという。そこから、わかりやすい表現を学びます。

もう 1 つの大きなアイデアは強化学習です。スツケヴァー氏は常に、大きいほど良いと信じてきました。 OpenAI の目標の 1 つは、適切なスケール方法を見つけ出すことです。

OpenAI が完了した最初の本当に大きなプロジェクトは、ストラテジー ゲーム Dota 2 の実装でした。当時、OpenAI は強化学習エージェントを自分自身と戦うように訓練し、一定のレベルに達して人間のプレイヤーとゲームをプレイできるようにすることが目標でした。

Dota の強化学習から、GPT 出力テクノロジー ベースと組み合わせた人間のフィードバックの強化学習への変換が、今日の ChatGPT になりました。

OpenAI が大規模なニューラル ネットワークをトレーニングする方法

インターネット上のさまざまなテキスト内の次の単語を正確に予測するために大規模なニューラル ネットワークをトレーニングする場合、OpenAI はワールド モデルを学習します。

これは、テキストで統計的相関関係を学習しているだけのように見えますが、実際には、これらの統計的相関関係を学習すると、この知識を非常に圧縮できます。ニューラル ネットワークが学習するのはテキストを生成する過程でのいくつかの表現ですが、このテキストは実際には世界地図であり、ニューラル ネットワークは人間や社会を見るための視点をどんどん学習して​​いきます。これらは、ニューラル ネットワークが次の単語を正確に予測するタスクで実際に学習するものです。

同時に、次の単語の予測が正確であればあるほど復元度が高まり、この過程で得られる世界の解像度も高くなります。これは事前トレーニング段階の役割ですが、ニューラル ネットワークが私たちが望むように動作するわけではありません。

言語モデルが実際にやろうとしていることは、インターネット上に何らかの接頭辞やヒントで始まるランダムなテキストがあった場合、それは何を完成させるかということです。

もちろん、入力するテキストをインターネット上で見つけることもできますが、これは当初考えられていたものではないため、微調整、人間の教師による強化学習、その他の形式による追加のトレーニングが必要です。 AI 支援が役立つ場所の説明。

しかし、これは新しい知識を教えることではなく、その知識とコミュニケーションをとり、私たちが望むものをその知識に伝えることであり、これには境界も含まれます。このプロセスがより適切に実行されるほど、ニューラル ネットワークの有用性と信頼性が向上し、境界の忠実度が高くなります。

GPT-4 についてもう一度話しましょう

ChatGPT が最も急速にユーザー数を伸ばしているアプリケーションになってから間もなく、GPT-4 が正式にリリースされました。

Sutskever 氏は、この 2 つの違いについて、GPT-4 は ChatGPT と比較して多くの点で大幅な改善を達成していると述べました。

ChatGPT と GPT-4 の最も重要な違いは、GPT-4 に基づいて構築すると、次の文字をより高い精度で予測できることです。ニューラル ネットワークがテキスト内の次の単語をより正確に予測できるほど、テキストをよりよく理解できます。

たとえば、推理小説を読んだとします。その小説は非常に複雑で、多くのプロットや登場人物が散りばめられており、多くの謎めいた手がかりが隠されています。この本の最後の章で、探偵はすべての手がかりを集め、全員を集め、これから犯人を明らかにする、そしてその人物は...

これが GPT-4 です。予測できる。

ディープラーニングでは論理的な推論ができないと言われています。しかし、この例にしろ、GPT ができることの一部にしろ、ある程度の推論能力を示しています。

サツケヴァー氏は、論理的推論を定義するときに、次の決定を下すときにそれを特定の方法で考えることができれば、より良い答えが得られるかもしれないと答えました。ニューラル ネットワークがどこまで実現できるかはまだわかりませんが、OpenAI はまだその可能性を十分に引き出していません。

一部のニューラル ネットワークには実際にこの種の機能がすでに備わっていますが、そのほとんどは十分な信頼性がありません。信頼性は、これらのモデルを実用化する上での最大の障害であり、現行モデルの大きなボトルネックでもあります。重要なのは、モデルに特定の機能があるかどうかではなく、どの程度の機能があるかです。

Sutskever氏はまた、「GPT-4にはリリース当時、検索機能が組み込まれていなかった。単に次の単語を予測できる優れたツールであるが、これは完全に備えていると言える」と述べた。能力があり、検索がより効率的になります。

GPT-4 のもう 1 つの重要な改善は、画像の応答と処理です。その中でマルチモーダル学習は重要な役割を果たしています. Sutskever氏は, マルチモーダルには2つの側面があると述べました. 1つ目は, マルチモーダルはニューラルネットワーク, 特に視覚に役立つということです; 2つ目は, テキスト学習に加えて, 世界についての知識も得ることができるということです.イメージから学びました。

人工知能の未来

AI を使用して AI をトレーニングする場合、データのこの部分を無視すべきではないと Sutskever 氏は言います。

将来の言語モデルの発展を予測することは困難ですが、Sutskever 氏の見解では、この分野は今後も進歩し、AI はその強さで人類に衝撃を与え続けるだろうと信じる十分な理由があります。その能力の限界。 AIの信頼性は信頼できるかどうかで決まり、将来的には絶対に信頼できる段階に必ず到達します。

完全に理解していない場合は、それを理解するために質問したり、わからないことを伝えたりします。これらは、AI のユーザビリティが最も大きな影響を及ぼし、最も大きな影響を与える領域です。今後の進歩。

現在、私たちはこのような課題に直面しています。ニューラル ネットワークで長い文書を要約したり、概要を取得したりする際に、重要な詳細が見落とされていないことを確認するにはどうすればよいでしょうか?ある点が読者全員が同意するほど明らかに重要である場合、ニューラル ネットワークによって要約されたコンテンツは信頼できるものとして受け入れられます。

ニューラルネットワークがユーザーの意図に明確に従うかどうかについても同様です。

今後 2 年間でこのテクノロジーはますます多く使用され、このテクノロジーの信頼性はますます高まるでしょう。

関連レポート: https://blogs.nvidia.com/blog/2023/03/22/sutskever-openai-gtc/

以上がGPT-4 は ChatGPT と比べてどのような点が改善されていますか? Jen-Hsun Huang 氏が OpenAI 共同創設者と「炉辺チャット」を開催の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。