検索
ホームページテクノロジー周辺機器AIChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

0. 前書き

11 月 30 日、OpenAI は、一般向けに無料でテストできる ChatGPT と呼ばれる AI チャットボットをリリースし、わずか数日でネットワーク全体で普及しました。

見出しや公開アカウントでの複数の宣伝から判断すると、コードを書いたり、バグをチェックしたりするだけでなく、小説を書いたり、学校への申請書を書いたりするなどのゲームの企画もできる万能なようです。

科学 (良い) と学習 (素晴らしい) の精神で、私は ChatGPT のテストと検証に時間をかけて、**ChatGPT が非常に「強力」である理由を整理しました**。

著者は AI を専門的に勉強したことがなく、エネルギーも限られているため、AI-003 のような詳細な技術的な章はすぐにありません。001 と 002 を理解することは、通常の食事の範囲を超えています。メロンの塊の範囲。

この記事には多くの専門用語が登場しますが、理解の難しさを軽減するよう努めます。

同時に、私はAIの専門家ではないので、間違いや漏れがあればご指摘ください。

謝辞: レビューしてくれたクラスメート X と Z、特にプロフェッショナリズムに優れたクラスメート X に感謝します

1. GPT とは

ChatGPT これには 2 つの単語が含まれています, 1つはチャット、つまり会話ができることです。別の言葉はGPTです。

GPT の正式名は、Generative Pre-Trained Transformer (生成事前トレーニング トランスフォーマー モデル) です。

この中には、Generative、Pre-Trained、Transformer という合計 3 つの単語が含まれています。

一部の読者は、私が上記でトランスフォーマーを中国語に翻訳していないことに気づくかもしれません。

Transformerは専門用語なので、直訳すると変圧器です。ただし、本来の意味が失われやすいので、翻訳しない方が良いでしょう。

Transformer については、以下の第 3 章で詳しく説明します。

2. GPT のテクノロジー進化タイムライン

GPT の開始から現在までの開発の歴史は次のとおりです:

2017 年 6 月、Google は論文「注目は次のとおりです」を発表しました。 all you need" 》 は、GPT 開発の基礎となった Transformer モデルを最初に提案しました。論文アドレス: https://arxiv.org/abs/1706.03762

2018 年 6 月、OpenAI は論文「Improving Language Understanding by Generative Pre-Training」(生成的事前トレーニングによる言語理解能力の向上) をリリースしました。 、GPTモデル(Generative Pre-Training)を初めて提案しました。論文のアドレス: https://paperswithcode.com/method/gpt。

2019 年 2 月、OpenAI は論文「Language Models are Unsupervised Multitask Learners」(言語モデルは教師なしマルチタスク学習者であるべき) を発表し、GPT-2 モデルを提案しました。論文アドレス: https://paperswithcode.com/method/gpt-2

2020 年 5 月、OpenAI は論文「言語モデルは少数のショット学習者である」(言語モデルは少数のサンプルである必要があります) をリリースしました。論文アドレス: https://paperswithcode.com/method/gpt-3

2022 年 2 月末、OpenAI は論文「言語モデルのトレーニング」を発表しました。 「人間のフィードバックで指示に従う」(人間のフィードバック指示フローを使用して言語モデルをトレーニングする)、指示 GPT モデルを発表しました。論文アドレス: https://arxiv.org/abs/2203.02155

2022 年 11 月 30 日, OpenAI が ChatGPT を開始しました モデルは試用可能で、ネットワーク全体で非常に人気があります。参照: AI-001 - What can ChatGPT, a Popular chatbot on all network, do?

3. GPT の T- Transformer (2017) 第 1 章の

セクション 1 では、Transformer に適切な翻訳はないと述べましたが、

しかし、Transformer は GPT (Generative Pre-Training) の最も重要かつ基本的なキーワードです。 Transformer).

(注: GPT の Transformer は、Google の論文の元の Transformer と比較して簡素化されており、Decoder 部分のみが保持されています。この記事のセクション 4.3 を参照してください)

3.1. が焦点です善良さについてもっと知りたいですか?

善良な人間と同じように、最も重要なことは善良であること、あるいは人間であることです?

##読者の皆さん、そうですか?

少し安全な答えは次のとおりです: 善人でも人間でもない; どちらもOK、彼らも人間です

まあ、少し複雑なので、人間の言葉で話を広げてみましょう:

3.2. 申し訳ありませんが、あなたは良い人です

さらに拡張して、どうでしょうか? 「ごめんなさい、あなたは良い人です。」?

セマンティクスの焦点は「ごめんなさい」になります。しかし、セマンティクスの前提は依然として人間です。

3.3. に戻るトピック、トランスフォーマーとは何ですか。

この記事「トランスフォーマーを 10 分で理解する」(https://zhuanlan.zhihu.com/p/82312421) を参照してください。ご存知のとおり、トランスフォーマーに関する私の次の内容は無視して、直接第 4 章に進んでください。よく理解できない場合は、私の理解を確認してください。参考になるかもしれません。

3.3.1. 前世代の RNN モデルの主な欠陥

Transformer モデルが登場する前は、RNN モデル (リカレント ニューラル ネットワーク) が典型的な NLP モデルでした。 RNN には他にもバリアント モデルがあります (名前は無視しても、Transformer が登場した後は重要ではなくなりました) が、それらはすべて同じ問題を抱えており、うまく解決できません。

RNN の基本原理は、各単語のデータを保持しながら各単語ベクトルを左から右にブラウズすることであり (たとえば、これは犬です)、後続の各単語は前の単語に依存します。

RNN の重要な問題: RNN は逐次的に計算される必要があります。書籍や記事には多数の単語が含まれており、順序依存性があるため並列化できないため、効率が非常に低いことが想像できます。

誰もがこのように理解するのは簡単ではないかもしれませんが、例を挙げてみましょう (実際の状況とは少し異なりますが、簡略化して理解しています):

RNN ループでは、次の文はどうなりますか?あなたは良い男です、計算する必要があります? 毛織物?

1)、あなたとあなたは良い人を計算し、結果セット $You

2)、$You に基づいて、 Are と You are a good man を使用し、$ を計算しますAre

3)、$You、$Are に基づいて $a

4) などを計算し、$is、$good、$ man を計算し、最終的にあなたは良い人ですのすべての要素の完全な計算

ご覧のとおり、計算プロセスは 1 つずつ、逐次計算、単一の組立ラインであり、後続のプロセスは前のプロセスに依存するため、非常に遅い

3.3.2. Transformer のすべてに注意を払う

前述したように、2017 年 6 月に、Google は「必要なのは注意だけです」という論文をリリースしました。 、これが初めて Transformer モデルが提案され、GPT 開発の基礎となりました。論文アドレス: https://arxiv.org/abs/1706.03762

タイトルの「Attending is all you need」から、Transformer が実際に「All in Attendance」を提唱していることがわかります。

それでは、「注意」とは何でしょうか?

「必要なのは注意だけだ」という論文では、その定義を次のように見ることができます。

セルフ・アテンション (セルフ・アテンション) は、内部注意とも呼ばれ、シーケンスの表現を計算するために、単一シーケンスの異なる位置を関連付けるアテンション メカニズム。自己注意は、読解、抽象的な要約、談話の組み込み、タスクに依存しない文章表現の学習など、さまざまなタスクでうまく活用されています。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

単純な理解単語間の相関関係は、注意のベクトルによって記述されます。

例: You are a good man (あなたは良い人です). AI が You の注意ベクトルを分析するとき、次のように分析する可能性があります:

From Your are a good man注意メカニズムを通じて測定された文では、あなたとあなた (自分) の間の注意相関確率が最も高くなります (0.7、70%)。結局のところ、あなた (あなた) が最初にあなた (あなた) であるため、あなたの注意は, あなた ベクトルは 0.7

あなたと男 (人) の注意ベクトルは (0.5, 50%) に関連しています、あなた (あなた) は人 (男) なので、あなたの注意ベクトルはそして人間は 0.5

あなたと良い人 (良い人) の間の注意相関は、再び (0.4、40%) であり、人間としての基準では、あなたはまだ良い人 (良い人) です。したがって、You,good の注意ベクトル値は 0.4

You,are のベクトル値は 0.3、You,a のベクトル値は 0.2 です。

つまり、最終的なあなたの注意ベクトル リストは [0.7, 0.3, 0.2, 0.4, 0.5] になります (この記事では例のみ)。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

##3.4. 論文におけるattentionとtransfomerの価値の説明

論文では、attentionとtransfomerについてのGoogleの説明は主にシーケンシャルに対する従来のモデルの価値を強調しています。依存関係が存在するため、Transformer モデルは現在の再帰モデルを置き換えて、入力と出力の逐次依存を減らすことができます。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

3.5. Transformer メカニズムの広範な重要性

Transformer の出現後、すぐにそれに取って代わられました。リカレント ニューラル ネットワーク RNN の一連のバリアントで、主流のモデル アーキテクチャの基礎となります。

並列処理と高速化が素人や一般の人々にとって十分に直感的ではない技術的特徴である場合、現在の ChatGPT の衝撃的な効果からそれを垣間見ることができます。

**Transformer は 2 つの主要な障害を根本的に解決し、その発売は変革的かつ革新的です**。

3.5.1. 手動でラベル付けされたデータセットを取り除く (手作業の数を大幅に削減)

この重要な障害は次のとおりです: 過去のトレーニングでは、ディープラーニングをトレーニングしたい場合データ セットはトレーニングに使用されますが、これらのデータ セットには手動のアノテーションが必要であり、これには非常にコストがかかります。

たとえば、機械学習には、大量の教材と、機械が学習してトレーニングするための多数の入出力サンプルが必要です。この教材はオーダーメイドする必要があり、需要は非常に大きいです。

たとえば、教材の作成には以前は 10,000 人または 100,000 人の教師が必要でしたが、現在は 10 人だけで済み、数千分の 1 に削減されます。

それでは、この問題をどうやって解決すればいいのでしょうか?簡単に説明すると、マスクメカニズムを使用して既存の記事のセグメントをブロックし、AI に空白を埋めさせます。

これは、既存の記事や詩の 1 つをブロックし、学習したモデルと前の文に基づいて機械に次の文を埋めさせるようなものです。

以下に示すように:

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

このように、多くの既成の記事、Web ページ、Zhihu Q&A、Baidu Zhizhi などは、自然な注釈付きデータ セット (一言で言えば、 、超節約)。

3.5.2. 逐次計算を並列計算に変換し、トレーニング時間を大幅に削減します

手動アノテーションに加えて、RNN についてはセクション 3.3.1 の主要な欠陥で説明します。逐次計算と単一パイプラインの問題です。

セルフアテンション メカニズムをマスク メカニズムおよびアルゴリズムの最適化と組み合わせることで、記事、文、または段落を並行して計算できます。

あなたは良い人です。コンピューターの数と同じだけ、Transformer がどれほど高速であるかがわかります:

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4. GPT (Generative Pre-Training) - June 2018

次に、ChatGPT の前世 - GPT(1) です。

2018年6月、OpenAIはGPTモデル(Generative Pre-Training)を初めて提案した論文「Improving Language Understanding by Generative Pre-Training」(生成的事前トレーニングによる言語理解の向上)を発表しました。 。論文のアドレス: https://paperswithcode.com/method/gpt。

4.1. GPT モデルの核となる命題 1-事前トレーニング

GPT モデルは、Transformer が逐次相関と依存性を排除し、建設的な命題を提示するという前提に依存しています。

まず、大量の教師なし事前トレーニングを実行します。

注: 教師なしとは、人間の介入が必要なく、ラベル付きのデータセットも必要ないことを意味します (教材や教師は必要ありません) ) の事前トレーニング。

次に、少量の教師あり微調整を使用して、理解能力を修正します。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.1.1. たとえば

たとえば、子供を 2 段階で育てるようなものです。 :

1)、大規模自習段階(1,000万冊の自習、教師なし):AIに十分な計算能力を提供し、アテンションメカニズムに基づいて自ら学習させます。

2)、小規模指導段階 (10 冊の本を教える): 10 冊の本に基づいて、1 つの例から推論を導き出します

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.1.2. 論文冒頭の説明

いわゆる明確な導入、冒頭の導入から、GPT モデルの説明も見ることができます。教師あり学習とデータの手動ラベル付け。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.2. GPT モデルの中核命題 2 - 生成

機械学習には、判別モデルと生成モデルがあります生成モデルには 2 つの違いがあります。

GPT (Generative Pre-Training) は、その名前が示すように、生成モデルを使用します。

生成モデルは判別モデルよりもビッグ データの学習に適しており、後者は正確なサンプル (手動でラベル付けされた有効なデータ セット) により適しています。事前トレーニングをより適切に実装するには、生成モデルの方が適切です。

注: このセクションの焦点は上の文にあります (ビッグ データの学習に適しています)。理解が複雑だと感じる場合は、このセクションの残りの部分は読まないでください。

Wiki 生成モデル資料 (https://en.wikisensitivity.org/wiki/Generative_model) では、2 つの違いを説明するために次の例が示されています。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

これだけを見てもわかりにくいかもしれませんので、補足説明させていただきます。

上記の意味は、サンプルが 4 つあると仮定した場合です:

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

すると、生成モデルの特徴は、確率がグループ化されていないことです (サンプル内の確率を計算し、サンプルの合計で割ります)。上記の表を例にとると、合計があることがわかります。 x=1、y=0 の確率は 1/4 (サンプルの総数は 4) であると考えられます。

同様に、x=2、y=0 は合計 2 つあり、x=2、y=0 の確率は 2/4 です。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

判別モデルの特徴は**確率グループ分け計算(グループ内の確率を計算し、グループ内の和で割る)**です。上の表を例にとると、x=1とy=0のサンプルは合計1つ、x=1のグループはサンプルが合計2つあるため、確率は1/2となります。

同様に、x=2、y=0は合計2つあります。同時に、グループ内に x=2 のサンプルが 2 つある場合、x=2、y=0 の確率は 2/2=1 (つまり 100%) になります。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.3. オリジナルの Transfomer と比較した GPT のモデルの改善

以下は GPT のモデルの説明です。GPT は 12 層デコーダのみのデコーダをトレーニングしました (デコーダのみ、エンコーダなし)により、モデルがより単純になります。

注 1: Google の論文「Attender is all you need」のオリジナルの Transformer は、Encoder と Decoder の 2 つの部分から構成されており、前者 (Encoder) は翻訳に相当し、後者 (Decoder) は生成に相当します。

注 2: Google は、Encoder をコアとして BERT (Bidirectional Encoder Representations from Transformers、Bidirectional Encoder Representations from Transformers) モデルを構築しました。双方向の内部は、BERT が上位コンテキストと下位コンテキストの両方を使用して単語を予測することを意味するため、BERT は自然言語理解タスク (NLU) の処理に優れています。

注 3: このセクションの主な点は、GPT は Transformer に基づいていますが、Transformer と比較すると、モデルが単純化され、Encoder が削除され、Decoder のみが保持されるということです。同時に、BERT のコンテキスト予測 (双方向) と比較して、GPT は単語のコンテキストのみを使用して単語を予測する (一方向) ことを推奨しており、モデルがよりシンプルで計算が速く、極端な生成により適しています。したがって、GPT の方が処理能力が優れています 自然言語生成タスク (NLG) は、AI-001 で発見したものです - インターネット上で人気のチャットボットである ChatGPT ができること ChatGPT は、「作文」を書いたり、嘘をでっち上げたりするのが非常に得意です。この段落を理解したら、このセクションの残りの部分を読む必要はありません。

注 4: 人間をシミュレートするという観点から見ると、GPT のメカニズムは実際の人間により似ています。なぜなら人間は、上(前に言ったこと)から次(つまり次)も推測するからです いわゆる発せられた言葉は、注がれた水のようなものです 人間は、後に言われたことで前の言葉を調整することはできませんたとえ間違っていると言ったとしても、悪い言葉は人の心を傷つけ、発せられた言葉(上記)に基づいてのみ修正し説明することができます。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.3.1. アーキテクチャ図の比較

次の図は、Transformer モデルのアーキテクチャと GPT モデルの比較を示しています。アーキテクチャ (それぞれ論文より) 「必要なのは注意だけです」と「生成的事前トレーニングによる言語理解を向上させる」)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

4.4、GPT モデル トレーニング スケール

前述の生成モードは、大規模なデータ セットの事前トレーニングに適しています。では、GPT はどのくらいの大きさのデータ セットを使用するのでしょうか?

論文で述べたように、このデータセットは BooksCorpus と呼ばれるデータセットを使用しており、これには 7,000 冊を超える未出版の書籍が含まれています。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

5、GPT-2 (2019 年 2 月)

2019 年 2 月、OpenAI は「言語モデルは教師なしマルチタスク学習者」という論文を発表しました (言語モデルは教師なしマルチタスク学習者) モデルは教師なしマルチタスク学習者である必要があり、GPT-2 モデルが提案されています。論文アドレス: https://paperswithcode.com/method/gpt-2

5.1. GPT-1

と比較した GPT-2 モデルの核となる変更点 前述したように、核となる提案はGPTにはジェネレーティブトレーニングとプレトレーニングがあります。同時に、GPT トレーニングには 2 つのステップがあります:

1)、大規模な自習ステージ (事前トレーニング、1,000 万冊の書籍の自習、教師なし): 十分なコンピューティング能力を提供します。 AI、およびそれをアテンション メカニズムに基づいて、自己学習させます。

2)、小規模指導段階 (微調整、10 冊の本を教える): 10 冊の本をもとに、「3 つ」について推論します。

GPT-2 の場合、OpenAI は教師付き微調整ステージは直接削除され、教師なしモデルに変わりました。

同時に、キーワード **マルチタスク (マルチタスク)** が追加されました。これは、論文の名前「言語モデルは教師なしマルチタスク学習者である」からわかります (言語モデルは、教師なしマルチタスク学習者)も見られます。 ###

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

5.2. なぜそのような調整を行うのでしょうか?ゼロショット問題の解決を試みる

GPT-2 はなぜこのように調整されているのでしょうか?論文の記述から判断すると、ゼロショット(ゼロショット学習問題)**を解こうというものです。

ゼロショット (ゼロショット学習) の問題点は何ですか?それは単純に推論能力として理解できます。これは、未知のものに直面したときに、AIがそれを自動的に認識できる、つまり推論する能力を持っていることを意味します。

たとえば、動物園に行く前に、パンダのように白と黒の縞模様がある馬のような動物はシマウマであると教えます。シマウマを正しく見つけることができます。

5.3. マルチタスクを理解するにはどうすればよいですか?

従来の ML では、モデルをトレーニングする場合、特別な AI をトレーニングするための特別なアノテーション付きデータセットが必要です。

たとえば、犬の画像を認識できるロボットをトレーニングするには、犬のラベルが付けられた画像が 100 万枚必要ですが、トレーニング後、AI は犬を認識できるようになります。このAIはシングルタスクとも呼ばれる専用AIです。

マルチタスクに関しては、専用の AI をトレーニングするのではなく、あらゆるタスクを完了できるように大量のデータを供給することが提唱されています。

5.4. GPT-2 のデータとトレーニング規模

データセットは 800 万 Web ページ、サイズ 40GB に増加しました。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

モデル自体も最大 15 億のパラメーターに達し、Transformer スタックは 48 レイヤーに達します。簡単に例えると、15 億個の人間のニューロンをシミュレートするようなものです (単なる例であり、完全に同等ではありません)。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

6. GPT-3 (2020 年 5 月)

2020 年 5 月に、OpenAI は論文「言語モデルは少数の学習者である」(言語モデルは少数の学習者である) をリリースしました。モデルは数ショット学習器である必要があります)、GPT-3 モデルが提案されています。論文アドレス: https://paperswithcode.com/method/gpt-3

6.1. GPT-3 の画期的な効果の進行状況

効果については論文で次のように説明されています:

1. GPT-3 は、翻訳、質問応答、穴埋めで強力なパフォーマンスを発揮すると同時に、単語を解読したり、文中で新しい単語を使用したり、3 桁の計算を実行したりすることができます。

2. GPT-3 は、人間が識別できないニュース記事のサンプルを生成できます。

以下に示すように:

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

##6.2. GPT-2 と比較した GPT-3 の主要な変更点

前述したように、GPT-2教師なしのゼロショット(ゼロショット学習)を追求しているが、実はGPT-2の論文ではOpenAIも結果が期待に応えられなかったと述べている。これは明らかに調整する必要があるため、GPT-3 は関連する調整を行いました。それは、「Language Models are Few-Shot Learners」というタイトルからもわかります(言語モデルは数回の学習でなくてはならない)。

はっきり言ってゼロショット(ゼロショット学習)は信頼できません。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

さらに、トレーニング プロセス中に、ゼロショット学習、ワンショット (単一サンプル学習)、フューショット (少数のサンプル学習) が比較されます。 , そして人工的に微調整する微調整方法。

最後に、ほとんどの場合、少数ショット (少数のサンプル) の全体的なパフォーマンスは教師なしモードで最適ですが、微調整微調整モードよりもわずかに低くなります。

次の論文の表と図から、少数ショットの全体的なパフォーマンスは微調整よりも弱いだけであることがわかります。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)6.3. GPT-3 のトレーニング規模

GPT-3 はフィルタリング前に 45TB の圧縮テキストを使用しますが、フィルタリング後もまだ 570GB の大量のデータが存在します。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)モデルパラメータに関しては、GPT-2 の 15 億から 1,750 億に 110 倍以上増加し、トランスフォーマー層も GPT-2 の 15 億から 1,750 億に増加しました。 48から96まで。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

7. 命令 GPT (2022 年 2 月)

2022 年 2 月末、OpenAI は、「人間のフィードバックを使用した指示に従う言語モデルのトレーニング」という論文をリリースしました。ヒューマンフィードバック) 言語モデルをトレーニングするための命令フローをフィードバックし、命令 GPT モデルを公開します。論文アドレス: https://arxiv.org/abs/2203.02155

7.1. GPT-3 と比較した命令 GPT の主要な変更点

命令 GPT は、GPT に基づく強化された最適化のラウンドです。 3 に準拠しているため、GPT-3.5 とも呼ばれます。

前述したように、GPT-3 は教師なし学習を主張しながら、少数ショットの少数ショット学習を提唱しています。

しかし実際には、少数ショットの効果は、監視を微調整する方法よりも明らかに悪いです。 ######だから何をすべきか?微調整を監督するために微調整に戻りますか?明らかに違います。

OpenAI は新しい答えを提供します。GPT-3 に基づいて、手動フィードバック (RHLF) に基づいて報酬モデル (報酬モデル) をトレーニングし、その報酬モデル (報酬モデル、RM) を使用してトレーニングと学習を行います。モデル。

なんてことだ、私は若くして死ぬことになる。 。機械 (AI) を訓練するために機械 (AI) を使用する時代が来ました。 。

#7.2. インストラクション GPT のコア トレーニング ステップChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

インストラクション GPT には合計 3 つのステップがあります:

# ##1)、GPT-3で**微調整(教師あり微調整)**を行ってください。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)2)、次に報酬モデル (RM)

3) をトレーニングし、最後に強化学習を通じて SFT を最適化します

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

ステップ 2 と 3 は複数回繰り返してループできることに注意してください。

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)7.3. 命令 GPT のトレーニング スケール

基本的なデータ スケールは、3 つのステップ (教師あり微調整 SFT、報酬) が追加されることを除いて、GPT-3 (セクション 6.3 を参照) と同じです。モデル トレーニング報酬モデル、RPO を最適化するための強化された学習)。

下の図のラベラーは、OpenAI によって雇用されている、または OpenAI に関連するラベラー (ラベラー)** を指します。

顧客とは、GPT-3 API を呼び出すユーザー (つまり、他の機械学習研究者、プログラマーなど) を指します。

ChatGPT のリリース後、ユーザーは 100 万人を超えていると言われており、私たち一人ひとりがその顧客であるため、将来 GPT-4 がリリースされると、その顧客は規模は少なくとも100万人になるだろう。

8. ChatGPT (2022 年 11 月)

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)2022 年 11 月 30 日、OpenAI は ChatGPT モデルを開始し、トライアルを提供しました。これは全体的に人気になりました。通信網。

参照: AI-001-人気のチャットボット ChatGPT でできること

8.1、ChatGPT と命令 GPT

ChatGPT と命令 GPT は本質的に同じ世代であり、単にベースになっているだけです。 structGPTにチャット機能を追加し、より効果的なアノテーションデータを生成するためのテストトレーニング用に公開しています。

8.2. [重要、以下の推奨ビデオを参照することをお勧めします] 人間の直感的な理解の観点から、ChatGPT の中心原理を補足説明します

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世) は、国立台湾大学 Li Honyi 教授のビデオ「ChatGPT はどのように作られるのか?」を参照できます。 GPT ソーシャル化プロセス」は非常にわかりやすく説明されています。

https://www.inside.com.tw/article/30032-chatgpt-possible-4-steps-training

GPT は一方向の生成です。つまり、次のとおりです。上記をもとに生成されます。

たとえば、次のような文があります:

GPT モデルに入力を与える こんにちは、次の言葉は迎えに来ますね。ハンサムですね?あなたはそんなに背が高いですか?あなたはどのくらい美しいですか?待ってください。GPT は確率を計算し、最も高い確率を答えとして返します。

同様に、コマンド (またはプロンプト) が与えられると、ChatGPT は上記 (プロンプト) に基づいて次の (答え) も計算し、同時に上記の中で最も確率の高いものを選択して答えます。 。

以下に示すように:

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)

9. 概要

ChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)概要:

1) 2017 年、Google は「必要なのは注意だけ」という論文を発表し、GPT への道を開く Transformer モデルを提案しました。

2)、2018 年 6 月、OpenAI は、BooksCorpus の大規模データ セット (7000 冊) を通じてトレーニングされた GPT 生成事前トレーニング モデルをリリースし、大規模な教師なし事前トレーニング (事前トレーニング) を提唱しました。トレーニング)モデル構築のための微調整(微調整)を監督しました。

3) 2019 年 2 月、OpenAI は GPT-2 モデルをリリースし、トレーニングの規模をさらに拡大しました (最大 15 億のパラメーターを持つ 40 GB のデータセットを使用)。同時にアイデア面ではファインチューニングプロセスを排除し、ゼロショット(ゼロショット学習)とマルチタスク(マルチタスク)を重視。しかし結局のところ、ゼロショットの効果は微調整よりも大幅に劣ります。

4), 2020 年 5 月、OpenAI は GPT-3 モデルをリリースし、**トレーニング規模をさらに拡大しました (570 GB のデータセットと 1,750 億のパラメーターを使用)**。同時に、少数ショット(少数のサンプル)学習モデルを採用し、優れた結果を達成します。もちろん、実験では微調整も同時に比較しましたが、効果は微調整よりもわずかに悪かったです。

5), OpenAIは2022年2月に命令GPTモデルをリリースしましたが、今回は主にGPT-3をベースとした教師あり微調整(Supervised Fine-tuning)リンクを追加し、これをベースにさらに追加 Reward Model 報酬モデルがインストールされ、RM トレーニング モデルを使用して、学習モデル上で RPO 拡張学習の最適化が実行されます。

6), 2022年11月30日、OpenAIは複数回の反復学習を経たstructGPTとして理解できるChatGPTモデルをリリースし、これをベースにチャット対話機能が追加されました。

10. 将来 (GPT-4 か?)

さまざまな兆候から判断すると、GPT-4 は 2023 年に発表される可能性がありますか?どれほど強力になるでしょうか?

同時に、ChatGPTの効果は業界でも大きな注目を集めており、今後はGPTに基づく学習モデルやその応用がさらに盛んになると考えられます。

未来はすぐにやって来ます、待ってみましょう。

いくつかの参考文献

ai.googleblog.com/2017/08/transformer-novel-neural-network.html

https://arxiv.org/abs/ 1706.03762

https://paperswithcode.com/method/gpt

https://paperswithcode.com/method/gpt-2

https://paperswithcode.com / Method/gpt-3

https://arxiv.org/abs/2203.02155

https://zhuanlan.zhihu.com/p/464520503

https: / /zhuanlan.zhihu.com/p/82312421

https://cloud.tencent.com/developer/article/1656975

https://cloud.tencent.com/developer/article /1848106

https://zhuanlan.zhihu.com/p/353423931

https://zhuanlan.zhihu.com/p/353350370

https://zhuanlan.zhihu.com/p/353423931

juejin.cn/post/6969394206414471175

https://zhuanlan.zhihu.com/p/266202548

https://en.wikisensitivity.org/wiki/Generative_model

https://zhuanlan.zhihu.com/p/67119176

https://zhuanlan.zhihu.com/p/365554706

https://cloud.tencent .com/developer /article/1877406

https://zhuanlan.zhihu.com/p/34656727

###https://zhuanlan.zhihu.com/p/590311003###

以上がChatGPT の技術ロジックと進化を理解する 10 分 (前世、現世)の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
迅速なエンジニアリングにおける思考のグラフは何ですか迅速なエンジニアリングにおける思考のグラフは何ですかApr 13, 2025 am 11:53 AM

導入 迅速なエンジニアリングでは、「思考のグラフ」とは、グラフ理論を使用してAIの推論プロセスを構造化および導く新しいアプローチを指します。しばしば線形sを含む従来の方法とは異なります

Genaiエージェントとの電子メールマーケティングを組織に最適化しますGenaiエージェントとの電子メールマーケティングを組織に最適化しますApr 13, 2025 am 11:44 AM

導入 おめでとう!あなたは成功したビジネスを運営しています。ウェブページ、ソーシャルメディアキャンペーン、ウェビナー、会議、無料リソース、その他のソースを通じて、毎日5000の電子メールIDを収集します。次の明白なステップはです

Apache Pinotによるリアルタイムアプリのパフォーマンス監視Apache Pinotによるリアルタイムアプリのパフォーマンス監視Apr 13, 2025 am 11:40 AM

導入 今日のペースの速いソフトウェア開発環境では、最適なアプリケーションパフォーマンスが重要です。応答時間、エラーレート、リソース利用などのリアルタイムメトリックを監視することで、メインに役立ちます

ChatGptは10億人のユーザーにヒットしますか? 「わずか数週間で2倍になりました」とOpenai CEOは言いますChatGptは10億人のユーザーにヒットしますか? 「わずか数週間で2倍になりました」とOpenai CEOは言いますApr 13, 2025 am 11:23 AM

「ユーザーは何人いますか?」彼は突き出した。 「私たちが最後に言ったのは毎週5億人のアクティブであり、非常に急速に成長していると思います」とアルトマンは答えました。 「わずか数週間で2倍になったと言った」とアンダーソンは続けた。 「私はそのprivと言いました

PIXTRAL -12B:Mistral AI'の最初のマルチモーダルモデル-Analytics VidhyaPIXTRAL -12B:Mistral AI'の最初のマルチモーダルモデル-Analytics VidhyaApr 13, 2025 am 11:20 AM

導入 Mistralは、最初のマルチモーダルモデル、つまりPixtral-12B-2409をリリースしました。このモデルは、Mistralの120億個のパラメーターであるNemo 12bに基づいて構築されています。このモデルを際立たせるものは何ですか?これで、画像とTexの両方を採用できます

生成AIアプリケーションのエージェントフレームワーク - 分析Vidhya生成AIアプリケーションのエージェントフレームワーク - 分析VidhyaApr 13, 2025 am 11:13 AM

クエリに応答するだけでなく、情報を自律的に収集し、タスクを実行し、テキスト、画像、コードなどの複数のタイプのデータを処理するAIを搭載したアシスタントがいることを想像してください。未来的に聞こえますか?これでa

金融セクターにおける生成AIの応用金融セクターにおける生成AIの応用Apr 13, 2025 am 11:12 AM

導入 金融業界は、効率的な取引と信用の可用性を促進することにより経済成長を促進するため、あらゆる国の発展の基礎となっています。取引の容易さとクレジット

オンライン学習とパッシブアグレッシブアルゴリズムのガイドオンライン学習とパッシブアグレッシブアルゴリズムのガイドApr 13, 2025 am 11:09 AM

導入 データは、ソーシャルメディア、金融取引、eコマースプラットフォームなどのソースから前例のないレートで生成されています。この連続的な情報ストリームを処理することは課題ですが、

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

MantisBT

MantisBT

Mantis は、製品の欠陥追跡を支援するために設計された、導入が簡単な Web ベースの欠陥追跡ツールです。 PHP、MySQL、Web サーバーが必要です。デモおよびホスティング サービスをチェックしてください。

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。

SublimeText3 英語版

SublimeText3 英語版

推奨: Win バージョン、コードプロンプトをサポート!

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)