ホームページ  >  記事  >  テクノロジー周辺機器  >  コードを書く必要はなく、最も単純な BabyGPT モデルは手動で作成できます: 元 Tesla AI ディレクターの新作

コードを書く必要はなく、最も単純な BabyGPT モデルは手動で作成できます: 元 Tesla AI ディレクターの新作

王林
王林転載
2023-04-27 20:25:05910ブラウズ

OpenAI の GPT シリーズが、大規模な事前トレーニング手法を通じて人工知能の新時代を切り開いたことはわかっていますが、ほとんどの研究者にとって、言語ラージ モデル (LLM) はそのサイズとコンピューティングによるものです。需要は達成できそうにありません。テクノロジーが上向きに発展する一方で、人々は「最も単純な」GPT モデルも模索してきました。

最近、Tesla の元 AI ディレクターで OpenAI に復帰したばかりの Andrej Karpathy 氏が、GPT をプレイする最も簡単な方法を紹介しました。これは、より多くの人がその裏側を理解するのに役立つかもしれません。この人気の AI モデルのシーンでは、テクノロジーが役に立ちます。

コードを書く必要はなく、最も単純な BabyGPT モデルは手動で作成できます: 元 Tesla AI ディレクターの新作

はい、これは 2 つのトークン 0/1 とコンテキスト長 3 を持つ最小限の GPT です。制限された状態マルコフ連鎖と考えてください。これはシーケンス「111101111011110」で 50 回の反復でトレーニングされ、Transformer のパラメーターとアーキテクチャによって矢印の確率が変更されます。

たとえば、次のことがわかります:

  • トレーニング データでは、状態 101 は決定的に 011 に遷移するため、この遷移の確率はが高くなります(79%)。ただし、ここでは 50 ステップの最適化しか行われていないため、100% には近くありません。
  • 状態 111 は、50% の確率でそれぞれ 111 と 110 に入ります。モデルはこれをほぼ学習しています (45%、55%)。
  • 000 のような状態はトレーニング中に決して発生しませんが、73% が 001 に移行するなど、比較的急激な遷移確率があります。これは、トランスの誘導バイアスの結果です。これは 50% だと思うかもしれませんが、実際のデプロイメントでは、ほぼすべての入力シーケンスが一意であり、文字通りトレーニング データに現れるわけではありません。

Karpathy は、単純化によって GPT モデルを視覚化しやすくし、システム全体を直感的に理解できるようにしました。

ここで試すことができます: https://colab.research.google.com/drive/1SiF0KZJp75rUeetKOWqpsA8clmHP6jMg?usp=sharing

実際、GPT の初期バージョンであっても、モデルのサイズはかなり大きくなります。2018 年に、OpenAI は第 1 世代の GPT モデルをリリースしました。これは、論文「生成による言語理解を向上させる」からわかります。 Pre-Training」 12 層の Transformer Decoder 構造を使用し、トレーニングに約 5GB の教師なしテキスト データを使用することがわかります。

しかし、その概念を単純化すると、GPT はいくつかの離散トークン シーケンスを受け取り、シーケンス内の次のトークンの確率を予測するニューラル ネットワークです。たとえば、トークン 0 と 1 が 2 つしかない場合、小さなバイナリ GPT は次のように伝えることができます。

[0,1,0] ---> GPT ---> [P (0) = 20%, P (1) = 80%]

ここで、GPT はビット シーケンス [0,1, 0] であり、現在のパラメータ設定によれば、次のパラメータが 1 であると予測する確率は 80% です。重要なのは、GPT のコンテキストの長さはデフォルトで制限されているということです。コンテキストの長さが 3 の場合、入力時に最大 3 つのトークンしか使用できません。上の例では、バイアスされたコインを投げて実際に次になるはずの 1 をサンプリングすると、元の状態 [0,1,0] から新しい状態 [1,0,1] に遷移します。右側に新しいビット (1) を追加し、左端のビット (0) を破棄してシーケンスをコンテキスト長 3 に切り詰めます。このプロセスは状態間を遷移するために何度も繰り返すことができます。

明らかに、GPT は有限状態マルコフ連鎖です。有限の状態セットとそれらの間の確率遷移矢印があります。各状態は、GPT 入力でのトークンの特定の設定 ([0,1,0] など) によって定義されます。 [1,0,1] など、一定の確率で新しい状態に遷移できます。仕組みを詳しく見てみましょう:

# hyperparameters for our GPT
# vocab size is 2, so we only have two possible tokens: 0,1
vocab_size = 2
# context length is 3, so we take 3 bits to predict the next bit probability
context_length = 3

GPT ニューラル ネットワークへの入力は、長さ context_length のトークンのシーケンスです。これらのトークンは離散的であるため、状態空間は単純です。

print ('state space (for this exercise) = ', vocab_size ** context_length)
# state space (for this exercise) = 8

詳細: 正確に言うと、GPT は 1 から context_length までの任意の数のトークンを取ることができます。したがって、コンテキストの長さが 3 の場合、原則として、次のトークンを予測しながら 1、2、または 3 つのトークンを入力できます。ここではこれを無視し、以下のコードの一部を単純化するためにコンテキストの長さが「最大化」されていると仮定しますが、覚えておく価値はあります。

print ('actual state space (in reality) = ', sum (vocab_size ** i for i in range (1, context_length+1)))
# actual state space (in reality) = 14

我们现在要在 PyTorch 中定义一个 GPT。出于本笔记本的目的,你无需理解任何此代码。

现在让我们构建 GPT 吧:

config = GPTConfig (
block_size = context_length,
vocab_size = vocab_size,
n_layer = 4,
n_head = 4,
n_embd = 16,
bias = False,
)
gpt = GPT (config)

对于这个笔记本你不必担心 n_layer、n_head、n_embd、bias,这些只是实现 GPT 的 Transformer 神经网络的一些超参数。

GPT 的参数(12656 个)是随机初始化的,它们参数化了状态之间的转移概率。如果你平滑地更改这些参数,就会平滑地影响状态之间的转换概率。

现在让我们试一试随机初始化的 GPT。让我们获取上下文长度为 3 的小型二进制 GPT 的所有可能输入:

def all_possible (n, k):
# return all possible lists of k elements, each in range of [0,n)
if k == 0:
yield []
else:
for i in range (n):
for c in all_possible (n, k - 1):
yield [i] + c
list (all_possible (vocab_size, context_length))
[[0, 0, 0],
 [0, 0, 1],
 [0, 1, 0],
 [0, 1, 1],
 [1, 0, 0],
 [1, 0, 1],
 [1, 1, 0],
 [1, 1, 1]]

这是 GPT 可能处于的 8 种可能状态。让我们对这些可能的标记序列中的每一个运行 GPT,并获取序列中下一个标记的概率,并绘制为可视化程度比较高的图形:

# we'll use graphviz for pretty plotting the current state of the GPT
from graphviz import Digraph

def plot_model ():
dot = Digraph (comment='Baby GPT', engine='circo')

for xi in all_possible (gpt.config.vocab_size, gpt.config.block_size):

# forward the GPT and get probabilities for next token
x = torch.tensor (xi, dtype=torch.long)[None, ...] # turn the list into a torch tensor and add a batch dimension
logits = gpt (x) # forward the gpt neural net
probs = nn.functional.softmax (logits, dim=-1) # get the probabilities
y = probs [0].tolist () # remove the batch dimension and unpack the tensor into simple list
print (f"input {xi} ---> {y}")

# also build up the transition graph for plotting later
current_node_signature = "".join (str (d) for d in xi)
dot.node (current_node_signature)
for t in range (gpt.config.vocab_size):
next_node = xi [1:] + [t] # crop the context and append the next character
next_node_signature = "".join (str (d) for d in next_node)
p = y [t]
label=f"{t}({p*100:.0f}%)"
dot.edge (current_node_signature, next_node_signature, label=label)

return dot

plot_model ()
input [0, 0, 0] ---> [0.4963349997997284, 0.5036649107933044] 
input [0, 0, 1] ---> [0.4515703618526459, 0.5484296679496765] 
input [0, 1, 0] ---> [0.49648362398147583, 0.5035163760185242] 
input [0, 1, 1] ---> [0.45181113481521606, 0.5481888651847839] 
input [1, 0, 0] ---> [0.4961162209510803, 0.5038837194442749] 
input [1, 0, 1] ---> [0.4517717957496643, 0.5482282042503357] 
input [1, 1, 0] ---> [0.4962802827358246, 0.5037197470664978] 
input [1, 1, 1] ---> [0.4520467519760132, 0.5479532480239868]

我们看到了 8 个状态,以及连接它们的概率箭头。因为有 2 个可能的标记,所以每个节点有 2 个可能的箭头。请注意,在初始化时,这些概率中的大多数都是统一的(在本例中为 50%),这很好而且很理想,因为我们甚至根本没有训练模型。

下面开始训练:

# let's train our baby GPT on this sequence
seq = list (map (int, "111101111011110"))
seq
[1, 1, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1, 1, 1, 0]
# convert the sequence to a tensor holding all the individual examples in that sequence
X, Y = [], []
# iterate over the sequence and grab every consecutive 3 bits
# the correct label for what's next is the next bit at each position
for i in range (len (seq) - context_length):
X.append (seq [i:i+context_length])
Y.append (seq [i+context_length])
print (f"example {i+1:2d}: {X [-1]} --> {Y [-1]}")
X = torch.tensor (X, dtype=torch.long)
Y = torch.tensor (Y, dtype=torch.long)
print (X.shape, Y.shape)

我们可以看到在那个序列中有 12 个示例。现在让我们训练它:

# init a GPT and the optimizer
torch.manual_seed (1337)
gpt = GPT (config)
optimizer = torch.optim.AdamW (gpt.parameters (), lr=1e-3, weight_decay=1e-1)
# train the GPT for some number of iterations
for i in range (50):
logits = gpt (X)
loss = F.cross_entropy (logits, Y)
loss.backward ()
optimizer.step ()
optimizer.zero_grad ()
print (i, loss.item ())
print ("Training data sequence, as a reminder:", seq)
plot_model ()

我们没有得到这些箭头的准确 100% 或 50% 的概率,因为网络没有经过充分训练,但如果继续训练,你会期望接近。

请注意一些其他有趣的事情:一些从未出现在训练数据中的状态(例如 000 或 100)对于接下来应该出现的 token 有很大的概率。如果在训练期间从未遇到过这些状态,它们的出站箭头不应该是 50% 左右吗?这看起来是个错误,但实际上是可取的,因为在部署期间的真实应用场景中,几乎每个 GPT 的测试输入都是训练期间从未见过的输入。我们依靠 GPT 的内部结构(及其「归纳偏差」)来适当地执行泛化。

大小比较:

  • GPT-2 有 50257 个 token 和 2048 个 token 的上下文长度。所以 `log2 (50,257) * 2048 = 每个状态 31,984 位 = 3,998 kB。这足以实现量变。
  • GPT-3 的上下文长度为 4096,因此需要 8kB 的内存;大约相当于 Atari 800。
  • GPT-4 最多 32K 个 token,所以大约 64kB,即 Commodore64。
  • I/O 设备:一旦开始包含连接到外部世界的输入设备,所有有限状态机分析就会崩溃。在 GPT 领域,这将是任何一种外部工具的使用,例如必应搜索能够运行检索查询以获取外部信息并将其合并为输入。

Andrej Karpathy 是 OpenAI 的创始成员和研究科学家。但在 OpenAI 成立一年多后,Karpathy 便接受了马斯克的邀请,加入了特斯拉。在特斯拉工作的五年里,他一手促成了 Autopilot 的开发。这项技术对于特斯拉的完全自动驾驶系统 FSD 至关重要,也是马斯克针对 Model S、Cybertruck 等车型的卖点之一。

今年 2 月,在 ChatGPT 火热的背景下,Karpathy 回归 OpenAI,立志构建现实世界的 JARVIS 系统。

コードを書く必要はなく、最も単純な BabyGPT モデルは手動で作成できます: 元 Tesla AI ディレクターの新作

最近一段时间,Karpathy 给大家贡献了很多学习材料,包括详解反向传播的课程 、重写的 minGPT 库、从零开始构建 GPT 模型的完整教程等。

以上がコードを書く必要はなく、最も単純な BabyGPT モデルは手動で作成できます: 元 Tesla AI ディレクターの新作の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。