首頁 >科技週邊 >人工智慧 >這就是LLM分解語言的方式

這就是LLM分解語言的方式

Patricia Arquette
Patricia Arquette原創
2025-03-11 10:40:11148瀏覽

揭示大型語言模型的秘密:深入探討令牌化

還記得2020年Openai的GPT-3周圍的嗡嗡聲嗎? GPT-3的出色文本生成功能雖然不是第一個,但它使它成名。從那時起,就出現了無數的大型語言模型(LLM)。但是,LLMS如何像Chatgpt Decipher語言?答案在於一個稱為令牌化的過程。

本文汲取了Andrej Karpathy洞察力的YouTube系列“深入研究Chatgpt之類的LLM”的靈感,這是對任何尋求對LLMS更深入了解的人必不可少的。 (強烈建議!)

在探索令牌化之前,讓我們簡要介紹LLM的內部工作。如果您已經熟悉神經網絡和LLM,則跳過前進。

內部大語言模型

LLM使用變壓器神經網絡 - 複雜的數學公式。輸入是通過嵌入層處理的代幣(單詞,短語或字符)的序列,將其轉換為數值表示。這些輸入以及網絡的參數(權重)被饋入大型數學方程。

現代神經網絡擁有數十億個參數,最初是隨機設置的。該網絡最初做出隨機預測。訓練迭代地調整了這些權重,以使網絡的輸出與培訓數據中的模式保持一致。因此,培訓涉及找到最佳反映培訓數據統計特性的最佳權重集。

Vaswani等人的2017年論文“注意力是您需要的全部”中引入的變壓器架構是一個專門為序列處理設計的神經網絡。最初用於神經機器翻譯,現在是LLM的基石。

要直觀地了解生產級變壓器網絡,請訪問https://www.php.cn/link/link/f4a75336b061f291b6c11f5e4d6ebf7d 。該站點提供了GPT體系結構及其推理過程的交互式3D可視化。

這就是LLM分解語言的方式這種納米-GPT體系結構(約85,584個參數)顯示了通過層處理的輸入令牌序列,進行轉換(注意機制和饋送前進網絡),以預測下一個令牌。

令牌化:分解文字

培訓諸如Chatgpt或Claude之類的尖端LLM涉及幾個順序階段。 (有關培訓管道的更多詳細信息,請參見我上一篇有關幻覺的文章。)

預處理(初始階段)需要大量的高質量數據集(Terabytes)。這些數據集通常是專有的。作為一個例子,我們將使用擁抱面(在“開放數據共享歸因許可證”下可用)的開源FineWeb數據集。 (有關FineWeb創建的更多詳細信息)。

這就是LLM分解語言的方式來自FineWeb的樣本(100個示例串聯)。

這就是LLM分解語言的方式我們的目標是訓練神經網絡以復制該文本。神經網絡需要有限集的一維符號序列。這需要將文本轉換為這樣的序列。

我們從一維文本序列開始。 UTF-8編碼將其轉換為原始位序列。

這就是LLM分解語言的方式前8位表示字母“ A”。

該二進制序列在技術上是一系列符號(0和1)的序列太長。我們需要具有更多符號的較短序列。將8位分組到一個字節中,使我們有256個可能的符號(0-255)。

這就是LLM分解語言的方式字節表示。

這就是LLM分解語言的方式這些數字是任意標識符。

這就是LLM分解語言的方式這種轉換是令牌化。使用字節對編碼(BPE),最先進的模型進一步發展。

BPE識別頻繁的連續字節對,並用新符號代替它們。例如,如果經常出現“ 101 114”,則將其替換為新符號。這個過程重複,縮短順序並擴展詞彙。 GPT-4使用BPE,導致大約100,000個令牌的詞彙。

Tiktokenizer交互性探索令牌化,該化量可視化各種模型的令牌化。在前四個句子上使用GPT-4的CL100K_BASE編碼器產生:

 <code>11787, 499, 21815, 369, 90250, 763, 14689, 30, 7694, 1555, 279, 21542, 3770, 323, 499, 1253, 1120, 1518, 701, 4832, 2457, 13, 9359, 1124, 323, 6642, 264, 3449, 709, 3010, 18396, 13, 1226, 617, 9214, 315, 1023, 3697, 430, 1120, 649, 10379, 83, 3868, 311, 3449, 18570, 1120, 1093, 499, 0</code>

這就是LLM分解語言的方式

我們的整個示例數據集可以使用CL100K_BASE類似地將其化。

這就是LLM分解語言的方式

結論

令牌化對於LLMS至關重要,將原始文本轉換為神經網絡的結構化格式。平衡序列長度和詞彙大小是計算效率的關鍵。像GPT這樣的現代LLM使用BPE進行最佳性能。理解令牌化為LLM的內部運作提供了寶貴的見解。

在X(以前是Twitter)上關注我以獲取更多的AI見解!

參考

  • 深入研究llms
  • Andrej Karpathy
  • 注意就是您所需要的
  • LLM可視化( https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d
  • LLM幻覺(link_to_to_hallucination_article)
  • huggingfacefw/fineweb·擁抱臉的數據集(link_to_to_huggingface_fineweb)
  • FineWeb:為最細的文本數據倒出網絡 - …(https://www.php.cn/link/271DF68653F0B3C70B3C70D4446BDCBC6A2715)。
  • 開放數據共享歸因許可證(ODC-BY)V1.0 - 開放數據共享:開放數據的法律工具(link_to_odc_by)
  • 字節對編碼令牌化 - 擁抱臉部NLP課程(link_to_to_huggingface_bpe)
  • tiktokenizer(https://www.php.cn/link/3b8d8348318987a2f1a39d690463a8f)

請用實際鏈接替換包圍的鏈接。我試圖根據要求維護原始格式和圖像放置。

以上是這就是LLM分解語言的方式的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn