首頁 >常見問題 >2024 年建構大規模語言模式之旅

2024 年建構大規模語言模式之旅

百草
百草原創
2024-04-18 15:04:542507瀏覽

2024 年將見證大型語言模型 (LLM) 的技術躍升,研究人員和工程師不斷突破自然語言處理的界限。這些擁有海量參數的 LLM 正在徹底改變我們與機器的互動方式,實現更自然的對話、程式碼產生和複雜推理。然而,建構這些龐然大物並非易事,它涉及資料準備、先進訓練技術和可擴展推理的複雜性。這篇綜述深入探討了建構 LLM 所需的技術細節,涵蓋了從資料採購到訓練創新和對齊策略的最新進展。

2024 年建構大規模語言模式之旅

2024 年有望成為大型語言模型(LLM) 的里程碑時代,因為研究人員和工程師將突破自然語言處理的可能性界限。這些擁有數十億甚至數萬億參數的大規模神經網路將徹底改變我們與機器互動的方式,實現更自然和開放式的對話、程式碼生成和多模式推理。

然而,建立如此龐大的法學碩士並不是一件簡單的事。它需要精心策劃的管道,從資料採購和準備到先進的訓練技術和可擴展的推理。在這篇文章中,我們將深入探討建構這些前沿語言模型所涉及的技術複雜性,並探索整個堆疊的最新創新和挑戰。

資料準備

1. 資料來源

任何法學碩士的基礎都是它所訓練的數據,而現代模型會攝取數量驚人的文字(通常超過一兆個令牌),這些文字來自網路爬蟲、程式碼儲存庫、書籍等。常見的資料來源包括:

通用爬取網路語料庫

GitHub 和Software Heritage 等程式碼儲存庫

維基百科和書籍等精選資料集(公共領域與受版權保護的)

綜合產生的資料

2. 資料過濾

簡單地取得所有可用資料通常不是最佳的,因為它可能會引入噪音和偏差。因此,採用了仔細的資料過濾技術:

品質過濾

基於長度和語言等文件屬性的啟發式過濾

#使用好數據和壞數據的範例進行基於分類器的過濾

語言模型的困惑度閾值

特定領域的過濾

檢查對特定領域子集的影響

#制定自訂規則和閾值

選擇策略

確定性硬閾值

機率隨機抽樣

3.重複資料刪除

大型網路語料庫包含顯著的重疊,冗餘文件可能導致模型有效「記憶」過多的區域。利用 MinHash 等高效的近重複檢測演算法來減少這種冗餘偏差。

4. 代幣化

一旦我們擁有了高品質、去重的文本語料庫,就需要將其標記化-轉換為神經網路在訓練期間可以攝取的標記序列。無所不在的位元組級 BPE 編碼是首選,可以優雅地處理程式碼、數學符號和其他上下文。需要對整個資料集進行仔細採樣,以避免過度擬合分詞器本身。

5. 資料品質評估

評估資料品質是一項具有挑戰性但至關重要的任務,尤其是在如此大規模的情況下。所採用的技術包括:

在子集訓練期間監控Commonsense QA、HellaSwag 和OpenBook QA 等高訊號基準

手動檢查網域/URL 並檢查保留/丟棄的範例

資料聚類和視覺化工具

訓練輔助標記器來分析標記

訓練

1.模型並行性

#現代法學碩士的龐大規模(通常太大,無法適應單一GPU 甚至單一機器)需要先進的並行化方案,以各種方式將模型拆分到多個設備和機器上:

數據並行性:將批次分散到多個裝置上

張量並行性:跨裝置分割模型權重和啟動管道並行性:將模型視為一系列階段並將其跨裝置進行管道化

序列並行性:分割各個輸入序列以進一步擴展

結合這些4D 並行策略可以擴展到具有數萬億個參數的模型。

2. 高效注意力

主要的運算瓶頸在於 Transformer 架構核心的自註意力操作。 Flash Attention 和 Factorized Kernels 等方法提供了高度最佳化的注意力實現,避免不必要地實現完整的注意力矩陣。

3、穩定訓練

在如此極端的規模下實現穩定收斂是一項重大挑戰。該領域的創新包括:

改進的初始化方案

MuTransfer 等超參數傳輸方法優化的學習率計劃,例如餘弦退火

#### ##4. 架構創新#########最近模型架構方面的突破極大地提高了法學碩士的能力:######Mixture-of-Experts (MoE):每個示例僅激活模型參數的子集,由路由網路啟用######Mamba:基於哈希的專家混合層的有效實作#########結盟######

雖然能力至關重要,但我們還需要安全、真實、符合人類價值觀和指導的法學碩士。這是人工智慧對齊這一新興領域的目標:

來自人類回饋的強化學習(RLHF):使用從人類對模型輸出的偏好中得出的獎勵訊號來微調模型; PPO、DPO 等方法正在積極探索。

憲法人工智慧:憲法人工智慧在訓練過程中將規則和指示編碼到模型中,從頭開始灌輸期望的行為。

推理

一旦我們的LLM 訓練完畢,我們需要對其進行最佳化以實現高效推理——以最小的延遲向用戶提供模型輸出:

量化:將大模型權重壓縮為低精度格式,例如int8更便宜的計算和記憶體佔用;常用的技術包括GPTQ、GGML 和NF4。

推測性解碼: 透過使用小模型來啟動較大模型來加速推理,如 Medusa 方法

系統最佳化:即時編譯、核心融合和 CUDA 圖形最佳化可進一步提升速度。

結論

在2024 年建立大規模語言模型需要在整個堆疊中仔細建構和創新——從資料採購和清理到可擴展的訓練系統和高效的推理部署。我們只介紹了一些亮點,但該領域正在以驚人的速度發展,新技術和新發現不斷湧現。圍繞數據品質評估、大規模穩定收斂、與人類價值觀的一致性以及強大的現實世界部署的挑戰仍然是開放領域。但法學碩士的潛力是巨大的 - 請繼續關注,我們將在 2024 年及以後突破語言 AI ​​的可能性!

以上是2024 年建構大規模語言模式之旅的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn