首頁  >  文章  >  科技週邊  >  輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

PHPz
PHPz轉載
2023-04-13 17:13:191135瀏覽

基於Meta模型打造的輕量版ChatGPT,這就來啦?

Meta宣布推出LLaMA才三天,業界就出現了把它打造成ChatGPT的開源訓練方法,號稱比ChatGPT訓練速度最高快15倍。

LLaMA是Meta推出的超快超小型GPT-3,參數量只有後者的10%,只需要單張GPU就能運作。

把它變成ChatGPT的方法叫做ChatLLaMA,基於RLHF(基於人類回饋的強化學習)進行訓練,在網路上很快就掀起了一陣熱度。

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

所以,Meta的開源版ChatGPT真的要來了?

先等等,事情倒也沒那麼簡單。

把LLaMA訓練成ChatGPT的「開源方法」

點進ChatLLaMA專案首頁來看,會發現它實際上整合了四個部分-

DeepSpeed、 RLHF方法、LLaMA和基於LangChain agent產生的資料集。

其中,DeepSpeed是一個開源深度學習訓練最佳化庫,包含名叫Zero的現存最佳化技術,用於提升大模型訓練能力,具體指幫模型提升訓練速度、降低成本、提升模型可用性等。

RLHF則會採用獎勵模型來微調預訓練模型。獎勵模型即先用多個模型產生問題問答,再依靠人工對問答進行排序,讓它學會打分;隨後,基於獎勵學習給模型生成的回答進行打分,透過強化學習的方式增強模型能力。

LangChain是一個大語言模型應用程式開發庫,希望將各種大語言模型整合起來,結合其他知識來源或運算能力來創建一個實用的應用程式。 LangChain agent則會像思維鏈一樣放出GPT-3思考的整個過程,將操作記錄下來。

這時候你會發現,最關鍵的依舊是LLaMA的模型權重。它從哪裡來?

嘿嘿,自己去找Meta申請吧,ChatLLaMA並不提供。 (雖然Meta聲稱開源LLaMA,但依舊需要申請)

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

所以本質上來說,ChatLLaMA並不是一個開源ChatGPT項目,而只是一種基於LLaMA的訓練方法,其庫內整合的幾個專案原本也都是開源的。

實際上,ChatLLaMA也並非由Meta打造,而是來自一個叫做Nebuly AI的新創AI企業。

Nebuly AI做了一個叫做Nebullvm的開源函式庫,裡面整合了一系列即插即用的最佳化模組,用來提升AI系統效能。

例如這是Nebullvm目前包含的一些模組,包括基於DeepMind開源的AlphaTensor演算法打造的OpenAlphaTensor、自動感知硬體並對其進行加速的最佳化模組…

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

#ChatLLaMA也在這一系列模組中,但要注意的是它的開源license也是不可商用的。

所以「國產自研ChatGPT」想要直接拿去用,可能還沒那麼簡單(doge)。

看完這個專案後,有網友表示,要是有人真搞到LLaMA的模型權重(程式碼)就好了…

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

但也有網友指出,「比ChatGPT訓練方法快15倍」這種說法是純粹的誤導:

所謂的快15倍只是因為LLaMA模型本身很小,甚至能在單一GPU上運行,但應該不是因為這個專案所做的任何事情吧?

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

這位網友也推薦了一個比庫中效果更好的RLHF訓練方法,名叫trlx,訓練速度要比通常的RLHF方法快上3~4倍:

輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍

你拿到LLaMA的程式碼了嗎?覺得這個訓練方法如何?

ChatLLaMA網址:https://www.php.cn/link/fed537780f3f29cc5d5f313bb​​da423c4

參考連結:https://www.php.cn/link/fe27f92b1e3f4997567807f38d567a35

##

以上是輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除