基於Meta模型打造的輕量版ChatGPT,這就來啦?
Meta宣布推出LLaMA才三天,業界就出現了把它打造成ChatGPT的開源訓練方法,號稱比ChatGPT訓練速度最高快15倍。
LLaMA是Meta推出的超快超小型GPT-3,參數量只有後者的10%,只需要單張GPU就能運作。
把它變成ChatGPT的方法叫做ChatLLaMA,基於RLHF(基於人類回饋的強化學習)進行訓練,在網路上很快就掀起了一陣熱度。
所以,Meta的開源版ChatGPT真的要來了?
先等等,事情倒也沒那麼簡單。
點進ChatLLaMA專案首頁來看,會發現它實際上整合了四個部分-
DeepSpeed、 RLHF方法、LLaMA和基於LangChain agent產生的資料集。
其中,DeepSpeed是一個開源深度學習訓練最佳化庫,包含名叫Zero的現存最佳化技術,用於提升大模型訓練能力,具體指幫模型提升訓練速度、降低成本、提升模型可用性等。
RLHF則會採用獎勵模型來微調預訓練模型。獎勵模型即先用多個模型產生問題問答,再依靠人工對問答進行排序,讓它學會打分;隨後,基於獎勵學習給模型生成的回答進行打分,透過強化學習的方式增強模型能力。
LangChain是一個大語言模型應用程式開發庫,希望將各種大語言模型整合起來,結合其他知識來源或運算能力來創建一個實用的應用程式。 LangChain agent則會像思維鏈一樣放出GPT-3思考的整個過程,將操作記錄下來。
這時候你會發現,最關鍵的依舊是LLaMA的模型權重。它從哪裡來?
嘿嘿,自己去找Meta申請吧,ChatLLaMA並不提供。 (雖然Meta聲稱開源LLaMA,但依舊需要申請)
所以本質上來說,ChatLLaMA並不是一個開源ChatGPT項目,而只是一種基於LLaMA的訓練方法,其庫內整合的幾個專案原本也都是開源的。
實際上,ChatLLaMA也並非由Meta打造,而是來自一個叫做Nebuly AI的新創AI企業。
Nebuly AI做了一個叫做Nebullvm的開源函式庫,裡面整合了一系列即插即用的最佳化模組,用來提升AI系統效能。
例如這是Nebullvm目前包含的一些模組,包括基於DeepMind開源的AlphaTensor演算法打造的OpenAlphaTensor、自動感知硬體並對其進行加速的最佳化模組…
#ChatLLaMA也在這一系列模組中,但要注意的是它的開源license也是不可商用的。
所以「國產自研ChatGPT」想要直接拿去用,可能還沒那麼簡單(doge)。
看完這個專案後,有網友表示,要是有人真搞到LLaMA的模型權重(程式碼)就好了…
但也有網友指出,「比ChatGPT訓練方法快15倍」這種說法是純粹的誤導:
所謂的快15倍只是因為LLaMA模型本身很小,甚至能在單一GPU上運行,但應該不是因為這個專案所做的任何事情吧?
這位網友也推薦了一個比庫中效果更好的RLHF訓練方法,名叫trlx,訓練速度要比通常的RLHF方法快上3~4倍:
你拿到LLaMA的程式碼了嗎?覺得這個訓練方法如何?
ChatLLaMA網址:https://www.php.cn/link/fed537780f3f29cc5d5f313bbda423c4
參考連結:https://www.php.cn/link/fe27f92b1e3f4997567807f38d567a35
##以上是輕量版ChatGPT訓練方法開源!僅用3天圍繞LLaMA打造,號稱訓練速度比OpenAI快15倍的詳細內容。更多資訊請關注PHP中文網其他相關文章!