9 月12 日,淘天集團聯合愛橙科技正式對外開源大模型訓練框架-Megatron-LLaMA,旨在讓技術開發者們能夠更方便的提升大語言模型訓練性能,降低訓練成本,並且保持和LLaMA 社區的兼容性。測試顯示,在32 卡訓練上,相較於HuggingFace 上直接獲得的程式碼版本,Megatron-LLaMA 能夠取得176% 的加速;在大規模的訓練上,Megatron-LLaMA 相比較32 卡擁有幾乎線性的擴展性,而且對網路不穩定表現出高容忍度。目前 Megatron-LLaMA 已在開源社群上線。
開源位址:https://github.com/alibaba/Megatron-LLaMA
以上是淘天集團與愛橙科技合作發表開源大型模型訓練架構Megatron-LLaMA的詳細內容。更多資訊請關注PHP中文網其他相關文章!