解鎖駱駝的力量3.2:綜合指南和本地部署
大語模型(LLM)的景觀正在迅速發展,重點是較小,更有效的模型。 Llama 3.2憑藉其輕巧和視力模型的變化體現了這一趨勢。本教程詳細介紹瞭如何利用Llama 3.2的功能,特別是3B輕型模型,用於在客戶支持數據集上進行微調以及使用JAN應用程序進行的本地部署。 在潛水之前,強烈鼓勵初學者完成AI基礎知識課程,以掌握LLM和生成AI的基礎。>作者的圖像
探索駱駝3.2型號
輕量級模型
視覺模型
視覺模型(11b和90b參數)是為圖像推理而設計的,能夠解釋文檔和圖表。 它們的多模式能力源於將預訓練的圖像編碼與語言模型集成在一起。 在視覺理解任務中,他們的表現優於克勞德3 haiku和gpt-4o mini。
以深入了解Llama 3.2的架構,基準和安全功能(Llama Guard 3),請參閱《官方Llama 3.2指南》。
>在Kaggle上訪問Llama 3.2雖然Llama 3.2是開源的,但訪問需要接受條款和條件。 這是通過kaggle訪問它的方法:
transformers
隨後的步驟涉及使用accelerate
庫庫加載令牌和模型,指定本地模型目錄,設置%pip install -U transformers accelerate
,創建文本生成管道以及使用自定義提示的運行推斷。 隨附的Kaggle筆記本中提供了詳細的代碼示例。 類似的步驟適用於訪問Llama 3.2視覺模型,儘管GPU要求明顯更高。
>本節通過微調Llama 3.2 3B指示模型在客戶支持數據集上使用transformers
library和Qlora進行有效培訓。
transformers
,datasets
,accelerate
,peft
,trl
,bitsandbytes
,wandb
和torch_dtype
>使用attn_implementation
進行4位量化的模型以最大程度地減少內存使用情況。 BitsAndBytesConfig
bitext/Bitext-customer-support-llm-chatbot-training-dataset
apply_chat_template
LoraConfig
TrainingArguments
>
SFTTrainer
trainer.train()
>測試使用數據集中的示例提示的微調模型。
>在本地保存微調模型,然後將其推到擁抱的臉上輪轂。
合併和導出微調模型>和
合併它們,然後保存並將合併模型推到集線器。以上是微調美洲駝3.2並在本地使用:逐步指南的詳細內容。更多資訊請關注PHP中文網其他相關文章!