Meta的Llama引發了大型語言模型(LLM)開發的激增,旨在與GPT-3.5這樣的模型競爭。 開源社區迅速產生了越來越強大的模型,但是這些進步並非沒有挑戰。 許多開源LLM具有限制性許可(僅研究),需要大量預算進行微調,並且部署昂貴。 Llama的新迭代通過商業許可證和新方法解決了這些問題,從而可以對消費級GPU進行微調,並且內存有限。這使AI民主化,甚至允許較小的組織創建量身定制的模型。
本指南在Google Colab上展示了微調Llama-2,利用有效的技術來克服資源限制。我們將探索最大程度地減少內存使用量並加速培訓的方法。>
作者使用dall-e 3 生成的圖像
> >微調乳拉拉瑪-2:逐步指南
> 此教程微調T4 GPU上的70億參數Llama-2模型(可在Google Colab或Kaggle上找到)。 T4的16GB VRAM需要使用Qlora(4位精度)進行參數有效的微調。我們將利用擁抱的面部生態系統(變形金剛,加速,PEFT,TRL,BITSANDBYTES)。
1。設置:
安裝必要的庫:
>導入模塊:
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>2。模型和數據集選擇:
<code>import os import torch from datasets import load_dataset from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import LoraConfig from trl import SFTTrainer</code>
我們將使用(等效於官方Llama-2的易於訪問)作為基本模型,將其作為我們較小的培訓數據集。
>NousResearch/Llama-2-7b-chat-hf
>說明了擁抱面模型和數據集的圖像,與原始圖像相同。
mlabonne/guanaco-llama2-1k
<code>base_model = "NousResearch/Llama-2-7b-chat-hf" guanaco_dataset = "mlabonne/guanaco-llama2-1k" new_model = "llama-2-7b-chat-guanaco"</code>
> 加載數據集:
>使用Qlora配置4位量化:
>使用4位量化加載Llama-2模型:
<code>dataset = load_dataset(guanaco_dataset, split="train")</code>加載令牌:
<code>compute_dtype = getattr(torch, "float16") quant_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=compute_dtype, bnb_4bit_use_double_quant=False, )</code>>圖像說明Qlora的圖像與原始。
<code>model = AutoModelForCausalLM.from_pretrained( base_model, quantization_config=quant_config, device_map={"": 0} ) model.config.use_cache = False model.config.pretraining_tp = 1</code>
4。 PEFT配置:
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True) tokenizer.pad_token = tokenizer.eos_token tokenizer.padding_side = "right"</code>
定義PEFT參數以進行有效的微調:>
5。訓練參數:
設置訓練超標儀(輸出目錄,時期,批量大小,學習率等)。 詳細信息與原始。6。用SFT進行微調:
<code>peft_params = LoraConfig( lora_alpha=16, lora_dropout=0.1, r=64, bias="none", task_type="CAUSAL_LM", )</code>
>使用TRL庫中的進行監督的微調:
>顯示訓練進度和模型節省的屏幕截圖與原始相同。
7。評估:
>使用管道測試微調模型。提供了示例,與原始相同。 transformers
>
8。張板可視化:
啟動張板以監視培訓指標。
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>
張量板的屏幕截圖與原始板相同。
結論:
本指南在有限的硬件上展示了有效的Llama-2微調。 Qlora和其他技術的使用使更廣泛的受眾可以訪問高級LLM。 最後提到了進一步的資源和學習路徑,類似於原始的原始資源和學習路徑,但沒有營銷呼籲採取行動。
以上是微調美洲駝2:定制大語模型的分步指南的詳細內容。更多資訊請關注PHP中文網其他相關文章!

聊天機器人像Chatgpt這樣的聊天機器人舉例說明了生成的AI,為項目經理提供了功能強大的工具來簡化工作流程並確保項目按計劃和預算範圍內保持。 但是,在製作正確的提示時有效使用鉸鏈。 精確,細節

定義人工智能(AGI)的挑戰是重大的。 AGI進步的主張通常缺乏明確的基準,其定義是針對預定的研究方向而定制的。本文探討了一種新穎的定義方法

IBM WATSONX.DATA:簡化企業AI數據堆棧 IBM將WATSONX.DATA定位為企業的關鍵平台,旨在加速精確而可擴展的生成AI解決方案。 這是通過簡化投訴來實現的

在AI和材料科學領域的突破所推動的機器人技術的快速進步已準備好迎來人類機器人的新時代。 多年來,工業自動化一直是主要重點,但是機器人的功能迅速exp

Netflix 界面十年來最大更新:更智能、更個性化,擁抱多元內容 Netflix 週三宣布對其用戶界面進行十年來最大規模的改版,不僅外觀煥然一新,還增加了更多關於每個節目的信息,並引入了更智能的 AI 搜索工具,能夠理解模糊的概念(例如“氛圍”),以及更靈活的結構,以便更好地展示公司在新興的視頻遊戲、直播活動、體育賽事和其他新型內容方面的興趣。 為了緊跟潮流,新的移動端豎屏視頻組件將使粉絲更容易滾動瀏覽預告片和片段,觀看完整節目或與他人分享內容。這讓人聯想起無限滾動且非常成功的短視頻網站 Ti

人工智能通用智能(AGI)的討論日益增多,促使許多人思考當人工智能超越人類智能時會發生什麼。這個時刻是近在咫尺還是遙遙無期,取決於你問誰,但我認為這並非我們應該關注的最重要的里程碑。哪些更早的人工智能里程碑會影響到每個人?哪些里程碑已經實現?以下是我認為已經發生的三件事。 人工智能超越人類弱點 在2022年的電影《社交困境》中,人文科技中心(Center for Humane Technology)的崔斯坦·哈里斯指出,人工智能已經超越了人類的弱點。這是什麼意思?這意味著人工智能已經能夠運用人類

Transunion的首席技術官Ranganath Achanta在2021年末加入公司後加入公司以來,率先進行了重大的技術轉變。

建立信任至關重要,對於成功採用業務的AI是至關重要的。 考慮到業務流程中的人類因素,這尤其如此。 像其他任何人一樣,員工對AI及其實施引起了人們的關注。 德勤研究人員是SC


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

SublimeText3 Linux新版
SublimeText3 Linux最新版

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

Atom編輯器mac版下載
最受歡迎的的開源編輯器