搜尋
首頁科技週邊人工智慧微調美洲駝2:定制大語模型的分步指南

Meta的Llama引發了大型語言模型(LLM)開發的激增,旨在與GPT-3.5這樣的模型競爭。 開源社區迅速產生了越來越強大的模型,但是這些進步並非沒有挑戰。 許多開源LLM具有限制性許可(僅研究),需要大量預算進行微調,並且部署昂貴。 Llama的新迭代通過商業許可證和新方法解決了這些問題,從而可以對消費級GPU進行微調,並且內存有限。這使AI民主化,甚至允許較小的組織創建量身定制的模型。

本指南在Google Colab上展示了微調Llama-2,利用有效的技術來克服資源限制。我們將探索最大程度地減少內存使用量並加速培訓的方法。

>

作者使用dall-e 3 Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model 生成的圖像

> >微調乳拉拉瑪-2:逐步指南

> 此教程微調T4 GPU上的70億參數Llama-2模型(可在Google Colab或Kaggle上找到)。 T4的16GB VRAM需要使用Qlora(4位精度)進行參數有效的微調。我們將利用擁抱的面部生態系統(變形金剛,加速,PEFT,TRL,BITSANDBYTES)。

1。設置:

安裝必要的庫:

>導入模塊:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

2。模型和數據集選擇:
<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>

我們將使用(等效於官方Llama-2的易於訪問)作為基本模型,將其作為我們較小的培訓數據集。

>NousResearch/Llama-2-7b-chat-hf>說明了擁抱面模型和數據集的圖像,與原始圖像相同。 mlabonne/guanaco-llama2-1k

3。加載數據和型號:
<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>

> 加載數據集:

>使用Qlora配置4位量化:

>使用4位量化加載Llama-2模型:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
加載令牌:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>
>

圖像說明Qlora的圖像與原始。
<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>

4。 PEFT配置:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>

定義PEFT參數以進行有效的微調:>

5。訓練參數:

設置訓練超標儀(輸出目錄,時期,批量大小,學習率等)。 詳細信息與原始。

6。用SFT進行微調:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>

>使用TRL庫中的進行監督的微調:>

>

>顯示訓練進度和模型節省的屏幕截圖與原始相同。

7。評估:

>使用管道測試微調模型。提供了示例,與原始相同。 transformers>

8。張板可視化:

啟動張板以監視培訓指標。

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

張量板的屏幕截圖與原始板相同。 結論:

本指南在有限的硬件上展示了有效的Llama-2微調。 Qlora和其他技術的使用使更廣泛的受眾可以訪問高級LLM。 最後提到了進一步的資源和學習路徑,類似於原始的原始資源和學習路徑,但沒有營銷呼籲採取行動。

以上是微調美洲駝2:定制大語模型的分步指南的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
7強大的AI提示每個項目經理現在需要掌握7強大的AI提示每個項目經理現在需要掌握May 08, 2025 am 11:39 AM

聊天機器人像Chatgpt這樣的聊天機器人舉例說明了生成的AI,為項目經理提供了功能強大的工具來簡化工作流程並確保項目按計劃和預算範圍內保持。 但是,在製作正確的提示時有效使用鉸鏈。 精確,細節

通過AI本身的有益協助,定義難以捉摸的AGI的含義不明的含義通過AI本身的有益協助,定義難以捉摸的AGI的含義不明的含義May 08, 2025 am 11:37 AM

定義人工智能(AGI)的挑戰是重大的。 AGI進步的主張通常缺乏明確的基準,其定義是針對預定的研究方向而定制的。本文探討了一種新穎的定義方法

IBM認為2025展示watsonx.data在生成AI中的作用IBM認為2025展示watsonx.data在生成AI中的作用May 08, 2025 am 11:32 AM

IBM WATSONX.DATA:簡化企業AI數據堆棧 IBM將WATSONX.DATA定位為企業的關鍵平台,旨在加速精確而可擴展的生成AI解決方案。 這是通過簡化投訴來實現的

人形機器人機器的崛起即將到來。人形機器人機器的崛起即將到來。May 08, 2025 am 11:29 AM

在AI和材料科學領域的突破所推動的機器人技術的快速進步已準備好迎來人類機器人的新時代。 多年來,工業自動化一直是主要重點,但是機器人的功能迅速exp

Netflix重新修改界面 - 首次亮相AI搜索工具和類似Tiktok的設計Netflix重新修改界面 - 首次亮相AI搜索工具和類似Tiktok的設計May 08, 2025 am 11:25 AM

Netflix 界面十年來最大更新:更智能、更個性化,擁抱多元內容 Netflix 週三宣布對其用戶界面進行十年來最大規模的改版,不僅外觀煥然一新,還增加了更多關於每個節目的信息,並引入了更智能的 AI 搜索工具,能夠理解模糊的概念(例如“氛圍”),以及更靈活的結構,以便更好地展示公司在新興的視頻遊戲、直播活動、體育賽事和其他新型內容方面的興趣。 為了緊跟潮流,新的移動端豎屏視頻組件將使粉絲更容易滾動瀏覽預告片和片段,觀看完整節目或與他人分享內容。這讓人聯想起無限滾動且非常成功的短視頻網站 Ti

在AGI之前很久:三個AI里程碑會挑戰您在AGI之前很久:三個AI里程碑會挑戰您May 08, 2025 am 11:24 AM

人工智能通用智能(AGI)的討論日益增多,促使許多人思考當人工智能超越人類智能時會發生什麼。這個時刻是近在咫尺還是遙遙無期,取決於你問誰,但我認為這並非我們應該關注的最重要的里程碑。哪些更早的人工智能里程碑會影響到每個人?哪些里程碑已經實現?以下是我認為已經發生的三件事。 人工智能超越人類弱點 在2022年的電影《社交困境》中,人文科技中心(Center for Humane Technology)的崔斯坦·哈里斯指出,人工智能已經超越了人類的弱點。這是什麼意思?這意味著人工智能已經能夠運用人類

Venkat Achanta在Transunion的平台轉型和AI野心Venkat Achanta在Transunion的平台轉型和AI野心May 08, 2025 am 11:23 AM

Transunion的首席技術官Ranganath Achanta在2021年末加入公司後加入公司以來,率先進行了重大的技術轉變。

當對AI的信任躍升時,生產力會隨之而來當對AI的信任躍升時,生產力會隨之而來May 08, 2025 am 11:11 AM

建立信任至關重要,對於成功採用業務的AI是至關重要的。 考慮到業務流程中的人類因素,這尤其如此。 像其他任何人一樣,員工對AI及其實施引起了人們的關注。 德勤研究人員是SC

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

SublimeText3 Linux新版

SublimeText3 Linux新版

SublimeText3 Linux最新版

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器