検索
ホームページテクノロジー周辺機器AI微調整llama2:大規模な言語モデルをカスタマイズするためのステップバイステップガイド

メタのラマは、GPT-3.5などのモデルに対抗することを目指して、大規模な言語モデル(LLM)開発の急増を引き起こしました。 オープンソースコミュニティは、ますます強力なモデルを急速に生み出しましたが、これらの進歩には課題はありませんでした。 多くのオープンソースLLMには制限的なライセンスがあり(調査のみ)、微調整にかなりの予算が必要であり、展開に費用がかかりました。

llamaの新しいイテレーションは、これらの問題に商業ライセンスと、メモリが限られている消費者グレードGPUの微調整を可能にする新しい方法で対処しています。これはAIを民主化し、さらに小規模な組織がテーラードモデルを作成できるようにします。

このガイドは、リソースの制約を克服するための効率的な手法を利用して、Google Colabで微調整されたLlama-2を示しています。メモリの使用量を最小限に抑え、トレーニングを加速する方法論を調べます。

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model dall-e 3

を使用して著者によって生成された画像 微調整llama-2:ステップバイステップガイド

このチュートリアルは、T4 GPU(Google ColabまたはKaggleで入手可能)の70億パラメーターllama-2モデルを微調整します。 T4の16GB VRAMは、特にQlora(4ビット精度)を使用して、パラメーター効率の高い微調整を必要とします。ハグする顔のエコシステム(変圧器、加速、PEFT、TRL、bitsandBytes)を利用します。 1。セットアップ:

必要なライブラリをインストールする:

インポートモジュール:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
2。モデルとデータセットの選択:

<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>

(公式のllama-2に容易にアクセス可能な等価)を基本モデルとして、を小規模なトレーニングデータセットとして使用します。

NousResearch/Llama-2-7b-chat-hfハグする顔モデルとデータセットを示す画像は、オリジナルと同じようにここに含まれています。 mlabonne/guanaco-llama2-1k

3。データとモデルの読み込み:
<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>

データセットをロードします:

qlora:を使用して4ビット量子化を構成します

4ビット量子化でllama-2モデルをロードします:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
トークン剤をロードします:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>

qloraを示す画像は、オリジナルと同じようにここに含まれています

<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>
4。 PEFT構成:

効率的な微調整のためのPEFTパラメーターを定義します:
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>

5。トレーニングパラメーター:

トレーニングハイパーパラメーター(出力ディレクトリ、エポック、バッチサイズ、学習レートなど)を設定します。 詳細はオリジナルと同じです。

6。 SFTでの微調整:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>

TRLライブラリからを使用して、監視された微調整を行います。 トレーニングの進行とモデルの保存を示す

スクリーンショットは、オリジナルと同じようにここに含まれています。

7。評価:

transformersパイプラインを使用して、微調整されたモデルをテストします。例は、オリジナルと同じように提供されています。

8。テンソルボードの視覚化:

トレーニングメトリックを監視するためのテンソルボードを起動します

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

テンソルボードのスクリーンショットは、オリジナルと同じようにここに含まれています 結論:

このガイドは、限られたハードウェアで効率的なllama-2微調整を紹介しています。 Qloraやその他のテクニックを使用すると、高度なLLMがより多くの視聴者がアクセスできます。 その他のリソースと学習パスは、オリジナルと同様に、最後に言及されていますが、マーケティングの呼び出しはありません。

以上が微調整llama2:大規模な言語モデルをカスタマイズするためのステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
外挿の包括的なガイド外挿の包括的なガイドApr 15, 2025 am 11:38 AM

導入 数週間で作物の進行を毎日観察する農民がいるとします。彼は成長率を見て、さらに数週間で彼の植物がどれほど背が高くなるかについて熟考し始めます。 thから

ソフトAIの台頭とそれが今日のビジネスにとって何を意味するかソフトAIの台頭とそれが今日のビジネスにとって何を意味するかApr 15, 2025 am 11:36 AM

ソフトAIは、おおよその推論、パターン認識、柔軟な意思決定を使用して特定の狭いタスクを実行するように設計されたAIシステムとして定義されていますが、曖昧さを受け入れることにより、人間のような思考を模倣しようとします。 しかし、これはBusineにとって何を意味しますか

AIフロンティア向けの進化するセキュリティフレームワークAIフロンティア向けの進化するセキュリティフレームワークApr 15, 2025 am 11:34 AM

答えは明確です。クラウドコンピューティングには、クラウドネイティブセキュリティツールへの移行が必要であるため、AIはAIの独自のニーズに特化した新しい種類のセキュリティソリューションを要求します。 クラウドコンピューティングとセキュリティレッスンの台頭 で

3つの方法生成AIは起業家を増幅します:平均に注意してください!3つの方法生成AIは起業家を増幅します:平均に注意してください!Apr 15, 2025 am 11:33 AM

起業家とAIと生成AIを使用して、ビジネスを改善します。同時に、すべてのテクノロジーと同様に、生成的AIが増幅器であることを覚えておくことが重要です。厳密な2024年の研究o

Andrew Ngによる埋め込みモデルに関する新しいショートコースAndrew Ngによる埋め込みモデルに関する新しいショートコースApr 15, 2025 am 11:32 AM

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります

大規模な言語モデル(LLMS)の幻覚は避けられませんか?大規模な言語モデル(LLMS)の幻覚は避けられませんか?Apr 15, 2025 am 11:31 AM

大規模な言語モデル(LLM)と幻覚の避けられない問題 ChatGpt、Claude、GeminiなどのAIモデルを使用した可能性があります。 これらはすべて、大規模なテキストデータセットでトレーニングされた大規模な言語モデル(LLMS)、強力なAIシステムの例です。

60%の問題 -  AI検索がトラフィックを排出す​​る方法60%の問題 - AI検索がトラフィックを排出す​​る方法Apr 15, 2025 am 11:28 AM

最近の研究では、AIの概要により、産業と検索の種類に基づいて、オーガニックトラフィックがなんと15〜64%減少する可能性があることが示されています。この根本的な変化により、マーケティング担当者はデジタルの可視性に関する戦略全体を再考することになっています。 新しい

AI R&Dの中心に人間が繁栄するようにするMITメディアラボAI R&Dの中心に人間が繁栄するようにするMITメディアラボApr 15, 2025 am 11:26 AM

Elon UniversityがDigital Future Centerを想像している最近のレポートは、300人近くのグローバルテクノロジーの専門家を調査しました。結果のレポート「2035年に人間である」は、ほとんどがTを超えるAIシステムの採用を深めることを懸念していると結論付けました。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

PhpStorm Mac バージョン

PhpStorm Mac バージョン

最新(2018.2.1)のプロフェッショナル向けPHP統合開発ツール

WebStorm Mac版

WebStorm Mac版

便利なJavaScript開発ツール

AtomエディタMac版ダウンロード

AtomエディタMac版ダウンロード

最も人気のあるオープンソースエディター

Dreamweaver Mac版

Dreamweaver Mac版

ビジュアル Web 開発ツール