suchen
HeimTechnologie-PeripheriegeräteKIFeinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells

Das Lama von

Meta löste einen Anstieg der LLM-Entwicklung (Langual Language Model) aus und zielte darauf ab, Modelle wie GPT-3.5 zu konkurrieren. Die Open-Source-Community produzierte schnell zunehmend leistungsstarke Modelle, aber diese Fortschritte waren nicht ohne Herausforderungen. Viele Open-Source-LLMs hatten restriktive Lizenzen (nur Forschungsnutzung), erforderte erhebliche Budgets für die Feinabstimmung und waren teuer für den Einsatz.

Die neue Iteration von

llama befasst sich mit diesen Problemen mit einer kommerziellen Lizenz und neuen Methoden, die eine Feinabstimmung von GPUs der Verbraucherqualität mit begrenztem Speicher ermöglichen. Diese demokratisierte KI und ermöglicht es auch kleinere Organisationen, maßgeschneiderte Modelle zu erstellen.

Dieser Leitfaden demonstriert in Google Colab Fine-Tuning LLAMA-2, wobei effiziente Techniken zur Überwindung von Ressourcenbeschränkungen verwendet werden. Wir werden Methoden untersuchen, die den Speicherverbrauch minimieren und das Training beschleunigen.

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model

Bild erzeugt vom Autor mit Dall-e 3

Feinabstimmungslama-2: Eine Schritt-für-Schritt-Anleitung

Dieses Tutorial-Finanzunternehmen Das 7-Milliarden-Parameter-LLAMA-2-Modell auf einer T4-GPU (verfügbar auf Google Colab oder Kaggle). Das 16-GB-VRAM des T4 erfordert eine parametereffiziente Feinabstimmung, insbesondere unter Verwendung von Qlora (4-Bit-Genauigkeit). Wir werden das umarmende Gesichtsökosystem verwenden (Transformers, Accelerate, PEFT, TRL, BitsandBytes).

1. Setup:

Installieren Sie die erforderlichen Bibliotheken:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

Module importieren:

<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>

2. Modell- und Datensatzauswahl:

Wir werden NousResearch/Llama-2-7b-chat-hf (ein leicht zugängliches Äquivalent zum offiziellen LAMA-2) als Basismodell und mlabonne/guanaco-llama2-1k als unser kleineres Trainingsdatensatz verwenden.

<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>

Bilder, die das Umarmungsgesichtsmodell und den Datensatz veranschaulichen, sind hier enthalten, wie original.

3. Datenladen & Modell:

Laden Sie den Datensatz:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>

4-Bit-Quantisierung mit Qlora konfigurieren:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>

Laden Sie das LLAMA-2-Modell mit 4-Bit-Quantisierung:

<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>

Laden Sie den Tokenizer:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>

Bild veranschaulichen Qlora hier, genau wie Original.

4. PEFT -Konfiguration:

PEFT-Parameter für eine effiziente Feinabstimmung definieren:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>

5. Trainingsparameter:

Trainingshyperparameter (Ausgabeverzeichnis, Epochen, Chargengrößen, Lernrate usw.) festlegen. Details entsprechen dem Original.

6. Feinabstimmung mit SFT:

Verwenden Sie die SFTTrainer aus der TRL-Bibliothek für überwachte Feinabstimmungen:

<code>trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    peft_config=peft_params,
    dataset_text_field="text",
    max_seq_length=None,
    tokenizer=tokenizer,
    args=training_params,
    packing=False,
)

trainer.train()
trainer.model.save_pretrained(new_model)
trainer.tokenizer.save_pretrained(new_model)</code>

Screenshots, die den Trainingsfortschritt und die Modelleinsparung zeigen, sind hier enthalten, wie Original.

7. Bewertung:

Verwenden Sie die transformers -Pipeline, um das fein abgestimmte Modell zu testen. Beispiele werden vorgesehen, wie original.

8. Tensorboard -Visualisierung:

Tensorboard für die Überwachung von Trainingsmetriken starten.

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

Screenshot von Tensorboard ist hier enthalten, wie original.

Schlussfolgerung:

Diese Anleitung zeigt eine effiziente Lama-2-Feinabstimmung mit begrenzter Hardware. Die Verwendung von Qlora und anderen Techniken macht erweiterte LLMs für ein breiteres Publikum zugänglich. Weitere Ressourcen und Lernwege werden am Ende erwähnt, ähnlich wie das Original, jedoch ohne die Handlungsaufrufe.

Das obige ist der detaillierte Inhalt vonFeinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Ein umfassender Leitfaden zur ExtrapolationEin umfassender Leitfaden zur ExtrapolationApr 15, 2025 am 11:38 AM

Einführung Angenommen, es gibt einen Landwirt, der täglich den Fortschritt von Pflanzen in mehreren Wochen beobachtet. Er untersucht die Wachstumsraten und beginnt darüber nachzudenken, wie viel größerer seine Pflanzen in weiteren Wochen wachsen könnten. Von th

Der Aufstieg der weichen KI und was es für Unternehmen heute bedeutetDer Aufstieg der weichen KI und was es für Unternehmen heute bedeutetApr 15, 2025 am 11:36 AM

Soft AI-definiert als KI-Systeme zur Ausführung spezifischer, enger Aufgaben mit ungefährem Denken, Mustererkennung und flexibler Entscheidungsfindung-versucht, ein menschliches Denken nachzuahmen, indem sie Mehrdeutigkeiten einnehmen. Aber was bedeutet das für das Geschäft

Sich entwickelnde Sicherheitsrahmen für die KI -Grenze entwickelnSich entwickelnde Sicherheitsrahmen für die KI -Grenze entwickelnApr 15, 2025 am 11:34 AM

Die Antwort ist klar-genau da Cloud Computing eine Verschiebung zu Cloud-nativen Sicherheitstools erfordert, erfordert KI eine neue Generation von Sicherheitslösungen, die speziell für die individuellen Anforderungen von AI entwickelt wurden. Der Aufstieg von Cloud -Computing- und Sicherheitsstunden gelernt In th

3 Wege generative KI verstärkt Unternehmer: Vorsicht vor Durchschnittswerten!3 Wege generative KI verstärkt Unternehmer: Vorsicht vor Durchschnittswerten!Apr 15, 2025 am 11:33 AM

Unternehmer und Verwendung von KI und Generative KI, um ihre Geschäfte besser zu machen. Gleichzeitig ist es wichtig, sich zu erinnern, wie alle Technologien ein Verstärker ist. Eine strenge Studie von 2024 o

Neuer kurzer Kurs zum Einbetten von Modellen von Andrew NGNeuer kurzer Kurs zum Einbetten von Modellen von Andrew NGApr 15, 2025 am 11:32 AM

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R

Ist die Halluzination in Großsprachenmodellen (LLMs) unvermeidlich?Ist die Halluzination in Großsprachenmodellen (LLMs) unvermeidlich?Apr 15, 2025 am 11:31 AM

Großsprachenmodelle (LLMs) und das unvermeidliche Problem der Halluzinationen Sie haben wahrscheinlich AI -Modelle wie Chatgpt, Claude und Gemini verwendet. Dies sind alles Beispiele für große Sprachmodelle (LLMs), leistungsstarke KI -Systeme, die auf massiven Textdatensätzen geschult wurden

Das 60% -Problem - wie die KI -Suche Ihren Verkehr entwässertDas 60% -Problem - wie die KI -Suche Ihren Verkehr entwässertApr 15, 2025 am 11:28 AM

Jüngste Untersuchungen haben gezeigt, dass KI-Übersichten einen Rückgang des organischen Verkehrs um 15-64% auf der Grundlage der Industrie und des Suchtyps verursachen können. Dieser radikale Wandel veranlasst Vermarkter, ihre gesamte Strategie in Bezug auf digitale Sichtbarkeit zu überdenken. Das Neue

MIT Media LabMIT Media LabApr 15, 2025 am 11:26 AM

Ein kürzlich von Elon University vorstellbarer Bericht des Digital Future Center befragte fast 300 globale Technologieexperten. Der daraus resultierende Bericht, „im Jahr 2035 Menschen zu sein“, kam zu dem Schluss, dass die meisten besorgt sind

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

PHPStorm Mac-Version

PHPStorm Mac-Version

Das neueste (2018.2.1) professionelle, integrierte PHP-Entwicklungstool

WebStorm-Mac-Version

WebStorm-Mac-Version

Nützliche JavaScript-Entwicklungstools

Herunterladen der Mac-Version des Atom-Editors

Herunterladen der Mac-Version des Atom-Editors

Der beliebteste Open-Source-Editor

Dreamweaver Mac

Dreamweaver Mac

Visuelle Webentwicklungstools