


Feinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells
Das Lama von
Meta löste einen Anstieg der LLM-Entwicklung (Langual Language Model) aus und zielte darauf ab, Modelle wie GPT-3.5 zu konkurrieren. Die Open-Source-Community produzierte schnell zunehmend leistungsstarke Modelle, aber diese Fortschritte waren nicht ohne Herausforderungen. Viele Open-Source-LLMs hatten restriktive Lizenzen (nur Forschungsnutzung), erforderte erhebliche Budgets für die Feinabstimmung und waren teuer für den Einsatz.
Die neue Iteration vonllama befasst sich mit diesen Problemen mit einer kommerziellen Lizenz und neuen Methoden, die eine Feinabstimmung von GPUs der Verbraucherqualität mit begrenztem Speicher ermöglichen. Diese demokratisierte KI und ermöglicht es auch kleinere Organisationen, maßgeschneiderte Modelle zu erstellen.
Dieser Leitfaden demonstriert in Google Colab Fine-Tuning LLAMA-2, wobei effiziente Techniken zur Überwindung von Ressourcenbeschränkungen verwendet werden. Wir werden Methoden untersuchen, die den Speicherverbrauch minimieren und das Training beschleunigen.
Bild erzeugt vom Autor mit Dall-e 3
Feinabstimmungslama-2: Eine Schritt-für-Schritt-Anleitung
Dieses Tutorial-Finanzunternehmen Das 7-Milliarden-Parameter-LLAMA-2-Modell auf einer T4-GPU (verfügbar auf Google Colab oder Kaggle). Das 16-GB-VRAM des T4 erfordert eine parametereffiziente Feinabstimmung, insbesondere unter Verwendung von Qlora (4-Bit-Genauigkeit). Wir werden das umarmende Gesichtsökosystem verwenden (Transformers, Accelerate, PEFT, TRL, BitsandBytes).
1. Setup:
Installieren Sie die erforderlichen Bibliotheken:
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>
Module importieren:
<code>import os import torch from datasets import load_dataset from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import LoraConfig from trl import SFTTrainer</code>
2. Modell- und Datensatzauswahl:
Wir werden NousResearch/Llama-2-7b-chat-hf
(ein leicht zugängliches Äquivalent zum offiziellen LAMA-2) als Basismodell und mlabonne/guanaco-llama2-1k
als unser kleineres Trainingsdatensatz verwenden.
<code>base_model = "NousResearch/Llama-2-7b-chat-hf" guanaco_dataset = "mlabonne/guanaco-llama2-1k" new_model = "llama-2-7b-chat-guanaco"</code>
Bilder, die das Umarmungsgesichtsmodell und den Datensatz veranschaulichen, sind hier enthalten, wie original.
3. Datenladen & Modell:
Laden Sie den Datensatz:
<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
4-Bit-Quantisierung mit Qlora konfigurieren:
<code>compute_dtype = getattr(torch, "float16") quant_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=compute_dtype, bnb_4bit_use_double_quant=False, )</code>
Laden Sie das LLAMA-2-Modell mit 4-Bit-Quantisierung:
<code>model = AutoModelForCausalLM.from_pretrained( base_model, quantization_config=quant_config, device_map={"": 0} ) model.config.use_cache = False model.config.pretraining_tp = 1</code>
Laden Sie den Tokenizer:
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True) tokenizer.pad_token = tokenizer.eos_token tokenizer.padding_side = "right"</code>
Bild veranschaulichen Qlora hier, genau wie Original.
4. PEFT -Konfiguration:
PEFT-Parameter für eine effiziente Feinabstimmung definieren:
<code>peft_params = LoraConfig( lora_alpha=16, lora_dropout=0.1, r=64, bias="none", task_type="CAUSAL_LM", )</code>
5. Trainingsparameter:
Trainingshyperparameter (Ausgabeverzeichnis, Epochen, Chargengrößen, Lernrate usw.) festlegen. Details entsprechen dem Original.
6. Feinabstimmung mit SFT:
Verwenden Sie die SFTTrainer
aus der TRL-Bibliothek für überwachte Feinabstimmungen:
<code>trainer = SFTTrainer( model=model, train_dataset=dataset, peft_config=peft_params, dataset_text_field="text", max_seq_length=None, tokenizer=tokenizer, args=training_params, packing=False, ) trainer.train() trainer.model.save_pretrained(new_model) trainer.tokenizer.save_pretrained(new_model)</code>
Screenshots, die den Trainingsfortschritt und die Modelleinsparung zeigen, sind hier enthalten, wie Original.
7. Bewertung:
Verwenden Sie die transformers
-Pipeline, um das fein abgestimmte Modell zu testen. Beispiele werden vorgesehen, wie original.
8. Tensorboard -Visualisierung:
Tensorboard für die Überwachung von Trainingsmetriken starten.
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>
Screenshot von Tensorboard ist hier enthalten, wie original.
Schlussfolgerung:
Diese Anleitung zeigt eine effiziente Lama-2-Feinabstimmung mit begrenzter Hardware. Die Verwendung von Qlora und anderen Techniken macht erweiterte LLMs für ein breiteres Publikum zugänglich. Weitere Ressourcen und Lernwege werden am Ende erwähnt, ähnlich wie das Original, jedoch ohne die Handlungsaufrufe.
Das obige ist der detaillierte Inhalt vonFeinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Die Legal Tech -Revolution gewinnt an Dynamik und drängt die Anwaltskräfte, sich aktiv für KI -Lösungen einzusetzen. Passiver Widerstand ist keine praktikable Option mehr für diejenigen, die darauf abzielen, wettbewerbsfähig zu bleiben. Warum ist die Einführung von Technologie entscheidend? Legaler

Viele gehen davon aus, dass Interaktionen mit KI anonym sind, ein starker Kontrast zur menschlichen Kommunikation. AI profiliert jedoch aktiv Benutzer in jedem Chat. Jede Eingabeaufforderung, jedes Wort wird analysiert und kategorisiert. Lassen Sie uns diesen kritischen Aspekt des AI Revo untersuchen

Eine erfolgreiche Strategie für künstliche Intelligenz kann nicht von einer starken Unterstützung von Unternehmenskultur getrennt werden. Wie Peter Drucker sagte, hängen Geschäftsbetriebe von Menschen ab, ebenso wie der Erfolg künstlicher Intelligenz. Für Organisationen, die aktiv künstliche Intelligenz einnehmen, ist es entscheidend, eine Unternehmenskultur aufzubauen, die sich an KI anpasst, und sogar den Erfolg oder Misserfolg von AI -Strategien bestimmt. West Monroe hat kürzlich einen praktischen Leitfaden zum Aufbau einer florierenden ki-freundlichen Unternehmenskultur veröffentlicht. Hier einige wichtige Punkte: 1. Klären Sie das Erfolgsmodell von KI: Erstens müssen wir eine klare Vorstellung davon haben, wie KI das Geschäft stärken kann. Eine ideale KI -Betriebskultur kann eine natürliche Integration von Arbeitsprozessen zwischen Menschen und KI -Systemen erreichen. KI ist gut in bestimmten Aufgaben, während Menschen gut in Kreativität und Urteilsvermögen sind

Meta verbessert die AS -Assistant -Bewerbung, und die Ära der tragbaren KI kommt! Die App, die mit ChatGPT konkurrieren soll, bietet Standard -KI -Funktionen wie Text, Sprachinteraktion, Bildgenerierung und Websuche, hat jedoch zum ersten Mal Geolokationsfunktionen hinzugefügt. Dies bedeutet, dass Meta AI weiß, wo Sie sich befinden und was Sie sehen, wenn Sie Ihre Frage beantworten. Es verwendet Ihre Interessen, Standort-, Profil- und Aktivitätsinformationen, um die neuesten Situationsinformationen bereitzustellen, die zuvor nicht möglich waren. Die App unterstützt auch Echtzeitübersetzungen, die das KI-Erlebnis auf Ray-Ban-Brillen vollständig verändert und ihre Nützlichkeit erheblich verbessert. Die Einführung von Zöllen für ausländische Filme ist eine nackte Machtausübung über die Medien und Kultur. Wenn dies implementiert wird, beschleunigt sich dies in Richtung KI und virtueller Produktion

Künstliche Intelligenz revolutioniert das Gebiet der Cyberkriminalität, was uns dazu zwingt, neue Verteidigungsfähigkeiten zu erlernen. Cyberkriminelle verwenden zunehmend mächtige Technologien für künstliche Intelligenz wie tiefe Fälschung und intelligente Cyberangriffe in einem beispiellosen Maßstab. Es wird berichtet, dass 87% der globalen Unternehmen im vergangenen Jahr auf AI -Cyberkriminalität gerichtet waren. Wie können wir es vermeiden, Opfer dieser Welle intelligenter Verbrechen zu werden? Lassen Sie uns untersuchen, wie Sie Risiken identifizieren und Schutzmaßnahmen auf individueller und organisatorischer Ebene ergreifen können. Wie Cyberkriminale künstliche Intelligenz verwenden Im Laufe der Technologie suchen Kriminelle ständig nach neuen Wegen, um Einzelpersonen, Unternehmen und Regierungen anzugreifen. Die weit verbreitete Verwendung künstlicher Intelligenz mag der jüngste Aspekt sein, aber sein potenzieller Schaden ist beispiellos. Insbesondere künstliche Intelligenz

Die komplizierte Beziehung zwischen künstlicher Intelligenz (KI) und menschlicher Intelligenz (NI) wird am besten als Rückkopplungsschleife verstanden. Menschen erstellen KI und schulen sie für Daten, die von menschlicher Aktivitäten erzeugt werden, um die Fähigkeiten des Menschen zu verbessern oder zu replizieren. Diese KI

Die jüngste Aussage von Anthropic, die den Mangel an Verständnis in Bezug auf modernste KI-Modelle hervorhebt, hat eine hitzige Debatte unter Experten ausgelöst. Ist diese Opazität eine echte technologische Krise oder einfach eine vorübergehende Hürde auf dem Weg zu mehr Soph

Indien ist ein vielfältiges Land mit einem reichhaltigen Wandteppich an Sprachen, das in Regionen nahtlose Kommunikation in den Regionen zu einer anhaltenden Herausforderung macht. Sarvams Bulbul-V2 trägt jedoch dazu bei, diese Lücke mit seinem fortschrittlichen Text-zu-Sprach (TTS) t zu schließen


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Sicherer Prüfungsbrowser
Safe Exam Browser ist eine sichere Browserumgebung für die sichere Teilnahme an Online-Prüfungen. Diese Software verwandelt jeden Computer in einen sicheren Arbeitsplatz. Es kontrolliert den Zugriff auf alle Dienstprogramme und verhindert, dass Schüler nicht autorisierte Ressourcen nutzen.

PHPStorm Mac-Version
Das neueste (2018.2.1) professionelle, integrierte PHP-Entwicklungstool

SecLists
SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!
