


Umfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung
Erforschen Zephyr-7b: Eine mächtige Open-Source-LLM
Die OpenAI LLM-Rangliste summt mit neuen Open-Source-Modellen, die mit der Konkurrenz von GPT-4 abzielen, und Zephyr-7b ist ein herausragender Anwärter. In diesem Tutorial wird dieses modernste Sprachmodell von webpilot.ai untersucht und seine Verwendung mit der Transformers-Pipeline und der Feinabstimmung auf einem Datensatz für Agent-Instentien demonstriert. Neu in AI? Die KI -Fundamentals -Skill -Track ist ein guter Ausgangspunkt.
Zephyr-7b
verstehenZephyr-7b, Teil der Zephyr-Serie, ist geschult, um als hilfreicher Assistent zu fungieren. Seine Stärken liegen bei der Erzeugung von kohärenten Text, Übersetzungssprachen, Zusammenfassung von Informationen, Stimmungsanalyse und Kontext-Wahrnehmungs-Frage.
Zephyr-7b-β: Ein fein abgestimmter Marvel
Zephyr-7b-β, das zweite Modell der Reihe, ist ein fein abgestimmter Mistral-7b-Modell. Ausgebildet mit Direktpräferenzoptimierung (DPO) in einer Mischung aus öffentlichen und synthetischen Datensätzen zeichnet sie sich aus, um komplexe Abfragen zu interpretieren und langwierige Texte zusammenzufassen. Bei seiner Veröffentlichung hatte es den Spitzenplatz unter 7B-Chat-Modellen auf MT-Bench und AlpaCaeval Benchmarks. Testen Sie seine Funktionen mit der kostenlosen Demo auf Zephyr -Chat.
Bild aus Zephyr -Chat
Zugriff auf Zephyr-7b mit umarmenden Gesichtstransformatoren
Dieses Tutorial verwendet umarme Gesichtstransformatoren, um einen einfachen Zugang zu erhalten. (Wenn Sie auf Ladeproblemen stoßen, wenden Sie sich an das Inferenz -Kaggle -Notizbuch.)
- Bibliotheken installieren: Stellen Sie sicher, dass Sie die neuesten Versionen haben:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- Bibliotheken importieren:
import torch from transformers import pipeline
- Pipeline erstellen: Der
device_map="auto"
verwendet mehrere GPUs für eine schnellere Erzeugung.torch.bfloat16
bietet eine schnellere Berechnung und reduzierte Speicherverwendung (jedoch mit etwas geringerer Genauigkeit).
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- Text generieren: Das folgende Beispiel zeigt das Generieren von Python -Code.
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
- Systemaufforderungen: Anpassen der Antworten mit Systemaufforderungen in Zephyr-7b-Stil:
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Feinabstimmung Zephyr-7b auf einem benutzerdefinierten Datensatz
Dieser Abschnitt führt Sie durch den feinen Zephyr-7b-Beta auf einem benutzerdefinierten Datensatz mit Kaggle's Free GPUs (ca. 2 Stunden). (Siehe das feine Kaggle-Notizbuch zur Fehlerbehebung.)
Einrichten und Vorbereiten der Umgebung
- Bibliotheken installieren:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- Importmodule:
import torch from transformers import pipeline
-
Kaggle Secrets (für Kaggle -Notizbücher): Abrufen von Gesicht und Gewichten & Vorurteilen API -Tasten abrufen.
-
Umarmung von Gesicht und Gewichten und Vorspannungen Login:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- Modell- und Datensatznamen definieren:
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
AgentInstruct Dataset Processing
Die format_prompt
-Funktion passt den Datensatz an Zephyr-7bs promptem Stil an.
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Laden und Vorbereiten des Modells
- Lastmodell mit 4-Bit-Genauigkeit: Dies ist entscheidend für ein effizientes Training auf GPUs mit begrenztem VRAM.
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
- Tokenizer laden:
# ... (Import statements as in original tutorial) ...
- Adapterschicht hinzufügen (PEFT): Dies ermöglicht eine effiziente Feinabstimmung, indem nur Parameter in der Adapterschicht aktualisiert werden.
!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
Training des Modells
- Trainingsargumente: Hyperparameter konfigurieren (Einzelheiten finden Sie im Tutorial für Feinabstimmungslama 2).
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
- SFT -Trainer: Verwenden Sie die TRL -Bibliothek von Sugging Face, um den Trainer zu erstellen.
# ... (format_prompt function and dataset loading as in original tutorial) ...
- Starten Sie das Training:
# ... (bnb_config and model loading as in original tutorial) ...
Speichern und Bereitstellen des fein abgestimmten Modells
- Speichern Sie das Modell:
# ... (tokenizer loading and configuration as in original tutorial) ...
- Auf die Umarmung des Gesichtszentrums drücken:
# ... (peft_config and model preparation as in original tutorial) ...
Testen Sie das fein abgestimmte Modell
Testen Sie die Leistung des Modells mit verschiedenen Eingabeaufforderungen. Beispiele finden Sie im ursprünglichen Tutorial.
Schlussfolgerung
Zephyr-7b-beta zeigt beeindruckende Fähigkeiten. Dieses Tutorial bietet einen umfassenden Leitfaden zur Nutzung und Feinabstimmung dieses leistungsstarken LLM, selbst bei ressourcenbezogenen GPUs. Betrachten Sie den Konzepte Kurs "Master Language Language Models) für tieferes LLM -Wissen.
Das obige ist der detaillierte Inhalt vonUmfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Meta hat sich mit Partnern wie Nvidia, IBM und Dell zusammengetan, um die Einsatzintegration von Lama Stack auf Unternehmensebene zu erweitern. In Bezug auf die Sicherheit hat Meta neue Tools wie Llam Guard 4, Llamafirewall und Cyberseceval 4 auf den Markt gebracht und das Lama Defenders -Programm gestartet, um die KI -Sicherheit zu verbessern. Darüber hinaus hat Meta 1,5 Millionen US -Dollar an Lama -Impact -Zuschüssen an 10 globale Institutionen verteilt, darunter Startups, die an der Verbesserung der öffentlichen Dienste, der Gesundheitsversorgung und der Bildung arbeiten. Die neue Meta -AI -Anwendung von Lama 4, die als Meta AI konzipiert wurde

Joi Ai, eine Firma Pionierin der Human-AI-Interaktion, hat den Begriff "AI-Lationships" eingeführt, um diese sich entwickelnden Beziehungen zu beschreiben. Jaime Bronstein, ein Beziehungstherapeut bei Joi AI, stellt klar, dass diese nicht dazu gedacht sind, das Menschen C zu ersetzen C.

Online -Betrug und Bot -Angriffe stellen eine bedeutende Herausforderung für Unternehmen dar. Einzelhändler bekämpfen Bots, die Produkte horten, Banken Battle Account Takeovers und Social -Media -Plattformen kämpfen mit Imitatoren. Der Aufstieg von AI verschärft dieses Problem, das Rende

AI -Agenten sind bereit, das Marketing zu revolutionieren und möglicherweise die Auswirkungen früherer technologischer Verschiebungen zu übertreffen. Diese Agenten, die einen signifikanten Fortschritt in der generativen KI darstellen, verarbeiten nicht nur Informationen wie Chatgpt, sondern auch Actio

Die Auswirkungen der KI auf wichtige Entscheidungen von NBA Game 4 Zwei entscheidende NBA-Matchups in Game 4 zeigten die bahnbrechende Rolle der KI beim Amtieren. Im ersten Fall führte Denvers verpasste Drei-Zeiger von Nikola Jokic zu einer Gasse in der letzten Sekunden von Aaron Gordon. Sony's Haw

Traditionell forderte die weltweit expandierende Expertin der regenerativen Medizin umfangreiche Reisen, praktische Ausbildung und jahrelange Mentoring. Jetzt verändert AI diese Landschaft, überwindet geografische Einschränkungen und beschleunigte Fortschritte durch EN

Intel arbeitet daran, seinen Herstellungsprozess in die führende Position zurückzugeben, während er versucht, Fab -Semiconductor -Kunden anzuziehen, um Chips an seinen Fabriken herzustellen. Zu diesem Zweck muss Intel mehr Vertrauen in die Branche aufbauen, um nicht nur die Wettbewerbsfähigkeit seiner Prozesse zu beweisen, sondern auch zu demonstrieren, dass Partner Chips in einer vertrauten und ausgereiften Workflow, konsistente und sehr zuverlässige Weise herstellen können. Alles, was ich heute höre, lässt mich glauben, dass Intel dieses Ziel zu diesem Ziel bewegt. Die Keynote -Rede des neuen CEO Tan Libai begann den Tag. Tan Libai ist unkompliziert und prägnant. Er skizziert mehrere Herausforderungen in den Foundry -Diensten von Intel und die Maßnahmen, die Unternehmen ergriffen haben, um diese Herausforderungen zu bewältigen und einen erfolgreichen Weg für Intel Foundry Services in Zukunft zu planen. Tan Libai sprach über den Prozess des OEM -Dienstes von Intel, um Kunden mehr zu machen

Die Chaucer Group, ein globales Spezialversicherungsunternehmen, und Armilla AI haben sich mit den wachsenden Bedenken hinsichtlich der KI-Risiken befassen, und Armilla AI haben sich zusammengeschlossen, um ein neuartiges Versicherungsprodukt von Drittanbietern (TPL) einzubringen. Diese Richtlinie schützt Unternehmen vor


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

VSCode Windows 64-Bit-Download
Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

MantisBT
Mantis ist ein einfach zu implementierendes webbasiertes Tool zur Fehlerverfolgung, das die Fehlerverfolgung von Produkten unterstützen soll. Es erfordert PHP, MySQL und einen Webserver. Schauen Sie sich unsere Demo- und Hosting-Services an.

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen
