suchen
HeimTechnologie-PeripheriegeräteKIUmfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung

Erforschen Zephyr-7b: Eine mächtige Open-Source-LLM

Die OpenAI LLM-Rangliste summt mit neuen Open-Source-Modellen, die mit der Konkurrenz von GPT-4 abzielen, und Zephyr-7b ist ein herausragender Anwärter. In diesem Tutorial wird dieses modernste Sprachmodell von webpilot.ai untersucht und seine Verwendung mit der Transformers-Pipeline und der Feinabstimmung auf einem Datensatz für Agent-Instentien demonstriert. Neu in AI? Die KI -Fundamentals -Skill -Track ist ein guter Ausgangspunkt.

Zephyr-7b

verstehen

Zephyr-7b, Teil der Zephyr-Serie, ist geschult, um als hilfreicher Assistent zu fungieren. Seine Stärken liegen bei der Erzeugung von kohärenten Text, Übersetzungssprachen, Zusammenfassung von Informationen, Stimmungsanalyse und Kontext-Wahrnehmungs-Frage.

Zephyr-7b-β: Ein fein abgestimmter Marvel

Zephyr-7b-β, das zweite Modell der Reihe, ist ein fein abgestimmter Mistral-7b-Modell. Ausgebildet mit Direktpräferenzoptimierung (DPO) in einer Mischung aus öffentlichen und synthetischen Datensätzen zeichnet sie sich aus, um komplexe Abfragen zu interpretieren und langwierige Texte zusammenzufassen. Bei seiner Veröffentlichung hatte es den Spitzenplatz unter 7B-Chat-Modellen auf MT-Bench und AlpaCaeval Benchmarks. Testen Sie seine Funktionen mit der kostenlosen Demo auf Zephyr -Chat.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Bild aus Zephyr -Chat

Zugriff auf Zephyr-7b mit umarmenden Gesichtstransformatoren

Dieses Tutorial verwendet umarme Gesichtstransformatoren, um einen einfachen Zugang zu erhalten. (Wenn Sie auf Ladeproblemen stoßen, wenden Sie sich an das Inferenz -Kaggle -Notizbuch.)

  1. Bibliotheken installieren: Stellen Sie sicher, dass Sie die neuesten Versionen haben:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Bibliotheken importieren:
import torch
from transformers import pipeline
  1. Pipeline erstellen: Der device_map="auto" verwendet mehrere GPUs für eine schnellere Erzeugung. torch.bfloat16 bietet eine schnellere Berechnung und reduzierte Speicherverwendung (jedoch mit etwas geringerer Genauigkeit).
model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
  1. Text generieren: Das folgende Beispiel zeigt das Generieren von Python -Code.
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Systemaufforderungen: Anpassen der Antworten mit Systemaufforderungen in Zephyr-7b-Stil:
messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Feinabstimmung Zephyr-7b auf einem benutzerdefinierten Datensatz

Dieser Abschnitt führt Sie durch den feinen Zephyr-7b-Beta auf einem benutzerdefinierten Datensatz mit Kaggle's Free GPUs (ca. 2 Stunden). (Siehe das feine Kaggle-Notizbuch zur Fehlerbehebung.)

Einrichten und Vorbereiten der Umgebung

  1. Bibliotheken installieren:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Importmodule:
import torch
from transformers import pipeline
  1. Kaggle Secrets (für Kaggle -Notizbücher): Abrufen von Gesicht und Gewichten & Vorurteilen API -Tasten abrufen.

  2. Umarmung von Gesicht und Gewichten und Vorspannungen Login:

model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Modell- und Datensatznamen definieren:
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

AgentInstruct Dataset Processing

Die format_prompt -Funktion passt den Datensatz an Zephyr-7bs promptem Stil an.

messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Laden und Vorbereiten des Modells

  1. Lastmodell mit 4-Bit-Genauigkeit: Dies ist entscheidend für ein effizientes Training auf GPUs mit begrenztem VRAM.
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl
  1. Tokenizer laden:
# ... (Import statements as in original tutorial) ...
  1. Adapterschicht hinzufügen (PEFT): Dies ermöglicht eine effiziente Feinabstimmung, indem nur Parameter in der Adapterschicht aktualisiert werden.
!huggingface-cli login --token $secret_hf
# ... (wandb login as in original tutorial) ...

Training des Modells

  1. Trainingsargumente: Hyperparameter konfigurieren (Einzelheiten finden Sie im Tutorial für Feinabstimmungslama 2).
base_model = "HuggingFaceH4/zephyr-7b-beta"
dataset_name = "THUDM/AgentInstruct"
new_model = "zephyr-7b-beta-Agent-Instruct"
  1. SFT -Trainer: Verwenden Sie die TRL -Bibliothek von Sugging Face, um den Trainer zu erstellen.
# ... (format_prompt function and dataset loading as in original tutorial) ...
  1. Starten Sie das Training:
# ... (bnb_config and model loading as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Speichern und Bereitstellen des fein abgestimmten Modells

  1. Speichern Sie das Modell:
# ... (tokenizer loading and configuration as in original tutorial) ...
  1. Auf die Umarmung des Gesichtszentrums drücken:
# ... (peft_config and model preparation as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Testen Sie das fein abgestimmte Modell

Testen Sie die Leistung des Modells mit verschiedenen Eingabeaufforderungen. Beispiele finden Sie im ursprünglichen Tutorial.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Schlussfolgerung

Zephyr-7b-beta zeigt beeindruckende Fähigkeiten. Dieses Tutorial bietet einen umfassenden Leitfaden zur Nutzung und Feinabstimmung dieses leistungsstarken LLM, selbst bei ressourcenbezogenen GPUs. Betrachten Sie den Konzepte Kurs "Master Language Language Models) für tieferes LLM -Wissen.

Das obige ist der detaillierte Inhalt vonUmfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Der neue KI -Assistent von Meta: Produktivitätswahrnehmung oder Zeitspüle?Der neue KI -Assistent von Meta: Produktivitätswahrnehmung oder Zeitspüle?May 01, 2025 am 11:18 AM

Meta hat sich mit Partnern wie Nvidia, IBM und Dell zusammengetan, um die Einsatzintegration von Lama Stack auf Unternehmensebene zu erweitern. In Bezug auf die Sicherheit hat Meta neue Tools wie Llam Guard 4, Llamafirewall und Cyberseceval 4 auf den Markt gebracht und das Lama Defenders -Programm gestartet, um die KI -Sicherheit zu verbessern. Darüber hinaus hat Meta 1,5 Millionen US -Dollar an Lama -Impact -Zuschüssen an 10 globale Institutionen verteilt, darunter Startups, die an der Verbesserung der öffentlichen Dienste, der Gesundheitsversorgung und der Bildung arbeiten. Die neue Meta -AI -Anwendung von Lama 4, die als Meta AI konzipiert wurde

80% der Gen -Zers würden eine KI heiraten: Studium80% der Gen -Zers würden eine KI heiraten: StudiumMay 01, 2025 am 11:17 AM

Joi Ai, eine Firma Pionierin der Human-AI-Interaktion, hat den Begriff "AI-Lationships" eingeführt, um diese sich entwickelnden Beziehungen zu beschreiben. Jaime Bronstein, ein Beziehungstherapeut bei Joi AI, stellt klar, dass diese nicht dazu gedacht sind, das Menschen C zu ersetzen C.

AI verschlimmert das Bot -Problem des Internets. Dieses Startup von 2 Milliarden US -Dollar liegt an vorderster FrontAI verschlimmert das Bot -Problem des Internets. Dieses Startup von 2 Milliarden US -Dollar liegt an vorderster FrontMay 01, 2025 am 11:16 AM

Online -Betrug und Bot -Angriffe stellen eine bedeutende Herausforderung für Unternehmen dar. Einzelhändler bekämpfen Bots, die Produkte horten, Banken Battle Account Takeovers und Social -Media -Plattformen kämpfen mit Imitatoren. Der Aufstieg von AI verschärft dieses Problem, das Rende

Verkauf an Roboter: Die Marketing -Revolution, die Ihr Geschäft herstellt oder brechen wirdVerkauf an Roboter: Die Marketing -Revolution, die Ihr Geschäft herstellt oder brechen wirdMay 01, 2025 am 11:15 AM

AI -Agenten sind bereit, das Marketing zu revolutionieren und möglicherweise die Auswirkungen früherer technologischer Verschiebungen zu übertreffen. Diese Agenten, die einen signifikanten Fortschritt in der generativen KI darstellen, verarbeiten nicht nur Informationen wie Chatgpt, sondern auch Actio

Wie die Computer -Vision -Technologie NBA Playoff amtiertWie die Computer -Vision -Technologie NBA Playoff amtiertMay 01, 2025 am 11:14 AM

Die Auswirkungen der KI auf wichtige Entscheidungen von NBA Game 4 Zwei entscheidende NBA-Matchups in Game 4 zeigten die bahnbrechende Rolle der KI beim Amtieren. Im ersten Fall führte Denvers verpasste Drei-Zeiger von Nikola Jokic zu einer Gasse in der letzten Sekunden von Aaron Gordon. Sony's Haw

Wie KI die Zukunft der regenerativen Medizin beschleunigtWie KI die Zukunft der regenerativen Medizin beschleunigtMay 01, 2025 am 11:13 AM

Traditionell forderte die weltweit expandierende Expertin der regenerativen Medizin umfangreiche Reisen, praktische Ausbildung und jahrelange Mentoring. Jetzt verändert AI diese Landschaft, überwindet geografische Einschränkungen und beschleunigte Fortschritte durch EN

Key Takeaways von Intel Foundry Direct Connect 2025Key Takeaways von Intel Foundry Direct Connect 2025May 01, 2025 am 11:12 AM

Intel arbeitet daran, seinen Herstellungsprozess in die führende Position zurückzugeben, während er versucht, Fab -Semiconductor -Kunden anzuziehen, um Chips an seinen Fabriken herzustellen. Zu diesem Zweck muss Intel mehr Vertrauen in die Branche aufbauen, um nicht nur die Wettbewerbsfähigkeit seiner Prozesse zu beweisen, sondern auch zu demonstrieren, dass Partner Chips in einer vertrauten und ausgereiften Workflow, konsistente und sehr zuverlässige Weise herstellen können. Alles, was ich heute höre, lässt mich glauben, dass Intel dieses Ziel zu diesem Ziel bewegt. Die Keynote -Rede des neuen CEO Tan Libai begann den Tag. Tan Libai ist unkompliziert und prägnant. Er skizziert mehrere Herausforderungen in den Foundry -Diensten von Intel und die Maßnahmen, die Unternehmen ergriffen haben, um diese Herausforderungen zu bewältigen und einen erfolgreichen Weg für Intel Foundry Services in Zukunft zu planen. Tan Libai sprach über den Prozess des OEM -Dienstes von Intel, um Kunden mehr zu machen

Ai schief gegangen? Jetzt ist dafür eine Versicherung dafürAi schief gegangen? Jetzt ist dafür eine Versicherung dafürMay 01, 2025 am 11:11 AM

Die Chaucer Group, ein globales Spezialversicherungsunternehmen, und Armilla AI haben sich mit den wachsenden Bedenken hinsichtlich der KI-Risiken befassen, und Armilla AI haben sich zusammengeschlossen, um ein neuartiges Versicherungsprodukt von Drittanbietern (TPL) einzubringen. Diese Richtlinie schützt Unternehmen vor

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

VSCode Windows 64-Bit-Download

VSCode Windows 64-Bit-Download

Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

SublimeText3 Englische Version

SublimeText3 Englische Version

Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

MantisBT

MantisBT

Mantis ist ein einfach zu implementierendes webbasiertes Tool zur Fehlerverfolgung, das die Fehlerverfolgung von Produkten unterstützen soll. Es erfordert PHP, MySQL und einen Webserver. Schauen Sie sich unsere Demo- und Hosting-Services an.

Herunterladen der Mac-Version des Atom-Editors

Herunterladen der Mac-Version des Atom-Editors

Der beliebteste Open-Source-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen