Rumah >Peranti teknologi >AI >Panduan Komprehensif untuk Zephyr-7b: Ciri, Penggunaan, dan Penalaan Halus

Panduan Komprehensif untuk Zephyr-7b: Ciri, Penggunaan, dan Penalaan Halus

Jennifer Aniston
Jennifer Anistonasal
2025-03-08 09:55:11674semak imbas

meneroka zephyr-7b: llm sumber terbuka yang kuat

Leaderboard Openai LLM berdengung dengan model sumber terbuka baru yang bertujuan untuk menyaingi GPT-4, dan Zephyr-7b adalah pesaing yang menonjol. Tutorial ini meneroka model bahasa canggih ini dari Webpilot.ai, menunjukkan penggunaannya dengan saluran paip Transformers dan penalaan halus pada dataset agen-instruksi. Baru ke AI? Trek Kemahiran Asas AI adalah titik permulaan yang hebat.

Memahami Zephyr-7b

Zephyr-7b, sebahagian daripada siri Zephyr, dilatih berfungsi sebagai pembantu yang membantu. Kekuatannya terletak pada menghasilkan teks yang koheren, menterjemahkan bahasa, meringkaskan maklumat, analisis sentimen, dan menjawab soalan konteks.

zephyr-7b-β: keajaiban yang halus

Zephyr-7B-β, model kedua dalam siri ini, adalah model Mistral-7B yang disesuaikan dengan baik. Dilatih menggunakan Pengoptimuman Keutamaan Langsung (DPO) pada campuran dataset awam dan sintetik, ia cemerlang dalam menafsirkan pertanyaan kompleks dan meringkaskan teks yang panjang. Pada pembebasannya, ia memegang tempat teratas di kalangan model sembang 7B pada penanda aras MT-Bench dan Alpacaeval. Uji kemampuannya dengan demo percuma pada sembang zephyr.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

imej dari Zephyr Chat

mengakses Zephyr-7b dengan memeluk Transformers Face

Tutorial ini menggunakan Transformers Face Hugging untuk akses mudah. (Jika anda menghadapi masalah memuatkan, rujuk buku nota Kaggle Inference.)

  1. Pasang perpustakaan: Pastikan anda mempunyai versi terkini:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Perpustakaan import:
import torch
from transformers import pipeline
  1. Buat saluran paip: menggunakan pelbagai GPU untuk generasi yang lebih cepat. device_map="auto" menawarkan pengiraan yang lebih cepat dan mengurangkan penggunaan memori (tetapi dengan ketepatan yang sedikit lebih rendah). torch.bfloat16
model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
  1. menghasilkan teks: Contoh di bawah menunjukkan penjanaan kod python.
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

    Sistem arahan:
  1. Sesuaikan respons dengan sistem gaya Zephyr-7b yang diminta:
messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

zephyr-7b penalaan halus pada dataset tersuai Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Bahagian ini membimbing anda melalui penalaan Zephyr-7B-beta pada dataset tersuai menggunakan GPU percuma Kaggle (kira-kira 2 jam). (Lihat buku nota Kaggle yang baik untuk penyelesaian masalah.)

menyediakan dan menyediakan persekitaran

  1. Pasang perpustakaan:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Modul import:
import torch
from transformers import pipeline
  1. Kaggle Secrets (untuk buku nota Kaggle): Ambil muka dan berat badan API memeluk.

  2. memeluk muka dan berat & berat badan log masuk:

model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Tentukan Model dan Nama Dataset:
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
AgentInstruct Dataset Processing

fungsi

menyesuaikan dataset ke gaya cepat Zephyr-7b. format_prompt

messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Memuat dan menyediakan model

    Model beban dengan ketepatan 4-bit:
  1. Ini penting untuk latihan yang cekap pada GPU dengan VRAM terhad.
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl
    beban tokenizer:
# ... (Import statements as in original tutorial) ...
    Tambah lapisan penyesuai (PEFT):
  1. Ini membolehkan penalaan halus dengan hanya mengemas kini parameter dalam lapisan penyesuai.
Latihan model
!huggingface-cli login --token $secret_hf
# ... (wandb login as in original tutorial) ...

    Argumen Latihan:
  1. Konfigurasi HyperParameters (rujuk tutorial Llama 2 yang baik untuk butiran).
base_model = "HuggingFaceH4/zephyr-7b-beta"
dataset_name = "THUDM/AgentInstruct"
new_model = "zephyr-7b-beta-Agent-Instruct"
    pelatih sft:
  1. Gunakan perpustakaan TRL memeluk Face untuk membuat jurulatih.
# ... (format_prompt function and dataset loading as in original tutorial) ...
    Latihan Mula:
# ... (bnb_config and model loading as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning menjimatkan dan menggunakan model yang halus

    Simpan model:
# ... (tokenizer loading and configuration as in original tutorial) ...
    tolak untuk memeluk hub muka:
# ... (peft_config and model preparation as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning menguji model yang disesuaikan dengan baik

Uji prestasi model dengan pelbagai arahan. Contoh disediakan dalam tutorial asal.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Kesimpulan

Zephyr-7b-beta menunjukkan keupayaan yang mengagumkan. Tutorial ini menyediakan panduan yang komprehensif untuk menggunakan dan menyempurnakan LLM yang kuat ini, walaupun pada GPU yang dikendalikan oleh sumber. Pertimbangkan kursus konsep Model Bahasa Besar (LLMS) untuk pengetahuan LLM yang lebih mendalam.

Atas ialah kandungan terperinci Panduan Komprehensif untuk Zephyr-7b: Ciri, Penggunaan, dan Penalaan Halus. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn