Rumah >Peranti teknologi >AI >Panduan Komprehensif untuk Zephyr-7b: Ciri, Penggunaan, dan Penalaan Halus
meneroka zephyr-7b: llm sumber terbuka yang kuat
Leaderboard Openai LLM berdengung dengan model sumber terbuka baru yang bertujuan untuk menyaingi GPT-4, dan Zephyr-7b adalah pesaing yang menonjol. Tutorial ini meneroka model bahasa canggih ini dari Webpilot.ai, menunjukkan penggunaannya dengan saluran paip Transformers dan penalaan halus pada dataset agen-instruksi. Baru ke AI? Trek Kemahiran Asas AI adalah titik permulaan yang hebat.
Zephyr-7b, sebahagian daripada siri Zephyr, dilatih berfungsi sebagai pembantu yang membantu. Kekuatannya terletak pada menghasilkan teks yang koheren, menterjemahkan bahasa, meringkaskan maklumat, analisis sentimen, dan menjawab soalan konteks.
Zephyr-7B-β, model kedua dalam siri ini, adalah model Mistral-7B yang disesuaikan dengan baik. Dilatih menggunakan Pengoptimuman Keutamaan Langsung (DPO) pada campuran dataset awam dan sintetik, ia cemerlang dalam menafsirkan pertanyaan kompleks dan meringkaskan teks yang panjang. Pada pembebasannya, ia memegang tempat teratas di kalangan model sembang 7B pada penanda aras MT-Bench dan Alpacaeval. Uji kemampuannya dengan demo percuma pada sembang zephyr.
imej dari Zephyr Chat
mengakses Zephyr-7b dengan memeluk Transformers Face
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
import torch from transformers import pipeline
device_map="auto"
menawarkan pengiraan yang lebih cepat dan mengurangkan penggunaan memori (tetapi dengan ketepatan yang sedikit lebih rendah). torch.bfloat16
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
zephyr-7b penalaan halus pada dataset tersuai
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
import torch from transformers import pipeline
Kaggle Secrets (untuk buku nota Kaggle): Ambil muka dan berat badan API memeluk.
memeluk muka dan berat & berat badan log masuk:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])AgentInstruct Dataset Processing
menyesuaikan dataset ke gaya cepat Zephyr-7b. format_prompt
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Memuat dan menyediakan model
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
# ... (Import statements as in original tutorial) ...
!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
# ... (format_prompt function and dataset loading as in original tutorial) ...
# ... (bnb_config and model loading as in original tutorial) ...
menjimatkan dan menggunakan model yang halus
# ... (tokenizer loading and configuration as in original tutorial) ...
# ... (peft_config and model preparation as in original tutorial) ...
menguji model yang disesuaikan dengan baik
Zephyr-7b-beta menunjukkan keupayaan yang mengagumkan. Tutorial ini menyediakan panduan yang komprehensif untuk menggunakan dan menyempurnakan LLM yang kuat ini, walaupun pada GPU yang dikendalikan oleh sumber. Pertimbangkan kursus konsep Model Bahasa Besar (LLMS) untuk pengetahuan LLM yang lebih mendalam.
Atas ialah kandungan terperinci Panduan Komprehensif untuk Zephyr-7b: Ciri, Penggunaan, dan Penalaan Halus. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!