recherche
MaisonPériphériques technologiquesIAGuide complet de Zephyr-7b: fonctionnalités, utilisation et réglage fin

Explorez Zephyr-7b: un puissant LLM open-source

Le classement Openai LLM bourdonne de nouveaux modèles open source visant à rivaliser avec GPT-4, et Zephyr-7b est un concurrent hors concours. Ce didacticiel explore ce modèle de langue de pointe à partir de WebPilot.ai, démontrant son utilisation avec le pipeline Transformers et affinage sur un ensemble de données d'agent-instructeur. Nouveau sur l'IA? La piste de compétences fondamentales de l'IA est un excellent point de départ.

Comprendre Zephyr-7b

Zephyr-7b, qui fait partie de la série Zephyr, est formé pour fonctionner comme un assistant utile. Ses forces résident dans la génération de texte cohérent, la traduction des langues, le résumé des informations, l'analyse des sentiments et la réponse aux questions contextuelles.

Zephyr-7b-β: une Marvel affinée

Zephyr-7b-β, le deuxième modèle de la série, est un modèle Mistral-7B affiné. Formé en utilisant l'optimisation des préférences directes (DPO) sur un mélange d'ensembles de données publics et synthétiques, il excelle dans l'interprétation de requêtes complexes et la résumé de textes longs. À sa sortie, il a tenu la première place parmi les modèles de chat 7B sur MT-Bench et les repères alpacaval. Testez ses capacités avec la démo gratuite sur Zephyr Chat.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Image de Zephyr Chat

Accès à Zephyr-7b avec des transformateurs de face étreintes

Ce tutoriel utilise des transformateurs de visage étreintes pour un accès facile. (Si vous rencontrez des problèmes de chargement, consultez le carnet de Kaggle inférence.)

  1. Installez les bibliothèques: Assurez-vous d'avoir les dernières versions:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Bibliothèques d'importation:
import torch
from transformers import pipeline
  1. Créer un pipeline: Le device_map="auto" utilise plusieurs GPU pour une génération plus rapide. torch.bfloat16 offre un calcul plus rapide et une utilisation réduite de la mémoire (mais avec une précision légèrement inférieure).
model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
  1. Générer du texte: L'exemple ci-dessous montre la génération de code python.
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Invites système: Personnaliser les réponses avec les invites du système de style Zephyr-7b:
messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Fonction de Zephyr-7b sur un ensemble de données personnalisé

Cette section vous guide à travers le réglage fin Zephyr-7B-Beta sur un ensemble de données personnalisé à l'aide des GPU gratuits de Kaggle (environ 2 heures). (Voir le cahier Kaggle à réglage fin pour le dépannage.)

Configuration et préparation de l'environnement

  1. Installez les bibliothèques:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
  1. Modules d'importation:
import torch
from transformers import pipeline
  1. Secrets de Kaggle (pour les ordinateurs portables de Kaggle): Récupérer les touches API face et poids et biais.

  2. étreindre le visage et les poids et les biais Connexion:

model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Définir les noms du modèle et de l'ensemble de données:
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Traitement de l'ensemble de données d'agentInstruct

La fonction format_prompt adapte l'ensemble de données au style invite de Zephyr-7b.

messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Chargement et préparation du modèle

  1. Modèle de charge avec précision 4 bits: Ceci est crucial pour une formation efficace sur les GPU avec VRAM limité.
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl
  1. Tokenizer de chargement:
# ... (Import statements as in original tutorial) ...
  1. Ajouter une couche d'adaptateur (PEFT): Cela permet un réglage fin efficace en mettant uniquement à la mise à jour les paramètres dans la couche d'adaptateur.
!huggingface-cli login --token $secret_hf
# ... (wandb login as in original tutorial) ...

Formation du modèle

  1. Arguments de formation: Configurer des hyperparamètres (reportez-vous au tutoriel Fine-Tuning Llama 2 pour plus de détails).
base_model = "HuggingFaceH4/zephyr-7b-beta"
dataset_name = "THUDM/AgentInstruct"
new_model = "zephyr-7b-beta-Agent-Instruct"
  1. Sft Trainer: Utilisez la bibliothèque TRL de l'étreinte pour créer l'entraîneur.
# ... (format_prompt function and dataset loading as in original tutorial) ...
  1. Commencer la formation:
# ... (bnb_config and model loading as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Économie et déploiement du modèle affiné

  1. Enregistrez le modèle:
# ... (tokenizer loading and configuration as in original tutorial) ...
  1. Poussez pour étreindre Hub Face:
# ... (peft_config and model preparation as in original tutorial) ...

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Tester le modèle affiné

Testez les performances du modèle avec diverses invites. Des exemples sont fournis dans le tutoriel d'origine.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Conclusion

Zephyr-7B-Beta présente des capacités impressionnantes. Ce tutoriel fournit un guide complet pour utiliser et affiner ce puissant LLM, même sur des GPU à base de ressources. Considérez le cours des concepts des modèles de grande langue maître (LLMS) pour les connaissances LLM plus profondes.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Modèles de citoyens, pourquoi la valeur de l'IA est le prochain critère commercialModèles de citoyens, pourquoi la valeur de l'IA est le prochain critère commercialMay 02, 2025 am 11:09 AM

L'efficacité du modèle d'IA d'une entreprise est désormais un indicateur de performance clé. Depuis le boom de l'IA, l'IA générative a été utilisée pour tout, de la composition des invitations d'anniversaire à l'écriture du code logiciel. Cela a conduit à une prolifération du mod de langue

Aurora commence un service commercial autonome au TexasAurora commence un service commercial autonome au TexasMay 02, 2025 am 11:08 AM

Aurora lance des services commerciaux autonomes au Texas, marquant une étape importante dans la croissance de l'entreprise. Le cours de l'action d'Aurora a chuté de près de 3% malgré les gains en bourse. Aurora prévoyait à l'origine de lancer le service en avril, mais a finalement retardé l'annonce à mai. La société a été fondée par URMSON et les dirigeants d'Uber ATG et de Tesla Autopilot et l'ont acquis après une tragédie qui a fait cesser les opérations d'Uber ATG. Bien qu'Aurora ne soit pas la première entreprise à obtenir une conduite autonome, il est toujours d'une grande importance d'exploiter un semi-camion de niveau 8 dans les opérations commerciales réelles, principalement en raison de facteurs physiques. Un camion à une vitesse de 70 mph et pesant 80 000 livres a une énergie cinétique de 40 mph

Apple en mépris, Google fait face à la rupture, Xai collectant 40 milliards de dollars, Openai ajustement GPT-4OApple en mépris, Google fait face à la rupture, Xai collectant 40 milliards de dollars, Openai ajustement GPT-4OMay 02, 2025 am 11:07 AM

Cette semaine, AI et XR News mettent en évidence les développements clés dans plusieurs secteurs. Le procès antitrust du ministère américain de la Justice contre Google façonne l'avenir de l'IA, avec des remèdes proposés qui ont un impact sur le chrome, les accords de moteur de recherche,

Le nouvel assistant AI de Meta: booster de productivité ou puits de temps?Le nouvel assistant AI de Meta: booster de productivité ou puits de temps?May 01, 2025 am 11:18 AM

Meta s'est associé à des partenaires tels que NVIDIA, IBM et Dell pour étendre l'intégration de déploiement de niveau d'entreprise de la pile de lama. En termes de sécurité, Meta a lancé de nouveaux outils tels que Llama Guard 4, Llafirewall et Cyberseceval 4, et a lancé le programme Llama Defenders pour améliorer la sécurité de l'IA. En outre, Meta a distribué 1,5 million de dollars de subventions d'impact LLAMA à 10 institutions mondiales, y compris des startups travaillant pour améliorer les services publics, les soins de santé et l'éducation. La nouvelle application Meta Ai propulsée par Llama 4, conçue comme Meta Ai

80% de la génération Zers épouserait une IA: étudie80% de la génération Zers épouserait une IA: étudieMay 01, 2025 am 11:17 AM

Joi AI, une entreprise pionnière de l'interaction humaine-AI, a introduit le terme "Ai-Lations" pour décrire ces relations en évolution. Jaime Bronstein, thérapeute relationnelle chez JOI AI, précise que ceux-ci ne sont pas censés remplacer l'homme C humain

L'IA aggrave le problème du bot d'Internet. Cette startup de 2 milliards de dollars est en première ligneL'IA aggrave le problème du bot d'Internet. Cette startup de 2 milliards de dollars est en première ligneMay 01, 2025 am 11:16 AM

Les fraudes en ligne et les attaques de bot posent un défi important pour les entreprises. Les détaillants combattent des bots de thésaurisation, les banques de banques se battaient les prises de contrôle et les plateformes de médias sociaux ont du mal avec les imitateurs. La montée de l'IA exacerbe ce problème, rendez-vous

Vendre aux robots: la révolution marketing qui fera ou déferlera votre entrepriseVendre aux robots: la révolution marketing qui fera ou déferlera votre entrepriseMay 01, 2025 am 11:15 AM

Les agents de l'IA sont sur le point de révolutionner le marketing, dépassant potentiellement l'impact des changements technologiques antérieurs. Ces agents, représentant une progression importante de l'IA générative, ne traitent pas seulement des informations comme Chatgpt, mais prennent également Actio

Comment la technologie de la vision par ordinateur transforme les éliminatoires de la NBA officiantComment la technologie de la vision par ordinateur transforme les éliminatoires de la NBA officiantMay 01, 2025 am 11:14 AM

L'impact de l'IA sur les décisions cruciales du match NBA 4 Deux matchs pivots du match 4 de la NBA ont présenté le rôle révolutionnaire de l'IA dans la officier. Dans le premier, Nikola Jokic de Denver, à trois points, a conduit à une ruelle de dernière seconde d'Aaron Gordon. Haw de Sony

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

MantisBT

MantisBT

Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

SublimeText3 Linux nouvelle version

SublimeText3 Linux nouvelle version

Dernière version de SublimeText3 Linux

Listes Sec

Listes Sec

SecLists est le compagnon ultime du testeur de sécurité. Il s'agit d'une collection de différents types de listes fréquemment utilisées lors des évaluations de sécurité, le tout en un seul endroit. SecLists contribue à rendre les tests de sécurité plus efficaces et productifs en fournissant facilement toutes les listes dont un testeur de sécurité pourrait avoir besoin. Les types de listes incluent les noms d'utilisateur, les mots de passe, les URL, les charges utiles floues, les modèles de données sensibles, les shells Web, etc. Le testeur peut simplement extraire ce référentiel sur une nouvelle machine de test et il aura accès à tous les types de listes dont il a besoin.