


Explorez Zephyr-7b: un puissant LLM open-source
Le classement Openai LLM bourdonne de nouveaux modèles open source visant à rivaliser avec GPT-4, et Zephyr-7b est un concurrent hors concours. Ce didacticiel explore ce modèle de langue de pointe à partir de WebPilot.ai, démontrant son utilisation avec le pipeline Transformers et affinage sur un ensemble de données d'agent-instructeur. Nouveau sur l'IA? La piste de compétences fondamentales de l'IA est un excellent point de départ.
Comprendre Zephyr-7b
Zephyr-7b, qui fait partie de la série Zephyr, est formé pour fonctionner comme un assistant utile. Ses forces résident dans la génération de texte cohérent, la traduction des langues, le résumé des informations, l'analyse des sentiments et la réponse aux questions contextuelles.
Zephyr-7b-β: une Marvel affinée
Zephyr-7b-β, le deuxième modèle de la série, est un modèle Mistral-7B affiné. Formé en utilisant l'optimisation des préférences directes (DPO) sur un mélange d'ensembles de données publics et synthétiques, il excelle dans l'interprétation de requêtes complexes et la résumé de textes longs. À sa sortie, il a tenu la première place parmi les modèles de chat 7B sur MT-Bench et les repères alpacaval. Testez ses capacités avec la démo gratuite sur Zephyr Chat.
Image de Zephyr Chat
Accès à Zephyr-7b avec des transformateurs de face étreintes
Ce tutoriel utilise des transformateurs de visage étreintes pour un accès facile. (Si vous rencontrez des problèmes de chargement, consultez le carnet de Kaggle inférence.)
- Installez les bibliothèques: Assurez-vous d'avoir les dernières versions:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- Bibliothèques d'importation:
import torch from transformers import pipeline
- Créer un pipeline: Le
device_map="auto"
utilise plusieurs GPU pour une génération plus rapide.torch.bfloat16
offre un calcul plus rapide et une utilisation réduite de la mémoire (mais avec une précision légèrement inférieure).
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- Générer du texte: L'exemple ci-dessous montre la génération de code python.
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
- Invites système: Personnaliser les réponses avec les invites du système de style Zephyr-7b:
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Fonction de Zephyr-7b sur un ensemble de données personnalisé
Cette section vous guide à travers le réglage fin Zephyr-7B-Beta sur un ensemble de données personnalisé à l'aide des GPU gratuits de Kaggle (environ 2 heures). (Voir le cahier Kaggle à réglage fin pour le dépannage.)
Configuration et préparation de l'environnement
- Installez les bibliothèques:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- Modules d'importation:
import torch from transformers import pipeline
-
Secrets de Kaggle (pour les ordinateurs portables de Kaggle): Récupérer les touches API face et poids et biais.
-
étreindre le visage et les poids et les biais Connexion:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- Définir les noms du modèle et de l'ensemble de données:
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Traitement de l'ensemble de données d'agentInstruct
La fonction format_prompt
adapte l'ensemble de données au style invite de Zephyr-7b.
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Chargement et préparation du modèle
- Modèle de charge avec précision 4 bits: Ceci est crucial pour une formation efficace sur les GPU avec VRAM limité.
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
- Tokenizer de chargement:
# ... (Import statements as in original tutorial) ...
- Ajouter une couche d'adaptateur (PEFT): Cela permet un réglage fin efficace en mettant uniquement à la mise à jour les paramètres dans la couche d'adaptateur.
!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
Formation du modèle
- Arguments de formation: Configurer des hyperparamètres (reportez-vous au tutoriel Fine-Tuning Llama 2 pour plus de détails).
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
- Sft Trainer: Utilisez la bibliothèque TRL de l'étreinte pour créer l'entraîneur.
# ... (format_prompt function and dataset loading as in original tutorial) ...
- Commencer la formation:
# ... (bnb_config and model loading as in original tutorial) ...
Économie et déploiement du modèle affiné
- Enregistrez le modèle:
# ... (tokenizer loading and configuration as in original tutorial) ...
- Poussez pour étreindre Hub Face:
# ... (peft_config and model preparation as in original tutorial) ...
Tester le modèle affiné
Testez les performances du modèle avec diverses invites. Des exemples sont fournis dans le tutoriel d'origine.
Conclusion
Zephyr-7B-Beta présente des capacités impressionnantes. Ce tutoriel fournit un guide complet pour utiliser et affiner ce puissant LLM, même sur des GPU à base de ressources. Considérez le cours des concepts des modèles de grande langue maître (LLMS) pour les connaissances LLM plus profondes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

L'efficacité du modèle d'IA d'une entreprise est désormais un indicateur de performance clé. Depuis le boom de l'IA, l'IA générative a été utilisée pour tout, de la composition des invitations d'anniversaire à l'écriture du code logiciel. Cela a conduit à une prolifération du mod de langue

Aurora lance des services commerciaux autonomes au Texas, marquant une étape importante dans la croissance de l'entreprise. Le cours de l'action d'Aurora a chuté de près de 3% malgré les gains en bourse. Aurora prévoyait à l'origine de lancer le service en avril, mais a finalement retardé l'annonce à mai. La société a été fondée par URMSON et les dirigeants d'Uber ATG et de Tesla Autopilot et l'ont acquis après une tragédie qui a fait cesser les opérations d'Uber ATG. Bien qu'Aurora ne soit pas la première entreprise à obtenir une conduite autonome, il est toujours d'une grande importance d'exploiter un semi-camion de niveau 8 dans les opérations commerciales réelles, principalement en raison de facteurs physiques. Un camion à une vitesse de 70 mph et pesant 80 000 livres a une énergie cinétique de 40 mph

Cette semaine, AI et XR News mettent en évidence les développements clés dans plusieurs secteurs. Le procès antitrust du ministère américain de la Justice contre Google façonne l'avenir de l'IA, avec des remèdes proposés qui ont un impact sur le chrome, les accords de moteur de recherche,

Meta s'est associé à des partenaires tels que NVIDIA, IBM et Dell pour étendre l'intégration de déploiement de niveau d'entreprise de la pile de lama. En termes de sécurité, Meta a lancé de nouveaux outils tels que Llama Guard 4, Llafirewall et Cyberseceval 4, et a lancé le programme Llama Defenders pour améliorer la sécurité de l'IA. En outre, Meta a distribué 1,5 million de dollars de subventions d'impact LLAMA à 10 institutions mondiales, y compris des startups travaillant pour améliorer les services publics, les soins de santé et l'éducation. La nouvelle application Meta Ai propulsée par Llama 4, conçue comme Meta Ai

Joi AI, une entreprise pionnière de l'interaction humaine-AI, a introduit le terme "Ai-Lations" pour décrire ces relations en évolution. Jaime Bronstein, thérapeute relationnelle chez JOI AI, précise que ceux-ci ne sont pas censés remplacer l'homme C humain

Les fraudes en ligne et les attaques de bot posent un défi important pour les entreprises. Les détaillants combattent des bots de thésaurisation, les banques de banques se battaient les prises de contrôle et les plateformes de médias sociaux ont du mal avec les imitateurs. La montée de l'IA exacerbe ce problème, rendez-vous

Les agents de l'IA sont sur le point de révolutionner le marketing, dépassant potentiellement l'impact des changements technologiques antérieurs. Ces agents, représentant une progression importante de l'IA générative, ne traitent pas seulement des informations comme Chatgpt, mais prennent également Actio

L'impact de l'IA sur les décisions cruciales du match NBA 4 Deux matchs pivots du match 4 de la NBA ont présenté le rôle révolutionnaire de l'IA dans la officier. Dans le premier, Nikola Jokic de Denver, à trois points, a conduit à une ruelle de dernière seconde d'Aaron Gordon. Haw de Sony


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

MantisBT
Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

Listes Sec
SecLists est le compagnon ultime du testeur de sécurité. Il s'agit d'une collection de différents types de listes fréquemment utilisées lors des évaluations de sécurité, le tout en un seul endroit. SecLists contribue à rendre les tests de sécurité plus efficaces et productifs en fournissant facilement toutes les listes dont un testeur de sécurité pourrait avoir besoin. Les types de listes incluent les noms d'utilisateur, les mots de passe, les URL, les charges utiles floues, les modèles de données sensibles, les shells Web, etc. Le testeur peut simplement extraire ce référentiel sur une nouvelle machine de test et il aura accès à tous les types de listes dont il a besoin.
