recherche
MaisonPériphériques technologiquesIAFine-Tuning Llama 2: un guide étape par étape pour personnaliser le modèle de grande langue

Meta's Llama a déclenché une vague de développement du modèle de grande langue (LLM), visant à rivaliser avec des modèles comme GPT-3.5. La communauté open source a rapidement produit des modèles de plus en plus puissants, mais ces progrès n'étaient pas sans défis. De nombreux LLMS open source avaient des licences restrictives (utilisation de la recherche uniquement), nécessitaient des budgets substantiels pour le réglage des amende et étaient coûteux à déployer.

La nouvelle itération de

LLAMA aborde ces problèmes avec une licence commerciale et de nouvelles méthodes permettant un réglage fin sur les GPU de qualité grand public avec une mémoire limitée. Cela démocratise l'IA, permettant aux organisations encore plus petites de créer des modèles sur mesure.

Ce guide démontre le LLAMA-2 à réglage fin sur Google Colab, en utilisant des techniques efficaces pour surmonter les contraintes de ressources. Nous explorerons les méthodologies qui minimisent l'utilisation de la mémoire et accélèrent la formation.

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model

Image générée par l'auteur à l'aide de DALL-E 3

Fine-tuning Llama-2: un guide étape par étape

Ce didacticiel afflige le modèle LLAMA-2 de 7 milliards de paramètres sur un GPU T4 (disponible sur Google Colab ou Kaggle). Le VRAM 16 Go du T4 nécessite un réglage fin et efficace par les paramètres, en utilisant spécifiquement QLORA (précision 4 bits). Nous utiliserons l'écosystème des étreintes (Transformers, Accélérer, PEFT, TRL, BITSANDBYTES).

1. Configuration:

Installez les bibliothèques nécessaires:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

Modules d'importation:

<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>

2. Sélection du modèle et de l'ensemble de données:

Nous utiliserons NousResearch/Llama-2-7b-chat-hf (un équivalent facilement accessible au LLAMA-2 officiel) comme modèle de base et mlabonne/guanaco-llama2-1k comme ensemble de données de formation plus petit.

<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>

Les images illustrant le modèle de visage étreint et l'ensemble de données sont incluses ici, identiques à l'original.

3. Chargement des données et modèle:

Chargez l'ensemble de données:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>

Configurer la quantification 4 bits à l'aide de Qlora:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>

Chargez le modèle LLAMA-2 avec une quantification 4 bits:

<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>

Chargez le tokenzer:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>

L'image illustrant Qlora est incluse ici, identique à l'original.

4. Configuration de PEFT:

Définir les paramètres PEFT pour un réglage d'adaptation efficace:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>

5. Paramètres de formation:

Définir des hyperparamètres de formation (répertoire de sortie, époques, tailles de lots, taux d'apprentissage, etc.). Les détails sont les mêmes que l'original.

6. Affligeant avec SFT:

Utilisez le SFTTrainer de la bibliothèque TRL pour un réglage fin supervisé:

<code>trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    peft_config=peft_params,
    dataset_text_field="text",
    max_seq_length=None,
    tokenizer=tokenizer,
    args=training_params,
    packing=False,
)

trainer.train()
trainer.model.save_pretrained(new_model)
trainer.tokenizer.save_pretrained(new_model)</code>

Des captures d'écran montrant les progrès de la formation et la sauvegarde du modèle sont incluses ici, identiques à l'original.

7. Évaluation:

Utilisez le pipeline transformers pour tester le modèle affiné. Des exemples sont fournis, identiques à l'original.

8. Visualisation du tensorboard:

Lancez Tensorboard pour surveiller les mesures de formation.

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>

La capture d'écran de Tensorboard est incluse ici, identique à l'original.

Conclusion:

Ce guide met en valeur un amende efficace LLAMA-2 sur le matériel limité. L'utilisation de Qlora et d'autres techniques rend les LLM avancés accessibles à un public plus large. D'autres ressources et des chemins d'apprentissage sont mentionnés à la fin, similaires à l'original, mais sans les appels marketing à l'action.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Un guide complet de l'extrapolationUn guide complet de l'extrapolationApr 15, 2025 am 11:38 AM

Introduction Supposons qu'il y ait un fermier qui observe quotidiennement les progrès des cultures dans plusieurs semaines. Il regarde les taux de croissance et commence à réfléchir à la hauteur de ses plantes de plus en plus dans quelques semaines. De th

La montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiLa montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiApr 15, 2025 am 11:36 AM

L'IA souple - définie comme des systèmes d'IA conçus pour effectuer des tâches spécifiques et étroites en utilisant un raisonnement approximatif, une reconnaissance de motifs et une prise de décision flexible - cherche à imiter la pensée humaine en adoptant l'ambiguïté. Mais qu'est-ce que cela signifie pour les activités

Évolution des cadres de sécurité pour la frontière AIÉvolution des cadres de sécurité pour la frontière AIApr 15, 2025 am 11:34 AM

La réponse est claire - tout comme le cloud computing nécessitait un changement vers des outils de sécurité natifs du cloud, l'IA exige une nouvelle race de solutions de sécurité conçues spécifiquement pour les besoins uniques de l'IA. La montée des leçons de cloud computing et de sécurité apprises Dans

3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!Apr 15, 2025 am 11:33 AM

Entrepreneurs et utilisant l'IA et l'IA génératrice pour améliorer leurs entreprises. Dans le même temps, il est important de se souvenir de l'IA génératrice, comme toutes les technologies, est un amplificateur - ce qui rend le grand grand et le médiocre, pire. Une étude rigoureuse en 2024 o

Nouveau cours court sur les modèles d'intégration par Andrew NgNouveau cours court sur les modèles d'intégration par Andrew NgApr 15, 2025 am 11:32 AM

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?Apr 15, 2025 am 11:31 AM

Modèles de grande langue (LLM) et le problème inévitable des hallucinations Vous avez probablement utilisé des modèles d'IA comme Chatgpt, Claude et Gemini. Ce sont tous des exemples de modèles de grande langue (LLMS), de puissants systèmes d'IA formés sur des ensembles de données de texte massifs pour

Le problème de 60% - comment la recherche AI ​​vide votre traficLe problème de 60% - comment la recherche AI ​​vide votre traficApr 15, 2025 am 11:28 AM

Des recherches récentes ont montré que les aperçus de l'IA peuvent entraîner une baisse énorme de 15 à 64% du trafic organique, basé sur l'industrie et le type de recherche. Ce changement radical fait que les spécialistes du marketing reconsidèrent toute leur stratégie concernant la visibilité numérique. Le nouveau

MIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAMIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAApr 15, 2025 am 11:26 AM

Un récent rapport de l'imagination du Future Center de l'Université d'Elon a interrogé près de 300 experts en technologie mondiale. Le rapport qui en résulte, «Être humain en 2035», a conclu que la plupart concernaient l'adoption d'approfondissement des systèmes d'IA sur T

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Commandes de chat et comment les utiliser
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌

Outils chauds

DVWA

DVWA

Damn Vulnerable Web App (DVWA) est une application Web PHP/MySQL très vulnérable. Ses principaux objectifs sont d'aider les professionnels de la sécurité à tester leurs compétences et leurs outils dans un environnement juridique, d'aider les développeurs Web à mieux comprendre le processus de sécurisation des applications Web et d'aider les enseignants/étudiants à enseigner/apprendre dans un environnement de classe. Application Web sécurité. L'objectif de DVWA est de mettre en pratique certaines des vulnérabilités Web les plus courantes via une interface simple et directe, avec différents degrés de difficulté. Veuillez noter que ce logiciel

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

MantisBT

MantisBT

Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

SublimeText3 version anglaise

SublimeText3 version anglaise

Recommandé : version Win, prend en charge les invites de code !

mPDF

mPDF

mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) ​​et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),