Maison >Périphériques technologiques >IA >Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

Lisa Kudrow
Lisa Kudroworiginal
2025-03-10 10:08:10512parcourir

Le dernier modèle de langue d'Openai, GPT-3.5 Turbo, représente un saut majeur en avant dans les capacités du modèle de grande langue. Construit sur la famille GPT-3 de modèles, GPT-3.5 Turbo peut générer un texte remarquablement humain tout en étant plus abordable et accessible que les versions précédentes. Cependant, la véritable puissance de GPT-3.5 Turbo réside dans sa capacité à être personnalisée grâce à un processus appelé affinage.

Le réglage fin permet aux développeurs d'apporter leurs propres données pour adapter le modèle à des cas d'utilisation spécifiques et augmenter considérablement les performances sur des tâches spécialisées. Avec un réglage fin, le turbo GPT-3.5 a même égalé ou dépassé GPT-4 sur certaines applications étroites.

Ce nouveau niveau de personnalisation débloque le potentiel pour les entreprises et les développeurs de déployer GPT-3.5 Turbo pour créer des applications AI personnalisées et hautement performantes. Alors que le réglage fin devient disponible pour GPT-3.5 Turbo et le GPT-4 encore plus puissant plus tard cette année, nous nous tenons à l'aube d'une nouvelle ère dans Ai.

Pourquoi les modèles de langage affinés?

Le réglage fin est devenu une technique cruciale pour tirer le meilleur parti de modèles de langue importants comme GPT-3.5 Turbo. Nous avons un guide séparé sur le réglage fin GPT-3, par exemple.

Bien que les modèles pré-formés puissent générer un texte remarquablement de type humain hors de la boîte, leurs véritables capacités sont déverrouillées par un réglage fin. Le processus permet aux développeurs de personnaliser le modèle en le formant sur des données spécifiques au domaine, en l'adaptant à des cas d'utilisation spécialisés au-delà de ce que la formation générale peut obtenir. Le réglage fin améliore la pertinence, la précision et les performances du modèle pour les applications de niche.

Personnalisation pour des cas d'utilisation spécifiques

Le réglage fin permet aux développeurs de personnaliser le modèle pour créer des expériences uniques et différenciées, s'adressant à des exigences et des domaines spécifiques. En formant le modèle sur les données spécifiques au domaine, il peut générer des sorties plus pertinentes et précises pour ce créneau. Ce niveau de personnalisation permet aux entreprises de créer des applications sur l'IA sur mesure.

Amélioration de la direction et de la fiabilité

Le réglage fin améliore la capacité du modèle à suivre les instructions et à produire une mise en forme de sortie fiable et cohérente. Grâce à une formation sur les données formatées, le modèle apprend la structure et le style souhaités, améliorant la direction. Il en résulte des sorties plus prévisibles et contrôlables.

Performances améliorées

Le réglage fin peut améliorer considérablement les performances du modèle, permettant même au turbo GPT-3.5 affiné à régler ou dépasser les capacités GPT-4 sur certaines tâches spécialisées. En optimisant le modèle pour un domaine étroit, il obtient des résultats supérieurs dans cet espace de problème de niche par rapport à un modèle généraliste. Le lifting des performances d'un réglage fin est substantiel.

Consultez notre guide sur 12 alternatives open source GPT-4, qui explore certains des outils qui peuvent offrir des performances similaires et nécessitent moins de ressources de calcul pour s'exécuter.

Impact du réglage fin GPT 3.5-turbo

Dans les tests bêta effectués par OpenAI, ils ont observé que les clients qui ont affiné le modèle ont connu des améliorations notables dans ses performances pour diverses applications standard. Voici quelques plats clés:

1. Directabilité améliorée

Grâce à un réglage fin, les entreprises peuvent mieux guider le modèle pour adhérer à certaines directives. Par exemple, si une entreprise veut des réponses succinctes ou a besoin que le modèle réponde toujours dans une langue spécifique, un réglage fin peut aider à y parvenir. Un exemple classique est que les développeurs peuvent modifier le modèle pour répondre systématiquement en allemand chaque fois que vous avez demandé.

2. Réponse cohérente Structuration

L'un des avantages remarquables de la réglage fin est sa capacité à rendre les sorties du modèle plus uniformes. Ceci est particulièrement utile pour les tâches qui nécessitent une structure de réponse particulière, comme les suggestions de code ou la génération d'interactions API. Par exemple, avec un réglage fin, les développeurs peuvent faire confiance au modèle pour transformer les requêtes des utilisateurs en formats JSON de qualité compatibles avec leurs systèmes.

3. Ton personnalisé

Le réglage fin peut être utilisé pour aligner les réponses du modèle plus étroitement avec la voix ou le style unique d'une entreprise. Les entreprises avec une voix de marque distincte peuvent tirer parti de cette fonctionnalité pour s'assurer que le ton du modèle correspond à l'essence de leur marque.

Prérequis pour le réglage fin

Fine-tuning permet de personnaliser un modèle de langue pré-formé comme GPT-3.5 Turbo en poursuivant le processus de formation sur vos propres données. Cela adapte le modèle à votre cas d'utilisation spécifique et améliore considérablement ses performances.

Pour commencer le réglage fin, vous avez d'abord besoin d'accéder à l'API OpenAI. Après avoir inscrit sur le site Web OpenAI, vous pouvez obtenir une clé API qui vous permet d'interagir avec l'API et les modèles.

Ensuite, vous devez préparer un ensemble de données pour le réglage fin. Cela implique de conserver des exemples d'invites de texte et de réponses du modèle souhaitées. Les données doivent correspondre au format pour lequel votre application utilisera le modèle. Le nettoyage et la mise en forme des données dans la structure JSONL requis sont également importants.

La CLI Openai fournit des outils utiles pour valider et prétraiter vos données de formation.

Une fois validé, vous pouvez télécharger les données sur les serveurs ouverts.

Enfin, vous lancez un travail de réglage fin via l'API, en sélectionnant la base gpt-3.5

Turbo Modèle et passant votre fichier de données de formation. Le processus de réglage fin peut prendre des heures ou des jours, selon la taille des données. Vous pouvez surveiller les progrès de la formation à travers l'API.

Comment affiner Openai GPT 3.5-turbo Modèle: un guide étape par étape

OpenAI a récemment publié une interface d'interface utilisateur pour les modèles de langage fin. Dans ce tutoriel, j'utiliserai l'interface utilisateur OpenAI pour créer un modèle GPT affiné. Pour suivre cette partie, vous devez avoir un compte et une clé Openai.

1. Connectez-vous sur plateforme.openai.com

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

2. Préparez vos données

Pour la démonstration, j'ai organisé un petit ensemble de données de réponses de questions, et il est actuellement stocké sous forme de pandas dataframe.

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

juste pour démontrer ce que j'ai fait, j'ai créé 50 questions d'apprentissage automatique et leurs réponses dans le style Shakespeare. Grâce à ce travail fin, je personnalise le style et le ton du modèle GPT3.5-turbo.

Même si ce n'est pas un cas d'utilisation très pratique, car vous pouvez simplement ajouter «Réponse dans le style Shakespeare» dans l'invite, GPT3.5 est certainement conscient de Shakespeare et générera des réponses dans le ton requis.

Pour OpenAI, les données doivent être au format JSONL. JSONL est un format où chaque ligne est un objet JSON valide, séparé par Newlines. J'ai écrit un code simple pour convertir pd.dataframe en jsonl.

import json
import pandas as pd

DEFAULT_SYSTEM_PROMPT = 'You are a teaching assistant for Machine Learning. You should help the user to answer his question.'

def create_dataset(question, answer):
    return {
        "messages": [
            {"role": "system", "content": DEFAULT_SYSTEM_PROMPT},
            {"role": "user", "content": question},
            {"role": "assistant", "content": answer},
        ]
    }

if __name__ == "__main__":
    df = pd.read_csv("path/to/file.csv", encoding='cp1252')
    with open("train.jsonl", "w") as f:
        for _, row in df.iterrows():
            example_str = json.dumps(create_dataset(row["Question"], row["Answer"]))
            f.write(example_str + "\n")

C'est à quoi ressemble mon fichier JSONL:

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

3. Créez le travail de réglage fin

Rendez-vous sur Platform.Openai.com et accédez à Fineding dans le menu supérieur et cliquez sur Créer nouveau.

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

Sélectionnez le modèle de base. À l'heure actuelle, seuls 3 modèles sont disponibles pour le réglage fin (Babbage-002, Davinci-002, GPT-3.5-Turbo-0613).

Ensuite, téléchargez simplement le fichier JSONL, donnez le nom du travail et cliquez sur Créer.

Le travail de réglage peut prendre plusieurs heures, voire des jours, selon la taille de l'ensemble de données. Dans mon exemple, l'ensemble de données n'avait que 5 500 jetons, et il a pris bien plus de 6 heures pour le réglage fin. Le coût de ce travail était insignifiant (& lt; 1 $ = 5 500/1000 x 0,08 $).

Ce tutoriel montre comment vous pouvez utiliser l'interface utilisateur pour affiner les modèles GPT. Si vous souhaitez apprendre à réaliser la même chose à l'aide de l'API, consultez GPT-3 à réglage fin à l'aide de l'API OpenAI et du tutoriel Python de Zoumana Keita sur Datacamp.

4. En utilisant le modèle affiné

Une fois le travail de réglage terminé, vous pouvez désormais utiliser le modèle affiné via l'API ou utiliser le terrain de jeu disponible sur plateforme.openai.com.

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

Notez que sous la liste déroulante du modèle, il y a maintenant un 3,5-turbo personnel disponible pour la sélection. Essayons-le.

Comment affiner GPT 3.5: Déverrouiller le plein potentiel AI & # x27;

Remarquez le ton et le style des réponses.

Si vous souhaitez apprendre à travailler avec le package Openai Python pour avoir des conversations par programmation avec ChatGPT, consultez en utilisant GPT-3.5 et GPT-4 via l'API OpenAI dans le blog Python sur DataCamp.

Sécurité et intimité

OpenAI prend la sécurité au sérieux et a des processus rigoureux avant de publier de nouveaux modèles, y compris les tests, les commentaires d'experts, les techniques pour améliorer le comportement des modèles et les systèmes de surveillance. Ils visent à rendre les systèmes d'IA puissants bénéfiques et à minimiser les risques prévisibles.

Fonction d'adaptation permet de personnaliser des modèles comme GPT-3.5 Turbo tout en préservant des caractéristiques de sécurité importantes. OpenAI applique des interventions à plusieurs niveaux - mesures, changements de modèle, politiques, surveillance - pour atténuer les risques et aligner les modèles.

OpenAI supprime les informations personnelles des données de formation où cela est possible et a des politiques contre la génération de contenu avec des informations de particuliers. Cela minimise les risques de confidentialité.

Pour les cas d'utilisation courants sans données sensibles, les modèles OpenAI peuvent être exploités en toute sécurité. Mais pour les données propriétaires ou réglementées, des options telles que l'obscurcissement des données, les processeurs d'IA privés ou les modèles internes peuvent être préférables.

Coût du réglage fin GPT 3.5-turbo

Il y a trois coûts associés à des réglages fins et en utilisant le modèle GPT 3.5-turbo affiné.

  1. Préparation des données de formation. Cela implique de conserver un ensemble de données d'invites de texte et de réponses souhaitées adaptées à votre cas d'utilisation spécifique. Le coût dépendra du temps et des efforts nécessaires pour trouver et formater les données.
  2. Coût de formation initial. Ceci est chargé par jeton de données de formation. À 0,008 $ pour 1 000 jetons, un ensemble de formation de jetons de 100 000 coûterait 800 $ pour le réglage des amendes initiale.
  3. coûts d'utilisation en cours. Ceux-ci sont chargés par jeton pour les invites d'entrée et les sorties du modèle. À 0,012 $ pour 1 000 jetons d'entrée et 0,016 $ pour 1 000 jetons de sortie, les coûts peuvent s'additionner rapidement en fonction de l'utilisation de l'application.

Voyons un exemple de scénario de coût d'utilisation:

  • Chatbot avec 4 000 invites / réponses de jetons, 1 000 interactions par jour:
    (4 000/1000) Tokens d'entrée x 0,012 $ x 1 000 interactions = 48 $ par jour
    (4 000/1000) Tokens de sortie x 0,016 $ x 1 000 interactions = 64 $ par jour
    total = 112 $ par jour or $ 3,360 $
total = 112 $ par jour or $ 3,360 $


  • API de résumé de texte avec 2 000 entrées de jeton, 500 demandes par jour:
    (2 000/1000) Tokens d'entrée x 0,012 $ x 500 demandes = 12 $ par jour
  • (2 000/1000)

Remarque: Tokens divisé par 1000 car la tarification OpenAI est citée par jeton 1K.

Apprenez à utiliser Chatgpt dans un projet de science des données de bout en bout réel. Consultez un guide pour utiliser les projets de science des données pour savoir comment utiliser le chatppt pour la planification du projet, l'analyse des données, le prétraitement des données, la sélection du modèle, le réglage de l'hyperparamètre, le développement d'une application Web et les déployer sur les espaces.

Conclusion

Alors que nous plongeons dans la frontière des capacités de modèle de grande langue, GPT-3.5 Turbo se démarque non seulement pour sa génération de texte de type humain mais aussi pour le potentiel transformateur déverrouillé par un réglage fin. Ce processus de personnalisation permet aux développeurs de perfectionner les prouesses du modèle pour s'adapter aux applications de niche, obtenant ainsi des résultats supérieurs qui correspondent même ou dépassent ceux de ses successeurs dans des domaines spécialisés.

Les améliorations de la direction, de la structuration de la réponse et de la personnalisation des tons sont évidentes dans les applications affinées pour correspondre aux exigences distinctes, permettant ainsi aux entreprises de provoquer des expériences uniques axées sur l'IA. Cependant, avec une grande puissance, une responsabilité est importante. Il est crucial de comprendre les coûts associés et d'être conscients des considérations de sécurité et de confidentialité lors de la mise en œuvre de modèles générateurs d'IA et de langage.

Gagnez accès à 60 ChatGpt Invite pour les tâches de science des données avec la feuille de triche ChatGpt pour la science des données.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn