Maison > Article > Périphériques technologiques > Pour compenser les lacunes du paramètre 'Alpaca' de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source
BELLE est basé sur Stanford Alpaca et optimisé pour le chinois. Le réglage du modèle utilise uniquement les données produites par ChatGPT (n'inclut aucune autre donnée).
Cela fait presque quatre mois depuis la sortie initiale de ChatGPT. Lorsque GPT-4 est sorti la semaine dernière, ChatGPT a immédiatement lancé la nouvelle version. Mais un secret bien connu est que ni ChatGPT ni GPT-4 ne sont susceptibles d’être open source. En plus de l’énorme investissement en puissance de calcul et en données de formation massives, la communauté des chercheurs se heurte à de nombreux obstacles pour reproduire son processus de mise en œuvre.
Face à l'assaut des grands modèles comme ChatGPT, le remplacement open source est un bon choix. Au début de ce mois, Meta a « open source » une nouvelle grande série de modèles - LLaMA (Large Language Model Meta AI), avec des tailles de paramètres allant de 7 milliards à 65 milliards. Le modèle LLaMA à 13 milliards de paramètres surpasse le GPT-3 à 175 milliards de paramètres « sur la plupart des benchmarks » et peut fonctionner sur un seul GPU V100.
Quelques jours plus tard, Stanford a peaufiné un nouveau modèle Alpaca avec 7 milliards de paramètres basé sur LLaMA 7B. Ils ont utilisé la technologie introduite dans l'article Self-Instruct pour générer 52 000 données d'instructions et ont apporté quelques modifications dans la version préliminaire. évaluation humaine, le modèle Alpaca 7B fonctionne de manière similaire au modèle text-davinci-003 (GPT-3.5) sur l'évaluation des instructions d'auto-instruction.
Mais malheureusement, les tâches de départ d'Alpaca sont toutes en anglais, et les données collectées sont également en anglais, donc le modèle entraîné n'est pas optimisé pour le chinois. Existe-t-il une meilleure façon d’améliorer l’efficacité du modèle de dialogue en chinois ? Ne vous inquiétez pas, le projet présenté ensuite peut très bien résoudre ce problème.
Le grand modèle de dialogue chinois open sourceBELLE (Bloom-Enhanced Large Language model Engine) avec 7 milliards de paramètres est ici. Il est basé sur Alpaca de Stanford, mais avec une optimisation chinoise et quelques modifications du code généré. De plus, le réglage du modèle utilise uniquement les données produites par ChatGPT (ne contient aucune autre donnée).
En termes de données, le projet a open source le code de collecte de données basé sur Alpaca. Sur la base de ce code, environ 1 million de données chinoises ont été générées combinées avec 50 000 données anglaises d'Alpaca, le point de contrôle obtenu du BLOOMZ. La formation du modèle -7B a été téléchargée sur Hugging Face.
Adresse Hugging Face : https://huggingface.co/BelleGroup
L'auteur du projet a déclaré : Ce projet vise à promouvoir le développement de la communauté open source de grand modèle de dialogue chinois.
Adresse du projet : https://github.com/LianjiaTech/BELLE
Le projet contient principalement les quatre parties suivantes :
Data release
1 zh_seed_tasks.jsonl : contient 175 tâches de départ, l'échantillon est le suivant
{"id": "seed_task_20", "name": "horror_movie_opening", "instruction": "Vous devez écrire une scène d'ouverture créative pour un film d'horreur ", "instances": [{"input": "","output": Soleil. Les montagnes ont ensemble, laissant derrière lui une ville sombre. La brise souffle dans les rues vides, envoyant un frisson à tous ceux qui s'aventurent dehors. Soudain, le seul bruit est le léger bruissement des feuilles soufflées par le vent. Un cri à glacer le sang perce le silence, suivi de. le bruit du verre brisé. Une maison s'illumine et on peut voir une silhouette courir vers le centre de la ville. Cela devient clair à mesure que la silhouette se rapproche, j'ai vu que c'était une jeune femme avec du sang sur tout le corps "}. ], "is_classification": false}
2. prompt_cn.txt : Invite utilisée pour générer
3. 0,5 million de données générées
Génération de données
Suivez la méthode d'Alpaca :
pip install -r Requirements.txt.
export OPENAI_API_KEY=YOUR_API_KEY
python generate_instruction.py generate_instruction_following_data
Utilisez l'API de complétion par défaut, modèle text-davinci-003. Si vous souhaitez utiliser l'API Chat et utiliser le modèle gpt-3.5-turbo, vous pouvez le contrôler via les paramètres :
python generate_instruction.py generate_instruction_following_data
--api=chat --model_name=gpt-3.5-turbo
Le Le fichier de sortie est dans Belle.train, qui peut être filtré manuellement avant utilisation.
Model Tuning
Ce projet est basé sur le modèle BLOOMZ-7B1-mt et le modèle de formation Belle.train.json Les paramètres spécifiques sont les suivants :
De plus, le projet adopte également différents. échelles (200 000, 600 000, 1 000 000 et 2 000 000 d'échantillons), et les différentes versions du modèle sont obtenues comme suit :
Exemples d'utilisation du modèle
Limitations et restrictions d'utilisation
Le modèle SFT formé sur la base des données actuelles et du modèle de base présente toujours les problèmes suivants en termes d'effet :
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!