Maison  >  Article  >  Périphériques technologiques  >  Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 s'est terminée en 2 jours et l'utilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 s'est terminée en 2 jours et l'utilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

WBOY
WBOYavant
2024-03-01 16:01:33716parcourir

Au fur et à mesure que l'analyse technique de Sora se déroule, l'importance de l'infrastructure IA devient de plus en plus importante.

Un nouvel article de Byte et de l'Université de Pékin a attiré l'attention à ce moment-là :

L'article a révélé que le cluster Wanka construit par Byte peut compléter le modèle réduit GPT-3 (175B) en 1,75 jours ) formation .

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Plus précisément, Byte a proposé un système de production appelé MegaScale, qui vise à résoudre les problèmes d'efficacité et de stabilité rencontrés lors de la formation de grands modèles sur le cluster Wanka.

Lors de la formation d'un grand modèle de langage de 175 milliards de paramètres sur 12 288 GPU, MegaScale a atteint une utilisation de la puissance de calcul de 55,2 % (MFU) , soit 1,34 fois celle de NVIDIA Megatron-LM.

Le document a également révélé qu'en septembre 2023, Byte a établi un GPU à architecture Ampere (A100/A800) cluster avec plus de 10 000 cartes et construit actuellement une architecture Hopper à grande échelle (H100/H800) grappe. .

Convient au système de production de cluster Wanka

À l'ère des grands modèles, l'importance du GPU n'a plus besoin d'être développée.

Mais la formation des grands modèles ne peut pas être démarrée directement lorsque le nombre de cartes est plein - lorsque l'échelle du cluster GPU atteint le niveau "10 000", comment parvenir à une formation efficace et stable est un défi en soi. problèmes d'ingénierie.

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Le premier défi : l'efficacité.

La formation d'un grand modèle de langage n'est pas une simple tâche parallèle. Elle nécessite de distribuer le modèle entre plusieurs GPU, et ces GPU nécessitent une communication fréquente pour faire avancer conjointement le processus de formation. Outre la communication, des facteurs tels que l'optimisation des opérateurs, le prétraitement des données et la consommation de mémoire GPU ont tous un impact sur l'utilisation de la puissance de calcul (MFU) , un indicateur qui mesure l'efficacité de la formation.

MFU est le rapport entre le débit réel et le débit maximum théorique.

Le deuxième défi : la stabilité.

Nous savons que la formation de grands modèles de langage prend souvent beaucoup de temps, ce qui signifie également que les échecs et les retards pendant le processus de formation ne sont pas rares.

Le coût d'une panne est élevé, il est donc particulièrement important de savoir comment raccourcir le temps de récupération après panne.

Afin de relever ces défis, les chercheurs de ByteDance ont construit MegaScale et l'ont déployé dans le centre de données de Byte pour prendre en charge la formation de divers grands modèles.

MegaScale est amélioré sur la base de NVIDIA Megatron-LM.

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Les améliorations spécifiques incluent la co-conception d'algorithmes et de composants système, l'optimisation du chevauchement de communication et de calcul, l'optimisation des opérateurs, l'optimisation du pipeline de données et le réglage des performances du réseau, etc. :

  • Optimisation de l'algorithme : les chercheurs ont introduit un bloc transformateur parallélisé, un mécanisme d'attention à fenêtre coulissante (SWA) et un optimiseur LAMB dans l'architecture du modèle pour améliorer l'efficacité de la formation sans sacrifier la convergence du modèle.
  • Chevauchement des communications : Sur la base de l'analyse spécifique des opérations de chaque unité de calcul en parallèle 3D (parallélisme des données, parallélisme des pipelines, parallélisme des tenseurs), les chercheurs ont conçu des stratégies techniques pour réduire efficacement les opérations d'exécution non critiques. paths Le retard provoqué réduit le temps d'itération de chaque tour dans la formation du modèle.
  • Opérateurs efficaces : l'opérateur GEMM a été optimisé et des opérations telles que LayerNorm et GeLU ont été intégrées pour réduire la surcharge liée au lancement de plusieurs cœurs et optimiser les modèles d'accès à la mémoire.
  • Optimisation du pipeline de données : optimisez le prétraitement et le chargement des données et réduisez le temps d'inactivité du GPU grâce au prétraitement asynchrone des données et à l'élimination des chargeurs de données redondants.
  • Initialisation du groupe de communication collective : Optimisation du processus d'initialisation du cadre de communication multi-cartes NVIDIA NCCL en formation distribuée. Sans optimisation, le temps d'initialisation d'un cluster 2048-GPU est de 1047 secondes, qui peut être réduit à moins de 5 secondes après optimisation ; le temps d'initialisation d'un cluster GPU Wanka peut être réduit à moins de 30 secondes.
  • Réglage des performances du réseau : analyse du trafic inter-machines en parallélisme 3D et conception de solutions techniques pour améliorer les performances du réseau, notamment la conception de la topologie du réseau, la réduction des conflits de hachage ECMP, le contrôle de la congestion et les paramètres de délai d'attente de retransmission.
  • Tolérance aux pannes : Dans le cluster Wanka, les pannes logicielles et matérielles sont inévitables. Les chercheurs ont conçu un cadre de formation pour parvenir à une identification automatique des défauts et à une récupération rapide. Plus précisément, cela comprend le développement d'outils de diagnostic pour surveiller les composants et les événements du système, l'optimisation des processus de formation à la sauvegarde à haute fréquence aux points de contrôle, etc.

Le document mentionne que MegaScale peut détecter et réparer automatiquement plus de 90 % des pannes logicielles et matérielles.

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Les résultats expérimentaux montrent que MegaScale a atteint 55,2 % de MFU lors de la formation d'un grand modèle de langage de 175 B sur 12 288 GPU, soit 1,34 fois l'utilisation de la puissance de calcul de Megatrion-LM.

Les résultats de la comparaison MFU de la formation d'un grand modèle de langage 530B sont les suivants :

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

One More Thing

Au moment même où ce document technique déclenchait la discussion, de nouvelles nouvelles sont apparues concernant le produit Sora basé sur les octets :

Capture d'écran Son outil vidéo d'IA similaire à Sora a lancé un test bêta sur invitation uniquement.

Les détails techniques du cluster Byte Wanka sont divulgués : la formation GPT-3 sest terminée en 2 jours et lutilisation de la puissance de calcul a dépassé NVIDIA Megatron-LM

Il semble que les bases soient posées, alors attendez-vous avec impatience les produits grand modèle de Byte ?

Adresse papier : https://arxiv.org/abs/2402.15627

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer