Maison  >  Article  >  Périphériques technologiques  >  L'équipe de You Yang a obtenu de nouveaux résultats lors du AAAI 2023 Outstanding Paper Award, en utilisant un seul V100 pour entraîner le modèle 72 fois plus rapidement.

L'équipe de You Yang a obtenu de nouveaux résultats lors du AAAI 2023 Outstanding Paper Award, en utilisant un seul V100 pour entraîner le modèle 72 fois plus rapidement.

王林
王林avant
2023-05-10 09:04:10983parcourir

Cet article est réimprimé avec l'autorisation d'AI New Media Qubit (ID de compte public : QbitAI). Veuillez contacter la source pour la réimpression.

Tout à l'heure, le Ph.D. de l'UC Berkeley et jeune professeur You Yang, président de l'Université nationale de Singapour, a publié la dernière nouvelle :

a remporté le AAAI 2023Outstanding Paper Award (Distinguished Paper) !

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Les résultats de la recherche ont augmenté la vitesse d'entraînement du modèle de 72 fois en une seule fois.

Même les internautes ont exprimé leur émotion après avoir lu le journal :

De 12 heures à 10 minutes, vache tendre(toi vache)ah !

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Le Dr You Yang a déjà établi le record du monde de vitesse d'entraînement ImageNet et BERT pendant ses études.

Les algorithmes qu'il a conçus sont également largement utilisés par des géants de la technologie tels que Google, Microsoft, Intel et NVIDIA.

Maintenant, il est retourné en Chine pour démarrer une entreprise Luchen TechnologyAprès un an et demi, quel type d'algorithme lui et son équipe ont-ils mis au point pour remporter un tel honneur lors de la plus haute conférence sur l'IA ?

Durée de formation de 12 heures à 10 minutes

Dans cette étude, l'équipe de You Yang a proposé une stratégie d'optimisation CowClip, qui peut accélérer la formation en grands lots de modèles de prédiction CTR.

CTR(taux de clics)Le modèle de prédiction est un algorithme couramment utilisé dans les scénarios de recommandation personnalisés.

Il a généralement besoin d'apprendre les commentaires des utilisateurs (clics, collections, achats, etc.) , et la quantité de données générées en ligne chaque jour est sans précédent.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Il est donc crucial d'accélérer la formation des modèles de prédiction CTR.

De manière générale, la formation par lots est utilisée pour augmenter la vitesse d'entraînement. Cependant, si la taille du lot est trop grande, la précision du modèle sera réduite.

Grâce à une analyse mathématique, l'équipe a prouvé que le taux d'apprentissage des fonctionnalités peu fréquentes ne devrait pas être augmenté lors de l'expansion du lot.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Avec leur CowClip proposé, la taille du lot peut être augmentée facilement et efficacement.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

En testant sur 4 modèles de prédiction CTR et 2 ensembles de données, l'équipe a réussi à augmenter la taille du lot d'origine

128 fois sans entraîner de perte de précision.

Surtout sur DeepFM, CowClip obtient une amélioration de plus de 0,1 % de l'AUC en augmentant la taille du lot de 1K à 128K.

Et sur un seul GPU V100, le temps d'entraînement est réduit de 12 heures d'origine à seulement 10 minutes, et la vitesse d'entraînement est augmentée

72 fois.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Actuellement, le code du projet est open source. L’équipe affirme que l’algorithme convient également à des tâches telles que la PNL.

Présentation de l'équipe

Le premier auteur de cet article est le doctorant de You Yang

Zheng Changwei Il est diplômé de la classe Computer Elite de l'Université de Nanjing avec un baccalauréat et un doctorat de l'Université nationale de Singapour.

Ses axes de recherche incluent l'apprentissage automatique, la vision par ordinateur et le calcul haute performance.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer