Maison  >  Article  >  Périphériques technologiques  >  Google lance une puce IA de cinquième génération : accélérant de 5 fois la vitesse de formation et d'exécution des modèles IA

Google lance une puce IA de cinquième génération : accélérant de 5 fois la vitesse de formation et d'exécution des modèles IA

王林
王林avant
2023-09-15 16:49:05622parcourir

Google a lancé la puce TPU v5e de processeur tenseur personnalisé (TPU) de cinquième génération pour la formation et l'inférence de grands modèles. La nouvelle puce rend cinq fois plus rapide la formation et l’exécution de modèles d’IA. Par rapport à la puce de génération précédente, le TPU v5e améliore les performances d'entraînement de 2 fois par dollar et les performances d'inférence de 2,5 fois par dollar

Google lance une puce IA de cinquième génération : accélérant de 5 fois la vitesse de formation et dexécution des modèles IA

La puce de processeur tenseur personnalisé (TPU) de cinquième génération de Google, TPU v5e, est utilisée pour l'entraînement et l'inférence de grands modèles, ce qui permet d'entraîner et d'exécuter des modèles d'IA jusqu'à 5 fois plus rapidement

Lors de Google Cloud Next, la conférence annuelle Google Cloud à San Francisco, Google a publié une nouvelle puce d'intelligence artificielle - la puce de processeur tenseur personnalisé (TPU) de cinquième génération TPU v5e, utilisée pour la formation et l'inférence de modèles à grande échelle. Par rapport à la puce de génération précédente, le TPU v5e améliore les performances d'entraînement de 2 fois par dollar et les performances d'inférence de 2,5 fois par dollar

Google a conçu une puce TPU dédiée aux réseaux de neurones, qui peut accélérer la formation et l'inférence des modèles d'apprentissage automatique grâce à l'optimisation. Le TPU de première génération a été lancé en 2016 et le TPU à processeur personnalisé de quatrième génération a été lancé en 2021 et sera disponible pour les développeurs en 2022. Cloud TPU est une fonctionnalité des services Google Cloud et convient aux modèles d'apprentissage profond vastes et complexes qui nécessitent de grandes quantités de calculs matriciels, tels que les grands modèles de langage, la modélisation du repliement des protéines et le développement de médicaments. L'utilisation des Cloud TPU peut aider les entreprises à économiser du temps et de l'argent lors de la mise en œuvre de charges de travail d'IA

Google Cloud a lancé TPU v5e, conçu pour les besoins de formation et d'inférence des modèles moyens et grands. Cette version de la puce se concentre sur l'efficacité. Par rapport à la génération précédente de TPU v4, les performances de formation par dollar sont améliorées de 2 fois et les performances d'inférence par dollar sont améliorées de 2,5 fois, tandis que le coût est inférieur de moitié à celui du TPU v4. . Cela permet à davantage d’organisations de former et de déployer des modèles d’IA plus grands et plus complexes sans sacrifier les performances ou la flexibilité. Google Cloud décrit le TPU v5e comme un « superordinateur » prenant en charge l'interconnexion de jusqu'à 256 puces, avec une bande passante totale de plus de 400 To/s, et propose huit configurations de machines virtuelles différentes pour répondre à une variété de grands modèles de langage et de capacités génératives. intelligence artificielle Exigences pour les modèles intelligents. Selon les tests de vitesse, la formation et l'exécution de modèles d'IA sont 5 fois plus rapides avec TPU v5e

Selon le média technologique TechCrunch, Mark Lohmeyer, vice-président et directeur général de Google Cloud Computing and Machine Learning Infrastructure, a déclaré : « Il s'agit du cloud TPU le plus rentable et le plus accessible à ce jour. Lohmeyer Er a souligné que Google Cloud garantit aux utilisateurs. » peuvent faire évoluer leurs clusters TPU jusqu'à des niveaux auparavant inaccessibles, permettant ainsi aux clients d'étendre facilement leurs modèles d'intelligence artificielle au-delà des limites physiques d'un seul cluster TPU. Autrement dit, une seule grande charge de travail d’intelligence artificielle peut s’étendre sur plusieurs clusters TPU physiques et s’adapter à des dizaines de milliers de puces de manière rentable. « En ce qui concerne les GPU cloud et les TPU cloud, nous offrons aux clients beaucoup de choix et de flexibilité pour répondre à la large demande que nous constatons pour les charges de travail d'IA

.

En plus du lancement d'une nouvelle génération de TPU, Google Cloud a également annoncé le lancement le mois prochain des machines virtuelles de la série A3 basées sur le GPU NVIDIA H100, qui seront fournies sous la forme de supercalculateurs GPU pour fournir une puissance de calcul puissante aux grands projets artificiels. modèles de renseignement

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer