Maison  >  Article  >  Périphériques technologiques  >  Défiez NVIDIA ! AMD lance une puce IA capable d'exécuter des modèles plus grands et d'écrire de la poésie

Défiez NVIDIA ! AMD lance une puce IA capable d'exécuter des modèles plus grands et d'écrire de la poésie

WBOY
WBOYavant
2023-06-15 11:47:45547parcourir

挑战英伟达!AMD推出能运行更大模型的AI芯片 也能写诗

L'acteur numéro deux du marché de la puissance de calcul de l'IA et fabricant de puces AMD a lancé une nouvelle série de puces GPU MI300 pour intelligence artificielle pour concurrencer Nvidia sur le marché de la puissance de calcul de l'intelligence artificielle.

Tôt le matin du 14 juin, heure de Pékin, AMD a organisé comme prévu la "Première du centre de données AMD et de la technologie d'intelligence artificielle" et a lancé la série de processeurs AI MI300 lors de la réunion. Le MI300X, spécialement optimisé pour les modèles linguistiques étendus, sera livré à un groupe sélectionné de clients plus tard cette année.

Le PDG d'AMD, Su Zifeng, a présenté pour la première fois le MI300A, qui est le premier accélérateur de processeur accéléré (APU) au monde pour l'IA et le calcul haute performance (HPC). Il existe 146 milliards de transistors répartis sur 13 chipsets. Par rapport à la génération précédente du MI250, les performances du MI300 sont huit fois supérieures et l'efficacité est cinq fois supérieure.

Par la suite, Su Zifeng a annoncé le produit le plus parlé de cette conférence, le MI300X, qui est une version optimisée pour les grands modèles de langage.

"J'aime cette puce", a déclaré Su Zifeng. La puce MI300X et son architecture CDNA sont conçues pour les grands modèles de langage et d'autres modèles d'intelligence artificielle de pointe.

Les grands modèles de langage pour les applications d'IA générative utilisent beaucoup de mémoire car ils exécutent de plus en plus de calculs. AMD a présenté le MI300X exécutant un modèle Falcon de 40 milliards de paramètres. Le modèle GPT-3 d’OpenAI comporte 175 milliards de paramètres.

Elle a également utilisé le grand modèle de Hugging Face basé sur le MI300X pour écrire un poème sur San Francisco, où s'est tenu l'événement.

Su Zifeng a déclaré que la densité HBM (mémoire à bande passante élevée) fournie par le MI300X est 2,4 fois supérieure à celle du NVIDIA H100 et que la bande passante HBM est 1,6 fois supérieure à celle des produits concurrents. Cela signifie qu'AMD peut exécuter des modèles plus grands que le Nvidia H100.

"La taille des modèles devient de plus en plus grande et vous avez en fait besoin de plusieurs GPU pour exécuter les derniers grands modèles de langage", a souligné Su Zifeng, affirmant qu'avec l'augmentation de la mémoire sur les puces AMD, les développeurs n'en auront pas besoin d'autant. GPU , qui peuvent réduire les coûts pour les utilisateurs.

AMD a également annoncé le lancement d'une architecture Infinity intégrant 8 accélérateurs M1300X dans un seul système. Des systèmes similaires sont développés par Nvidia et Google, qui combinent huit GPU ou plus dans un boîtier pour les applications d'intelligence artificielle.

Une bonne chips n'est pas seulement le produit lui-même, mais a également besoin d'un bon écosystème. L'une des raisons pour lesquelles les développeurs d'IA ont toujours privilégié les puces Nvidia est qu'elles disposent d'un progiciel bien développé appelé CUDA qui leur donne accès aux fonctionnalités matérielles de base de la puce.

Afin de comparer le CUDA de NVIDIA, AMD a lancé son propre logiciel de puce "ROCm" pour créer son propre écosystème logiciel.

Su Zifeng a également déclaré aux investisseurs et aux analystes que l'intelligence artificielle est « l'opportunité de croissance à long terme la plus importante et la plus stratégique de l'entreprise ». « Nous pensons que l'accélérateur (marché) de l'intelligence artificielle des centres de données connaîtra une croissance de plus de 50 % ». taux de croissance annuel composé, passant d'environ 30 milliards de dollars américains cette année à plus de 150 milliards de dollars américains en 2027. »

Les grands modèles de langage tels que ChatGPT nécessitent les GPU les plus performants pour l'informatique. De nos jours, NVIDIA a un avantage absolu sur ce marché, avec 80 % du marché, tandis qu'AMD est considéré comme un concurrent sérieux.

Bien qu'AMD n'ait pas divulgué le prix, cette décision pourrait exercer une pression sur les prix des GPU Nvidia. Par exemple, le prix du H100 de ce dernier peut atteindre plus de 30 000 dollars américains. La baisse des prix des GPU pourrait contribuer à réduire le coût élevé de génération d’applications d’IA.

Cependant, de nombreux produits AMD présents à cette conférence étaient dans une position de « leader » en termes de performances. Cependant, le marché des capitaux n'a pas fait grimper le cours de l'action AMD, qui a plutôt clôturé en baisse de 3,61 %, tandis que son homologue Nvidia. a clôturé en hausse de 3,90 % et sa valeur marchande a clôturé pour la première fois au-dessus de la barre des 1 000 milliards de dollars.

【Source : Le Papier】

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer