Maison  >  Article  >  Périphériques technologiques  >  Le boom de l'intelligence artificielle a provoqué une pénurie de puissance de calcul et Microsoft lance un nouveau plan de location de serveurs

Le boom de l'intelligence artificielle a provoqué une pénurie de puissance de calcul et Microsoft lance un nouveau plan de location de serveurs

WBOY
WBOYavant
2023-04-13 14:49:031050parcourir

La popularité continue de ChatGPT a conduit à une pénurie de puces : il n'y a pas assez de puissance de calcul pour répondre aux besoins informatiques de ChatGPT, ce qui a surchargé les serveurs d'OpenAI. La dernière pénurie de puces à grande échelle a été provoquée par une exploitation folle de monnaies virtuelles. Cependant, à mesure que la demande en matière d’intelligence artificielle générative continue d’augmenter, la pénurie de puissance de calcul pourrait cette fois perdurer pendant un certain temps.

Le boom de l'intelligence artificielle a provoqué une pénurie de puissance de calcul et Microsoft lance un nouveau plan de location de serveurs

Microsoft espère combler cette lacune avec un nouveau produit de machine virtuelle appelé ND H100 v5, qui comprend un grand nombre des derniers GPU H100 de Nvidia, nommés Hopper, pour les applications d'intelligence artificielle générative.

L'idée est de fournir des vitesses de calcul plus élevées aux entreprises travaillant sur l'IA générative, qui peuvent approfondir les données, établir des relations, raisonner et prédire des réponses. L’IA générative en est encore à ses débuts, mais la popularité d’applications comme ChatGPT démontre déjà le potentiel de la technologie.

Mais cette technologie nécessite également une énorme puissance de calcul, et Microsoft l'intègre aux services cloud Azure.

L'offre de machines virtuelles s'adapte à la taille des applications d'IA générative et s'adapte à des milliers de GPU H100 interconnectés via la technologie Quantum-2 InfiniBand du fabricant de puces.

Le prix des machines virtuelles H100 sur Azure n'a pas été immédiatement annoncé. Le prix des machines virtuelles varie en fonction de la configuration, avec une machine virtuelle A100 entièrement chargée avec 96 cœurs de processeur, 900 Go de stockage et huit GPU A100 coûtant près de 20 000 $ par mois.

Lorsque ChatGPT a été lancé pour la première fois l'année dernière, le GPU NVIDIA a été mis à rude épreuve. Ses calculs sont effectués par le supercalculateur OpenAI, construit avec des GPU Nvidia A100.

Mais le serveur a été rapidement submergé par la folle augmentation de la demande de ChatGPT, et les utilisateurs se sont plaints du fait que le serveur ne pouvait pas répondre et traiter les tâches de requête à temps.

Le H100 peut combler l'écart de vitesse nécessaire à l'IA générative, qui est déjà utilisée dans les soins de santé, la robotique et d'autres secteurs. Diverses sociétés de développement cherchent également à combler le dernier kilomètre et à déployer une interface pour rendre l'IA simple et utilisable, comme ChatGPT.

Nvidia et Microsoft construisent déjà un supercalculateur d'intelligence artificielle utilisant le H100. Le GPU est conçu pour fonctionner au mieux avec les applications codées en CUDA (CUDA est le framework de programmation parallèle de Nvidia). Les produits incluent également le serveur d'inférence Triton, qui aidera à déployer le modèle d'intelligence artificielle GPT-3 sur son environnement GPU.

Microsoft a commencé à intégrer pleinement l'intelligence artificielle dans ses produits : une version personnalisée de GPT-3.5, le grand modèle de langage derrière ChatGPT, a été implémentée dans le moteur de recherche Bing. Microsoft adopte une approche itérative de style DevOps (opérations de développement) pour Bing AI, dans laquelle les applications peuvent être rapidement mises à jour en se renseignant sur les utilisateurs au fur et à mesure qu'ils utilisent le modèle. Microsoft 365 Copilot est la suite OFFICE originale avec intelligence artificielle intégrée. Des logiciels familiers tels que WORD, PPT et EXCEL modifieront les méthodes de travail traditionnelles avec de nouvelles fonctionnalités. Et derrière tout cela, elle est indissociable du support de la puissance de calcul.

La nouvelle configuration de base de la machine virtuelle Azure peut interconnecter huit GPU H100 Tensor Core via l'interconnexion NVLink 4.0 propriétaire de NVIDIA. Cette configuration peut être étendue à des GPU supplémentaires via l'interconnexion Quantum-2. Le serveur dispose de processeurs évolutifs Intel Xeon (Sapphire Rapids) de 4e génération, avec transfert de données vers et depuis le GPU via PCIe Gen5.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer