Maison  >  Article  >  Périphériques technologiques  >  Hou Zhenyu a annoncé que Baidu avait lancé une variété de produits cloud natifs d'IA et s'engageait à remodeler la technologie des grands modèles dans le cloud computing.

Hou Zhenyu a annoncé que Baidu avait lancé une variété de produits cloud natifs d'IA et s'engageait à remodeler la technologie des grands modèles dans le cloud computing.

WBOY
WBOYavant
2024-01-15 21:48:061143parcourir

Hou Zhenyu a annoncé que Baidu avait lancé une variété de produits cloud natifs dIA et sengageait à remodeler la technologie des grands modèles dans le cloud computing.

Lors de la Baidu Cloud Intelligence Conference 2023·Intelligent Computing Conference, Baidu a lancé de nouveaux produits tels que la plate-forme informatique hétérogène d'IA "Baige 3.0", la plate-forme de réseau informatique intelligent et la base de données cloud native auto-développée GaiaDB 4.0 en même temps

Parmi eux, Baige 3.0 a réalisé une optimisation et des mises à niveau spéciales complètes pour les applications natives d'IA ainsi que la formation et l'inférence de grands modèles. Il prend en charge le calcul en cluster d'IA à très grande échelle de niveau Wanka ; par rapport à l'infrastructure informatique intelligente auto-construite, en termes de formation de modèles et d'inférence, le débit maximum est augmenté de 30 % et 60 % respectivement en termes d'utilisation des ressources ; Baige 3.0 peut atteindre un taux de temps de formation effectif de cluster ultra-élevé allant jusqu'à 98 % et un taux d'utilisation efficace de la bande passante réseau de 95 %, libérant ainsi pleinement la puissance de calcul effective du cluster

Afin de résoudre le problème de l'équilibre entre l'offre et la demande de puissance de calcul intelligente à l'ère native de l'IA, la plate-forme de réseau informatique intelligent prend en charge l'accès mondial aux nœuds informatiques intelligents tels que les centres de calcul intelligents, les centres de calcul intensif et les nœuds de périphérie construits par Baidu et tiers. En connectant des ressources informatiques dispersées et hétérogènes, un pool de ressources de réseau informatique unifié est formé. Dans le même temps, Baidu utilise l'algorithme avancé de planification de la puissance de calcul développé indépendamment par Baidu pour analyser intelligemment l'état, les performances, l'utilisation et d'autres indicateurs de diverses ressources de puissance de calcul, et effectuer une planification unifiée. Cela peut améliorer efficacement le taux d'utilisation des ressources de l'industrie informatique intelligente

GaiaDB 4.0 est une base de données cloud native qui résout le problème des goulots d'étranglement informatiques sur une seule machine en améliorant les capacités de requêtes parallèles. Il implémente des requêtes parallèles multicœurs inter-machines, améliorant les performances de plus de 10 fois dans des scénarios commerciaux de charge mixte et d'analyse en temps réel

Hou Zhenyu, vice-président du groupe Baidu, a souligné qu'à l'ère de l'IA native, le système d'infrastructure pour les grands modèles doit être entièrement reconstruit afin de jeter une base solide pour la construction d'un écosystème natif d'IA prospère.

Hou Zhenyu a déclaré : « Le cloud computing de reconstruction de grands modèles se reflète principalement à trois niveaux : le cloud natif de l'IA changera le modèle du cloud computing, le modèle en tant que service (MaaS) deviendra un nouveau service de base et les applications natives de l'IA donneront naissance à à un nouveau paradigme de recherche et développement »

.

En termes de puissance de calcul, effectuez des calculs plus intelligents

Dans la couche d'infrastructure cloud, dans le passé, des applications Internet aux applications Internet mobiles, la couche inférieure était basée sur des puces informatiques CPU. Cependant, à mesure que la demande de GPU ou de calcul hétérogène dans les applications d'intelligence artificielle a considérablement augmenté, la puissance de calcul sous-jacente sur le marché du cloud a commencé à migrer vers le GPU

Au troisième trimestre 2023, les revenus de NVIDIA ont dépassé ceux d'Intel, et la dernière valeur marchande de NVIDIA a dépassé les 1 000 milliards de dollars d'Intel. À l’avenir, la croissance du GPU dépassera de loin celle du CPU. Dans le cadre de cette tendance, nous devons reconstruire complètement le système d'infrastructure de cloud computing pour les grands modèles afin de prendre en charge la mise en œuvre de systèmes d'applications natifs d'IA

Plus précisément, la reconstruction complète du cloud computing se reflétera dans trois domaines, à savoir la mise à niveau complète de l'infrastructure informatique intelligente orientée modèle, de l'infrastructure de données orientée données et de l'infrastructure cloud orientée applications, afin que l'informatique devienne plus intelligente

Au niveau de la couche modèle, les grands modèles deviennent de plus en plus génériques, c'est-à-dire Model as a Service (MaaS)

MaaS abaissera considérablement le seuil de mise en œuvre d'Al et permettra d'obtenir de véritables avantages inclusifs pour Al. La nouvelle infrastructure informatique sur laquelle elle s'appuie bouleversera également davantage la structure existante du marché du cloud computing au niveau inférieur.

Selon l'expérience pratique de Baidu Smart Cloud, au cours des 4 derniers mois, depuis l'ouverture complète de Wenxinyiyan le 31 août, l'API sur la plate-forme grand modèle Baidu Smart Cloud Qianfan (plateforme MaaS lancée par Baidu Smart Cloud) Les appels quotidiens ont augmenté 10 fois . Les clients proviennent principalement de divers secteurs tels que l'Internet, l'éducation, le commerce électronique, le marketing, la téléphonie mobile et l'automobile. On voit clairement qu'au cours des six derniers mois, de nombreuses entreprises ont vraiment commencé à utiliser largement les grands modèles

Au niveau de la couche application, la manière de développer des applications a complètement changé

Les capacités uniques de compréhension, de génération, de logique et de mémoire de modèles à grande échelle mèneront à un nouveau paradigme dans le développement d'applications natives, et l'ensemble de la pile technologique d'application, du flux de données et du flux commercial subira des changements

Dans le passé, le développement d'applications basées sur le processeur était principalement motivé par la logique métier, tandis que la recherche et le développement traditionnels en matière d'intelligence artificielle nécessitaient respectivement d'obtenir des données pour chaque scénario indépendant et de former le modèle à partir de zéro. Désormais, les applications natives d’intelligence artificielle s’appuient principalement sur de puissantes capacités de grands modèles et un développement basé sur les données. Les entreprises peuvent utiliser directement les données de scène pour affiner le grand modèle de base, générer un grand modèle dédié et utiliser les capacités du modèle pour concevoir des applications d'intelligence artificielle natives sans recycler le grand modèle. À mesure que l'activité de l'entreprise se développe, des données de scène plus compétitives s'accumulent, améliorant ainsi les effets des modèles et des applications, formant ainsi un cycle vertueux axé sur les données

Plus précisément, le nouveau paradigme du développement d'applications natives d'IA pilotées par modèles à grande échelle montre plusieurs nouveaux changements :

La première est la "nouvelle scène". Le grand modèle de langage génératif a démontré des capacités au-delà des attentes dans de multiples dimensions telles que la compréhension, la génération, le raisonnement et la mémoire, provoquant l'émergence de l'intelligence, qui a donné naissance à de nombreuses nouvelles applications de scénarios commerciaux pouvant être mises en œuvre, telles que assistants personnels, téléphones intelligents, etc. Création de rédaction, GBI (analyse commerciale intelligente), assistant de codage, etc.

La seconde est la « nouvelle architecture ». Grand Modèle Plus précisément, dans le processus de mise en œuvre de ces nouveaux scénarios, de nombreuses nouvelles architectures système ont également été produites, telles que l'amélioration de la récupération pour générer du RAG, un agent intelligent, etc.

Le troisième est la « nouvelle écologie du développement ». Avec les grands modèles comme noyau, de nouveaux outils sont également apparus dans la couche d'outils de développement, notamment l'outil d'orchestration LangChain, l'outil de développement d'applications IA PromptFlow, le framework de données Llamalndex, etc.

Supporté par des données et des algorithmes. En termes de grands modèles, nous devons créer une puissante bibliothèque de modèles d'apprentissage en profondeur et fournir une variété de modèles d'application natifs pour répondre aux besoins de différents scénarios. En termes de puissance de calcul intelligente, nous devons renforcer les capacités de calcul des processeurs et des GPU et fournir des ressources informatiques efficaces pour prendre en charge les tâches informatiques complexes des applications natives de A. En termes de données, nous devons collecter une grande quantité de données d'application natives, effectuer une exploration et une analyse de données et fournir des services personnalisés précis. En termes d'algorithmes, nous devons développer des algorithmes avancés d'apprentissage automatique pour améliorer le niveau d'intelligence des applications natives de A. Ce n'est que grâce à ces soutiens que nous pourrons construire un écosystème d'applications natives vraiment prospère

Les trois éléments du nouveau paradigme de développement d’applications natives d’IA sont interdépendants. Les grands modèles sont au cœur des applications natives d’IA, et l’informatique intelligente leur fournit un support solide. Le nouveau paradigme de R&D aide les développeurs à développer efficacement des applications basées sur les capacités des grands modèles. Le volant de données est une condition nécessaire au succès des applications natives d'IA, permettant une itération rapide des capacités de grands modèles pour améliorer continuellement l'expérience produit

Hou Zhenyu a déclaré : « Je crois qu'en 2024, des applications natives d'IA vraiment brillantes verront le jour

.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer