Maison > Article > Périphériques technologiques > L'IA générative atteint un carrefour. Où est la prochaine vague ?
L'IA générative devient de plus en plus populaire, notamment dans le monde des affaires. Il n’y a pas si longtemps, Walmart a annoncé le lancement d’applications d’IA générative destinées à 50 000 employés hors magasin. L'application combine les données de Walmart avec des modèles de langage volumineux (LLM) tiers pour aider les employés à effectuer diverses tâches, telles que devenir des partenaires créatifs et extraire des résumés de documents volumineux.
En raison de la popularité de l'IA générative, la demande de GPU a augmenté et des GPU puissants sont nécessaires pour former des modèles d'apprentissage en profondeur. Selon le Wall Street Journal, la formation de modèles d’IA peut coûter des milliards de dollars en raison des quantités massives de données à traiter et à analyser.
Les nouvelles tendances ont apporté des opportunités commerciales considérables à NVIDIA, et le GPU NVIDIA est devenu une machine à gagner de l'argent. Afin de se procurer des puces Nvidia, les startups et les investisseurs prennent des mesures extraordinaires. La chronique du "New York Times" a déclaré : "Par rapport à l'argent, aux talents en ingénierie, au battage médiatique et même aux bénéfices, les entreprises semblent avoir davantage besoin de GPU cette année
Dans ce possible changement technologique, NVIDIA se situe au sommet de la montagne." À cette époque, Google a conclu une coopération avec NVIDIA pour fournir une assistance technique basée sur les GPU NVIDIA aux clients Google Cloud. L’augmentation actuelle de la demande signifie-t-elle que l’IA générative a atteint son apogée, ou est-ce le début de la prochaine vague ? C’est une question à laquelle tout le monde réfléchit.
Lors de la récente réunion de rapport financier, le PDG de NVIDIA, Jensen Huang, a souligné que l'augmentation de la demande marque le début de l'informatique accélérée, et que ce n'est que l'aube. Huang Renxun a suggéré que les entreprises devraient réaffecter leurs investissements et ne pas se concentrer uniquement sur l'informatique générale, mais accorder davantage d'attention à l'IA générative et à l'informatique accélérée.
L'informatique à usage général fait référence à l'informatique basée sur le CPU, mais NVIDIA estime que le CPU est devenu une infrastructure arriérée et que les développeurs devraient optimiser le GPU car le GPU est plus efficace que le CPU traditionnel. Le GPU peut traiter plusieurs calculs en parallèle en même temps, ce qui le rend particulièrement adapté au deep learning. Les GPU présentent également des avantages uniques lorsqu'ils traitent certains problèmes mathématiques, tels que les tâches d'algèbre linéaire et d'opération matricielle.
Malheureusement, de nombreux logiciels sont uniquement optimisés pour le CPU et ne peuvent pas bénéficier du calcul parallèle GPU. À l’avenir, de nombreuses tâches CPU seront effectuées par des GPU, ce qui constitue une opportunité pour Nvidia, car l’IA générative générera d’énormes quantités de contenu et nécessitera le support du cloud computing.
Les êtres humains et les entreprises sont paresseux. Maintenant que le logiciel a été optimisé pour le CPU, ils ne sont plus disposés à investir des ressources et du temps dans le GPU.
Lorsque le machine learning a fait son apparition, les data scientists étaient trop ambitieux et voulaient l'appliquer à tout. Ils voulaient introduire le machine learning même si des outils plus simples existaient déjà dans certains domaines. Pour être honnête, l’apprentissage automatique ne peut résoudre qu’un très petit nombre de problèmes commerciaux. Bref, le calcul accéléré et le GPU ne conviennent pas à tous les logiciels.
Pour accueillir la prochaine vague, l'IA générative doit percer
Au vu de la situation actuelle, les données de performance de Nvidia sont effectivement accrocheuses, mais Gartner prévient que l'IA générative est au sommet de l'inflation attendue. Certains affirment que le battage médiatique autour de l’IA générative s’est transformé en enthousiasme infondé et en attentes exagérées.
L’engouement pour l’IA générative pourrait bientôt se heurter à un goulot d’étranglement. Les investisseurs en capital-risque de SK Ventures estiment : « Nous sommes maintenant entrés dans la phase longue de la première vague d'IA à grand modèle de langage. La vague a commencé en 2007, lorsque Google a publié un article intitulé « L'attention est tout ce dont vous avez besoin ». -2 ans, tout le monde sera confronté à un goulot d'étranglement "Quels sont les goulots d'étranglement ? Tels que la tendance aux hallucinations, le manque de données de formation dans un domaine restreint, le vieillissement du corpus de formation d'il y a de nombreuses années et d'innombrables autres facteurs. En bref, nous entrons probablement désormais dans la fin de la première vague de l’IA.
Cela signifie-t-il que l’IA générative est sur le point de mourir ? Non, cela signifie simplement que l’IA générative nécessite des avancées technologiques majeures, afin d’améliorer considérablement la productivité et de favoriser une meilleure automatisation. Dans la prochaine vague d’IA générative, de nouveaux modèles, plus d’ouverture et des GPU bon marché omniprésents pourraient être la clé.
À long terme, l’IA générative devrait être brillante car il y a une pénurie de main-d’œuvre et les humains ont besoin d’une meilleure technologie d’automatisation. Si l’on regarde l’histoire, l’IA et l’automatisation semblent être deux catégories technologiques indépendantes, mais l’IA générative a changé cette vision. Mike Knoop, co-fondateur de Workflow, a déclaré : « L'IA et l'automatisation s'effondrent en une seule et même chose. » McKinsey a déclaré dans le rapport : « L'IA générative engendrera la prochaine grande amélioration de la productivité. Goldman Sachs estime que l'IA générative peut augmenter le PIB mondial. » de 7%. (Couteau)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!