Maison > Article > Périphériques technologiques > Combien coûte l'intelligence artificielle pour discuter avec vous ?
Source de l'image Visual China
China Youth Daily · Yuan Ye, journaliste du China Youth Daily
Chaque fois qu'une intelligence artificielle discute avec vous, l'entreprise derrière elle perd de l'argent.
Le Washington Post a rapporté que les coûts d'exploitation et de maintenance des modèles linguistiques à grande échelle représentés par ChatGPT sont si élevés que les entreprises qui les lancent ne sont pas disposées à fournir la meilleure version au public. Tom Goldstein, professeur d'informatique à l'Université du Maryland, a déclaré : « Les modèles actuellement déployés semblent impressionnants, mais ils ne sont pas les meilleurs. Il estime que si les facteurs de coût ne sont pas du tout pris en compte, l'intelligence artificielle ne le sera pas. » être largement utilisées. Les lacunes critiquées, telles que la tendance à donner des résultats biaisés ou même à mentir, sont évitables.
L'intelligence artificielle nécessite une puissance de calcul intensive, c'est pourquoi OpenAI, le développeur de ChatGPT, n'exécute que le modèle GPT-3.5, le moins puissant, dans sa version gratuite. Toutes les 3 heures, même ceux qui paient 20 $ par mois pour utiliser le modèle premium de GPT-4 ne peuvent envoyer que 25 messages. La raison en est que les coûts d’exploitation sont trop élevés.
En décembre dernier, peu après la sortie de ChatGPT, le PDG d'OpenAI, Sam Altman, a estimé que cela « ne coûterait probablement que quelques centimes par chat ». Bien que cela semble peu coûteux, le coût global reste très élevé étant donné qu’il compte plus de 10 millions d’utilisateurs actifs quotidiens. En février de cette année, un institut de recherche a déclaré que même s'il n'utilisait que GPT-3.5, le coût informatique quotidien de ChatGPT s'élevait toujours à 700 000 dollars américains.
Le Washington Post a déclaré que les problèmes de coûts pourraient également être l'une des raisons pour lesquelles Google n'a pas encore ajouté de chatbots à intelligence artificielle à son moteur de recherche, qui traite des dizaines de milliards de requêtes chaque jour. Dylan Patel, analyste en chef d'une société américaine de recherche industrielle, estime que pour les opérateurs, le coût d'un chat avec ChatGPT peut être 1 000 fois plus cher qu'une recherche Google.
Le coût de l'intelligence artificielle a même alarmé la Maison Blanche. British Reuters a déclaré que dans un rapport récemment publié sur l'intelligence artificielle, l'administration Biden a souligné que le coût de calcul de l'intelligence artificielle générative est un « problème national ». Selon la Maison Blanche, cette technologie augmentera considérablement les besoins informatiques et les impacts environnementaux associés, créant ainsi un besoin urgent de concevoir des systèmes plus durables.
Selon Reuters, comparée à d'autres formes d'apprentissage automatique, l'intelligence artificielle générative s'appuie notamment sur une puissance de calcul éblouissante et des puces informatiques spécialisées que seules les entreprises puissantes peuvent se permettre. En mai, Sam Altman a déclaré lors d'une audience au Sénat américain : « En fait, nous avons une très faible quantité de puces (GPU), donc moins il y a de personnes qui utilisent nos produits, mieux c'est
.Selon Elon Musk lors d'un sommet du Wall Street Journal tenu le 23 mai, les GPU sont plus populaires que les médicaments à ce stade. Récemment, la startup d'intelligence artificielle de Musk a acheté environ 10 000 GPU pour ses propres recherches et projets.
Les nouvelles technologies accrocheuses qui brûlent de l'argent n'ont rien de nouveau dans l'industrie technologique. Le Washington Post a déclaré que la Silicon Valley a pu dominer l’économie Internet en partie parce qu’elle a fourni au monde entier des services gratuits tels que la recherche en ligne, le courrier électronique et les médias sociaux. D’énormes profits ont été tirés de la publicité. Bien que l’industrie de l’IA puisse adopter la même stratégie, les analystes notent que s’appuyer uniquement sur les revenus publicitaires pourrait ne pas rendre rentables les outils d’IA haut de gamme dans un avenir proche.
Les entreprises qui proposent des modèles d'IA aux consommateurs doivent donc équilibrer le désir de gagner des parts de marché avec le casse-tête des pertes financières.
Le Washington Post a souligné que même si l'IA peut rapporter de l'argent, les bénéfices iront probablement aux géants du cloud computing et aux fabricants de puces du matériel nécessaire à l'exécution des modèles. Ce n’est pas un hasard si les entreprises qui développent actuellement des modèles de langage d’intelligence artificielle de premier plan sont soit les plus grands fournisseurs de cloud computing (comme Google et Microsoft), soit entretiennent une étroite coopération avec eux (comme OpenAI).
Les jours de l'accès illimité aux puissants modèles d'intelligence artificielle pour les consommateurs sont peut-être comptés.
Reuters a déclaré que Microsoft avait commencé à essayer d'intégrer des publicités dans les résultats de recherche d'intelligence artificielle. Bien qu'il préfère un modèle d'abonnement payant, Atman d'OpenAI a déclaré lors de l'audience qu'il n'exclurait pas de faire de même. Les deux sociétés affirment croire qu’un jour l’intelligence artificielle pourra être rentable. "Ça vaut tellement, je ne peux pas imaginer... faire sonner la caisse enregistreuse dessus", a déclaré Altman dans une interview en février.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!