Maison  >  Article  >  Périphériques technologiques  >  Remplacement de l'API GPT-4 ? Les performances sont comparables et le coût est réduit de 98 %. Stanford a proposé FrugalGPT, mais la recherche a suscité la controverse.

Remplacement de l'API GPT-4 ? Les performances sont comparables et le coût est réduit de 98 %. Stanford a proposé FrugalGPT, mais la recherche a suscité la controverse.

WBOY
WBOYavant
2023-06-05 17:59:14566parcourir

Avec le développement des grands modèles de langage (LLM), l'intelligence artificielle est dans une période de changement explosive. Il est bien connu que le LLM peut être utilisé dans des applications telles que les affaires, la science et la finance, c'est pourquoi de plus en plus d'entreprises (OpenAI, AI21, CoHere, etc.) proposent le LLM comme service de base. Bien que les LLM comme GPT-4 aient atteint des performances sans précédent dans des tâches telles que la réponse aux questions, leur nature à haut débit les rend très coûteux en applications.

Par exemple, ChatGPT coûte plus de 700 000 $ par jour pour fonctionner, tandis que l'utilisation de GPT-4 pour prendre en charge le service client peut coûter à une petite entreprise plus de 21 000 $ par mois. Outre le coût monétaire, l’utilisation des plus grands LLM entraîne des impacts environnementaux et énergétiques importants.

De nombreuses entreprises proposent désormais des services LLM via API, et leurs tarifs varient. Le coût d'utilisation de l'API LLM se compose généralement de trois éléments : 1) le coût de l'invite (proportionnel à la longueur de l'invite), 2) le coût de génération (proportionnel à la durée de la génération) et 3) parfois un prix fixe par requête. frais.

Le tableau 1 ci-dessous compare le coût de 12 LLM commerciaux différents de fournisseurs traditionnels, notamment OpenAI, AI21, CoHere et Textsynth. Leurs coûts diffèrent jusqu'à 2 ordres de grandeur : par exemple, l'invite GPT-4 d'OpenAI coûte 30 $ pour 10 millions de jetons, tandis que GPT-J hébergé par Textsynth ne coûte que 0,20 $.

GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

L'équilibre entre coût et précision est un facteur clé dans la prise de décision, en particulier lors de l'adoption d'une nouvelle technologie. Comment utiliser efficacement le LLM est un défi clé pour les praticiens : si la tâche est relativement simple, alors l'agrégation de plusieurs réponses de GPT-J (qui est 30 fois plus petite que GPT-3) peut obtenir des performances similaires à celles de GPT-3, parvenir à un compromis en termes de coûts et d’environnement. Cependant, sur des tâches plus difficiles, les performances de GPT-J peuvent se dégrader considérablement. Par conséquent, de nouvelles approches sont nécessaires pour utiliser le LLM de manière rentable.

Une étude récente a tenté de proposer une solution à ce problème de coût. Les chercheurs ont montré expérimentalement que FrugalGPT peut rivaliser avec les performances du meilleur LLM individuel (comme le GPT-4), avec une réduction des coûts allant jusqu'à 98 %. , ou Améliorer la précision du meilleur LLM individuel de 4 % au même coût. Des chercheurs de l'Université de Stanford ont examiné l'utilisation d'API LLM telles que GPT-4, ChatGPT, J1-Jumbo) et ont découvert que ces modèles ont des prix différents, le coût peut différer de deux ordres de grandeur, en particulier en utilisant LLM sur de grandes quantités de requêtes et le texte peut être plus cher. Sur cette base, cette étude décrit et discute trois stratégies que les utilisateurs peuvent exploiter pour réduire le coût de l'inférence à l'aide de LLM : 1) une adaptation rapide, 2) une approximation LLM et 3) une mise en cascade LLM. De plus, cette étude propose une instance simple et flexible de LLM en cascade, FrugalGPT, qui apprend quelles combinaisons LLM utiliser dans différentes requêtes pour réduire les coûts et améliorer la précision.

Les idées et les résultats présentés dans cette étude jettent les bases d'une utilisation durable et efficace du LLM. Être capable d’adopter des capacités d’IA plus avancées sans augmenter les budgets pourrait favoriser une adoption plus large de la technologie d’IA dans tous les secteurs, donnant ainsi aux entreprises encore plus petites la possibilité de mettre en œuvre des modèles d’IA sophistiqués dans leurs opérations.

GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

Bien sûr, ce n'est qu'un point de vue. Il faudra un certain temps pour révéler quel type d'influence FrugalGPT peut avoir et s'il peut devenir un « changement de jeu dans l'industrie de l'IA ». Après la publication de l'article, cette recherche a également suscité une certaine controverse :

"Le résumé exagère grossièrement le sujet de l'article, et le titre ici est grossièrement trompeur. Ce qu'ils ont fait, c'est concevoir un moyen de réduire le besoin d'une classe de questions couvertes dans l'article. Nombre de appels à des modèles haut de gamme. Il ne s'agit pas d'un remplacement du GPT-4 à un coût de 2 %, ni d'un remplacement du GPT-4 à une précision de 4 %. Il s'agit d'une combinaison de GPT-4 avec des modèles moins chers et une infrastructure de support. Ce qui n'est pas souligné dans le résumé, c'est que cela nécessite la construction d'un modèle personnalisé pour évaluer les résultats, qui est le véritable cœur du mécanisme... Il existe des cas d'utilisation légitimes pour cette méthode, y compris la mise en cache des coûts. résultats. Mais pour la plupart des cas d'utilisation, cela n'est absolument pas pertinent car vous ne disposez pas d'un modèle de notation approprié. Ils n'ont évalué cela que sur trois (petits) ensembles de données et n'ont fourni aucune information sur la fréquence à laquelle FrugalGPT a sélectionné les modèles respectifs. que le modèle plus petit a atteint une précision supérieure à celle du GPT-4, ce qui me rend très sceptique quant à l'article en général. #Comment juger spécifiquement, jetons un coup d'œil au contenu de l'article.

Comment utiliser LLM de manière économique et précise

GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议Le prochain article présente comment utiliser efficacement l'API LLM dans le cadre du budget. Comme le montre la figure 1 (b), cette étude discute de trois stratégies de réduction des coûts, à savoir l'adaptation rapide, l'approximation LLM et la cascade LLM.

Stratégie 1 : adaptation rapide. Le coût des requêtes LLM augmente linéairement avec la taille de l'invite. Par conséquent, une approche raisonnable pour réduire le coût d’utilisation de l’API LLM implique de réduire la taille des invites, un processus que l’étude appelle l’adaptation des invites. La sélection de l'invite est illustrée à la figure 2 (a) : au lieu d'utiliser une invite contenant de nombreux exemples pour démontrer comment effectuer une tâche, il est possible de conserver uniquement un petit sous-ensemble d'exemples dans l'invite. Cela se traduit par des invites plus petites et des coûts inférieurs. Un autre exemple est la concaténation de requêtes (illustré dans la figure 2(b)).

GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

Stratégie 2 : rapprochement LLM. Le concept de l'approximation LLM est très simple : si l'utilisation de l'API LLM est trop coûteuse, elle peut être approchée en utilisant des modèles ou une infrastructure plus abordables. Un exemple de ceci est illustré dans la figure 2(c), où l'idée de base est de stocker la réponse dans un cache local (par exemple une base de données) lors de la soumission d'une requête à l'API LLM. Un autre exemple d'approximation LLM est le réglage fin du modèle, comme le montre la figure 2 (d).

Stratégie 3 : LLM Cascade. Différentes API LLM ont leurs propres forces et faiblesses dans diverses requêtes. Par conséquent, une sélection appropriée du LLM à utiliser peut à la fois réduire les coûts et améliorer les performances. Un exemple de cascade LLM est présenté à la figure 2 (e).

Réduction des coûts et amélioration de la précision

GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议Le chercheur a mené une étude empirique sur la cascade FrugalGPT LLM avec trois objectifs :

#🎜🎜 #

Comprendre ce qui est appris à travers un exemple simple de cascade LLM

Quantifier les économies de coûts réalisées par FrugalGPT en faisant correspondre les performances de la meilleure API LLM individuelle ;

Mesure le compromis entre performance et coût réalisé par FrugalGPT.

La configuration expérimentale est divisée en plusieurs aspects : API LLM (Tableau 1), tâches, ensembles de données (Tableau 2) et instances FrugalGPT.
  • FrugalGPT a été développé en plus de l'API ci-dessus et évalué sur une série d'ensembles de données appartenant à différentes tâches. Parmi eux, HEADLINES est un ensemble de données d'actualité financière. L'objectif est de déterminer la tendance du prix de l'or (à la hausse, à la baisse, neutre ou nulle) en lisant les titres de l'actualité financière, ce qui est particulièrement utile pour filtrer les actualités pertinentes sur le marché financier ; un ensemble de données de documents juridiques, dont le but est de déterminer si une phrase donnée est une « annulation », c'est-à-dire qu'elle annule une affaire juridique antérieure ; COQA est un ensemble de données de compréhension écrite développé dans un environnement conversationnel, que les chercheurs ont adapté comme un ensemble de données de compréhension écrite. tâche de réponse aux requêtes.

    Ils se concentrent sur la méthode en cascade LLM avec une longueur de cascade de 3 car cela simplifie l'espace d'optimisation et de bons résultats ont été montrés. Chaque ensemble de données est divisé de manière aléatoire en un ensemble de formation pour apprendre la cascade LLM et un ensemble de tests pour l'évaluation.

    GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

    Voici un cas d'ensemble de données HEADLINES étude : fixer le budget à 6,50 $, soit un cinquième du coût du GPT-4. Adoptez DistilBERT [SDCW19] pour la régression comme fonction de notation. Il convient de noter que DistilBERT est beaucoup plus petit que tous les LLM considérés ici et est donc moins cher. Comme le montre la figure 3 (a), le FrugalGPT appris appelle séquentiellement GPT-J, J1-L et GPT-4. Pour toute requête donnée, il extrait d’abord une réponse de GPT-J. Si le score de la réponse est supérieur à 0,96, la réponse est acceptée comme réponse finale. Sinon, J1-L sera interrogé. Si le score de réponse de J1-L est supérieur à 0,37, il est accepté comme réponse finale ; sinon, GPT-4 est invoqué pour obtenir la réponse finale ; Fait intéressant, cette approche surpasse GPT-4 sur de nombreuses requêtes. Par exemple, sur la base du titre du Nasdaq « Les données sur le PIB américain sont lamentables, l'or est hors de son plus bas », FrugalGPT a prédit avec précision que les prix allaient baisser, tandis que GPT-4 a fourni une réponse erronée (comme le montre la figure 3(b)).

    Dans l'ensemble, le résultat de FrugalGPT est à la fois une précision améliorée et une réduction des coûts. Comme le montre la figure 3 (c), le coût est réduit de 80 %, tandis que la précision est même supérieure de 1,5 %. # 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 # # # # llm de Diversité

    Pourquoi plusieurs API LLM sont-elles susceptibles de produire de meilleures performances que le meilleur LLM unique ? Cela est essentiellement dû à la diversité des générations : même un LLM à faible coût peut parfois répondre correctement à des requêtes qu'un LLM à coût plus élevé ne peut pas répondre. Pour mesurer cette diversité, les chercheurs utilisent l’amélioration maximale des performances, également connue sous le nom de MPI. Le MPI du LLM A par rapport au LLM B est la probabilité que le LLM A produise une réponse correcte et que le LLM B fournisse une réponse incorrecte. Cette métrique mesure essentiellement l'amélioration maximale des performances pouvant être obtenue en appelant LLM A en même temps que LLM B. GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

    La figure 4 montre le MPI entre chaque paire d'API LLM pour tous les ensembles de données. Sur l'ensemble de données HEADLINES, GPT-C, GPT-J et J1-L améliorent tous les performances de GPT-4 de 6 %. Sur l'ensemble de données COQA, GPT-4 était erroné pour 13 % des points de données, mais GPT-3 a fourni la bonne réponse. Même si les limites supérieures de ces améliorations ne sont pas toujours réalisables, elles démontrent la possibilité de tirer parti de services moins chers pour obtenir de meilleures performances.

    Économie de coûts s

    Les chercheurs ont ensuite examiné si FrugalGPT pouvait réduire les coûts tout en maintenant la précision, et si oui, de combien. Le tableau 3 montre les économies globales de FrugalGPT, allant de 50 % à 98 %. Cela est possible car FrugalGPT peut identifier les requêtes auxquelles des LLM plus petits peuvent répondre avec précision, et appelle donc uniquement les LLM qui sont rentables. Bien que les LLM puissants mais coûteux, tels que GPT-4, ne soient utilisés que pour les requêtes difficiles détectées par FrugalGPT. GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

    GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

    Compromis entre performances et coûts

    Ensuite, les chercheurs ont exploré le compromis entre performances et coûts mis en œuvre par FrugalGPT, comme le montre la figure 5, et ont obtenu plusieurs observations intéressantes. résultats.

    Tout d'abord, le classement des coûts des différentes API LLM n'est pas fixe. De plus, les API LLM plus coûteuses entraînent parfois des performances moins bonnes que leurs homologues moins chères. Ces observations soulignent l’importance d’une sélection appropriée des API LLM, même en l’absence de contraintes budgétaires.

    Ensuite, les chercheurs ont également noté que FrugalGPT était capable d'obtenir un compromis performance-coût fluide sur tous les ensembles de données évalués. Cela offre des options flexibles aux utilisateurs de LLM et a le potentiel d'aider les fournisseurs d'API LLM à économiser de l'énergie et à réduire les émissions de carbone. En fait, FrugalGPT peut simultanément réduire les coûts et améliorer la précision, probablement parce que FrugalGPT intègre les connaissances de plusieurs LLM.

    L'exemple de requête présenté dans la figure 5 explique plus en détail pourquoi FrugalGPT peut améliorer les performances et réduire les coûts en même temps. GPT-4 commet des erreurs sur certaines requêtes, comme le premier exemple de la partie (a), mais certaines API à faible coût fournissent des prédictions correctes. FrugalGPT identifie avec précision ces requêtes et s'appuie entièrement sur des API à faible coût. Par exemple, GPT-4 déduit à tort qu'il n'y a pas de renversement de la déclaration juridique « Il est temps d'harmoniser et de standardiser nos cas dans ce domaine », comme le montre la figure 5(b). Cependant, FrugalGPT accepte les réponses correctes de GPT-J, évite l'utilisation de LLM coûteux et améliore les performances globales. Bien entendu, une seule API LLM n’est pas toujours correcte ; la cascade LLM surmonte ce problème en employant une chaîne d’API LLM. Par exemple, dans le deuxième exemple illustré à la figure 5(a), FrugalGPT découvre que la génération de GPT-J peut être peu fiable et se tourne vers le deuxième LLM de la chaîne, J1-L, pour trouver la bonne réponse. Encore une fois, GPT-4 fournit la mauvaise réponse. FrugalGPT n’est pas parfait et il reste encore beaucoup de marge pour réduire les coûts. Par exemple, dans le troisième exemple de la figure 5 (c), toutes les API LLM de la chaîne donnent la même réponse. Cependant, FrugalGPT ne sait pas si le premier LLM est correct, ce qui nécessite d'interroger tous les LLM de la chaîne. Déterminer comment éviter cela reste une question ouverte.

    GPT-4 API平替?性能媲美同时成本降低98%,斯坦福提出FrugalGPT,研究却惹争议

    Pour plus de détails sur la recherche, veuillez vous référer à l'article original.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer