Maison  >  Article  >  Périphériques technologiques  >  Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

WBOY
WBOYavant
2023-12-17 14:15:35551parcourir

Récemment, le « petit modèle de langage » est soudainement devenu un sujet brûlant

Lundi, la startup française d'IA Mistral, qui vient de finaliser un financement de 415 millions de dollars, a lancé le modèle Mixtral 8x7B.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Bien que ce modèle open source ne soit pas de grande taille et qu'il soit suffisamment petit pour fonctionner sur un ordinateur avec plus de 100 Go de mémoire, il est capable de rivaliser avec GPT-3.5 dans certains tests de référence, il est donc rapidement est devenu populaire parmi les développeurs et a reçu de nombreux éloges.

La raison pour laquelle Mixtral 8x7B est appelé est parce qu'il combine divers modèles plus petits formés pour gérer des tâches spécifiques, améliorant ainsi l'efficacité opérationnelle.

Ce modèle de « mélange expert clairsemé » n'est pas facile à mettre en œuvre. On dit qu'OpenAI a dû abandonner le développement du modèle plus tôt cette année car il ne pouvait pas faire fonctionner correctement le modèle MoE.

Le lendemain, Microsoft sortait une nouvelle version du petit modèle Phi-2.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Phi-2 n'a que 2,7 milliards de paramètres, ce qui est beaucoup plus petit que Mistral et suffit juste pour fonctionner sur un téléphone mobile. En comparaison, GPT-4 a une taille de paramètre allant jusqu'à un billion puissance de calcul, cela garantit que le modèle génère des résultats précis.

Bien qu'il soit difficile de savoir comment Microsoft ou d'autres éditeurs de logiciels utiliseront les petits modèles, l'avantage le plus évident est que cela réduit le coût d'exécution des applications d'IA à grande échelle et élargit considérablement le champ d'application de la technologie d'IA générative.

C'est un événement important

La génération de code Mistral-medium bat complètement GPT-4

Récemment, Mistral-medium a commencé des tests internes

Un blogueur a comparé l'open source Mistral- Le code capacités de génération de support et GPT-4, les résultats montrent que Mistral-medium a des capacités de génération de code plus fortes que GPT-4, mais le coût n'est que de 30 % de celui de GPT-4 !

Le prix total est de : Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Mistral fonctionne efficacement et la qualité du travail effectué est également très élevée

2) Le jeton ne sera pas gaspillé en de longues explications

3) Les suggestions données sont très spécifiques

Tout d'abord, écrivez le code d'optimisation cuda pour générer l'ensemble de données PyTorch des nombres premiers de Fibonacci

Le code généré par Mistral-Medium est sérieux et complet.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Le code généré par GPT-4 est à peine correctMistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Gasper beaucoup de jetons mais ne produire aucune information utile.

Ensuite, GPT-4 ne donne que le code squelette et aucun code associé spécifique. Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

La deuxième question est la suivante : écrivez du code Python efficace pour importer environ 1 milliard de gros fichiers d'accès HTTP Apache dans une base de données SqlLite, puis utilisez-le pour générer des histogrammes d'accès à sales.html et product.html

Mistral Le résultat est très bien. Bien que le fichier journal ne soit pas au format CSV, il est très simple à modifier. GPT-4 est toujours bon.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Auparavant, ce blogueur a testé plusieurs modèles de génération de code, et GPT-4 s'est toujours classé premier.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.À l'heure actuelle, un puissant concurrent, Mistral-medium, est finalement apparu et l'a poussé hors de son trône

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Bien que seulement deux exemples aient été publiés, le blogueur a testé plusieurs questions et les résultats ont été similaires.

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Il a fait une suggestion : étant donné que Mistral-medium offre une meilleure expérience en termes de qualité de génération de code, il devrait être intégré partout dans les assistants de code

Quelqu'un a calculé l'entrée et la sortie pour 1000 jetons. le coût du Mistral-medium s'est avéré directement réduit de 70 % par rapport au GPT-4 !

En effet, économiser 70% des frais de tokens est une grosse affaire. De plus, grâce à des résultats concis, les coûts peuvent être encore réduits

Mistral coopère avec Microsoft pour révolutionner le « modèle de petit langage ». Les capacités de code de taille moyenne de Mistral dépassent GPT-4 et le coût est réduit de 2/3.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer