Maison > Article > Périphériques technologiques > WizardLM-2, qui est « très proche de GPT-4 », a été retiré en urgence par Microsoft. Quelle est l'histoire intérieure ?
Il y a quelque temps, Microsoft a commis sa propre erreur : il a largement ouvert WizardLM-2, puis l'a retiré proprement peu de temps après.
Informations de version actuellement disponibles pour WizardLM-2, un grand modèle open source « vraiment comparable à GPT-4 » avec des performances améliorées en matière de chat complexe, multilingue, d'inférence et d'agence.
La série comprend trois modèles : WizardLM-2 8x22B, WizardLM-2 70B et WizardLM-2 7B. Parmi eux :
De plus, grâce à l'évaluation des préférences humaines, les capacités de WizardLM-28x22B "ne sont que légèrement en retard par rapport à l'aperçu GPT-4-1106, mais nettement supérieures à celles de CommandRPlus et GPT4-0314
".
Est-ce que cela deviendra une autre étape importante de l'open source comme LLaMa 3 ?
Alors que tout le monde était occupé à télécharger le modèle, l'équipe a soudainement tout retiré : blog, GitHub, HuggingFace ont tous obtenu 404.
Source de l'image : https://wizardlm.github.io/WizardLM2/
L'explication de l'équipe est :
Bonjour à tous les amis de Huggingface ! Désolé, nous avons supprimé le modèle. Cela fait un moment que nous n'avons pas publié de modèle il y a quelques mois, nous ne sommes donc pas familiers avec le nouveau processus de publication : nous avons accidentellement oublié un élément nécessaire dans le processus de publication du modèle : les tests de toxicité. C’est une étape que tous les nouveaux modèles doivent actuellement franchir.
Nous terminons actuellement ce test rapidement et rééditerons notre modèle dès que possible. Ne vous inquiétez pas, merci de votre sollicitude et de votre compréhension.
Mais l'attention et les discussions de la communauté de l'IA sur WizardLM-2 ne se sont pas arrêtées. Il y a plusieurs doutes :
Premièrement, les projets open source supprimés ne sont pas seulement WizardLM-2, l'équipe Tous les travaux de la série Wizard ont disparu, y compris les précédents WizardMath et WizardCoder.
Deuxièmement, certaines personnes se sont demandé pourquoi le blog avait également été supprimé lorsque les poids des modèles étaient supprimés ? S’il manque juste la partie test, il n’est pas nécessaire de la retirer complètement.
L'explication de l'équipe est : « Selon la réglementation en vigueur, quelle est la réglementation spécifique ? Personne ne le sait encore.
Troisièmement, il y a également des spéculations selon lesquelles l'équipe derrière WizardLM a été licenciée et le retrait du projet de la série Wizard a également été forcé.
Cependant, cette spéculation a été démentie par l'équipe :
Source : https://x.com/_Mira___Mira_/status/1783716276944486751
Source photo : https ://x.com/DavidFSWD/status/1783682898786152470
Et maintenant on cherche le nom de l'auteur, et il n'a pas complètement disparu du site officiel de Microsoft :
Source : https://www .microsoft.com/en-us/research/people/qins/
Quatrièmement, certaines personnes pensent que Microsoft a retiré ce modèle open source, d'une part parce que les performances sont trop proches de GPT-4, et d'autre part à cause des problèmes techniques. feuille de route avec OpenAI " Crash".
Quel est l'itinéraire spécifique ? Nous pouvons jeter un œil aux détails techniques de la page du blog originale.
L'équipe a déclaré que grâce à la formation LLM, les données générées par l'homme dans la nature sont de plus en plus épuisées, et que les données soigneusement créées par l'IA et les modèles supervisés par l'IA étape par étape seront le seul moyen d'obtenir une IA plus puissante.
Au cours de la dernière année, l'équipe Microsoft a construit un système de formation synthétique entièrement alimenté par l'intelligence artificielle, comme le montre la figure ci-dessous.
est grossièrement divisé en plusieurs sections :
Prétraitement des données :
Evol Lab :
AI Align AI (AAA) :
Apprentissage :
La dernière chose que je veux dire, c'est que toute spéculation est vaine, attendons avec impatience le retour de WizardLM-2.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!