Maison  >  Article  >  Périphériques technologiques  >  Les internautes ont exposé la technologie d'intégration utilisée dans le nouveau modèle d'OpenAI

Les internautes ont exposé la technologie d'intégration utilisée dans le nouveau modèle d'OpenAI

王林
王林avant
2024-01-29 09:03:29687parcourir

Il y a quelques jours, OpenAI est arrivé avec une vague de mises à jour majeures, annonçant 5 nouveaux modèles à la fois, dont deux nouveaux modèles d'intégration de texte.

L'intégration est l'utilisation de séquences numériques pour représenter des concepts en langage naturel, code, etc. Ils aident les modèles d'apprentissage automatique et d'autres algorithmes à mieux comprendre les relations entre les contenus et facilitent l'exécution de tâches telles que le regroupement ou la récupération.

Généralement, l'utilisation de modèles d'intégration plus grands (tels que stockés dans la mémoire vectorielle pour la récupération) consomme plus de coûts, de puissance de calcul, de mémoire et de ressources de stockage. Cependant, les deux modèles d'intégration de texte lancés par OpenAI offrent des options différentes. Premièrement, le modèle text-embedding-3-small est un modèle plus petit mais efficace. Il peut être utilisé dans des environnements aux ressources limitées et fonctionne bien lors de la gestion des tâches d'intégration de texte. En revanche, le modèle text-embedding-3-large est plus grand et plus puissant. Ce modèle peut gérer des tâches d'intégration de texte plus complexes et fournir des représentations d'intégration plus précises et détaillées. Cependant, l’utilisation de ce modèle nécessite plus de ressources informatiques et d’espace de stockage. Par conséquent, en fonction des besoins spécifiques et des contraintes de ressources, un modèle approprié peut être sélectionné pour équilibrer la relation entre coût et performance.

Les deux nouveaux modèles d'intégration sont réalisés à l'aide d'une technique de formation qui permet aux développeurs de faire un compromis entre les performances et le coût de l'intégration. Plus précisément, les développeurs peuvent réduire la taille de l'intégration sans perdre ses propriétés de représentation conceptuelle en transmettant l'intégration dans le paramètre API dimensions. Par exemple, sur le benchmark MTEB, text-embedding-3-large peut être raccourci à une taille de 256 mais surpasse toujours l'intégration text-embedding-ada-002 non raccourcie (de taille 1536). De cette manière, les développeurs peuvent choisir un modèle d'intégration approprié en fonction de besoins spécifiques, qui peut non seulement répondre aux exigences de performances, mais également contrôler les coûts.

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

L'application de cette technologie est très flexible. Par exemple, lors de l'utilisation d'un magasin de données vectorielles qui ne prend en charge que les intégrations jusqu'à 1 024 dimensions, un développeur peut sélectionner le meilleur modèle d'intégration text-embedding-3-large et modifier les dimensions d'intégration à partir de 3 072 en spécifiant une valeur de 1 024 pour l'API de dimensions. paramètre raccourci à 1024. Bien qu'une certaine précision puisse être sacrifiée en procédant ainsi, des tailles de vecteurs plus petites peuvent être obtenues.

La méthode « d'intégration raccourcie » utilisée par OpenAI a ensuite attiré l'attention des chercheurs.

Il a été constaté que cette méthode est la même que la méthode « Matryoshka Representation Learning » proposée dans un article de mai 2022.

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

Derrière la nouvelle mise à jour du modèle d'intégration d'OpenAI se cache une technique de représentation d'intégration intéressante proposée par @adityakusupati et al.

Et Aditya Kusupati, l'un des auteurs de MRL, a également déclaré : "OpenAI utilise MRL par défaut dans l'API intégrée v3 pour la récupération et RAG ! D'autres modèles et services devraient bientôt rattraper leur retard

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

." Alors MRL, c'est quoi exactement ? Comment est l'effet ? Tout est dans le document 2022 ci-dessous.

MRL Paper Introduction

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

  • Titre de l'article : Matryoshka Representation Learning
  • Lien de l'article : https://arxiv.org/pdf/2205.13147.pdf

La question posée par les chercheurs est la suivante : une méthode de représentation flexible peut-elle être conçue pour s'adapter à plusieurs tâches en aval avec différentes ressources informatiques ?

MRL apprend les représentations de différentes capacités dans le même vecteur de haute dimension en optimisant explicitement les vecteurs de basse dimension O (log (d)) de manière imbriquée, d'où le nom Matryoshka. MRL peut être adapté à n’importe quel pipeline de représentation existant et peut être facilement étendu à de nombreuses tâches standard en vision par ordinateur et en traitement du langage naturel.

La figure 1 montre l'idée de base de MRL et le paramètre de déploiement adaptatif de la représentation Matriochka apprise :

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

La première m-dimensions (m∈[d]) de la représentation Matriochka est une information- riche vecteur de faible dimension, aucun coût de formation supplémentaire n'est requis et sa précision n'est pas inférieure à celle de la méthode de représentation à m dimensions entraînée indépendamment. Le contenu informatif des représentations Matriochka augmente avec l'augmentation des dimensions, formant une représentation grossière à fine sans nécessiter une formation approfondie ni une surcharge de déploiement supplémentaire. MRL offre la flexibilité et la multi-fidélité requises pour caractériser les vecteurs, garantissant un compromis presque optimal entre précision et effort de calcul. Grâce à ces avantages, MRL peut être déployé de manière adaptative en fonction de la précision et des contraintes informatiques.

Dans ce travail, les chercheurs se concentrent sur deux éléments clés des systèmes de ML du monde réel : la classification et la récupération à grande échelle.

Pour la classification, les chercheurs ont utilisé des cascades adaptatives et des représentations de taille variable produites par des modèles entraînés par MRL, réduisant ainsi considérablement la dimension intégrée moyenne requise pour atteindre une précision spécifique. Par exemple, sur ImageNet-1K, la classification adaptative MRL + entraîne une réduction de la taille de la représentation jusqu'à 14x avec la même précision que la ligne de base.

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

De même, les chercheurs ont également utilisé le MRL dans des systèmes de récupération adaptatifs. Étant donné une requête, les premières dimensions de l'intégration de la requête sont utilisées pour filtrer les candidats à la récupération, puis successivement d'autres dimensions sont utilisées pour réorganiser l'ensemble de récupération. Une mise en œuvre simple de cette approche atteint 128 fois la vitesse théorique (en FLOPS) et 14 fois le temps d'horloge murale par rapport à un seul système de récupération utilisant des vecteurs d'intégration standard. Il est important de noter que la précision de récupération de MRL est comparable à la précision de ; une seule récupération (Section 4.3.1).

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

Enfin, puisque MRL apprend explicitement les vecteurs de représentation de grossier à fin, de manière intuitive, il devrait partager davantage d'informations sémantiques sur différentes dimensions (Figure 5). Cela se reflète dans les paramètres d'apprentissage continu à longue traîne, qui peuvent améliorer la précision jusqu'à 2 % tout en étant aussi robustes que les intégrations d'origine. De plus, en raison de la nature grossière à fine du MRL, il peut également être utilisé comme méthode pour analyser la facilité de classification des instances et les goulots d'étranglement des informations.

Les internautes ont exposé la technologie dintégration utilisée dans le nouveau modèle dOpenAI

Pour plus de détails sur la recherche, veuillez vous référer au texte original de l'article.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer