Maison  >  Article  >  Périphériques technologiques  >  GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

WBOY
WBOYavant
2023-04-15 15:04:031159parcourir

Inconsciemment, les grands modèles + petits échantillons sont devenus l'approche dominante dans le domaine de l'apprentissage de petits échantillons. Dans de nombreux contextes de tâches, une idée courante est d'abord d'étiqueter de petits échantillons de données, puis de pré-entraîner de grands modèles basés sur l'utilisation de petites données. échantillons pour la formation. Bien que, comme nous l'avons vu, les grands modèles aient obtenu des résultats étonnants sur un large éventail de tâches d'apprentissage sur petits échantillons, cela met aussi naturellement certaines des lacunes inhérentes aux grands modèles sous le feu des projecteurs.

L'apprentissage sur petits échantillons attend du modèle qu'il ait la capacité de réaliser un raisonnement indépendant basé sur un petit nombre d'échantillons, c'est-à-dire que le modèle idéal doit maîtriser les idées de résolution de problèmes en résolvant des problèmes, afin de pouvoir tirer des inférences. sur d'autres cas face à de nouveaux problèmes. Cependant, la capacité d'apprentissage idéale et pratique des grands modèles + petits échantillons semble reposer sur la grande quantité d'informations stockées lors de la formation de grands modèles pour mémoriser le processus de résolution d'un problème. Bien qu'il soit extrêmement courageux sur divers ensembles de données, il le fera toujours. échouer. Cela amène des doutes chez les gens. Un étudiant qui étudie de cette manière est-il vraiment un étudiant potentiel ?

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

L'article présenté aujourd'hui par Meta AI applique la méthode d'amélioration de la récupération au domaine de l'apprentissage de petits échantillons d'une nouvelle manière. Il utilise non seulement 64 exemples, mais utilise également 64 exemples dans l'ensemble de données Natural Questions. , et a atteint une précision de 42 %. Il a également réduit le nombre de paramètres de 50 fois (540B—>11B) par rapport au grand modèle PaLM, et présentait d'autres avantages en termes d'interprétabilité, de contrôlabilité et de possibilité de mise à jour. avec des modèles plus grands.

Titre de l'article :Apprentissage en quelques étapes avec récupération de modèles de langage augmentésLien de l'article :https://arxiv.org/pdf/2208.03299.pdf

Récupération améliorée Traçabilité

Au début de l'article, une question a été posée à tout le monde : « Dans le domaine de l'apprentissage de petits échantillons, est-il vraiment nécessaire d'utiliser un grand nombre de paramètres pour stocker des informations ? les uns après les autres grands modèles L'une des raisons pour lesquelles le modèle peut actualiser sans cesse SOTA est que ses énormes paramètres stockent les informations nécessaires au problème. Depuis la naissance de Transformer, les grands modèles sont le paradigme dominant dans le domaine de la PNL. Avec le développement progressif des grands modèles, les « gros » problèmes sont constamment exposés. Il est tout à fait significatif de se poser la question de la nécessité du « grand ». de l'article commence à partir de À partir de cette question, une réponse négative est donnée à cette question et la méthode consiste à récupérer le modèle amélioré.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Amélioration de la récupération de traçabilité. En fait, bien que sa technologie soit principalement utilisée dans des tâches telles que la réponse aux questions de domaine ouvert, la lecture automatique et la génération de texte, l'idée de l'amélioration de la récupération remonte au RNN. l’ère de la PNL. L'inconvénient du modèle RNN, qui ne peut pas résoudre la dépendance à long terme des données, a incité les chercheurs à explorer largement les solutions. Le Transformer, que nous connaissons bien, utilise le mécanisme Attention pour résoudre efficacement le problème de l'incapacité du modèle à se souvenir. ouvrant ainsi la porte à l’ère de la pré-formation des grands modèles.

À cette époque, il existait en fait un autre moyen, le Cached LM. Son idée principale était que, puisque RNN pourrait ne pas être en mesure de s'en souvenir dès qu'il passerait l'examen, autant laisser RNN prendre le large. -book examen en introduisant le mécanisme de cache, les mots prédits lors de la formation sont stockés dans le cache et les informations de la requête et de l'index du cache peuvent être combinées pour terminer la tâche pendant la prédiction, résolvant ainsi les lacunes du modèle RNN. temps.

En conséquence, la technologie d'amélioration de la récupération s'est lancée dans une voie complètement différente des grands modèles qui s'appuient sur les informations de la mémoire des paramètres. Le modèle basé sur l'amélioration de la récupération permet l'introduction de connaissances externes provenant de différentes sources, et ces sources de récupération incluent un corpus de formation, des données externes, des données non supervisées et d'autres options. Le modèle d'amélioration de récupération se compose généralement d'un récupérateur et d'un générateur. Le récupérateur obtient des connaissances pertinentes à partir de sources de récupération externes en fonction de l'interrogation, et le générateur combine l'interrogation avec les connaissances pertinentes récupérées pour effectuer des prédictions de modèle.

En dernière analyse, l'objectif du modèle amélioré par la récupération est de s'attendre à ce que le modèle apprenne non seulement à mémoriser les données, mais aussi à apprendre à trouver les données par lui-même. Cette fonctionnalité présente de grands avantages dans de nombreuses connaissances. tâches intensives, et le modèle amélioré par la récupération a également obtenu un grand succès dans ces domaines, mais on ne sait pas si l'amélioration de la récupération est adaptée à l'apprentissage à petite échelle. En revenant à cet article dans Meta AI, nous avons testé avec succès l'application de l'amélioration de la récupération dans l'apprentissage de petits échantillons, et Atlas a vu le jour.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Structure du modèle

Atlas a deux sous-modèles, un récupérateur et un modèle de langage. Lorsqu'il est confronté à une tâche, Atlas utilise un moteur de recherche pour générer les documents top-k les plus pertinents à partir d'une grande quantité de corpus en fonction de la question d'entrée, puis place ces documents dans le modèle de langage avec la requête de question pour générer le résultat requis. .

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

La stratégie de formation de base du modèle Atlas consiste à former conjointement le retriever et le modèle de langage en utilisant la même fonction de perte. Le récupérateur et le modèle de langage sont tous deux basés sur le réseau Transformer pré-entraîné :

  • Le récupérateur est conçu sur la base de Contriever, est pré-entraîné via des données non supervisées et utilise un encodeur à deux couches. la requête et le document sont codés indépendamment dans le code. Dans le processeur, la similarité entre la requête et le document est obtenue grâce au produit scalaire de la sortie correspondante. Cette conception permet à Atlas d'entraîner le récupérateur sans annotations de documents, réduisant ainsi considérablement les besoins en mémoire.
  • Le modèle de langage est formé sur la base de T5. Différents documents et requêtes sont fusionnés les uns avec les autres et traités indépendamment par l'encodeur. Enfin, le décodeur effectue une attention croisée sur tous les paragraphes récupérés en série pour obtenir le résultat final. . Cette approche Fusion-in-Decoder aide Atlas à s'adapter efficacement à l'augmentation du nombre de documents.

Il est à noter que l'auteur a comparé et testé quatre fonctions de perte et la situation sans entraînement conjoint du retriever et du modèle de langage. Les résultats sont les suivants :

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

On peut voir cela dans. un petit échantillon d'environnement Dans ces conditions, la précision obtenue en utilisant la méthode de formation conjointe est nettement supérieure à celle sans formation conjointe. Par conséquent, l'auteur conclut que cette formation conjointe du retriever et du modèle de langage est la clé de la capacité d'Atlas à obtenir. petit échantillon d’apprentissage.

Résultats expérimentaux

Dans la tâche de compréhension du langage multitâche à grande échelle (MMLU), par rapport à d'autres modèles, Atlas a de meilleures performances que GPT-3, qui a 15 fois le nombre de paramètres d'Atlas , avec seulement 11B paramètres, le taux de précision est très bon. Après l'introduction de l'entraînement multitâche, le taux de précision du test à 5 tirs est même proche de celui de Gopher, soit 25 fois le nombre de paramètres d'Atlas.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Dans les deux données de test de réponse aux questions du domaine ouvert - NaturalQuestions et TriviaQA, les performances d'Atlas et d'autres modèles sur 64 exemples et les performances sur l'ensemble d'entraînement complet sont comparées, comme le montre la figure ci-dessous, Atlas est un nouveau SOTA qui a été réalisé en 64 tirs, atteignant une précision de 84,7 % sur TrivuaQA en utilisant seulement 64 données.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Dans la tâche de vérification des faits (FEVER), Atlas a également obtenu de bien meilleurs résultats sur de petits échantillons que Gopher et ProoFVer, qui ont des dizaines de fois plus de paramètres qu'Atlas dans la tâche à 15 coups. a dépassé Gopher 5,1 %.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Sur KILT, la référence auto-publiée pour les tâches de traitement du langage naturel à forte intensité de connaissances, la précision d'Atlas formé à l'aide de 64 échantillons dans certaines tâches est même proche de la précision obtenue par d'autres modèles utilisant des échantillons complets. En entraînant Atlas avec tous les échantillons, Atlas a actualisé le SOTA sur cinq ensembles de données.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Interprétabilité, contrôlabilité, possibilité de mise à jour

Selon les recherches menées dans cet article, le modèle d'amélioration de la récupération est non seulement plus petit et mieux équilibré, mais possède également des fonctionnalités que d'autres grands modèles n'ont pas en termes d'interprétabilité. La nature de la boîte noire des grands modèles rend difficile pour les chercheurs d'utiliser de grands modèles pour analyser le mécanisme de fonctionnement du modèle. Cependant, le modèle amélioré par la récupération peut extraire directement les documents récupérés, de sorte qu'en analysant les articles récupérés par la récupération, nous. peut obtenir un aperçu du travail de l’Atlas. Meilleure compréhension. Par exemple, l'article révèle que dans le domaine de l'algèbre abstraite, 73 % du corpus du modèle reposait sur Wikipédia, tandis que dans les domaines liés à l'éthique, seulement 3 % des documents extraits par le chercheur provenaient de Wikipédia, ce qui est cohérent avec l'opinion humaine. intuition. Comme le montre le graphique statistique sur le côté gauche de la figure ci-dessous, bien que le modèle préfère utiliser les données CCNet, dans les domaines STEM qui se concentrent davantage sur les formules et le raisonnement, le taux d'utilisation des articles Wikipédia a considérablement augmenté.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Selon le tableau statistique sur le côté droit de la figure ci-dessus, l'auteur a constaté qu'à mesure que le nombre d'articles récupérés contenant des réponses correctes augmente, la précision du modèle continue également d'augmenter lorsque l'article le fait. ne contiennent pas de réponses, elles ne sont correctes qu'à 55 %, et lorsque la réponse a été mentionnée plus de 15 fois, le taux de bonnes réponses atteint 77 %. En outre, lors de l'inspection manuelle des documents récupérés par 50 moteurs de recherche, il a été constaté que 44 % d'entre eux contenaient des informations générales utiles. De toute évidence, ces documents contenant des informations générales sur des questions peuvent offrir aux chercheurs de grandes opportunités d'élargir leur aide à la lecture.

De manière générale, nous avons tendance à penser que les grands modèles présentent un risque de « fuite » des données d'entraînement, c'est-à-dire que parfois les réponses des grands modèles aux questions de test ne sont pas basées sur la capacité d'apprentissage du modèle mais sur la capacité de mémoire du grand modèle, c'est-à-dire que les réponses aux questions du test ont été divulguées dans une grande quantité de corpus appris par le grand modèle. Dans cet article, après que l'auteur a éliminé manuellement les informations du corpus qui auraient pu être divulguées, le la précision du modèle est passée de 56,4 % à 55,8 %, soit une diminution de seulement 0,6 % , on peut voir que la méthode d'amélioration de la récupération peut efficacement éviter le risque de tricherie du modèle.

Enfin, la possibilité de mise à jour est également un avantage unique du modèle d'amélioration de récupération. Le modèle d'amélioration de récupération peut être mis à jour de temps en temps sans recyclage, mais uniquement en mettant à jour ou en remplaçant le corpus sur lequel il s'appuie. En construisant un ensemble de données de séries chronologiques, comme le montre la figure ci-dessous, sans mettre à jour les paramètres de l'Atlas, l'auteur a obtenu une précision de 53,1 % simplement en utilisant le corpus Atlas 2020. Ce qui est intéressant, c'est que même avec un réglage fin à l'aide de l'Atlas 2020. les données T5, T5 n'ont pas non plus très bien fonctionné. L'auteur estime que la raison est en grande partie due au fait que les données utilisées dans la pré-formation de T5 sont des données antérieures à 2020.

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Conclusion

Nous pouvons imaginer qu'il y a trois élèves qui s'appuient uniquement sur la mémorisation par cœur pour résoudre un problème de mathématiques, et l'autre élève s'appuie sur la lecture de livres. Lors de sa rencontre, il ne savait pas comment rechercher les informations les plus appropriées et y répondre une par une. Cependant, le dernier étudiant était talentueux et intelligent. Il pouvait se rendre en toute confiance dans la salle d'examen et donner des conseils simplement. apprendre certaines connaissances à partir de manuels.

Évidemment, l'idéal de l'apprentissage en petit échantillon est de devenir le troisième étudiant, mais la réalité est susceptible de rester au-dessus du premier étudiant. Les grands modèles sont faciles à utiliser, mais « grand » n'est en aucun cas le but ultime du modèle. Pour en revenir à l'intention initiale de l'apprentissage sur petit échantillon, on s'attend à ce que le modèle ait un jugement raisonné et la capacité de tirer des inférences similaires à celles des humains. nous pouvons voir que cet article est d'un point de vue différent. Il serait bon de faire un pas en avant, au moins pour permettre à l'étudiant de ne pas charger autant de connaissances potentiellement redondantes dans sa tête, mais de prendre un manuel et de le faire. voyager léger. Peut-être même permettre aux étudiants de passer des examens à livre ouvert avec le manuel pour une révision constante, et ce sera plus proche de l'intelligence que les étudiants mémorisant par cœur !

GPT3 et Google PaLM complètement explosés ! Le modèle de récupération amélioré Atlas actualise les petites tâches basées sur les connaissances SOTA

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer