Maison > Article > Périphériques technologiques > Où ira ChatGPT à partir de là ? Nouveau travail de LeCun : examen complet du « modèle de langage amélioré » de nouvelle génération
ChatGPT a allumé le feu des modèles linguistiques, et les praticiens de la PNL réfléchissent et résument les futures orientations de recherche.
Yann LeCun, récent lauréat du prix Turing, a participé à la rédaction d'une revue sur les "Modèles de langage améliorés", a passé en revue le travail de combinaison de modèles de langage avec des compétences de raisonnement et la capacité d'utiliser des outils, et a conclu Conclusion,Ce nouveau L'orientation de la recherche a le potentiel de résoudre les limites des modèles linguistiques traditionnels, telles que les problèmes d'interprétabilité, de cohérence et d'évolutivité. Dans les modèles de langage améliorés, le raisonnement signifie décomposer des tâches complexes en sous-tâches plus simples, des outils incluant l'appel de modules externes (tels que comme interprètes de code, calculatrices, etc.), LM peut exploiter ces améliorations seules ou en combinaison via des heuristiques ou via un apprentissage par démonstration.
Tout en suivant l'objectif standard de prédiction des jetons manquants, le LM amélioré peut utiliser divers modules externes qui peuvent être non paramétriques pour étendre les capacités de traitement du contexte. Il ne se limite pas au paradigme de modélisation de langage pur et peut être qualifié de langage amélioré. . Modèles (ALM, modèles de langage augmenté).
Les cibles de prédiction de jetons manquantes permettent à ALM d'apprendre à raisonner, à utiliser des outils et même à agir (agir), tout en étant capable d'effectuer des tâches standard en langage naturel, surpassant même la plupart des LM conventionnels sur plusieurs ensembles de données de référence. Modèles linguistiques améliorés
Les modèles linguistiques à grande échelle (LLM) ont entraîné d'énormes progrès dans le traitement du langage naturel et sont progressivement devenus le noyau technique de produits utilisés par des millions d'utilisateurs, notamment l'assistant de codage Copilot, le moteur de recherche Google et le ChatGPT récemment publié.
La mémorisation combinée aux capacités de compositionnalité permet à LLM d'effectuer diverses tâches telles que la compréhension du langage ou la génération de texte conditionnel et inconditionnel à des niveaux de performances sans précédent, ouvrant ainsi une voie pratique à un plus large éventail d'interactions homme-machine.
Cependant, le développement actuel du LLM est encore soumis à de nombreuses restrictions, entravant son déploiement dans un plus large éventail de scénarios d'application.
De plus, bon nombre des capacités révolutionnaires des LLM semblent émerger à grande échelle, mesurée par le nombre de paramètres pouvant être entraînés, et des chercheurs précédents ont démontré qu'une fois qu'un modèle atteint une certaine échelle, les LLM sont capables de réaliser de GRANDS- tâches de banc grâce à des invites en quelques coups.
Bien que des efforts aient été récemment déployés pour former certains LM plus petits tout en conservant certaines des capacités des grands modèles, l'échelle et les exigences en matière de données des LLM actuels ne sont pas pratiques pour la formation et la maintenance : les grands modèles L'apprentissage continu reste une question de recherche ouverte.
Les méta-chercheurs pensent que ces problèmes proviennent d'un défaut fondamental des LLM : leur processus de formation consiste à donner un modèle de paramètres et un contexte limité (généralement n mots avant et après), puis à effectuer une modélisation statistique du langage.
Bien que la taille du contexte n ait augmenté ces dernières années en raison du développement des logiciels et du matériel, la plupart des modèles utilisent encore des tailles de contexte relativement petites, donc la taille énorme du modèle est une nécessité pour stocker des connaissances qui n'apparaissent pas. dans le contexte, les conditions sont également essentielles à l'exécution des tâches en aval.
Par conséquent, une tendance croissante de la recherche consiste à résoudre ces problèmes d’une manière qui s’écarte légèrement du paradigme de modélisation purement statistique du langage mentionné ci-dessus. Par exemple, il existe un travail pour contourner le problème de la taille limitée du contexte du LLM en ajoutant le calcul de pertinence à partir des "informations extraites de fichiers externes pertinents". En équipant les LM d'un module de récupération pour récupérer de tels documents dans un contexte donné à partir de la base de données, nous pouvons égaler certaines des capacités des LM à plus grande échelle tout en ayant moins de paramètres. Il est important de noter que le modèle résultant est désormais non paramétrique car il peut interroger des sources de données externes. Plus généralement, LM peut également améliorer son contexte grâce à des stratégies d'inférence pour générer un contexte plus pertinent avant de générer des réponses, améliorant ainsi les performances grâce à davantage de calculs. Une autre stratégie consiste à permettre au LM d’exploiter des outils externes pour améliorer le contexte actuel avec des informations manquantes importantes non incluses dans les pondérations du LM. Bien que la plupart de ces travaux visent à atténuer les défauts mentionnés ci-dessus du LM, il est simple d’imaginer qu’une amélioration plus systématique du LM avec un raisonnement et des outils puisse conduire à des agents significativement plus puissants. Les chercheurs appellent collectivement ces modèles Modèles de langage augmentés (ALM). À mesure que cette tendance s'accélère, il devient difficile de suivre et de comprendre les nombreux modèles, nécessitant une classification du travail des ALM et la définition de termes techniques parfois utilisés à des fins différentes. Raisonnement Dans le contexte de l'ALM, le raisonnement est la décomposition d'une tâche potentiellement complexe en sous-tâches plus simples que le LM peut résoudre plus facilement par lui-même ou à l'aide d'outils. Il existe actuellement différentes manières de décomposer les sous-tâches, par exemple de manière récursive ou itérative. Dans un sens, le raisonnement est similaire au plan défini dans l'article de LeCun de 2022 « Routes to Autonomous Machine Intelligence ».
Lien papier : https://openreview.net/pdf?id=BZ5a1r-kVsf
Dans cette enquête, le raisonnement fait référence à diverses méthodes pour améliorer la capacité de raisonnement dans les stratégies LM , par exemple en utilisant un petit nombre d'exemples pour un raisonnement étape par étape. Bien qu'il ne soit pas encore entièrement compris si le LM raisonne réellement ou s'il génère simplement un contexte plus large qui augmente la probabilité de prédire correctement les jetons manquants.
Compte tenu de l'état actuel de la technologie, le raisonnement est peut-être un terme galvaudé, mais le terme est déjà largement utilisé au sein de la communauté. Dans le contexte de l'ALM, une définition plus pragmatique de l'inférence consiste à donner au modèle davantage d'étapes de calcul avant d'arriver à la réponse à l'invite.
Tool Tool
Pour ALM, un outil est un module externe, généralement appelé à l'aide d'une règle ou d'un jeton spécial, et sa sortie est incluse dans le contexte d'ALM.
Des outils peuvent être utilisés pour collecter des informations externes, ou avoir un impact sur le monde virtuel ou physique (généralement détecté par ALM) : Par exemple, un récupérateur de fichiers peut être utilisé comme un outil pour obtenir des informations externes, ou un robot Le bras peut être utilisé pour détecter les influences extérieures.
Les outils peuvent être appelés au moment de la formation ou au moment de l'inférence. Plus généralement, le modèle doit apprendre à interagir avec l'outil, notamment en apprenant à appeler son API
Act
Pour. ALM Dites, invoquez un outil qui a un impact sur le monde virtuel ou physique et observez ses résultats, en l'intégrant généralement dans le contexte actuel d'ALM.
Certains des travaux présentés dans cette enquête traitent de la recherche sur le Web ou de la manipulation de bras robotisés via des LM. Dans un léger abus de terminologie, l'invocation d'un outil par ALM est parfois représentée comme une action, même si elle n'a aucun impact sur le monde extérieur.
Pourquoi discuter de raisonnement et d'outils en même temps ?
La combinaison du raisonnement et des outils dans LM devrait permettre de résoudre un large éventail de tâches complexes sans heuristique, c'est-à-dire avec de meilleures capacités de généralisation.
Généralement, le raisonnement permet au LM de décomposer un problème donné en sous-tâches potentiellement plus simples, tandis que les outils aident à terminer chaque étape correctement, comme l'obtention de résultats à partir d'opérations mathématiques.
En d'autres termes, le raisonnement est un moyen pour LM de combiner différents outils pour résoudre des tâches complexes, et les outils sont un moyen d'éviter les échecs de raisonnement et de se décomposer efficacement.
Les deux devraient bénéficier de l'autre, et l'inférence et les outils peuvent être placés dans le même module, car les deux fonctionnent en améliorant le contexte de LM pour mieux prédire les jetons manquants, bien que de différentes manières.
Pourquoi discuter des outils et des actions en même temps ? Les outils qui collectent des informations supplémentaires et ont un impact sur le monde virtuel ou physique peuvent être appelés par LM de la même manière. Par exemple, il semble y avoir peu de différence entre un LM qui génère du code python pour résoudre des opérations mathématiques et un LM qui génère du code python pour manipuler un bras robotique. Certains des travaux discutés dans cette revue utilisent déjà des LM qui ont des effets sur le monde virtuel ou physique. Dans cette perspective, nous pouvons dire que les LM ont le potentiel d'agir et d'espérer des progrès importants dans la direction des LM en tant qu'agents autonomes.
Méthode de classificationLes chercheurs ont décomposé les travaux introduits dans la revue dans les trois dimensions ci-dessus et les ont présentés respectivement. Enfin, des travaux connexes dans d'autres dimensions ont également été discutés. Pour le lecteur, il convient de rappeler que bon nombre de ces techniques ont été initialement introduites dans des contextes autres que le LM, et si nécessaire, de consulter si possible les introductions des articles mentionnés et les travaux connexes. Enfin, bien que la revue se concentre sur le LLM, tous les travaux connexes n'adoptent pas de grands modèles, mais visent l'exactitude du LM.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!