Maison >web3.0 >ChatLogic : un cadre pour augmenter les LLM avec un moteur de raisonnement logique

ChatLogic : un cadre pour augmenter les LLM avec un moteur de raisonnement logique

王林
王林original
2024-07-20 22:52:201070parcourir

Les grands modèles linguistiques (LLM) ont montré des capacités remarquables pour générer du contenu et résoudre des problèmes complexes dans divers domaines. Cependant, un défi notable persiste dans leur capacité à effectuer un raisonnement déductif en plusieurs étapes. Ce type de raisonnement nécessite un processus de réflexion cohérent et logique sur des interactions étendues, pour lesquelles les LLM actuels ont besoin d'aide en raison de leurs méthodologies de formation.

ChatLogic: A Framework to Augment LLMs with a Logical Reasoning Engine

Les grands modèles de langage (LLM) ont montré des capacités impressionnantes en matière de génération de contenu et de résolution de problèmes divers domaines. Cependant, un défi notable persiste dans leur capacité à effectuer un raisonnement déductif en plusieurs étapes. Ce type de raisonnement nécessite un processus de réflexion cohérent et logique sur des interactions étendues, pour lequel les LLM actuels ont besoin d'aide en raison de leurs méthodologies de formation.

L'un des principaux problèmes des LLM actuels est leur capacité limitée en matière de raisonnement déductif en plusieurs étapes. Cette limitation découle de leur formation sur la prédiction du prochain jeton, qui ne leur permet pas d'appliquer des règles logiques ou de maintenir une compréhension contextuelle approfondie. En conséquence, ces modèles ont souvent besoin d’aide pour produire des réponses cohérentes et logiquement cohérentes dans les tâches qui nécessitent un tel raisonnement. Cette lacune est particulièrement évidente dans les tâches qui impliquent des séquences logiques complexes et une analyse contextuelle approfondie.

Les méthodes existantes pour améliorer les capacités de raisonnement des LLM incluent l'intégration de bases de données de mémoire externe et l'emploi de techniques telles que la formation de modèles récursifs (RMT). Par exemple, GPT-3.5 et GPT-4 peuvent étendre les plafonds de jetons via des invites d'ingénierie ou des technologies telles que RMT. Cependant, ces approches présentent leurs défis. Un problème important est l’intégration potentielle de biais des modèles de récupération dans les LLM, ce qui peut affecter la précision et la stabilité des modèles. De plus, la gestion des limitations de séquences longues dans les dialogues à plusieurs tours reste un obstacle considérable.

Des chercheurs de l'Université d'Auckland ont introduit ChatLogic, un nouveau cadre conçu pour compléter les LLM avec un moteur de raisonnement logique. Ce cadre vise à améliorer le raisonnement déductif en plusieurs étapes en convertissant les problèmes logiques en représentations symboliques que les LLM peuvent traiter. ChatLogic exploite la compréhension situationnelle des LLM et intègre la mémoire symbolique pour améliorer leurs capacités de raisonnement. Cette approche innovante vise spécifiquement à surmonter les limites des LLM actuels dans les tâches de raisonnement en plusieurs étapes.

ChatLogic utilise une approche unique appelée « Chaîne de pensée mixte » (CoT), qui combine diverses techniques d'ingénierie rapide pour guider efficacement les LLM. à travers des étapes de raisonnement logique. Cette méthode transforme les requêtes en langage naturel en symboles logiques à l'aide de pyDatalog, améliorant ainsi la stabilité et la précision du processus de raisonnement. Le cadre comprend des modules de correction sémantique et syntaxique qui affinent les programmes logiques, améliorant considérablement leur application pratique. Cette correction en deux phases garantit que le code généré s'aligne étroitement sur la logique prévue, améliorant ainsi les performances globales des LLM dans les tâches de raisonnement.

Les résultats expérimentaux démontrent que les LLM intégrés à ChatLogic surpassent considérablement les modèles de base dans les tâches de raisonnement en plusieurs étapes. Par exemple, sur l'ensemble de données PARARULE-Plus, GPT-3.5 avec ChatLogic a atteint une précision de 0,5275, contre 0,344 pour le modèle de base. De même, GPT-4 avec ChatLogic a montré une précision de 0,73, alors que le modèle de base n'atteignait que 0,555. Ces améliorations sont particulièrement notables dans les scénarios de haute précision, où la précision et la fiabilité du raisonnement sont essentielles. ChatLogic atténue efficacement la perte d'informations, en s'attaquant à la limitation des longues séquences lors de l'adoption de LLM pour les tâches de raisonnement en plusieurs étapes.

Une analyse plus approfondie des ensembles de données CONCEPTRULES met également en évidence l'efficacité de ChatLogic. Pour la version simplifiée de CONCEPTRULES V1, GPT-3.5 avec ChatLogic a atteint une précision de 0,69, contre 0,57 pour le modèle de base. Pour GPT-4, la précision avec ChatLogic était de 0,96, ce qui représente une légère amélioration par rapport à 0,95 du modèle de base. Ces résultats soulignent le rôle essentiel des moteurs de raisonnement logique dans l’amélioration des capacités des LLM sur différentes tâches et ensembles de données.

En conclusion, ChatLogic présente une solution robuste aux limitations de raisonnement en plusieurs étapes des LLM actuels. En intégrant des moteurs de raisonnement logique et en employant des techniques innovantes d’ingénierie rapide, les chercheurs ont considérablement amélioré la précision et la fiabilité des LLM dans des tâches de raisonnement complexes. Cette avancée présente un potentiel considérable pour diverses applications, notamment le service client, les soins de santé et l’éducation, où des réponses précises et logiques sont cruciales. La capacité du framework à améliorer les performances de raisonnement tout en conservant une grande précision en fait un ajout précieux à l’intelligence artificielle et au traitement du langage naturel.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn