Maison  >  Article  >  Périphériques technologiques  >  En plus du RAG, il existe cinq façons d'éliminer l'illusion des grands modèles

En plus du RAG, il existe cinq façons d'éliminer l'illusion des grands modèles

王林
王林original
2024-06-10 20:25:511201parcourir

Produit par 51CTO Technology Stack (WeChat ID : blog51cto)

Il est bien connu que LLM peut produire des hallucinations, c'est-à-dire générer des informations incorrectes, trompeuses ou dénuées de sens.

Il est intéressant de noter que certaines personnes, comme Sam Altman, PDG d'OpenAI, considèrent l'imagination de l'IA comme de la créativité, tandis que d'autres pensent que l'imagination peut aider à faire de nouvelles découvertes scientifiques.

Cependant, dans la plupart des cas, il est crucial de fournir la bonne réponse, et les hallucinations ne sont pas une caractéristique, mais un défaut.

Alors, comment réduire l'illusion du LLM ? Contexte long ? CHIFFON? Réglage fin?

En fait, les LLM à contexte long ne sont pas infaillibles, la recherche vectorielle RAG n'est pas satisfaisante et le réglage fin comporte ses propres défis et limites.

Voici quelques techniques avancées que vous pouvez utiliser pour réduire l'illusion du LLM.

1. Invites avancées

Il y a en effet beaucoup de discussions sur la question de savoir si l'utilisation d'invites meilleures ou plus avancées peut résoudre le problème des hallucinations des grands modèles de langage (LLM).

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesPhotos

Certaines personnes pensent qu'écrire des mots rapides plus détaillés n'aidera pas à résoudre le problème des (hallucinations), mais des gens comme Andrew Ng, co-fondateur de Google Brain, voient le potentiel. Ils ont proposé une nouvelle méthode qui utilise la technologie d’apprentissage en profondeur pour générer des mots rapides afin d’aider les gens à mieux résoudre les problèmes. Cette méthode utilise une grande quantité de données et une puissance de calcul puissante pour générer automatiquement des mots d'invite liés au problème, améliorant ainsi l'efficacité de la résolution du problème. Bien que ce domaine

Andrew Ng estime que les capacités d'inférence de GPT-4 et d'autres modèles avancés les rendent très efficaces pour interpréter des mots rapides complexes avec des instructions détaillées.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesImages

« Avec l'apprentissage multi-exemples, les développeurs peuvent donner des dizaines, voire des centaines, d'exemples dans un mot clé, ce qui est plus efficace que l'apprentissage avec quelques exemples », a-t-il écrit.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesImages

Afin d'améliorer les mots d'invite, de nombreux nouveaux développements émergent également. Par exemple, Anthropic a publié le 10 mai un nouvel outil "Générateur d'invites", qui peut transformer des descriptions simples en mots d'invite avancés optimisés pour les grands. modèles de langage (LLM). Grâce à la console Anthropic, vous pouvez générer des mots d'invite pour la production.

Récemment, Marc Andreessen a également déclaré qu'avec les bonnes indications, nous pouvons libérer le potentiel de super génie des modèles d'IA. "Des techniques d'incitation dans différents domaines pourraient libérer ce super-génie potentiel", a-t-il ajouté.

2. Chaîne de vérification (CoVe) de Meta AI

La chaîne de vérification (CoVe) de Meta AI est une autre technologie. Cette approche réduit les hallucinations dans les grands modèles de langage (LLM) en divisant la vérification des faits en étapes gérables, en améliorant la précision des réponses et en s'alignant sur les processus de vérification des faits pilotés par l'homme.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesPhotos

CoVe consiste à générer des réponses initiales, à planifier des questions de validation, à répondre à ces questions de manière indépendante et à générer une réponse finale validée. Cette approche améliore considérablement la précision du modèle en validant et en corrigeant systématiquement ses résultats.

Il améliore les performances dans diverses tâches telles que les questions basées sur des listes, la réponse aux questions à livre fermé et la génération de textes longs en réduisant les hallucinations et en augmentant l'exactitude factuelle.

3. Knowledge Graph

RAG (Retrieval Enhanced Generation) ne se limite plus à la correspondance de bases de données vectorielles. De nombreuses technologies RAG avancées ont été introduites pour améliorer considérablement l'effet de récupération.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesImages

Par exemple, intégrer des graphiques de connaissances (KG) dans RAG. En exploitant des données structurées et interconnectées dans des graphes de connaissances, les capacités de raisonnement des systèmes RAG actuels peuvent être considérablement améliorées.

4.Raptor

Une autre technique est Raptor, qui gère les problèmes qui s'étendent sur plusieurs documents en créant un niveau d'abstraction plus élevé. Il est particulièrement utile pour répondre à des requêtes impliquant plusieurs concepts de documents.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesImages

Les approches telles que Raptor s'adaptent bien aux grands modèles de langage (LLM) à contexte long, car vous pouvez directement intégrer l'intégralité du document sans le fragmenter.

Cette méthode réduit les phénomènes d'hallucinations en intégrant un mécanisme de récupération externe au modèle du transformateur. Lorsqu'une requête est reçue, Raptor récupère d'abord les informations pertinentes et vérifiées dans des bases de connaissances externes.

Ces données récupérées sont ensuite intégrées dans le contexte du modèle avec la requête d'origine. En basant les réponses du modèle sur des faits et des informations pertinentes, Raptor garantit que le contenu généré est à la fois précis et contextuel.

5. Abstention conforme

L'article « Atténuer le phénomène d'hallucination des grands modèles de langage grâce à l'abstention conforme » présente une méthode pour déterminer quand le modèle doit éviter de donner des réponses en appliquant une technologie de prédiction conforme pour réduire les hallucinations dans les grands modèles de langage (. LLM).

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesImages

En utilisant l'auto-cohérence pour évaluer la similarité des réponses et en tirant parti des prédictions conformes pour des garanties strictes, cette approche garantit que le modèle ne répond que lorsqu'il est sûr de son exactitude.

Cette méthode limite efficacement l'incidence des hallucinations tout en maintenant un taux de sevrage équilibré, ce qui est particulièrement bénéfique pour les tâches nécessitant de longues réponses. Cela améliore considérablement la fiabilité des résultats du modèle en évitant les réponses erronées ou illogiques.

6.RAG réduit les hallucinations dans la sortie structurée

Récemment, ServiceNow réduit les hallucinations dans la sortie structurée via RAG, améliore les performances des grands modèles de langage (LLM) et réalise une généralisation hors domaine tout en minimisant l'utilisation des ressources.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesPictures

La technique implique un système RAG qui récupère les objets JSON pertinents à partir d'une base de connaissances externe avant de générer le texte. Cela garantit que le processus de génération est basé sur des données précises et pertinentes.

En plus du RAG, il existe cinq façons déliminer lillusion des grands modèlesPhotos

En incorporant cette étape de pré-récupération, le modèle est moins susceptible de produire des informations fausses ou fabriquées, réduisant ainsi les hallucinations. De plus, cette approche permet d’utiliser des modèles plus petits sans sacrifier les performances, ce qui la rend à la fois efficace et efficiente.

Pour en savoir plus sur AIGC, veuillez visiter :

Communauté 51CTO AI.x

https://www.51cto.com/aigc/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn