Maison > Article > Périphériques technologiques > Utiliser la technologie de génération améliorée par la recherche pour résoudre le problème des hallucinations de l'intelligence artificielle
Auteur| Rahul Pradhan
Source|
L’intelligence artificielle devrait devenir la technologie la plus influente de notre époque. Les progrès récents de la technologie transformer et de l’intelligence artificielle générative ont démontré leur potentiel à libérer l’innovation et l’ingéniosité à grande échelle.
Cependant, l’IA générative n’est pas sans défis, des défis qui peuvent même gravement entraver l’application et la création de valeur de cette technologie transformatrice. Alors que les modèles d'IA générative continuent de gagner en complexité et en puissance, ils présentent également des défis uniques, notamment la génération de résultats qui ne sont pas basés sur les données d'entrée.
Ces soi-disant « illusions » font référence aux résultats produits par le modèle. Les résultats, bien que cohérents, peuvent être séparés des faits ou du contexte d’entrée. Cet article présentera brièvement l’impact transformateur de l’intelligence artificielle générative, examinera les lacunes et les défis de cette technologie et discutera des techniques qui peuvent être utilisées pour atténuer les hallucinations.
Redéfini comme suit : Les modèles d'IA générative utilisent le processus informatique complexe de l'apprentissage en profondeur pour identifier des modèles dans de grands ensembles de données et utiliser ces informations pour créer de nouveaux résultats convaincants. Ces modèles utilisent des réseaux de neurones dans la technologie d'apprentissage automatique, qui s'inspirent de la façon dont le cerveau humain traite et interprète les informations, et continuent d'apprendre et de s'améliorer au fil du temps
GPT-4 d'OpenAI et PaLM 2 de Google, etc. Modèles d'IA génératifs promettent d’apporter des innovations en matière d’automatisation, d’analyse des données et d’expérience utilisateur. Ces modèles peuvent écrire du code, résumer des articles et même aider à diagnostiquer des maladies. Cependant, la faisabilité et la valeur ultime de ces modèles dépendent de leur précision et de leur fiabilité. Dans des domaines critiques tels que les soins de santé, les services financiers ou juridiques, la fiabilité de l'exactitude est essentielle. Mais pour que tous les utilisateurs réalisent tout le potentiel de l'IA générative, ces défis doivent être relevés
Les LLM sont fondamentalement probabilistes et non déterministes. Ils génèrent du texte en fonction de la probabilité qu'une séquence de mots spécifique se produise ensuite. LLM n'a aucune notion de connaissance et s'appuie entièrement sur la navigation à travers un corpus de données entraînées comme moteur de recommandation. Le texte qu’ils génèrent suit généralement des règles grammaticales et sémantiques, mais repose entièrement sur une cohérence statistique avec l’invite.
Cette nature probabiliste du LLM est à la fois un avantage et un inconvénient. Si l’objectif est d’arriver à la bonne réponse ou de prendre une décision critique basée sur la réponse, alors l’hallucination est mauvaise et peut même causer des dommages. Cependant, si l'objectif est un effort créatif, la créativité artistique peut être encouragée avec le LLM, ce qui aboutit à la création d'œuvres d'art, de scénarios et de scénarios relativement rapidement.
Cependant, ne pas faire confiance aux résultats d'un modèle LLM peut avoir de graves conséquences, quel que soit l'objectif. Non seulement cela éroderait la confiance dans les capacités de ces systèmes, mais cela réduirait également considérablement l’impact de l’IA sur l’accélération de la productivité humaine et de l’innovation.
En fin de compte, l'IA n'est aussi efficace que les données sur lesquelles elle est formée. L'illusion du LLM est principalement causée par des défauts dans l'ensemble de données et l'entraînement, notamment les aspects suivants :
Il existe plusieurs façons de traiter les hallucinations dans les LLM, notamment des techniques telles que le réglage fin, l'ingénierie d'indices et la génération augmentée par récupération (RAG).
La génération augmentée par récupération est l'une des techniques les plus prometteuses pour améliorer la précision des grands modèles de langage. Il s'avère que RAG combiné à des données en temps réel peut réduire considérablement les hallucinations.
RAG permet aux entreprises de tirer parti du LLM en exploitant les dernières données propriétaires et contextuelles. De plus, RAG peut également enrichir le contenu d'entrée avec des informations contextuelles spécifiques, aidant ainsi le modèle de langage à générer des réponses plus précises et contextuellement pertinentes. Dans les environnements d'entreprise, les réglages fins sont souvent peu pratiques, mais RAG offre une alternative peu coûteuse et à haut rendement pour offrir une expérience utilisateur personnalisée et informée
Pour améliorer l'efficacité du modèle RAG, il est nécessaire de combiner RAG avec un magasin de données opérationnel capable de stocker des données dans la langue native des LLM, c'est-à-dire des vecteurs mathématiques de grande dimension appelés intégrations qui codent la signification du texte. Lorsqu'un utilisateur pose une requête, la base de données la convertit en un vecteur numérique. De cette manière, les textes apparentés peuvent être interrogés via la base de données vectorielles, qu'ils contiennent ou non les mêmes termes.
Une base de données haute disponibilité et hautes performances, capable de stocker et d'interroger des quantités massives de données non structurées à l'aide de la recherche sémantique, est un élément clé du processus RAG.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!