


La génération augmentée de récupération multimodale (RAG) a révolutionné l'accès des modèles de langue (LLM) et utilise des données externes, allant au-delà des limitations traditionnelles du texte uniquement. La prévalence croissante des données multimodales nécessite d'intégrer le texte et les informations visuelles pour une analyse complète, en particulier dans des domaines complexes comme la finance et la recherche scientifique. Le RAG multimodal y parvient en permettant aux LLM de traiter à la fois le texte et les images, conduisant à une meilleure récupération des connaissances et à un raisonnement plus nuancé. Cet article détaille la construction d'un système de chiffons multimodal à l'aide des modèles Gémeaux de Google, du sommet AI et de Langchain, vous guidant à travers chaque étape: configuration de l'environnement, prétraitement des données, génération d'intégration et création d'un moteur de recherche de documents robuste.
Objectifs d'apprentissage clés
- Saisissez le concept de chiffon multimodal et son importance dans l'amélioration des capacités de récupération des données.
- comprendre comment les Gémeaux traitent et intègrent des données textuelles et visuelles.
- Apprenez à tirer parti des capacités de Vertex AI pour construire des modèles d'IA évolutifs adaptés aux applications en temps réel.
- Explorez le rôle de Langchain dans l'intégration de LLMS de manière transparente aux sources de données externes.
- Développer des cadres efficaces qui utilisent des informations textuelles et visuelles pour des réponses précises et consacrées au contexte.
- Appliquer ces techniques à des cas d'utilisation pratiques tels que la génération de contenu, les recommandations personnalisées et les assistants de l'IA.
Cet article fait partie du blogathon de la science des données.
Table des matières
- Rag multimodal: un aperçu complet
- Les technologies de base utilisées
- L'architecture du système expliquée
- Construire un système de chiffon multimodal avec Vertex Ai, Gemini et Langchain
- Étape 1: Configuration de l'environnement
- Étape 2: Google Cloud Project Détails
- Étape 3: Vertex Ai Initialisation du SDK
- Étape 4: Importation de bibliothèques nécessaires
- Étape 5: Spécifications du modèle
- Étape 6: Ingestion de données
- Étape 7: Création et déploiement d'un sommet de recherche de vecteur de sommet et point de terminaison
- Étape 8: Retriever Création et chargement de document
- Étape 9: Construction de la chaîne avec Retriever et Gemini LLM
- Étape 10: Test de modèle
- Applications du monde réel
- Conclusion
- Les questions fréquemment posées
Rag multimodal: un aperçu complet
Les systèmes de chiffons multimodaux combinent des informations visuelles et textuelles pour fournir des sorties plus riches et plus contextuelles. Contrairement aux LLM traditionnelles à base de texte, les systèmes de chiffons multimodaux sont conçus pour ingérer et traiter le contenu visuel tel que les graphiques, les graphiques et les images. Cette capacité à double transformation est particulièrement bénéfique pour l'analyse des ensembles de données complexes où les éléments visuels sont aussi informatifs que le texte, tels que des rapports financiers, des publications scientifiques ou des manuels techniques.
En traitant à la fois du texte et des images, le modèle acquiert une compréhension plus profonde des données, ce qui entraîne des réponses plus précises et perspicaces. Cette intégration atténue le risque de générer des informations trompeuses ou factuellement incorrectes (un problème courant dans l'apprentissage automatique), conduisant à des résultats plus fiables pour la prise de décision et l'analyse.
Les technologies de base utilisées
Cette section résume les technologies clés utilisées:
- Gémeaux de Google DeepMind: Une puissante suite AI générative conçue pour les tâches multimodales, capable de traiter et de générer de la texte et d'images. .
- Vertex AI: Une plate-forme complète pour développer, déploier et mettre à l'échelle des modèles d'apprentissage automatique, avec une fonction de recherche de vecteurs robuste pour une récupération efficace de données multimodales.
- Langchain: un cadre qui simplifie l'intégration des LLM avec divers outils et sources de données, facilitant la connexion entre les modèles, les incorporations et les ressources externes.
- Framework de génération (RAG) de la récupération (RAG): Un cadre qui combine des modèles basés sur la récupération et basés sur la génération pour améliorer la précision de la réponse en récupérant le contexte pertinent à partir de sources externes avant de générer des sorties, idéales pour gérer le contenu multimodal.
- Openai's Dall · e: (facultatif) Un modèle de génération d'image qui convertit le texte en invite en contenu visuel, améliorant les sorties de chiffon multimodales avec des images contextuellement pertinentes.
- Transformers pour le traitement multimodal: L'architecture sous-jacente pour gérer les types d'entrée mixtes, permettant un traitement efficace et une génération de réponse impliquant à la fois des données de texte et visuelles.
L'architecture du système expliquée
Un système de chiffon multimodal comprend généralement:
- Gémeaux pour le traitement multimodal: gère les entrées de texte et d'image, en extraction des informations détaillées de chaque modalité.
- Vertex Ai Vector Recherche: fournit une base de données vectorielle pour une gestion efficace de la gestion et de la récupération des données.
- Langchain MultivectorRetriever: agit comme intermédiaire, récupérant les données pertinentes de la base de données vectorielle basée sur les requêtes utilisateur.
- Intégration du cadre de chiffon: combine des données récupérées avec les capacités génératives du LLM pour créer des réponses précises et riches en contexte.
- Encodeur multimodal-décodeur: Processus et fusibles du contenu textuel et visuel, garantissant que les deux types de données contribuent efficacement à la sortie.
- Transformers pour la gestion des données hybrides: utilise des mécanismes d'attention pour aligner et intégrer les informations de différentes modalités.
- Pipelines de réglage fin: Procédures de formation personnalisées (facultatives) qui optimisent les performances du modèle basées sur des ensembles de données multimodaux spécifiques pour une précision améliorée et une compréhension contextuelle.
(Les sections restantes, les étapes 1 à 10, les applications pratiques, la conclusion et les FAQ, suivraient un modèle similaire de reformulation et de restructuration pour maintenir la signification d'origine tout en évitant la répétition textuelle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Le codage des ambiances est de remodeler le monde du développement de logiciels en nous permettant de créer des applications en utilisant le langage naturel au lieu de lignes de code sans fin. Inspirée par des visionnaires comme Andrej Karpathy, cette approche innovante permet de dev

Février 2025 a été un autre mois qui change la donne pour une IA générative, nous apportant certaines des mises à niveau des modèles les plus attendues et de nouvelles fonctionnalités révolutionnaires. De Xai's Grok 3 et Anthropic's Claude 3.7 Sonnet, à Openai's G

Yolo (vous ne regardez qu'une seule fois) a été un cadre de détection d'objets en temps réel de premier plan, chaque itération améliorant les versions précédentes. La dernière version Yolo V12 introduit des progrès qui améliorent considérablement la précision

Veo 2 de Google et Sora d'Openai: Quel générateur de vidéos AI règne en suprême? Les deux plates-formes génèrent des vidéos d'IA impressionnantes, mais leurs forces se trouvent dans différents domaines. Cette comparaison, en utilisant diverses invites, révèle quel outil répond le mieux à vos besoins. T

Gencast de Google Deepmind: une IA révolutionnaire pour les prévisions météorologiques Les prévisions météorologiques ont subi une transformation spectaculaire, passant des observations rudimentaires aux prédictions sophistiquées alimentées par l'IA. Gencast de Google Deepmind, un terreau

Chatgpt 4 est actuellement disponible et largement utilisé, démontrant des améliorations significatives dans la compréhension du contexte et la génération de réponses cohérentes par rapport à ses prédécesseurs comme Chatgpt 3.5. Les développements futurs peuvent inclure un interg plus personnalisé

L'article traite des modèles d'IA dépassant Chatgpt, comme Lamda, Llama et Grok, mettant en évidence leurs avantages en matière de précision, de compréhension et d'impact de l'industrie. (159 caractères)

O1'S O1: Une vague de cadeaux de 12 jours commence par leur modèle le plus puissant à ce jour L'arrivée de décembre apporte un ralentissement mondial, les flocons de neige dans certaines parties du monde, mais Openai ne fait que commencer. Sam Altman et son équipe lancent un cadeau de don de 12 jours


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

PhpStorm version Mac
Le dernier (2018.2.1) outil de développement intégré PHP professionnel

Télécharger la version Mac de l'éditeur Atom
L'éditeur open source le plus populaire

Adaptateur de serveur SAP NetWeaver pour Eclipse
Intégrez Eclipse au serveur d'applications SAP NetWeaver.

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP