recherche
MaisonPériphériques technologiquesIAAutonomiser l'IA avec des sens: un voyage dans les LLMS multimodales partie 1

Modèles multimodaux de grande langue (LLMS): combler l'écart entre le texte et la vision

Notre monde est vécu à travers plusieurs sens - langue, vue, odeur et contact - nous permettant de comprendre notre environnement. Les humains sont particulièrement aptes au raisonnement linguistique et à la mémoire visuelle. À mesure que les modèles génératifs de l'IA (Genai) avancent, les chercheurs se concentrent sur l'intégration de la multimodalité pour étendre leurs capacités. Les modèles traditionnels de grande langue (LLM) sont limités à la saisie et à la sortie de texte, négligeant d'autres modalités comme les images, les vidéos ou l'audio. Alors que les LLM excellaient aux tâches telles que la réponse aux questions, le résumé, la traduction et la génération de code, l'intégration d'autres modalités (créant des LLM multimodales) débloque un potentiel significatif. Par exemple, la combinaison de données de texte et d'image permet aux applications comme la réponse à la question visuelle, la segmentation d'image et la détection d'objets. L'ajout de vidéo améliore encore les capacités de l'analyse des médias avancés.

Table des matières

  • Introduction aux LLMS multimodaux
  • ensembles de données et prétraitement
  • Applications de LLMS multimodaux
    • Le sous-titrage de l'image
    • Extraction d'informations
    • Interprétation visuelle et raisonnement
    • Reconnaissance optique des caractères (OCR)
    • Détection et segmentation des objets
  • Architectures de grands modèles de langue de vision (LVLMS)
    • VLMS à deux points
    • VLMS à deux jambes
    • VLMS avec Encodeur d'image, encodeur de texte et décodeur
    • VLMS avec architecture de coder-décodeur
  • Conclusion

Introduction aux LLMS multimodaux

Genai englobe les modèles d'apprentissage automatique capables de générer de nouveaux contenus. Les modèles de texte à texte, par exemple, génèrent du texte à partir de l'entrée de texte. Cependant, l'extension LLMS avec d'autres modalités ouvre des portes à l'image à image, au texte-vidéo, au texte-parole, à l'image à l'image et à l'image-vidéo. Ceux-ci sont appelés grands modèles multimodaux (LLMS multimodaux). La formation de ces modèles implique de grands ensembles de données contenant du texte et d'autres modalités, permettant à l'algorithme d'apprendre des relations entre tous les types d'entrée. Surtout, ces modèles ne sont pas limités aux types d'entrée / de sortie uniques; Ils s'adaptent à diverses modalités. Cela fournit au système une compréhension plus riche de l'entrée sensorielle.

Cet article est divisé en deux parties: le premier explore les applications et les architectures des LLM multimodaux, tandis que le second (non inclus ici) détaille la formation d'un modèle de vision plus petit.

ensembles de données et prétraitement

combiner différents types de données pour créer des LLM multimodales présente des défis, en particulier lors de la gestion des données 1D, 2D et 3D simultanément. Cela nécessite une approche séquentielle et étape par étape avec une conservation minutieuse des données pour optimiser les performances du modèle.

Cette discussion se concentre sur le texte et les images. Les images et les vidéos, contrairement au texte, varient en taille et en résolution, nécessitant un prétraitement robuste pour normaliser les entrées. Des images, des vidéos, des invites et des métadonnées doivent être prêts à faciliter les processus de pensée cohérents et la cohérence logique pendant l'inférence. Les modèles formés sur des données de texte, d'image et de vidéo sont appelés grands modèles de vision (LVLMS).

Applications de LLMS multimodaux

L'image suivante (à partir d'un article QWEN2-VL) illustre un modèle de vision basé sur le QWEN2 LLM, capable de gérer diverses tâches visuelles.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

Le diagramme ci-dessous montre comment un modèle de langage multimodal (MMLM) traite l'image, le texte, l'audio et les données vidéo pour atteindre divers objectifs. Le Core MMLM intègre ces modalités pour le traitement combiné.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

Les sections suivantes détaillent les applications spécifiques (exemples de code omis pour la concision):

1. Cabillage d'image: générer des descriptions textuelles des images.

2. Extraction d'informations: récupération de fonctionnalités ou de points de données spécifiques à partir d'images (par exemple, couleur de l'objet, texte).

3. Interprétation visuelle et raisonnement: analyser les images et effectuer des tâches de raisonnement basées sur des informations visuelles.

4. Reconnaissance de caractères optiques (OCR): Extraction du texte des images.

5. Détection et segmentation des objets: identifier et classer les objets dans les images, les segmenter potentiellement en régions distinctes.

Architectures de grands modèles de langue de vision (LVLMS)

L'objectif de LVLMS est d'unifier les fonctionnalités des images, des vidéos et du texte. Plusieurs architectures sont explorées pour la pré-formation:

1. VLMS à deux puissances: les images et le texte sont codés séparément et formés avec un objectif partagé pour aligner les informations des deux modalités.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

2. VLMS à deux pattes: similaire à deux points, mais inclut une couche de fusion pour fusionner les fonctionnalités d'image et de texte avant l'objectif partagé.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

3. VLMS avec Encodeur d'image - Encodeur de texte et décodeur: un encodeur d'image traite les images, tandis que les données de texte sont traitées par des encodeurs et des décodeurs distincts, permettant des interactions plus complexes.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

4. VLMS avec architecture d'encodeur-décodeur: Les images sont traitées par un encodeur, le texte d'un décodeur, avec des fonctionnalités combinées (via la concaténation ou la transtention croisée) avant le décodage.

Empowering AI with Senses: A Journey into Multimodal LLMs Part 1

Conclusion

Les LLM multimodales, en particulier les VLM, sont formés sur des ensembles de données de texte d'image pour combler l'écart entre les données visuelles et textuelles. Ils excellent dans les tâches visuelles, mais obtenir des performances élevées nécessite des ensembles de données et des ressources de calcul substantiels. Bien que capables de nombreuses tâches visuelles, les limites restent dans le raisonnement complexe et l'extraction des données. Des recherches et du développement plus approfondis sont cruciaux pour surmonter ces limites et débloquer le plein potentiel des LLMS multimodales.

références (liste fournie dans le texte d'origine)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Les étreintes sont-elles face à un modèle 7B Olympiccoder bat Claude 3.7?Les étreintes sont-elles face à un modèle 7B Olympiccoder bat Claude 3.7?Apr 23, 2025 am 11:49 AM

Olympiccoder-7b de Hugging Face: un puissant modèle de raisonnement de code open source La race pour développer des modèles de langues axés sur le code supérieurs s'intensifie, et Hugging Face a rejoint la compétition avec un formidable concurrent: Olympiccoder-7b, un produit

4 nouvelles fonctionnalités Gemini, vous ne pouvez pas vous permettre de manquer4 nouvelles fonctionnalités Gemini, vous ne pouvez pas vous permettre de manquerApr 23, 2025 am 11:48 AM

Combien d'entre vous ont souhaité que l'IA pourrait faire plus que de répondre aux questions? Je sais que je l'ai, et ces derniers temps, je suis étonné de la façon dont il se transforme. Les chatbots IA ne visent plus seulement à discuter, ils sont à la création, à la recherche

Camunda écrit un nouveau score pour l'orchestration d'agent AICamunda écrit un nouveau score pour l'orchestration d'agent AIApr 23, 2025 am 11:46 AM

Alors que Smart IA commence à être intégré à tous les niveaux de plates-formes et d'applications logicielles d'entreprise (nous devons souligner qu'il existe à la fois des outils de base puissants et des outils de simulation moins fiables), nous avons besoin d'un nouvel ensemble de capacités d'infrastructure pour gérer ces agents. Camunda, une société d'orchestration de processus basée à Berlin, en Allemagne, estime qu'elle peut aider SMART IA à jouer son rôle dû et à s'aligner sur des objectifs commerciaux et des règles précis dans le nouveau lieu de travail numérique. La société offre actuellement des capacités d'orchestration intelligentes conçues pour aider les organisations à modéliser, déployer et gérer les agents d'IA. Du point de vue de l'ingénierie logicielle pratique, qu'est-ce que cela signifie? L'intégration des processus de certitude et non déterministes La société a déclaré que la clé est de permettre aux utilisateurs (généralement des scientifiques des données, des logiciels)

Y a-t-il de la valeur dans une expérience d'IA d'entreprise organisée?Y a-t-il de la valeur dans une expérience d'IA d'entreprise organisée?Apr 23, 2025 am 11:45 AM

Assistant Google Cloud Next '25, je tenais à voir comment Google distinguerait ses offres de l'IA. Les annonces récentes concernant Agentspace (discutées ici) et la suite d'expérience client (discutée ici) étaient prometteuses, mettant l'accent sur les affaires

Comment trouver le meilleur modèle d'incorporation multilingue pour votre chiffon?Comment trouver le meilleur modèle d'incorporation multilingue pour votre chiffon?Apr 23, 2025 am 11:44 AM

Sélection du modèle d'introduction multilingue optimal pour votre système de génération augmentée de récupération (RAG) Dans le monde interconnecté d'aujourd'hui, la construction de systèmes d'IA multilingues efficaces est primordial. Les modèles d'incorporation multilingues robustes sont cruciaux pour RE

Musque: la robotaxie à Austin a besoin d'une intervention tous les 10 000 milesMusque: la robotaxie à Austin a besoin d'une intervention tous les 10 000 milesApr 23, 2025 am 11:42 AM

Launchage Austin Robotaxi de Tesla: un examen plus approfondi des affirmations de Musk Elon Musk a récemment annoncé le prochain lancement de Robotaxi de Tesla à Austin, au Texas, déployant initialement une petite flotte de 10 à 20 véhicules pour des raisons de sécurité, avec des plans pour une expansion rapide. H

Pivot choquant de l'AI: de l'outil de travail au thérapeute numérique et coach de viePivot choquant de l'AI: de l'outil de travail au thérapeute numérique et coach de vieApr 23, 2025 am 11:41 AM

La façon dont l'intelligence artificielle est appliquée peut être inattendue. Initialement, beaucoup d'entre nous pourraient penser qu'il était principalement utilisé pour les tâches créatives et techniques, telles que l'écriture de code et la création de contenu. Cependant, une récente enquête rapportée par Harvard Business Review montre que ce n'est pas le cas. La plupart des utilisateurs recherchent l'intelligence artificielle non seulement pour le travail, mais pour le soutien, l'organisation et même l'amitié! Le rapport indique que le premier des cas de demande de l'IA est le traitement et la compagnie. Cela montre que sa disponibilité 24h / 24 et 7j / 7 et la capacité de fournir des conseils et des commentaires anonymes et honnêtes sont d'une grande valeur. D'un autre côté, les tâches marketing (telles que la rédaction d'un blog, la création de publications sur les réseaux sociaux ou la copie publicitaire) se classent beaucoup plus bas sur la liste des utilisations populaires. Pourquoi est-ce? Voyons les résultats de la recherche et comment il continue d'être

Les entreprises se dirigent vers l'adoption des agents d'IALes entreprises se dirigent vers l'adoption des agents d'IAApr 23, 2025 am 11:40 AM

La montée des agents de l'IA transforme le paysage commercial. Par rapport à la révolution du cloud, l'impact des agents de l'IA devrait être exponentiellement plus grand, promettant de révolutionner le travail des connaissances. La capacité de simuler la décision humaine

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

MantisBT

MantisBT

Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

Version crackée d'EditPlus en chinois

Version crackée d'EditPlus en chinois

Petite taille, coloration syntaxique, ne prend pas en charge la fonction d'invite de code

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Puissant environnement de développement intégré PHP

Navigateur d'examen sécurisé

Navigateur d'examen sécurisé

Safe Exam Browser est un environnement de navigation sécurisé permettant de passer des examens en ligne en toute sécurité. Ce logiciel transforme n'importe quel ordinateur en poste de travail sécurisé. Il contrôle l'accès à n'importe quel utilitaire et empêche les étudiants d'utiliser des ressources non autorisées.

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)