Introduction
Imaginez vous promener dans une galerie d'art, entourée de peintures et de sculptures vives. Maintenant, que se passe-t-il si vous pouviez poser une question à chaque pièce et obtenir une réponse significative? Vous pourriez demander: "Quelle histoire racontez-vous?" ou "Pourquoi l'artiste a-t-il choisi cette couleur?" C'est là que les modèles de langage de vision (VLMS) entrent en jeu. Ces modèles, comme les guides d'experts d'un musée, peuvent interpréter les images, comprendre le contexte et communiquer ces informations en utilisant le langage humain. Qu'il s'agisse d'identifier des objets sur une photo, de répondre à des questions sur le contenu visuel ou même de générer de nouvelles images à partir de descriptions, les VLM fusionnent le pouvoir de la vision et du langage d'une manière qui était autrefois considérée comme impossible.
Dans ce guide, nous explorerons le monde fascinant des VLM, comment ils fonctionnent, leurs capacités et les modèles révolutionnaires comme Clip, Palama et Florence qui transforment la façon dont les machines comprennent et interagissent avec le monde qui les entoure.
Cet article est basé sur une récente conférence Give Aritra Roy Goshipaty et Ritwik Rahaona Guide complet des modèles de langue de vision, dans TheDatahack Summit 2024.
Objectifs d'apprentissage
- Comprendre les concepts et les capacités de base des modèles de langage de vision (VLMS).
- Explorez comment les VLM fusionnent les données visuelles et linguistiques pour des tâches telles que la détection d'objets et la segmentation d'image.
- Découvrez les architectures VLM clés telles que Clip, Palama et Florence, et leurs applications.
- Gardez un aperçu de diverses familles VLM, y compris des modèles pré-formés, masqués et génératifs.
- Découvrez comment l'apprentissage contrasté améliore les performances de VLM et comment le réglage fin améliore la précision du modèle.
Table des matières
- Que sont les modèles de langue de vision?
- Capacités des modèles de langage de vision
- Modèles VLM notables
- Familles de modèles de langage de vision
- Clip (pré-élans de l'image du langage contrasté)
- Siglip (Image de langue généralisée siamoise pré-formation)
- Modèles de langue de vision de la formation (VLMS)
- Comprendre le paligemme
- Questions fréquemment posées
Que sont les modèles de langue de vision?
Les modèles de langage de vision (VLM) se réfèrent aux systèmes d'intelligence artificielle dans une catégorie particulière qui vise à gérer des vidéos ou des vidéos et des textes comme entrées. Lorsque nous combinons ces deux modalités, les VLM peuvent effectuer des tâches qui impliquent le modèle pour cartographier la signification entre les images et le texte, par exemple; Description des images, répondant aux questions basées sur l'image et vice versa.
La force centrale des VLM réside dans leur capacité à combler l'écart entre la vision informatique et la PNL. Les modèles traditionnels excellaient généralement dans un seul de ces domaines, soit reconnaissant des objets dans les images ou comprenant le langage humain. Cependant, les VLM sont spécifiquement conçus pour combiner les deux modalités, fournissant une compréhension plus holistique des données en apprenant à interpréter les images à travers la lentille du langage et vice versa.
L'architecture de VLMS implique généralement l'apprentissage d'une représentation conjointe des données visuelles et textuelles, permettant au modèle d'effectuer des tâches inter-modales. Ces modèles sont pré-formés sur de grands ensembles de données contenant des paires d'images et des descriptions textuelles correspondantes. Pendant la formation, les VLM apprennent les relations entre les objets des images et les mots utilisés pour les décrire, ce qui permet au modèle de générer du texte à partir d'images ou de comprendre les invites textuelles dans le contexte des données visuelles.
Des exemples de tâches clés que les VLM peuvent gérer comprennent:
- Vision Question Répondre (VQA) : Répondre aux questions sur le contenu d'une image.
- Cabillage d'image : génération d'une description textuelle de ce qui est vu dans une image.
- Détection et segmentation des objets : identifier et étiqueter différents objets ou parties d'une image, souvent avec un contexte textuel.
Capacités des modèles de langage de vision
Les modèles de langage de vision (VLMS) ont évolué pour traiter un large éventail de tâches complexes en intégrant les informations visuelles et textuelles. Ils fonctionnent en tirant parti de la relation inhérente entre les images et le langage, permettant des capacités révolutionnaires dans plusieurs domaines.
Vision plus langue
La pierre angulaire des VLMS est leur capacité à comprendre et à fonctionner avec des données visuelles et textuelles. En traitant ces deux flux simultanément, les VLM peuvent effectuer des tâches telles que la génération de légendes pour les images, la reconnaissance d'objets avec leurs descriptions ou l'association d'informations visuelles à un contexte textuel. Cette compréhension intermodale permet des sorties plus riches et plus cohérentes, ce qui les rend très polyvalentes sur des applications réelles.
Détection d'objet
La détection d'objets est une capacité vitale des VLM. Il permet au modèle de reconnaître et de classer les objets au sein d'une image, ancrant sa compréhension visuelle avec les étiquettes du langage. En combinant la compréhension du langage, les VLM ne détectent pas seulement des objets mais peuvent également comprendre et décrire leur contexte. Cela pourrait inclure l'identification non seulement du «chien» dans une image, mais aussi de l'associer à d'autres éléments de scène, ce qui rend la détection d'objets plus dynamique et informative.
Segmentation d'image
Les VLMs améliorent les modèles de vision traditionnels en effectuant une segmentation d'image, qui divise une image en segments ou régions significatives en fonction de son contenu. Dans les VLM, cette tâche est augmentée par une compréhension textuelle, ce qui signifie que le modèle peut segmenter des objets spécifiques et fournir des descriptions contextuelles pour chaque section. Cela va au-delà de la simple reconnaissance des objets, car le modèle peut se décomposer et décrire la structure à grains fins d'une image.
Incorporer
Un autre principe très important dans les VLM est un rôle d'incorporation car il fournit l'espace partagé pour l'interaction entre les données visuelles et textuelles. En effet, en associant des images et des mots, le modèle est capable d'effectuer des opérations telles que l'interrogation d'une image étant donné un texte et vice versa. Cela est dû au fait que les VLM produisent des représentations très efficaces des images et peuvent donc aider à combler l'écart entre la vision et le langage dans les processus transversaux.
Réponse de la question de la vision (VQA)
De toutes les formes de travail avec les VLM, l'une des formes les plus complexes est donnée en utilisant des VQA, ce qui signifie qu'un VLM est présenté avec une image et une question liée à l'image. Le VLM utilise l'interprétation de l'image acquise dans l'image et utilise la compréhension du traitement du langage naturel pour répondre de manière appropriée à la requête. Par exemple, si on lui donne une image d'un parc avec une question suivante, "Combien de bancs pouvez-vous voir sur l'image?" Le modèle est capable de résoudre le problème de comptage et de donner la réponse, qui démontre non seulement la vision mais aussi le raisonnement du modèle.
Modèles VLM notables
Plusieurs modèles de langage de vision (VLM) ont émergé, repoussant les limites de ce qui est possible dans l'apprentissage intermodal. Chaque modèle offre des capacités uniques qui contribuent au paysage de recherche en langue visuelle plus large. Voici quelques-uns des VLM les plus importants:
Clip (pré-formation d'image de langue contrastive)
Le clip est l'un des modèles pionniers de l'espace VLM. Il utilise une approche d'apprentissage contrastée pour connecter les données visuelles et textuelles en apprenant à faire correspondre les images avec leurs descriptions correspondantes. Le modèle traite des ensembles de données à grande échelle composés d'images associées au texte et apprend en optimisant la similitude entre l'image et son homologue de texte, tout en distinguant entre les paires non correspondantes. Cette approche contrastive permet à Clip de gérer un large éventail de tâches, y compris la classification des coups zéro, le sous-titrage de l'image et même la réponse aux questions visuelles sans une formation explicite spécifique à la tâche.
En savoir plus sur Clip d'ici.
Llava (grande langue et assistante vision)
LLAVA est un modèle sophistiqué conçu pour aligner les données visuelles et linguistiques pour des tâches multimodales complexes. Il utilise une approche unique qui fusionne le traitement d'image avec de grands modèles de langage pour améliorer sa capacité à interpréter et à répondre aux requêtes liées à l'image. En tirant parti des représentations textuelles et visuelles, Llava excelle dans la réponse aux questions visuelles, la génération d'images interactives et les tâches basées sur le dialogue impliquant des images. Son intégration avec un modèle de langage puissant lui permet de générer des descriptions détaillées et d'aider à l'interaction en temps réel en langue visuelle.
Mode de lecture sur Llava d'ici.
Lamda (modèle de langue pour les applications de dialogue)
Bien que Lamda ait été principalement discuté en termes de langage, il peut également être utilisé dans les tâches de la vision. Lamda est très sympathique pour les systèmes de dialogue et lorsqu'il est combiné avec des modèles de vision. Il peut effectuer des questions visuelles de réponse, des dialogues contrôlés par l'image et d'autres tâches modales combinées. Lamda est une amélioration car elle a tendance à fournir des réponses de type humain et contextuellement liées qui profiteraient à toute application qui nécessite une discussion sur des données visuelles telles que l'image automatisée ou l'analyse des assistants virtuels.
En savoir plus sur Lamda d'ici.
Florence
Florence est un autre VLM robuste qui intègre à la fois des données de vision et de langage pour effectuer une large gamme de tâches intermodales. Il est particulièrement connu pour son efficacité et son évolutivité lorsqu'ils traitent de grands ensembles de données. La conception du modèle est optimisée pour une formation et un déploiement rapides, ce qui lui permet d'exceller dans la reconnaissance d'image, la détection d'objets et la compréhension multimodale. Florence peut intégrer de grandes quantités de données visuelles et textuelles. Cela le rend polyvalent dans des tâches comme la récupération d'images, la génération de légendes et la réponse aux questions basées sur l'image.
En savoir plus sur Florence d'ici.
Familles de modèles de langage de vision
Les modèles de langage de vision (VLMS) sont classés en plusieurs familles en fonction de la façon dont elles gèrent les données multimodales. Il s'agit notamment de modèles pré-formés, de modèles masqués, de modèles génératifs et de modèles d'apprentissage contrastives. Chaque famille utilise différentes techniques pour aligner les modalités de vision et de langue, ce qui les rend adaptées à diverses tâches.
Famille de modèles pré-formés
Les modèles pré-formés sont construits sur de grands ensembles de données de données de vision appariée et de langage. Ces modèles sont formés sur des tâches générales, ce qui leur permet d'être affinée pour des applications spécifiques sans avoir besoin d'ensembles de données massifs à chaque fois.
Comment ça marche
La famille de modèles pré-formée utilise de grands ensembles de données d'images et de texte. Le modèle est formé pour reconnaître les images et les faire correspondre avec des étiquettes textuelles ou des descriptions. Après cette pré-formation approfondie, le modèle peut être affiné pour des tâches spécifiques comme le sous-titrage de l'image ou la réponse aux questions visuelles. Les modèles pré-formés sont efficaces car ils sont initialement formés sur des données riches, puis affinés sur des domaines plus petits et spécifiques. Cette approche a conduit à des améliorations significatives des performances dans diverses tâches.
Famille de modèles masqués
Les modèles masqués utilisent des techniques de masquage pour former des VLM. Ces modèles masquent au hasard les parties de l'image ou du texte d'entrée et nécessitent le modèle pour prédire le contenu masqué, le forçant à apprendre des relations contextuelles plus profondes.
Comment ça marche (masquage d'image)
Les modèles d'image masqués fonctionnent en dissimulant des régions aléatoires de l'image d'entrée. Le modèle est ensuite chargé de prédire les pixels manquants. Cette approche oblige le VLM à se concentrer sur le contexte visuel environnant pour reconstruire l'image. En conséquence, le modèle acquiert une compréhension plus forte des caractéristiques visuelles locales et globales. Le masquage d'image aide le modèle à développer une compréhension robuste des relations spatiales au sein des images. Cette compréhension améliorée améliore les performances des tâches telles que la détection et la segmentation des objets.
Comment ça marche (masquage de texte)
Dans la modélisation du langage masqué, les parties du texte d'entrée sont masquées. Le modèle est chargé de prédire les jetons manquants. Cela encourage le VLM à comprendre les structures et les relations linguistiques complexes. Les modèles de texte masqués sont cruciaux pour saisir des caractéristiques linguistiques nuancées. Ils améliorent les performances du modèle sur les tâches comme le sous-titrage d'image et la réponse aux questions visuelles, où la compréhension des données visuelles et textuelles est essentielle.
Familles génératrices
Les modèles génératifs traitent de la génération de nouvelles données qui incluent du texte à partir d'images ou d'images à partir de texte. Ces modèles sont particulièrement appliqués dans le texte à l'image et à l'image à la génération de texte qui implique la synthèse de nouvelles sorties de la modalité d'entrée.
Génération de texte à l'image
Lorsque vous utilisez un générateur de texte à l'image, la saisie dans le modèle est du texte et la sortie est l'image résultante. Cette tâche dépend de manière critique des concepts qui concernent le codage sémantique des mots et les caractéristiques d'une image. Le modèle analyse la signification sémantique du texte pour produire un modèle de fidélité, qui correspond à la description donnée comme entrée.
Génération d'image à texte
Dans la génération d'image à texte, le modèle prend une image en entrée et produit la sortie de texte, telles que les légendes. Tout d'abord, il analyse le contenu visuel de l'image. Ensuite, il identifie les objets, les scènes et les actions. Le modèle transcrit ensuite ces éléments en texte. Ces modèles génératifs sont utiles pour la génération automatique de la génération, la description de la scène et la création d'histoires à partir de scènes vidéo.
Apprentissage contrastif
Des modèles contrastifs, y compris le clip, les identifient à travers la formation des paires de texte d'image correspondantes et non correspondantes. Cela oblige le modèle à cartographier les images à leurs descriptions tout en purgeant de mauvaises mappages conduisant à une bonne correspondance de la vision à la langue.
Comment ça marche?
L'apprentissage contrastif mappe une image et sa description correcte dans le même espace sémantique en langue visuelle. Il augmente également l'écart entre les échantillons sémantiquement toxiques en langage de la vision. Ce processus aide le modèle à comprendre à la fois l'image et son texte associé. Il est utile pour les tâches intermodales telles que la récupération d'image, la classification zéro et la réponse aux questions visuelles.
Clip (pré-élans de l'image du langage contrasté)
Clip, ou pré-formation contrastif sur l'image linguistique, est un modèle développé par OpenAI. Il s'agit de l'un des principaux modèles du domaine des modèles de langage de vision (VLM). Le clip gère à la fois les images et le texte en entrées. Le modèle est formé sur des ensembles de données de texte d'image. Il utilise un apprentissage contrastif pour faire correspondre les images avec leurs descriptions de texte. En même temps, il distingue les paires de texte d'image non apparentées.
Comment Clip fonctionne
Clip fonctionne à l'aide d'une architecture à double encodeur: une pour les images et une autre pour le texte. L'idée principale est d'incorporer à la fois l'image et sa description textuelle correspondante dans le même espace vectoriel à haute dimension, permettant au modèle de comparer et de contraster différentes paires de texte d'image.
Étapes clés du fonctionnement du clip
- Encodage d'image: comme le modèle de clip, ce modèle code également des images à l'aide d'un transformateur de vision appelé Vit.
- Encodage du texte: en même temps, le modèle codera également le texte correspondant via un encodeur de texte basé sur un transformateur.
- Apprentissage contrastif: il compare ensuite la similitude entre l'image et le texte codés afin qu'il puisse donner des résultats en conséquence. Il maximise la similitude sur les paires où les images appartiennent à la même classe que les descriptions alors qu'elle le minimise sur les paires où ce n'est pas le cas.
- Alignement intermodal: le compromis donne un modèle qui est superbe dans les tâches qui impliquent l'appariement de la vision avec un langage tel que l'apprentissage zéro, la récupération d'image et même la synthèse d'image inverse.
Applications de clip
- Récupération d'image : Compte tenu d'une description, le clip peut trouver des images qui correspondent.
- Classification zéro-shot : Clip peut classer les images sans aucune donnée de formation supplémentaire pour les catégories spécifiques.
- Réponse de questions visuelles : le clip peut comprendre les questions sur le contenu visuel et fournir des réponses.
Exemple de code: image à texte avec clip
Vous trouverez ci-dessous un exemple d'extrait de code pour effectuer des tâches d'image à texte à l'aide du clip. Cet exemple montre comment Clip code pour une image et un ensemble de descriptions de texte et calcule la probabilité que chaque texte correspond à l'image.
Importer une torche Clip d'importation à partir de l'image d'importation PIL # Vérifiez si GPU est disponible, sinon utilisez le processeur device = "cuda" if torch.cuda.is_available () else "CPU" # Chargez le modèle de clip pré-formé et la fonction de prétraitement Modèle, Preprocess = Clip.Load ("Vit-B / 32", Device = Device) # Charger et prétraiter l'image Image = Preprocess (image.open ("clip.png")). Unseeze (0) .to (Device) # Définissez l'ensemble des descriptions de texte à comparer avec l'image text = clip.tokenise (["un diagramme", "un chien", "un chat"]). À (appareil) # Effectuez l'inférence pour coder à la fois l'image et le texte avec torch.no_grad (): Image_Features = Model.Encode_image (Image) text_features = Model.Encode_text (Text) # Calculer la similitude entre l'image et les fonctionnalités de texte Logits_per_image, Logits_per_text = modèle (image, texte) # Appliquer Softmax pour obtenir les probabilités de chaque étiquette correspondant à l'image probs = logits_per_image.softMax (dim = -1) .cpu (). Numpy () # Sortie les probabilités Imprimer ("Probabilités d'étiquette:", Probs)
Siglip (Image de langue généralisée siamoise pré-formation)
L'image de langue généralisée siamoise pré-formation, est un modèle avancé développé par Google qui s'appuie sur les capacités de modèles comme Clip. Siglip améliore les tâches de classification des images en tirant parti des forces de l'apprentissage contrasté avec une architecture améliorée et des techniques de pré-formation. Il vise à améliorer l'efficacité et la précision de la classification des images à tirs zéro.
Comment fonctionne Siglip
Siglip utilise une architecture de réseau siamois, qui implique deux réseaux parallèles qui partagent des poids et sont formés pour différencier les paires de texte d'image similaires et différentes. Cette architecture permet à Siglip d'apprendre efficacement des représentations de haute qualité pour les images et le texte. Le modèle est pré-formé sur un ensemble de données diversifié d'images et des descriptions textuelles correspondantes, ce qui lui permet de généraliser bien à diverses tâches invisibles.
Étapes clés du fonctionnement de Siglip
- Réseau Siamois : Le modèle utilise deux réseaux de neurones identiques qui traitent séparément les entrées d'image et de texte mais partagent les mêmes paramètres. Cette configuration permet une comparaison et un alignement efficaces des représentations d'image et de texte.
- Apprentissage contrastif : similaire à Clip, Siglip utilise l'apprentissage contrastif pour maximiser la similitude entre la correspondance des paires de texte d'image et la minimiser pour les paires non correspondantes.
- Pré-dresser sur diverses données : Siglip est pré-formé sur un ensemble de données important et varié, améliorant sa capacité à bien performer dans des scénarios zéro-shot, où il est testé sur des tâches sans aucun réglage supplémentaire.
Applications de Siglip
- Classification d'images zéro-shot : Siglip excelle dans la classification des images en catégories sur lesquelles il n'a pas été explicitement formé en tirant parti de sa pré-formation approfondie.
- Recherche visuelle et récupération : il peut être utilisé pour récupérer des images basées sur des requêtes textuelles ou classer les images en fonction du texte descriptif.
- Tagging d'image basé sur le contenu : Siglip peut générer automatiquement des balises descriptives pour les images, ce qui la rend utile pour la gestion et l'organisation de contenu.
Exemple de code: classification d'image à tirs zéro avec Siglip
Vous trouverez ci-dessous un exemple d'extrait de code démontrant comment utiliser Siglip pour la classification d'images zéro-shot. L'exemple montre comment classer une image en étiquettes candidates à l'aide de la bibliothèque Transformers.
à partir du pipeline d'importation Transformers à partir de l'image d'importation PIL Demandes d'importation # Chargez le modèle Siglip pré-formé image_classifier = pipeline (task = "zéro-shot-image-classification", modèle = "google / siglip-bar-patch16-224") # Chargez l'image d'une URL url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = image.open (requêtes.get (url, stream = true) .raw) # Définir les étiquettes des candidats pour la classification candidat_labels = ["2 chats", "un plan", "une télécommande"] # Effectuer une classification d'images zéro-shot sorties = image_classifier (image, candidate_labels = candidat_labels) # Format et imprimer les résultats formatted_outputs = [{"score": rond (sortie ["score"], 4), "étiquette": sortie ["label"]} pour la sortie dans les sorties] print (formatted_outputs)
En savoir plus sur Siglip d'ici.
Modèles de langue de vision de la formation (VLMS)
Les modèles de langue de vision de la formation (VLMS) impliquent plusieurs étapes clés:
- Collecte de données : rassembler de grands ensembles de données d'images et de texte appariés, assurant la diversité et la qualité pour former efficacement le modèle.
- Pré-entraînement : en utilisant des architectures de transformateur, les VLM sont pré-entraînés sur des quantités massives de données de texte d'image. Le modèle apprend à coder des informations visuelles et textuelles à travers des tâches d'apprentissage auto-supervisées, telles que la prédiction de parties masquées d'images ou de texte.
- Fonctionnement : le modèle pré-entraîné est affiné sur des tâches spécifiques en utilisant des ensembles de données plus petits et spécifiques à la tâche. Cela aide le modèle à s'adapter à des applications particulières, comme la classification d'images ou la génération de texte.
- Formation générative : pour les VLM génératives, la formation implique d'apprendre à produire de nouveaux échantillons, tels que la génération de texte à partir d'images ou d'images à partir de texte, basée sur les représentations apprises.
- Apprentissage contrastif : cette technique améliore la capacité du modèle à différencier les données similaires et différentes en maximisant la similitude pour les paires positives et en les minimisant pour les paires négatives.
Comprendre le paligemme
Paligemma est un modèle de langue de vision (VLM) conçu pour améliorer la compréhension de l'image et du texte grâce à une approche de formation structurée en plusieurs étapes. Il intègre des composants de Siglip et Gemma pour obtenir des capacités multimodales avancées. Voici un aperçu détaillé basé sur la transcription et les données fournies:
Comment ça marche
- Entrée : le modèle prend à la fois des entrées de texte et d'image. L'entrée de texte est traitée par des projections linéaires et la concaténation des jetons, tandis que les images sont codées par le composant de vision du modèle.
- Siglip : Ce composant utilise l'architecture de transformateur de vision (VIT-SQ400M) pour le traitement d'image. Il mappe les données visuelles dans un espace de fonction partagé avec des données textuelles.
- Gemma Decoder : Le décodeur Gemma combine des fonctionnalités du texte et des images pour générer une sortie. Ce décodeur est crucial pour intégrer les données multimodales et produire des résultats significatifs.
Phases de formation du paligemme
Examinons maintenant les phases de formation de Paligemma ci-dessous:
- Formation unimodale :
- Siglip (VIT-SQ400M) : s'entraîne à seuls des images pour construire une forte représentation visuelle.
- GEMMA-2B : s'entraîne uniquement sur le texte, en se concentrant sur la génération d'incorporation textuelle robuste.
- Formation multimodale :
- 224px, IB Exemples : Pendant cette phase, le modèle apprend à gérer les paires de texte d'image à une résolution de 224px, en utilisant des exemples d'entrée (IB) pour affiner sa compréhension multimodale.
- Augmentation de la résolution :
- 4480x et 896px : augmente la résolution des images et des données de texte pour améliorer la capacité du modèle à gérer des détails plus élevés et des tâches multimodales plus complexes.
- Transfert :
- Résolution, époques, taux d'apprentissage : ajuste les paramètres clés comme la résolution, le nombre d'époques de formation et les taux d'apprentissage pour optimiser les performances et transférer les fonctionnalités apprises à de nouvelles tâches.
En savoir plus sur Paligemma d'ici.
Conclusion
Ce guide sur les modèles de langage de vision (VLMS) a mis en évidence leur impact révolutionnaire sur la combinaison des technologies de vision et de langage. Nous avons exploré des capacités essentielles comme la détection d'objets et la segmentation d'image, des modèles notables tels que CLIP et diverses méthodologies de formation. Les VLM font progresser l'IA en intégrant de manière transparente les données visuelles et textuelles, en préparant la scène pour des applications plus intuitives et avancées à l'avenir.
Questions fréquemment posées
Q1. Qu'est-ce qu'un modèle de langue de vision (VLM)?A. Un modèle de langue de vision (VLM) intègre des données visuelles et textuelles pour comprendre et générer des informations à partir d'images et de texte. Il permet également des tâches comme le sous-titrage de l'image et la réponse aux questions visuelles.
Q2. Comment fonctionne le clip?A. Clip utilise une approche d'apprentissage contrasté pour aligner les représentations de l'image et du texte. Lui permettant de faire correspondre efficacement les images avec des descriptions de texte.
Q3. Quelles sont les principales capacités des VLM?A. VLMS excellent dans la détection d'objets, la segmentation de l'image, les intégres et la réponse à la question de la vision, la combinaison de la vision et du traitement du langage pour effectuer des tâches complexes.
Q4. Quel est le but du réglage fin dans les VLM?A. Fonction adapte un VLM pré-formé à des tâches ou des ensembles de données spécifiques, améliorant ses performances et sa précision pour des applications particulières.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Hé là, codant ninja! Quelles tâches liées au codage avez-vous prévues pour la journée? Avant de plonger plus loin dans ce blog, je veux que vous réfléchissiez à tous vos malheurs liés au codage - les énumérez. Fait? - Let & # 8217

AI augmentant la préparation des aliments Bien qu'ils soient encore dans une utilisation naissante, les systèmes d'IA sont de plus en plus utilisés dans la préparation des aliments. Les robots dirigés AI sont utilisés dans les cuisines pour automatiser

Introduction Comprendre les espaces de noms, les lunettes et le comportement des variables dans les fonctions Python est crucial pour écrire efficacement et éviter les erreurs ou exceptions d'exécution. Dans cet article, nous plongerons dans divers ASP

Introduction Imaginez vous promener dans une galerie d'art, entourée de peintures et de sculptures vives. Maintenant, que se passe-t-il si vous pouviez poser une question à chaque pièce et obtenir une réponse significative? Vous pourriez demander: «Quelle histoire racontez-vous?

Poursuivant la cadence du produit, MediaTek ce mois-ci a fait une série d'annonces, notamment le nouveau Kompanio Ultra et Dimensity 9400. Ces produits remplissent les parties les plus traditionnelles des activités de MediaTek, qui comprennent des puces pour smartphone

# 1 Google a lancé agent2agent L'histoire: c'est lundi matin. En tant que recruteur propulsé par l'IA, vous travaillez plus intelligemment, pas plus difficile. Vous vous connectez au tableau de bord de votre entreprise sur votre téléphone. Il vous indique que trois rôles critiques ont été achetés, vérifiés et programmés pour

Je suppose que vous devez l'être. Nous semblons tous savoir que Psychobabble se compose d'un bavardage assorti qui mélange diverses terminologies psychologiques et finit souvent par être incompréhensibles ou complètement absurdes. Tout ce que vous avez à faire pour cracher

Selon une nouvelle étude publiée cette semaine. Pendant ce temps, le plastique continue de s'accumuler dans les décharges et les écosystèmes - dans le monde. Mais l'aide est en route. Une équipe d'angle


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

DVWA
Damn Vulnerable Web App (DVWA) est une application Web PHP/MySQL très vulnérable. Ses principaux objectifs sont d'aider les professionnels de la sécurité à tester leurs compétences et leurs outils dans un environnement juridique, d'aider les développeurs Web à mieux comprendre le processus de sécurisation des applications Web et d'aider les enseignants/étudiants à enseigner/apprendre dans un environnement de classe. Application Web sécurité. L'objectif de DVWA est de mettre en pratique certaines des vulnérabilités Web les plus courantes via une interface simple et directe, avec différents degrés de difficulté. Veuillez noter que ce logiciel

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

MantisBT
Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.