Maison > Article > Périphériques technologiques > Simplifiez l'invite du diagramme de Vincent, le modèle LLM génère des images de haute qualité
Le modèle de diffusion est devenu un modèle courant de génération de texte en image, qui peut guider la génération d'images de haute qualité et riches en contenu via des invites de texte
Si les invites de saisie sont trop concises, les modèles existants échouent compréhension sémantique et raisonnement de bon sens Il existe des limites dans tous les aspects, ce qui entraînera une diminution significative de la qualité des images générées
L'équipe de Lin Liang du laboratoire HCP de l'université Sun Yat-sen a proposé une amende simple et efficace -méthode de réglage appelée SUR-adapter, visant à améliorer la précision du modèle dans la compréhension narrative des signaux sexuels. Cette méthode est un adaptateur de compréhension et d'inférence sémantique, adapté aux modèles de diffusion pré-entraînés et présente les caractéristiques d'efficacité des paramètres
Veuillez cliquer sur le lien suivant pour consulter l'article : https://arxiv.org/ abs/2305.05189
Adresse open source : https://github.com/Qrange-group/SUR-adapter
Pour atteindre cet objectif, les chercheurs ont d'abord collecté et annoté un ensemble de données appelé SURD. Cet ensemble de données contient plus de 57 000 échantillons multimodaux, chaque échantillon contient une invite narrative simple, une invite complexe basée sur des mots clés et une image de haute qualité
Les chercheurs ont combiné les invites narratives La représentation sémantique est alignée sur des indices complexes , et la connaissance du grand modèle de langage (LLM) est transférée à l'adaptateur SUR via la distillation des connaissances, de sorte que de puissantes capacités de compréhension sémantique et de raisonnement puissent être obtenues pour créer une représentation sémantique de texte de haute qualité pour la génération de texte en image. Ensuite, ils ont aligné la représentation sémantique des invites narratives avec les invites complexes et ont transféré les connaissances du grand modèle de langage (LLM) à l'adaptateur SUR via la distillation des connaissances afin de pouvoir obtenir de solides capacités de compréhension sémantique et de raisonnement pour construire des solutions de haute qualité. représentations sémantiques textuelles. Pour la génération de texte en image
Nous avons mené des expériences en intégrant plusieurs LLM et des modèles de diffusion pré-entraînés et avons constaté que cette méthode peut efficacement permettre au modèle de diffusion de comprendre et de raisonner sur un langage naturel concis. descriptions sans dégrader la qualité de l'image
Cette approche peut rendre les modèles de diffusion texte-image plus faciles à utiliser, offrir une meilleure expérience utilisateur, promouvoir davantage le développement de modèles génératifs texte-image conviviaux et compenser les simples invites narratives et invites basées sur des mots clés L'écart sémantique entre
À l'heure actuelle, le modèle de pré-formation texte-image représenté par la diffusion stable est devenu l'un des modèles de base les plus importants du domaine du contenu généré par l'intelligence artificielle, en édition d'images, vidéo Il joue un rôle important dans des tâches telles que la génération et la génération d'objets 3D
Actuellement, les capacités sémantiques de ces modèles de diffusion pré-entraînés dépendent principalement des encodeurs de texte (tels que CLIP), et leurs capacités de compréhension sémantique affectent directement l'effet de génération du modèle de diffusion
Cet article teste d'abord la précision de la correspondance image-texte de la diffusion stable en construisant des catégories de questions courantes dans les tâches de réponse visuelle aux questions (VQA), telles que "compter", "couleur" et "action". Nous allons compter et tester manuellement
Voici des exemples de construction de diverses invites, voir le tableau ci-dessous pour plus de détails
Selon les résultats indiqués dans le tableau ci-dessous, l'article révèle le pré-graphique actuel de Vincent -modèle de diffusion entraîné Il existe de sérieux problèmes de compréhension sémantique. La précision de la correspondance image-texte pour un grand nombre de questions est inférieure à 50 %, et même dans certaines questions, la précision n'est que de 0 %
Afin d'obtenir des images qui répondent aux conditions de génération de texte, nous besoin de trouver des moyens d'améliorer la diffusion pré-formation Capacités sémantiques de cet encodeur d'article dans le modèle
Contenu réécrit : 1. Prétraitement des données
Tout d'abord, nous pouvons apprendre à partir du site Web en ligne de modèle de diffusion couramment utilisé lexica.art Obtenez un grand nombre de paires image-texte sur , civitai.com et stablediffusionweb. Ensuite, nous devons nettoyer et filtrer ces données pour obtenir plus de 57 000 données triplet de haute qualité (y compris des invites complexes, des invites simples et des images) et les transformer en un ensemble de données SURD
Comme le montre la figure ci-dessous, les invites complexes font référence aux conditions d'invite de texte requises par le modèle de diffusion lors de la génération d'images. Ces invites ont généralement des formats et des descriptions complexes. Une invite simple est une description textuelle d'une image générée via BLIP. Elle utilise un format de langage cohérent avec la description humaine. De manière générale, une invite simple cohérente avec la description normale du langage humain rend difficile la génération d'une invite par le modèle de diffusion. une image sémantiquement cohérente et des astuces complexes (que les utilisateurs appellent en plaisantant le « mantra » du modèle de diffusion) peuvent obtenir des résultats satisfaisants
Le contenu qui doit être réécrit est : 2. Distillation sémantique de grands modèles de langage
Cet article présente une méthode qui utilise une structure Adaptateur de Transformateur pour distiller les caractéristiques sémantiques d'un grand modèle de langage dans une couche cachée spécifique, et obtient les caractéristiques sémantiques finales en combinant linéairement les informations du grand modèle de langage guidées par l'adaptateur avec les caractéristiques sémantiques sorties par l'encodeur de texte original
Le grand modèle de langage utilise des modèles LLaMA de différentes tailles, et les paramètres de la partie UNet du modèle de diffusion sont figés pendant tout le processus de formation
Le contenu qui doit être réécrit est : 3 . Restauration de la qualité de l'image
Afin de conserver le sens original inchangé, le contenu doit être réécrit en chinois : Étant donné que la structure de cet article introduit des modules d'apprentissage dans le processus d'inférence de grand modèle de pré-entraînement, elle détruit dans une certaine mesure la qualité de génération d'images d'origine du modèle de pré-entraînement. Par conséquent, il est nécessaire de restaurer la qualité de génération d'images. au niveau de qualité de génération du modèle de pré-entraînement d'origine
Cet article utilise des triples dans l'ensemble de données SURD et présente la fonction de perte de qualité correspondante pendant le processus de formation pour restaurer la qualité de la génération d'images. Plus précisément, cet article espère que les caractéristiques sémantiques obtenues grâce au nouveau module pourront être aussi alignées que possible avec les caractéristiques sémantiques des signaux complexes
La figure suivante montre le cadre de réglage fin de l'adaptateur SUR pour le modèle de diffusion pré-entraîné. . Le côté droit est la structure réseau de l'adaptateur
Résultats expérimentaux
D'une part, selon le tableau suivant, le tableau montre que SUR-adaptateur peut résoudre efficacement le problème d'inadéquation sémantique courant dans les modèles de diffusion de graphes vincentiens et convient à différents contextes expérimentaux. Sous différentes catégories de critères sémantiques, la précision a également été améliorée dans une certaine mesure
D'autre part, cet article utilise des indicateurs courants d'évaluation de la qualité d'image tels que BRISQUE pour comparer le modèle de diffusion pré-entraînement original et la diffusion après utilisation de SUR -adaptateur La qualité des images générées par le modèle a été testée statistiquement, et nous pouvons constater qu'il n'y a pas de différence significative entre les deux.
Nous avons également effectué un test de questionnaire sur les préférences humaines
Grâce à l'analyse ci-dessus, nous pouvons conclure que la méthode proposée est capable d'atténuer les problèmes inhérents au texte en image pré-entraîné tout en maintenant la qualité de la génération d'images. . Le problème de non-concordance image-texte
peut également être démontré qualitativement à travers l'exemple suivant de génération d'images. Pour une analyse et des détails plus détaillés, veuillez vous référer à cet article et à l'entrepôt open source
. Le contenu à réécrire est :
Le professeur Lin Li a fondé le Laboratoire de fusion d'intelligence humaine-machine-physique (HCP Lab) de l'Université Sun Yat-sen en 2010. Ces dernières années, le laboratoire a obtenu de riches résultats académiques dans les domaines de la compréhension de contenus multimodaux, du raisonnement causal et cognitif et de l'intelligence incarnée. Le laboratoire a remporté de nombreux prix scientifiques et technologiques nationaux et étrangers ainsi que les prix du meilleur article, et s'engage à développer des technologies et des plateformes d'intelligence artificielle au niveau des produits
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!