Maison  >  Article  >  Périphériques technologiques  >  Simplifiez l'invite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Simplifiez l'invite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

WBOY
WBOYavant
2023-09-13 09:25:01813parcourir

Le modèle de diffusion est devenu un modèle courant de génération de texte en image, qui peut guider la génération d'images de haute qualité et riches en contenu via des invites de texte

Si les invites de saisie sont trop concises, les modèles existants échouent compréhension sémantique et raisonnement de bon sens Il existe des limites dans tous les aspects, ce qui entraînera une diminution significative de la qualité des images générées

L'équipe de Lin Liang du laboratoire HCP de l'université Sun Yat-sen a proposé une amende simple et efficace -méthode de réglage appelée SUR-adapter, visant à améliorer la précision du modèle dans la compréhension narrative des signaux sexuels. Cette méthode est un adaptateur de compréhension et d'inférence sémantique, adapté aux modèles de diffusion pré-entraînés et présente les caractéristiques d'efficacité des paramètres

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Veuillez cliquer sur le lien suivant pour consulter l'article : https://arxiv.org/ abs/2305.05189

Adresse open source : https://github.com/Qrange-group/SUR-adapter

Pour atteindre cet objectif, les chercheurs ont d'abord collecté et annoté un ensemble de données appelé SURD. Cet ensemble de données contient plus de 57 000 échantillons multimodaux, chaque échantillon contient une invite narrative simple, une invite complexe basée sur des mots clés et une image de haute qualité

Les chercheurs ont combiné les invites narratives La représentation sémantique est alignée sur des indices complexes , et la connaissance du grand modèle de langage (LLM) est transférée à l'adaptateur SUR via la distillation des connaissances, de sorte que de puissantes capacités de compréhension sémantique et de raisonnement puissent être obtenues pour créer une représentation sémantique de texte de haute qualité pour la génération de texte en image. Ensuite, ils ont aligné la représentation sémantique des invites narratives avec les invites complexes et ont transféré les connaissances du grand modèle de langage (LLM) à l'adaptateur SUR via la distillation des connaissances afin de pouvoir obtenir de solides capacités de compréhension sémantique et de raisonnement pour construire des solutions de haute qualité. représentations sémantiques textuelles. Pour la génération de texte en image

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Nous avons mené des expériences en intégrant plusieurs LLM et des modèles de diffusion pré-entraînés et avons constaté que cette méthode peut efficacement permettre au modèle de diffusion de comprendre et de raisonner sur un langage naturel concis. descriptions sans dégrader la qualité de l'image

Cette approche peut rendre les modèles de diffusion texte-image plus faciles à utiliser, offrir une meilleure expérience utilisateur, promouvoir davantage le développement de modèles génératifs texte-image conviviaux et compenser les simples invites narratives et invites basées sur des mots clés L'écart sémantique entre

Introduction au contexte

À l'heure actuelle, le modèle de pré-formation texte-image représenté par la diffusion stable est devenu l'un des modèles de base les plus importants du domaine du contenu généré par l'intelligence artificielle, en édition d'images, vidéo Il joue un rôle important dans des tâches telles que la génération et la génération d'objets 3D

Actuellement, les capacités sémantiques de ces modèles de diffusion pré-entraînés dépendent principalement des encodeurs de texte (tels que CLIP), et leurs capacités de compréhension sémantique affectent directement l'effet de génération du modèle de diffusion

Cet article teste d'abord la précision de la correspondance image-texte de la diffusion stable en construisant des catégories de questions courantes dans les tâches de réponse visuelle aux questions (VQA), telles que "compter", "couleur" et "action". Nous allons compter et tester manuellement

Voici des exemples de construction de diverses invites, voir le tableau ci-dessous pour plus de détails

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Selon les résultats indiqués dans le tableau ci-dessous, l'article révèle le pré-graphique actuel de Vincent -modèle de diffusion entraîné Il existe de sérieux problèmes de compréhension sémantique. La précision de la correspondance image-texte pour un grand nombre de questions est inférieure à 50 %, et même dans certaines questions, la précision n'est que de 0 %

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Afin d'obtenir des images qui répondent aux conditions de génération de texte, nous besoin de trouver des moyens d'améliorer la diffusion pré-formation Capacités sémantiques de cet encodeur d'article dans le modèle

Aperçu de la méthode

Contenu réécrit : 1. Prétraitement des données

Tout d'abord, nous pouvons apprendre à partir du site Web en ligne de modèle de diffusion couramment utilisé lexica.art Obtenez un grand nombre de paires image-texte sur , civitai.com et stablediffusionweb. Ensuite, nous devons nettoyer et filtrer ces données pour obtenir plus de 57 000 données triplet de haute qualité (y compris des invites complexes, des invites simples et des images) et les transformer en un ensemble de données SURD

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Comme le montre la figure ci-dessous, les invites complexes font référence aux conditions d'invite de texte requises par le modèle de diffusion lors de la génération d'images. Ces invites ont généralement des formats et des descriptions complexes. Une invite simple est une description textuelle d'une image générée via BLIP. Elle utilise un format de langage cohérent avec la description humaine. De manière générale, une invite simple cohérente avec la description normale du langage humain rend difficile la génération d'une invite par le modèle de diffusion. une image sémantiquement cohérente et des astuces complexes (que les utilisateurs appellent en plaisantant le « mantra » du modèle de diffusion) peuvent obtenir des résultats satisfaisants

Le contenu qui doit être réécrit est : 2. Distillation sémantique de grands modèles de langage

Cet article présente une méthode qui utilise une structure Adaptateur de Transformateur pour distiller les caractéristiques sémantiques d'un grand modèle de langage dans une couche cachée spécifique, et obtient les caractéristiques sémantiques finales en combinant linéairement les informations du grand modèle de langage guidées par l'adaptateur avec les caractéristiques sémantiques sorties par l'encodeur de texte original

Le grand modèle de langage utilise des modèles LLaMA de différentes tailles, et les paramètres de la partie UNet du modèle de diffusion sont figés pendant tout le processus de formation

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualitéLe contenu qui doit être réécrit est : 3 . Restauration de la qualité de l'image

Afin de conserver le sens original inchangé, le contenu doit être réécrit en chinois : Étant donné que la structure de cet article introduit des modules d'apprentissage dans le processus d'inférence de grand modèle de pré-entraînement, elle détruit dans une certaine mesure la qualité de génération d'images d'origine du modèle de pré-entraînement. Par conséquent, il est nécessaire de restaurer la qualité de génération d'images. au niveau de qualité de génération du modèle de pré-entraînement d'origine

Cet article utilise des triples dans l'ensemble de données SURD et présente la fonction de perte de qualité correspondante pendant le processus de formation pour restaurer la qualité de la génération d'images. Plus précisément, cet article espère que les caractéristiques sémantiques obtenues grâce au nouveau module pourront être aussi alignées que possible avec les caractéristiques sémantiques des signaux complexesSimplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

La figure suivante montre le cadre de réglage fin de l'adaptateur SUR pour le modèle de diffusion pré-entraîné. . Le côté droit est la structure réseau de l'adaptateur

Résultats expérimentaux

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité


Pour les performances de l'adaptateur SUR, cet article analyse les performances de l'adaptateur SUR sous deux aspects : la correspondance sémantique et la qualité de l'image.

D'une part, selon le tableau suivant, le tableau montre que SUR-adaptateur peut résoudre efficacement le problème d'inadéquation sémantique courant dans les modèles de diffusion de graphes vincentiens et convient à différents contextes expérimentaux. Sous différentes catégories de critères sémantiques, la précision a également été améliorée dans une certaine mesure

D'autre part, cet article utilise des indicateurs courants d'évaluation de la qualité d'image tels que BRISQUE pour comparer le modèle de diffusion pré-entraînement original et la diffusion après utilisation de SUR -adaptateur La qualité des images générées par le modèle a été testée statistiquement, et nous pouvons constater qu'il n'y a pas de différence significative entre les deux.

Nous avons également effectué un test de questionnaire sur les préférences humaines

Grâce à l'analyse ci-dessus, nous pouvons conclure que la méthode proposée est capable d'atténuer les problèmes inhérents au texte en image pré-entraîné tout en maintenant la qualité de la génération d'images. . Le problème de non-concordance image-texte

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

peut également être démontré qualitativement à travers l'exemple suivant de génération d'images. Pour une analyse et des détails plus détaillés, veuillez vous référer à cet article et à l'entrepôt open source Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

. Le contenu à réécrire est :

Simplifiez linvite du diagramme de Vincent, le modèle LLM génère des images de haute qualité

Introduction au HCP Lab

Le professeur Lin Li a fondé le Laboratoire de fusion d'intelligence humaine-machine-physique (HCP Lab) de l'Université Sun Yat-sen en 2010. Ces dernières années, le laboratoire a obtenu de riches résultats académiques dans les domaines de la compréhension de contenus multimodaux, du raisonnement causal et cognitif et de l'intelligence incarnée. Le laboratoire a remporté de nombreux prix scientifiques et technologiques nationaux et étrangers ainsi que les prix du meilleur article, et s'engage à développer des technologies et des plateformes d'intelligence artificielle au niveau des produits

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer