


Simplifiez l'invite du diagramme de Vincent, le modèle LLM génère des images de haute qualité
Le modèle de diffusion est devenu un modèle courant de génération de texte en image, qui peut guider la génération d'images de haute qualité et riches en contenu via des invites de texte
Si les invites de saisie sont trop concises, les modèles existants échouent compréhension sémantique et raisonnement de bon sens Il existe des limites dans tous les aspects, ce qui entraînera une diminution significative de la qualité des images générées
L'équipe de Lin Liang du laboratoire HCP de l'université Sun Yat-sen a proposé une amende simple et efficace -méthode de réglage appelée SUR-adapter, visant à améliorer la précision du modèle dans la compréhension narrative des signaux sexuels. Cette méthode est un adaptateur de compréhension et d'inférence sémantique, adapté aux modèles de diffusion pré-entraînés et présente les caractéristiques d'efficacité des paramètres
Veuillez cliquer sur le lien suivant pour consulter l'article : https://arxiv.org/ abs/2305.05189
Adresse open source : https://github.com/Qrange-group/SUR-adapter
Pour atteindre cet objectif, les chercheurs ont d'abord collecté et annoté un ensemble de données appelé SURD. Cet ensemble de données contient plus de 57 000 échantillons multimodaux, chaque échantillon contient une invite narrative simple, une invite complexe basée sur des mots clés et une image de haute qualité
Les chercheurs ont combiné les invites narratives La représentation sémantique est alignée sur des indices complexes , et la connaissance du grand modèle de langage (LLM) est transférée à l'adaptateur SUR via la distillation des connaissances, de sorte que de puissantes capacités de compréhension sémantique et de raisonnement puissent être obtenues pour créer une représentation sémantique de texte de haute qualité pour la génération de texte en image. Ensuite, ils ont aligné la représentation sémantique des invites narratives avec les invites complexes et ont transféré les connaissances du grand modèle de langage (LLM) à l'adaptateur SUR via la distillation des connaissances afin de pouvoir obtenir de solides capacités de compréhension sémantique et de raisonnement pour construire des solutions de haute qualité. représentations sémantiques textuelles. Pour la génération de texte en image
Nous avons mené des expériences en intégrant plusieurs LLM et des modèles de diffusion pré-entraînés et avons constaté que cette méthode peut efficacement permettre au modèle de diffusion de comprendre et de raisonner sur un langage naturel concis. descriptions sans dégrader la qualité de l'image
Cette approche peut rendre les modèles de diffusion texte-image plus faciles à utiliser, offrir une meilleure expérience utilisateur, promouvoir davantage le développement de modèles génératifs texte-image conviviaux et compenser les simples invites narratives et invites basées sur des mots clés L'écart sémantique entre
Introduction au contexte
À l'heure actuelle, le modèle de pré-formation texte-image représenté par la diffusion stable est devenu l'un des modèles de base les plus importants du domaine du contenu généré par l'intelligence artificielle, en édition d'images, vidéo Il joue un rôle important dans des tâches telles que la génération et la génération d'objets 3D
Actuellement, les capacités sémantiques de ces modèles de diffusion pré-entraînés dépendent principalement des encodeurs de texte (tels que CLIP), et leurs capacités de compréhension sémantique affectent directement l'effet de génération du modèle de diffusion
Cet article teste d'abord la précision de la correspondance image-texte de la diffusion stable en construisant des catégories de questions courantes dans les tâches de réponse visuelle aux questions (VQA), telles que "compter", "couleur" et "action". Nous allons compter et tester manuellement
Voici des exemples de construction de diverses invites, voir le tableau ci-dessous pour plus de détails
Selon les résultats indiqués dans le tableau ci-dessous, l'article révèle le pré-graphique actuel de Vincent -modèle de diffusion entraîné Il existe de sérieux problèmes de compréhension sémantique. La précision de la correspondance image-texte pour un grand nombre de questions est inférieure à 50 %, et même dans certaines questions, la précision n'est que de 0 %
Afin d'obtenir des images qui répondent aux conditions de génération de texte, nous besoin de trouver des moyens d'améliorer la diffusion pré-formation Capacités sémantiques de cet encodeur d'article dans le modèle
Aperçu de la méthode
Contenu réécrit : 1. Prétraitement des données
Tout d'abord, nous pouvons apprendre à partir du site Web en ligne de modèle de diffusion couramment utilisé lexica.art Obtenez un grand nombre de paires image-texte sur , civitai.com et stablediffusionweb. Ensuite, nous devons nettoyer et filtrer ces données pour obtenir plus de 57 000 données triplet de haute qualité (y compris des invites complexes, des invites simples et des images) et les transformer en un ensemble de données SURD
Comme le montre la figure ci-dessous, les invites complexes font référence aux conditions d'invite de texte requises par le modèle de diffusion lors de la génération d'images. Ces invites ont généralement des formats et des descriptions complexes. Une invite simple est une description textuelle d'une image générée via BLIP. Elle utilise un format de langage cohérent avec la description humaine. De manière générale, une invite simple cohérente avec la description normale du langage humain rend difficile la génération d'une invite par le modèle de diffusion. une image sémantiquement cohérente et des astuces complexes (que les utilisateurs appellent en plaisantant le « mantra » du modèle de diffusion) peuvent obtenir des résultats satisfaisants
Le contenu qui doit être réécrit est : 2. Distillation sémantique de grands modèles de langage
Cet article présente une méthode qui utilise une structure Adaptateur de Transformateur pour distiller les caractéristiques sémantiques d'un grand modèle de langage dans une couche cachée spécifique, et obtient les caractéristiques sémantiques finales en combinant linéairement les informations du grand modèle de langage guidées par l'adaptateur avec les caractéristiques sémantiques sorties par l'encodeur de texte original
Le grand modèle de langage utilise des modèles LLaMA de différentes tailles, et les paramètres de la partie UNet du modèle de diffusion sont figés pendant tout le processus de formation
Le contenu qui doit être réécrit est : 3 . Restauration de la qualité de l'image
Afin de conserver le sens original inchangé, le contenu doit être réécrit en chinois : Étant donné que la structure de cet article introduit des modules d'apprentissage dans le processus d'inférence de grand modèle de pré-entraînement, elle détruit dans une certaine mesure la qualité de génération d'images d'origine du modèle de pré-entraînement. Par conséquent, il est nécessaire de restaurer la qualité de génération d'images. au niveau de qualité de génération du modèle de pré-entraînement d'origine
Cet article utilise des triples dans l'ensemble de données SURD et présente la fonction de perte de qualité correspondante pendant le processus de formation pour restaurer la qualité de la génération d'images. Plus précisément, cet article espère que les caractéristiques sémantiques obtenues grâce au nouveau module pourront être aussi alignées que possible avec les caractéristiques sémantiques des signaux complexes
La figure suivante montre le cadre de réglage fin de l'adaptateur SUR pour le modèle de diffusion pré-entraîné. . Le côté droit est la structure réseau de l'adaptateur
Résultats expérimentaux
Pour les performances de l'adaptateur SUR, cet article analyse les performances de l'adaptateur SUR sous deux aspects : la correspondance sémantique et la qualité de l'image.
D'une part, selon le tableau suivant, le tableau montre que SUR-adaptateur peut résoudre efficacement le problème d'inadéquation sémantique courant dans les modèles de diffusion de graphes vincentiens et convient à différents contextes expérimentaux. Sous différentes catégories de critères sémantiques, la précision a également été améliorée dans une certaine mesure
D'autre part, cet article utilise des indicateurs courants d'évaluation de la qualité d'image tels que BRISQUE pour comparer le modèle de diffusion pré-entraînement original et la diffusion après utilisation de SUR -adaptateur La qualité des images générées par le modèle a été testée statistiquement, et nous pouvons constater qu'il n'y a pas de différence significative entre les deux.
Nous avons également effectué un test de questionnaire sur les préférences humaines
Grâce à l'analyse ci-dessus, nous pouvons conclure que la méthode proposée est capable d'atténuer les problèmes inhérents au texte en image pré-entraîné tout en maintenant la qualité de la génération d'images. . Le problème de non-concordance image-texte
peut également être démontré qualitativement à travers l'exemple suivant de génération d'images. Pour une analyse et des détails plus détaillés, veuillez vous référer à cet article et à l'entrepôt open source
. Le contenu à réécrire est :
Introduction au HCP Lab
Le professeur Lin Li a fondé le Laboratoire de fusion d'intelligence humaine-machine-physique (HCP Lab) de l'Université Sun Yat-sen en 2010. Ces dernières années, le laboratoire a obtenu de riches résultats académiques dans les domaines de la compréhension de contenus multimodaux, du raisonnement causal et cognitif et de l'intelligence incarnée. Le laboratoire a remporté de nombreux prix scientifiques et technologiques nationaux et étrangers ainsi que les prix du meilleur article, et s'engage à développer des technologies et des plateformes d'intelligence artificielle au niveau des produits
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Exploiter la puissance de l'IA sur disvise: construire une CLI de chatbot personnelle Dans un passé récent, le concept d'un assistant d'IA personnel semblait être une science-fiction. Imaginez Alex, un passionné de technologie, rêvant d'un compagnon d'IA intelligent et local - celui qui ne dépend pas

Leur lancement inaugural de l'AI4MH a eu lieu le 15 avril 2025, et le Dr Tom Insel, M.D., célèbre psychiatre et neuroscientifique, a été le conférencier de lancement. Le Dr Insel est réputé pour son travail exceptionnel dans la recherche en santé mentale et la techno

"Nous voulons nous assurer que la WNBA reste un espace où tout le monde, les joueurs, les fans et les partenaires d'entreprise, se sentent en sécurité, appréciés et autonomes", a déclaré Engelbert, abordé ce qui est devenu l'un des défis les plus dommageables des sports féminins. L'anno

Introduction Python excelle comme un langage de programmation, en particulier dans la science des données et l'IA générative. La manipulation efficace des données (stockage, gestion et accès) est cruciale lorsqu'il s'agit de grands ensembles de données. Nous avons déjà couvert les nombres et ST

Avant de plonger, une mise en garde importante: les performances de l'IA sont non déterministes et très usagées. En termes plus simples, votre kilométrage peut varier. Ne prenez pas cet article (ou aucun autre) article comme le dernier mot - au lieu, testez ces modèles sur votre propre scénario

Construire un portefeuille AI / ML hors concours: un guide pour les débutants et les professionnels La création d'un portefeuille convaincant est cruciale pour sécuriser les rôles dans l'intelligence artificielle (IA) et l'apprentissage automatique (ML). Ce guide fournit des conseils pour construire un portefeuille

Le résultat? L'épuisement professionnel, l'inefficacité et un écart d'élargissement entre la détection et l'action. Rien de tout cela ne devrait être un choc pour quiconque travaille en cybersécurité. La promesse d'une IA agentique est devenue un tournant potentiel, cependant. Cette nouvelle classe

Impact immédiat contre partenariat à long terme? Il y a deux semaines, Openai s'est avancé avec une puissante offre à court terme, accordant aux étudiants des États-Unis et canadiens d'accès gratuit à Chatgpt Plus jusqu'à la fin mai 2025. Cet outil comprend GPT - 4O, un A


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

MinGW - GNU minimaliste pour Windows
Ce projet est en cours de migration vers osdn.net/projects/mingw, vous pouvez continuer à nous suivre là-bas. MinGW : un port Windows natif de GNU Compiler Collection (GCC), des bibliothèques d'importation et des fichiers d'en-tête librement distribuables pour la création d'applications Windows natives ; inclut des extensions du runtime MSVC pour prendre en charge la fonctionnalité C99. Tous les logiciels MinGW peuvent fonctionner sur les plates-formes Windows 64 bits.

Dreamweaver CS6
Outils de développement Web visuel

mPDF
mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP