recherche
Maisondéveloppement back-endTutoriel PythonCréation d'un service API de génération d'images basé sur l'IA avec FLUX, Python et Diffusers

Creating an AI-powered Image Generation API Service with FLUX, Python, and Diffusers

FLUX (de Black Forest Labs) a pris d'assaut le monde de la génération d'images IA au cours des derniers mois. Non seulement il a battu Stable Diffusion (l'ancien roi de l'open source) sur de nombreux benchmarks, mais il a également surpassé les modèles propriétaires comme Dall-E ou Midjourney dans certains paramètres.

Mais comment feriez-vous pour utiliser FLUX sur l’une de vos applications ? On pourrait penser à utiliser des hôtes sans serveur comme Replicate et autres, mais ceux-ci peuvent devenir très coûteux très rapidement et peuvent ne pas offrir la flexibilité dont vous avez besoin. C'est là que la création de votre propre serveur FLUX personnalisé s'avère utile.

Dans cet article, nous vous guiderons dans la création de votre propre serveur FLUX à l'aide de Python. Ce serveur vous permettra de générer des images basées sur des invites textuelles via une simple API. Que vous utilisiez ce serveur pour un usage personnel ou que vous le déployiez dans le cadre d'une application de production, ce guide vous aidera à démarrer.

Conditions préalables

Avant de plonger dans le code, assurons-nous que vous disposez des outils et des bibliothèques nécessaires :

  • Python : vous aurez besoin de Python 3 installé sur votre machine, de préférence la version 3.10.
  • torch : Le framework d'apprentissage profond que nous utiliserons pour exécuter FLUX.
  • diffuseurs : Donne accès au modèle FLUX.
  • transformateurs : Dépendance requise des diffuseurs.
  • sentencepiece : requis pour exécuter le tokenizer FLUX
  • protobuf : requis pour exécuter FLUX
  • accélérer : permet de charger le modèle FLUX plus efficacement dans certains cas.
  • fastapi : Framework pour créer un serveur Web pouvant accepter les requêtes de génération d'images.
  • uvicorn : requis pour exécuter le serveur FastAPI.
  • psutil : Nous permet de vérifier la quantité de RAM qu'il y a sur notre machine.

Vous pouvez installer toutes les bibliothèques en exécutant la commande suivante : pip install torch diffusers transformers sentencepiece protobuf accélérer fastapi uvicorn.

Si vous utilisez un Mac avec une puce M1 ou M2, vous devez configurer PyTorch avec Metal pour des performances optimales. Suivez le guide officiel PyTorch with Metal avant de continuer.

Vous devrez également vous assurer que vous disposez d'au moins 12 Go de VRAM si vous envisagez d'exécuter FLUX sur un appareil GPU. Ou au moins 12 Go de RAM pour fonctionner sur CPU/MPS (ce qui sera plus lent).

Étape 1 : Configuration de l'environnement

Commençons le script en choisissant le bon appareil pour exécuter l'inférence en fonction du matériel que nous utilisons.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Vous pouvez spécifier cpu, cuda (pour les GPU NVIDIA) ou mps (pour les Metal Performance Shaders d'Apple). Le script vérifie ensuite si le périphérique sélectionné est disponible et déclenche une exception si ce n'est pas le cas.

Étape 2 : Chargement du modèle FLUX

Ensuite, nous chargeons le modèle FLUX. Nous chargerons le modèle avec une précision fp16, ce qui nous fera gagner de la mémoire sans trop de perte de qualité.

À ce stade, il vous sera peut-être demandé de vous authentifier auprès de HuggingFace, car le modèle FLUX est sécurisé. Pour vous authentifier avec succès, vous devrez créer un compte HuggingFace, accéder à la page du modèle, accepter les conditions, puis créer un jeton HuggingFace à partir des paramètres de votre compte et l'ajouter sur votre machine en tant que variable d'environnement HF_TOKEN.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Ici, nous chargeons le modèle FLUX en utilisant la bibliothèque des diffuseurs. Le modèle que nous utilisons est black-forest-labs/FLUX.1-dev, chargé avec une précision fp16.

Il existe également un modèle distillé par pas de temps nommé FLUX Schnell qui a une inférence plus rapide, mais produit des images moins détaillées, ainsi qu'un modèle FLUX Pro qui est à source fermée.
Nous utiliserons ici le planificateur Euler, mais vous pouvez l'expérimenter. Vous pouvez en savoir plus sur les planificateurs ici.
Étant donné que la génération d'images peut être gourmande en ressources, il est crucial d'optimiser l'utilisation de la mémoire, en particulier lorsqu'elle est exécutée sur un processeur ou un appareil avec une mémoire limitée.

from diffusers import FlowMatchEulerDiscreteScheduler, FluxPipeline
import psutil

model_name = "black-forest-labs/FLUX.1-dev"

print(f"Loading {model_name} on {device}")

pipeline = FluxPipeline.from_pretrained(
      model_name,

      # Diffusion models are generally trained on fp32, but fp16
      # gets us 99% there in terms of quality, with just half the (V)RAM
      torch_dtype=torch.float16,

      # Ensure we don't load any dangerous binary code
      use_safetensors=True

      # We are using Euler here, but you can also use other samplers
      scheduler=FlowMatchEulerDiscreteScheduler()
).to(device)

Ce code vérifie la mémoire totale disponible et active le découpage d'attention si le système dispose de moins de 64 Go de RAM. Le découpage de l'attention réduit l'utilisation de la mémoire lors de la génération d'images, ce qui est essentiel pour les appareils aux ressources limitées.

Étape 3 : Création de l'API avec FastAPI

Ensuite, nous allons configurer le serveur FastAPI, qui fournira une API pour générer des images.

# Recommended if running on MPS or CPU with 



<p>FastAPI est un framework populaire pour créer des API Web avec Python. Dans ce cas, nous l'utilisons pour créer un serveur capable d'accepter les demandes de génération d'images. Nous utilisons également le middleware GZip pour compresser la réponse, ce qui est particulièrement utile lors du renvoi d'images au format base64.</p>

<blockquote>
<p>Dans un environnement de production, vous souhaiterez peut-être stocker les images générées dans un compartiment S3 ou un autre stockage cloud et renvoyer les URL au lieu des chaînes codées en base64, pour profiter d'un CDN et d'autres optimisations.</p>
</blockquote>

<h2>
  
  
  Étape 4 : Définition du modèle de demande
</h2>

<p>Nous devons maintenant définir un modèle pour les requêtes que notre API acceptera.<br>
</p>

<pre class="brush:php;toolbar:false">from fastapi import FastAPI, HTTPException
from pydantic import BaseModel, Field, conint, confloat
from fastapi.middleware.gzip import GZipMiddleware
from io import BytesIO
import base64

app = FastAPI()

# We will be returning the image as a base64 encoded string
# which we will want compressed
app.add_middleware(GZipMiddleware, minimum_size=1000, compresslevel=7)

Ce modèle GenerateRequest définit les paramètres requis pour générer une image. Le champ d'invite est la description textuelle de l'image que vous souhaitez créer. D'autres champs incluent les dimensions de l'image, le nombre d'étapes d'inférence et la taille du lot.

Étape 5 : Création du point de terminaison de génération d'images

Maintenant, créons le point de terminaison qui gérera les demandes de génération d'images.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Ce point de terminaison gère le processus de génération d’images. Il valide d'abord que la hauteur et la largeur sont des multiples de 8, comme l'exige FLUX. Il génère ensuite des images en fonction de l'invite fournie et les renvoie sous forme de chaînes codées en base64.

Étape 6 : Démarrage du serveur

Enfin, ajoutons du code pour démarrer le serveur lorsque le script est exécuté.

from diffusers import FlowMatchEulerDiscreteScheduler, FluxPipeline
import psutil

model_name = "black-forest-labs/FLUX.1-dev"

print(f"Loading {model_name} on {device}")

pipeline = FluxPipeline.from_pretrained(
      model_name,

      # Diffusion models are generally trained on fp32, but fp16
      # gets us 99% there in terms of quality, with just half the (V)RAM
      torch_dtype=torch.float16,

      # Ensure we don't load any dangerous binary code
      use_safetensors=True

      # We are using Euler here, but you can also use other samplers
      scheduler=FlowMatchEulerDiscreteScheduler()
).to(device)

Ce code démarre le serveur FastAPI sur le port 8000, le rendant accessible non seulement depuis http://localhost:8000 mais également depuis d'autres appareils sur le même réseau en utilisant l'adresse IP de la machine hôte, grâce à la liaison 0.0.0.0.

Étape 7 : tester votre serveur localement

Maintenant que votre serveur FLUX est opérationnel, il est temps de le tester. Vous pouvez utiliser curl, un outil de ligne de commande permettant d'effectuer des requêtes HTTP, pour interagir avec votre serveur :

# Recommended if running on MPS or CPU with 



<blockquote>
<p>Cette commande ne fonctionnera que sur les systèmes UNIX avec les utilitaires curl, jq et base64 installés. Cela peut également prendre jusqu'à quelques minutes en fonction du matériel hébergeant le serveur FLUX.</p>
</blockquote>

<h2>
  
  
  Conclusion
</h2>

<p>Félicitations ! Vous avez créé avec succès votre propre serveur FLUX en utilisant Python. Cette configuration vous permet de générer des images basées sur des invites textuelles via une simple API. Si vous n'êtes pas satisfait des résultats du modèle FLUX de base, vous pouvez envisager d'affiner le modèle pour obtenir des performances encore meilleures dans des cas d'utilisation spécifiques.</p>

<h2>
  
  
  Code complet
</h2>

<p>Vous pouvez trouver le code complet utilisé dans ce guide ci-dessous :<br>
</p>

<pre class="brush:php;toolbar:false">from fastapi import FastAPI, HTTPException
from pydantic import BaseModel, Field, conint, confloat
from fastapi.middleware.gzip import GZipMiddleware
from io import BytesIO
import base64

app = FastAPI()

# We will be returning the image as a base64 encoded string
# which we will want compressed
app.add_middleware(GZipMiddleware, minimum_size=1000, compresslevel=7)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Python vs C: Comprendre les principales différencesPython vs C: Comprendre les principales différencesApr 21, 2025 am 12:18 AM

Python et C ont chacun leurs propres avantages, et le choix doit être basé sur les exigences du projet. 1) Python convient au développement rapide et au traitement des données en raison de sa syntaxe concise et de son typage dynamique. 2) C convient à des performances élevées et à une programmation système en raison de son typage statique et de sa gestion de la mémoire manuelle.

Python vs C: Quelle langue choisir pour votre projet?Python vs C: Quelle langue choisir pour votre projet?Apr 21, 2025 am 12:17 AM

Le choix de Python ou C dépend des exigences du projet: 1) Si vous avez besoin de développement rapide, de traitement des données et de conception du prototype, choisissez Python; 2) Si vous avez besoin de performances élevées, de faible latence et de contrôle matériel, choisissez C.

Atteindre vos objectifs python: la puissance de 2 heures par jourAtteindre vos objectifs python: la puissance de 2 heures par jourApr 20, 2025 am 12:21 AM

En investissant 2 heures d'apprentissage Python chaque jour, vous pouvez améliorer efficacement vos compétences en programmation. 1. Apprenez de nouvelles connaissances: lire des documents ou regarder des tutoriels. 2. Pratique: Écrivez du code et complétez les exercices. 3. Revue: consolider le contenu que vous avez appris. 4. Pratique du projet: Appliquez ce que vous avez appris dans les projets réels. Un tel plan d'apprentissage structuré peut vous aider à maîtriser systématiquement Python et à atteindre des objectifs de carrière.

Maximiser 2 heures: stratégies d'apprentissage Python efficacesMaximiser 2 heures: stratégies d'apprentissage Python efficacesApr 20, 2025 am 12:20 AM

Les méthodes pour apprendre Python efficacement dans les deux heures incluent: 1. Passez en revue les connaissances de base et assurez-vous que vous connaissez l'installation de Python et la syntaxe de base; 2. Comprendre les concepts de base de Python, tels que les variables, les listes, les fonctions, etc.; 3. Master Basic et Advanced Utilisation en utilisant des exemples; 4. Apprenez des erreurs courantes et des techniques de débogage; 5. Appliquer l'optimisation des performances et les meilleures pratiques, telles que l'utilisation des compréhensions de la liste et le suivi du guide de style PEP8.

Choisir entre Python et C: La bonne langue pour vousChoisir entre Python et C: La bonne langue pour vousApr 20, 2025 am 12:20 AM

Python convient aux débutants et à la science des données, et C convient à la programmation système et au développement de jeux. 1. Python est simple et facile à utiliser, adapté à la science des données et au développement Web. 2.C fournit des performances et un contrôle élevés, adaptés au développement de jeux et à la programmation système. Le choix doit être basé sur les besoins du projet et les intérêts personnels.

Python vs C: Une analyse comparative des langages de programmationPython vs C: Une analyse comparative des langages de programmationApr 20, 2025 am 12:14 AM

Python est plus adapté à la science des données et au développement rapide, tandis que C est plus adapté aux performances élevées et à la programmation système. 1. La syntaxe Python est concise et facile à apprendre, adaptée au traitement des données et à l'informatique scientifique. 2.C a une syntaxe complexe mais d'excellentes performances et est souvent utilisée dans le développement de jeux et la programmation système.

2 heures par jour: le potentiel de l'apprentissage python2 heures par jour: le potentiel de l'apprentissage pythonApr 20, 2025 am 12:14 AM

Il est possible d'investir deux heures par jour pour apprendre Python. 1. Apprenez de nouvelles connaissances: apprenez de nouveaux concepts en une heure, comme les listes et les dictionnaires. 2. Pratique et pratique: utilisez une heure pour effectuer des exercices de programmation, tels que la rédaction de petits programmes. Grâce à une planification et à une persévérance raisonnables, vous pouvez maîtriser les concepts de base de Python en peu de temps.

Python vs C: courbes d'apprentissage et facilité d'utilisationPython vs C: courbes d'apprentissage et facilité d'utilisationApr 19, 2025 am 12:20 AM

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

SublimeText3 version anglaise

SublimeText3 version anglaise

Recommandé : version Win, prend en charge les invites de code !

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

mPDF

mPDF

mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) ​​et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP