suchen
HeimBackend-EntwicklungPython-TutorialErstellen eines KI-gestützten API-Dienstes zur Bildgenerierung mit FLUX, Python und Diffusoren

Creating an AI-powered Image Generation API Service with FLUX, Python, and Diffusers

FLUX (von Black Forest Labs) hat in den letzten Monaten die Welt der KI-Bildgenerierung im Sturm erobert. Es hat nicht nur Stable Diffusion (den früheren Open-Source-König) in vielen Benchmarks geschlagen, sondern in einigen Kennzahlen auch proprietäre Modelle wie Dall-E oder Midjourney übertroffen.

Aber wie würden Sie FLUX in einer Ihrer Apps verwenden? Man könnte darüber nachdenken, serverlose Hosts wie Replicate und andere zu verwenden, aber diese können sehr schnell sehr teuer werden und bieten möglicherweise nicht die Flexibilität, die Sie benötigen. Hier bietet sich die Erstellung Ihres eigenen benutzerdefinierten FLUX-Servers an.

In diesem Artikel führen wir Sie durch die Erstellung Ihres eigenen FLUX-Servers mit Python. Mit diesem Server können Sie über eine einfache API Bilder basierend auf Textaufforderungen generieren. Ganz gleich, ob Sie diesen Server für den persönlichen Gebrauch betreiben oder ihn als Teil einer Produktionsanwendung bereitstellen, dieser Leitfaden hilft Ihnen beim Einstieg.

Voraussetzungen

Bevor wir uns mit dem Code befassen, stellen wir sicher, dass Sie die erforderlichen Tools und Bibliotheken eingerichtet haben:

  • Python: Auf Ihrem Computer muss Python 3 installiert sein, vorzugsweise Version 3.10.
  • Torch: Das Deep-Learning-Framework, das wir zum Ausführen von FLUX verwenden werden.
  • Diffusoren: Bietet Zugriff auf das FLUX-Modell.
  • Transformatoren: Erforderliche Abhängigkeit von Diffusoren.
  • Satzstück: Erforderlich, um den FLUX-Tokenizer auszuführen
  • protobuf: Erforderlich zum Ausführen von FLUX
  • beschleunigen: Hilft in einigen Fällen, das FLUX-Modell effizienter zu laden.
  • fastapi: Framework zum Erstellen eines Webservers, der Bildgenerierungsanfragen akzeptieren kann.
  • uvicorn: Erforderlich, um den FastAPI-Server auszuführen.
  • psutil: Ermöglicht uns zu überprüfen, wie viel RAM auf unserem Computer vorhanden ist.

Sie können alle Bibliotheken installieren, indem Sie den folgenden Befehl ausführen: pip install Torch Diffusers Transformers Satzstück Protobuf Beschleunigung Fastapi Uvicorn.

Wenn Sie einen Mac mit einem M1- oder M2-Chip verwenden, sollten Sie PyTorch mit Metal für optimale Leistung einrichten. Befolgen Sie die offizielle PyTorch with Metal-Anleitung, bevor Sie fortfahren.

Sie müssen außerdem sicherstellen, dass Sie über mindestens 12 GB VRAM verfügen, wenn Sie FLUX auf einem GPU-Gerät ausführen möchten. Oder mindestens 12 GB RAM für die Ausführung auf CPU/MPS (was langsamer ist).

Schritt 1: Einrichten der Umgebung

Lassen Sie uns das Skript beginnen, indem wir basierend auf der von uns verwendeten Hardware das richtige Gerät zum Ausführen der Inferenz auswählen.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Sie können CPU, Cuda (für NVIDIA-GPUs) oder MPS (für Apples Metal Performance Shader) angeben. Das Skript prüft dann, ob das ausgewählte Gerät verfügbar ist und löst eine Ausnahme aus, wenn dies nicht der Fall ist.

Schritt 2: Laden des FLUX-Modells

Als nächstes laden wir das FLUX-Modell. Wir laden das Modell mit fp16-Präzision, was uns etwas Speicherplatz spart, ohne dass es zu großen Qualitätsverlusten kommt.

An dieser Stelle werden Sie möglicherweise aufgefordert, sich bei HuggingFace zu authentifizieren, da das FLUX-Modell geschlossen ist. Für eine erfolgreiche Authentifizierung müssen Sie ein HuggingFace-Konto erstellen, zur Modellseite gehen, die Bedingungen akzeptieren und dann aus Ihren Kontoeinstellungen ein HuggingFace-Token erstellen und es auf Ihrem Computer als HF_TOKEN-Umgebungsvariable hinzufügen.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Hier laden wir das FLUX-Modell mithilfe der Diffusorbibliothek. Das von uns verwendete Modell ist black-forest-labs/FLUX.1-dev, geladen in fp16-Präzision.

Es gibt auch ein zeitschrittdestilliertes Modell namens FLUX Schnell, das eine schnellere Inferenz bietet, aber weniger detaillierte Bilder ausgibt, sowie ein FLUX Pro-Modell, das Closed-Source ist.
Wir verwenden hier den Euler-Scheduler, aber Sie können damit experimentieren. Weitere Informationen zu Planern finden Sie hier.
Da die Bilderzeugung ressourcenintensiv sein kann, ist es wichtig, die Speichernutzung zu optimieren, insbesondere wenn sie auf einer CPU oder einem Gerät mit begrenztem Speicher ausgeführt wird.

from diffusers import FlowMatchEulerDiscreteScheduler, FluxPipeline
import psutil

model_name = "black-forest-labs/FLUX.1-dev"

print(f"Loading {model_name} on {device}")

pipeline = FluxPipeline.from_pretrained(
      model_name,

      # Diffusion models are generally trained on fp32, but fp16
      # gets us 99% there in terms of quality, with just half the (V)RAM
      torch_dtype=torch.float16,

      # Ensure we don't load any dangerous binary code
      use_safetensors=True

      # We are using Euler here, but you can also use other samplers
      scheduler=FlowMatchEulerDiscreteScheduler()
).to(device)

Dieser Code überprüft den gesamten verfügbaren Speicher und ermöglicht die Aufmerksamkeitsverteilung, wenn das System über weniger als 64 GB RAM verfügt. Aufmerksamkeits-Slicing reduziert den Speicherverbrauch während der Bilderzeugung, was für Geräte mit begrenzten Ressourcen unerlässlich ist.

Schritt 3: Erstellen der API mit FastAPI

Als nächstes richten wir den FastAPI-Server ein, der eine API zum Generieren von Bildern bereitstellt.

# Recommended if running on MPS or CPU with 



<p>FastAPI ist ein beliebtes Framework zum Erstellen von Web-APIs mit Python. In diesem Fall verwenden wir es, um einen Server zu erstellen, der Anfragen zur Bildgenerierung akzeptieren kann. Wir verwenden auch die GZip-Middleware, um die Antwort zu komprimieren, was besonders nützlich ist, wenn Bilder im Base64-Format zurückgesendet werden.</p>

<blockquote>
<p>In einer Produktionsumgebung möchten Sie möglicherweise die generierten Bilder in einem S3-Bucket oder einem anderen Cloud-Speicher speichern und die URLs anstelle der Base64-codierten Zeichenfolgen zurückgeben, um von einem CDN und anderen Optimierungen zu profitieren.</p>
</blockquote>

<h2>
  
  
  Schritt 4: Definieren des Anforderungsmodells
</h2>

<p>Wir müssen jetzt ein Modell für die Anfragen definieren, die unsere API akzeptiert.<br>
</p>

<pre class="brush:php;toolbar:false">from fastapi import FastAPI, HTTPException
from pydantic import BaseModel, Field, conint, confloat
from fastapi.middleware.gzip import GZipMiddleware
from io import BytesIO
import base64

app = FastAPI()

# We will be returning the image as a base64 encoded string
# which we will want compressed
app.add_middleware(GZipMiddleware, minimum_size=1000, compresslevel=7)

Dieses GenerateRequest-Modell definiert die Parameter, die zum Generieren eines Bildes erforderlich sind. Das Eingabeaufforderungsfeld ist die Textbeschreibung des Bildes, das Sie erstellen möchten. Zu den weiteren Feldern gehören die Bildabmessungen, die Anzahl der Inferenzschritte und die Stapelgröße.

Schritt 5: Erstellen des Bildgenerierungsendpunkts

Jetzt erstellen wir den Endpunkt, der Bildgenerierungsanfragen verarbeitet.

device = 'cuda' # can also be 'cpu' or 'mps'

import os

# MPS support in PyTorch is not yet fully implemented
if device == 'mps':
  os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"

import torch

if device == 'mps' and not torch.backends.mps.is_available():
      raise Exception("Device set to MPS, but MPS is not available")
elif device == 'cuda' and not torch.cuda.is_available():
      raise Exception("Device set to CUDA, but CUDA is not available")

Dieser Endpunkt übernimmt den Bildgenerierungsprozess. Zunächst wird überprüft, ob Höhe und Breite ein Vielfaches von 8 sind, wie von FLUX gefordert. Anschließend generiert es Bilder basierend auf der bereitgestellten Eingabeaufforderung und gibt sie als Base64-codierte Zeichenfolgen zurück.

Schritt 6: Starten des Servers

Zuletzt fügen wir noch etwas Code hinzu, um den Server zu starten, wenn das Skript ausgeführt wird.

from diffusers import FlowMatchEulerDiscreteScheduler, FluxPipeline
import psutil

model_name = "black-forest-labs/FLUX.1-dev"

print(f"Loading {model_name} on {device}")

pipeline = FluxPipeline.from_pretrained(
      model_name,

      # Diffusion models are generally trained on fp32, but fp16
      # gets us 99% there in terms of quality, with just half the (V)RAM
      torch_dtype=torch.float16,

      # Ensure we don't load any dangerous binary code
      use_safetensors=True

      # We are using Euler here, but you can also use other samplers
      scheduler=FlowMatchEulerDiscreteScheduler()
).to(device)

Dieser Code startet den FastAPI-Server auf Port 8000 und macht ihn dank der 0.0.0.0-Bindung nicht nur von http://localhost:8000 aus zugänglich, sondern auch von anderen Geräten im selben Netzwerk über die IP-Adresse des Host-Computers.

Schritt 7: Testen Sie Ihren Server lokal

Da Ihr FLUX-Server nun betriebsbereit ist, ist es an der Zeit, ihn zu testen. Sie können Curl, ein Befehlszeilentool zum Senden von HTTP-Anfragen, verwenden, um mit Ihrem Server zu interagieren:

# Recommended if running on MPS or CPU with 



<blockquote>
<p>Dieser Befehl funktioniert nur auf UNIX-basierten Systemen, auf denen die Dienstprogramme curl, jq und base64 installiert sind. Abhängig von der Hardware, auf der der FLUX-Server gehostet wird, kann es auch einige Minuten dauern, bis der Vorgang abgeschlossen ist.</p>
</blockquote>

<h2>
  
  
  Abschluss
</h2>

<p>Herzlichen Glückwunsch! Sie haben erfolgreich Ihren eigenen FLUX-Server mit Python erstellt. Mit diesem Setup können Sie Bilder basierend auf Textaufforderungen über eine einfache API generieren. Wenn Sie mit den Ergebnissen des FLUX-Basismodells nicht zufrieden sind, können Sie eine Feinabstimmung des Modells in Betracht ziehen, um bei bestimmten Anwendungsfällen eine noch bessere Leistung zu erzielen.</p>

<h2>
  
  
  Vollständiger Code
</h2>

<p>Den vollständigen Code, der in dieser Anleitung verwendet wird, finden Sie unten:<br>
</p>

<pre class="brush:php;toolbar:false">from fastapi import FastAPI, HTTPException
from pydantic import BaseModel, Field, conint, confloat
from fastapi.middleware.gzip import GZipMiddleware
from io import BytesIO
import base64

app = FastAPI()

# We will be returning the image as a base64 encoded string
# which we will want compressed
app.add_middleware(GZipMiddleware, minimum_size=1000, compresslevel=7)

Das obige ist der detaillierte Inhalt vonErstellen eines KI-gestützten API-Dienstes zur Bildgenerierung mit FLUX, Python und Diffusoren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Python vs. C: Verständnis der wichtigsten UnterschiedePython vs. C: Verständnis der wichtigsten UnterschiedeApr 21, 2025 am 12:18 AM

Python und C haben jeweils ihre eigenen Vorteile, und die Wahl sollte auf Projektanforderungen beruhen. 1) Python ist aufgrund seiner prägnanten Syntax und der dynamischen Typisierung für die schnelle Entwicklung und Datenverarbeitung geeignet. 2) C ist aufgrund seiner statischen Tipp- und manuellen Speicherverwaltung für hohe Leistung und Systemprogrammierung geeignet.

Python vs. C: Welche Sprache für Ihr Projekt zu wählen?Python vs. C: Welche Sprache für Ihr Projekt zu wählen?Apr 21, 2025 am 12:17 AM

Die Auswahl von Python oder C hängt von den Projektanforderungen ab: 1) Wenn Sie eine schnelle Entwicklung, Datenverarbeitung und Prototypdesign benötigen, wählen Sie Python. 2) Wenn Sie eine hohe Leistung, eine geringe Latenz und eine schließende Hardwarekontrolle benötigen, wählen Sie C.

Erreichen Sie Ihre Python -Ziele: Die Kraft von 2 Stunden täglichErreichen Sie Ihre Python -Ziele: Die Kraft von 2 Stunden täglichApr 20, 2025 am 12:21 AM

Indem Sie täglich 2 Stunden Python -Lernen investieren, können Sie Ihre Programmierkenntnisse effektiv verbessern. 1. Lernen Sie neues Wissen: Lesen Sie Dokumente oder sehen Sie sich Tutorials an. 2. Üben: Schreiben Sie Code und vollständige Übungen. 3. Überprüfung: Konsolidieren Sie den Inhalt, den Sie gelernt haben. 4. Projektpraxis: Wenden Sie an, was Sie in den tatsächlichen Projekten gelernt haben. Ein solcher strukturierter Lernplan kann Ihnen helfen, Python systematisch zu meistern und Karriereziele zu erreichen.

Maximieren 2 Stunden: Effektive Strategien für Python -LernstrategienMaximieren 2 Stunden: Effektive Strategien für Python -LernstrategienApr 20, 2025 am 12:20 AM

Zu den Methoden zum effizienten Erlernen von Python innerhalb von zwei Stunden gehören: 1. Überprüfen Sie das Grundkenntnis und stellen Sie sicher, dass Sie mit der Python -Installation und der grundlegenden Syntax vertraut sind. 2. Verstehen Sie die Kernkonzepte von Python wie Variablen, Listen, Funktionen usw.; 3.. Master Basic und Advanced Nutzung unter Verwendung von Beispielen; 4.. Lernen Sie gemeinsame Fehler und Debugging -Techniken; 5. Wenden Sie Leistungsoptimierung und Best Practices an, z. B. die Verwendung von Listenfunktionen und dem Befolgen des Pep8 -Stilhandbuchs.

Wählen Sie zwischen Python und C: Die richtige Sprache für SieWählen Sie zwischen Python und C: Die richtige Sprache für SieApr 20, 2025 am 12:20 AM

Python ist für Anfänger und Datenwissenschaften geeignet und C für Systemprogramme und Spieleentwicklung geeignet. 1. Python ist einfach und einfach zu bedienen, geeignet für Datenwissenschaft und Webentwicklung. 2.C bietet eine hohe Leistung und Kontrolle, geeignet für Spieleentwicklung und Systemprogrammierung. Die Wahl sollte auf Projektbedürfnissen und persönlichen Interessen beruhen.

Python vs. C: Eine vergleichende Analyse von ProgrammiersprachenPython vs. C: Eine vergleichende Analyse von ProgrammiersprachenApr 20, 2025 am 12:14 AM

Python eignet sich besser für Datenwissenschaft und schnelle Entwicklung, während C besser für Hochleistungen und Systemprogramme geeignet ist. 1. Python -Syntax ist prägnant und leicht zu lernen, geeignet für die Datenverarbeitung und wissenschaftliches Computer. 2.C hat eine komplexe Syntax, aber eine hervorragende Leistung und wird häufig in der Spieleentwicklung und der Systemprogrammierung verwendet.

2 Stunden am Tag: Das Potenzial des Python -Lernens2 Stunden am Tag: Das Potenzial des Python -LernensApr 20, 2025 am 12:14 AM

Es ist machbar, zwei Stunden am Tag zu investieren, um Python zu lernen. 1. Lernen Sie neues Wissen: Lernen Sie in einer Stunde neue Konzepte wie Listen und Wörterbücher. 2. Praxis und Übung: Verwenden Sie eine Stunde, um Programmierübungen durchzuführen, z. B. kleine Programme. Durch vernünftige Planung und Ausdauer können Sie die Kernkonzepte von Python in kurzer Zeit beherrschen.

Python vs. C: Lernkurven und BenutzerfreundlichkeitPython vs. C: Lernkurven und BenutzerfreundlichkeitApr 19, 2025 am 12:20 AM

Python ist leichter zu lernen und zu verwenden, während C leistungsfähiger, aber komplexer ist. 1. Python -Syntax ist prägnant und für Anfänger geeignet. Durch die dynamische Tippen und die automatische Speicherverwaltung können Sie die Verwendung einfach zu verwenden, kann jedoch zur Laufzeitfehler führen. 2.C bietet Steuerung und erweiterte Funktionen auf niedrigem Niveau, geeignet für Hochleistungsanwendungen, hat jedoch einen hohen Lernschwellenwert und erfordert manuellem Speicher und Typensicherheitsmanagement.

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

SAP NetWeaver Server-Adapter für Eclipse

SAP NetWeaver Server-Adapter für Eclipse

Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.

mPDF

mPDF

mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

DVWA

DVWA

Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software

Herunterladen der Mac-Version des Atom-Editors

Herunterladen der Mac-Version des Atom-Editors

Der beliebteste Open-Source-Editor

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung