Heim >Backend-Entwicklung >Python-Tutorial >Wie kann ich „H11._util.LocalProtocolError' vermeiden, wenn ich Downstream-HTTP-Anfragen in einer gleichzeitigen FastAPI/Uvicorn-Anwendung stelle?

Wie kann ich „H11._util.LocalProtocolError' vermeiden, wenn ich Downstream-HTTP-Anfragen in einer gleichzeitigen FastAPI/Uvicorn-Anwendung stelle?

Patricia Arquette
Patricia ArquetteOriginal
2024-12-07 19:25:17267Durchsuche

How Can I Avoid `H11._util.LocalProtocolError` When Making Downstream HTTP Requests in a Concurrent FastAPI/Uvicorn Application?

Verarbeitung nachgelagerter HTTP-Anfragen in Uvicorn/FastAPI

Beim Erstellen eines API-Endpunkts mit FastAPI/Uvicorn ist es üblich, nachgelagerte HTTP-Anfragen zu stellen. Bei der Bearbeitung mehrerer gleichzeitiger Anfragen kann es jedoch zu einem Fehler kommen:

H11._util.LocalProtocolError: can't handle event type ConnectionClosed when role=SERVER and state=SEND_RESPONSE

Dieser Fehler tritt auf, weil die Standard-Anfragesitzung von FastAPI nicht vollständig threadsicher ist. Um diese Herausforderung zu meistern, müssen wir einen alternativen Ansatz verfolgen.

Httpx für asynchrone HTTP-Anfragen verwenden

Eine Lösung besteht darin, die httpx-Bibliothek zu verwenden, die eine asynchrone Funktion bereitstellt API. Anstelle von „requests.Session()“ können wir httpx.AsyncClient() verwenden. Dieser Client ermöglicht gleichzeitige Anfragen an denselben Host, da die zugrunde liegende TCP-Verbindung wiederverwendet wird.

In FastAPI können wir unseren Lifespan-Handler so definieren, dass er den AsyncClient beim Start initialisiert und beim Herunterfahren schließt. Zum Beispiel:

@asynccontextmanager
async def lifespan(app: FastAPI):
    async with httpx.AsyncClient() as client:
        yield {'client': client}  # Add the client to the app state

In unseren Endpunkten können wir über request.state.client auf den Client zugreifen. Wir können eine Downstream-Anfrage wie folgt stellen:

@app.get('/')
async def home(request: Request):
    client = request.state.client
    req = client.build_request('GET', 'https://www.example.com')
    r = await client.send(req, stream=True)
    return StreamingResponse(r.aiter_raw(), background=BackgroundTask(r.aclose))

Streaming- oder Nicht-Streaming-Antworten

Wir können die Downstream-Antwort auf verschiedene Arten an den Kunden senden. Wenn wir die Antwort streamen möchten, können wir eine StreamingResponse erstellen, die einen Generator verwendet, um die Antwortdaten asynchron in einer Schleife zu durchlaufen. Ansonsten können wir r.json(), PlainTextResponse oder eine benutzerdefinierte Antwort verwenden.

Vorteile der Verwendung von Httpx

Die Verwendung von httpx bietet mehrere Vorteile:

  • Asynchrone API für die effiziente Bearbeitung gleichzeitiger Anfragen.
  • Persistenter Verbindungspool für verbesserte Leistung.
  • Kontrolle über die Größe des Verbindungspools.
  • Einfache Integration mit den Lifespan-Handlern und Endpunkten von FastAPI.

Durch die Nutzung von httpx können Entwickler Downstream-HTTP effektiv gestalten Anfragen innerhalb ihrer FastAPI/Uvicorn-Anwendungen, ohne auf Thread-Sicherheitsprobleme zu stoßen. Dies gewährleistet ein zuverlässiges und skalierbares API-Verhalten.

Das obige ist der detaillierte Inhalt vonWie kann ich „H11._util.LocalProtocolError' vermeiden, wenn ich Downstream-HTTP-Anfragen in einer gleichzeitigen FastAPI/Uvicorn-Anwendung stelle?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn