Heim >Backend-Entwicklung >Python-Tutorial >Wie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?

Wie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?

Susan Sarandon
Susan SarandonOriginal
2024-12-04 15:22:11461Durchsuche

How to Effectively Upload Large Files (≥3GB) to a FastAPI Backend?

Wie lade ich eine große Datei (≥3 GB) in das FastAPI-Backend hoch?

FastAPI kann Dateien mit mehr als 1 MB verarbeiten, indem Teile der Datei abgerufen werden nacheinander aus dem Anfragetext. Durch diesen Ansatz entfällt die Notwendigkeit, die gesamte Datei in den Speicher zu laden, was beim Umgang mit großen Dateien empfohlen wird.

Clientseitige Anforderung:

m = MultipartEncoder(fields = {"upload_file":open(file_name,'rb')})
prefix = "http://xxx:5000"
url = "{}/v1/uploadfiles".format(prefix)
try:
    req = requests.post(
    url,
    data=m,
    verify=False,
            )

Serverseitige Antwort:

HTTP 422 {"detail":[{"loc":["body","upload_file"],"msg":"field required","type":"value_error.missing"}]}

Grund dafür Fehler:

Der Fehler tritt auf, weil die clientseitige Anfrage den Content-Type-Header weglässt. FastAPI erwartet, dass der Client beim Hochladen von Dateien mehrteilige/Formulardatenanfragen sendet. Ohne den Content-Type-Header kann FastAPI den Anfragetext nicht korrekt analysieren.

Lösung 1 (empfohlen): Verwendung von Streaming-Datei-Uploads und Chunk-Encoded-Anfragen

HTTPX-Bibliothek unterstützt standardmäßig das Hochladen von Streaming-Dateien, sodass Sie Dateien senden können, ohne sie vollständig zu laden Speicher.

Beispiel:

import httpx
import time

url = 'http://127.0.0.1:8000/upload'
files = {'file': open('bigFile.zip', 'rb')}
headers = {'Filename': 'bigFile.zip'}
data = {'data': 'Hello World!'}

with httpx.Client() as client:
    start = time.time()
    r = client.post(url, data=data, files=files, headers=headers)
    end = time.time()
    print(f'Time elapsed: {end - start}s')
    print(r.status_code, r.json(), sep=' ')

Lösung 2: Bibliothek „streaming_form_data“ verwenden

Diese Bibliothek stellt ein Streaming-Multipart/Formular bereit -Datenparser für Python, der es Ihnen ermöglicht, mehrteilige/Formulardatenanfragen zu analysieren, ohne den gesamten Anfragetext vollständig zu laden Erinnerung.

Beispiel:

from streaming_form_data import StreamingFormDataParser
from streaming_form_data.targets import FileTarget, ValueTarget

app = FastAPI()
MAX_REQUEST_BODY_SIZE = 1024 * 1024 * 1024 * 4  # = 4GB
MAX_FILE_SIZE = 1024 * 1024 * 1024 * 3  # = 3GB

@app.post('/upload')
async def upload(request: Request):
    
    parser = StreamingFormDataParser(headers=request.headers)
    filename = request.headers.get('Filename')
    file_ = FileTarget('./' + filename)
    data = ValueTarget()
    parser.register('file', file_)
    parser.register('data', data)
    body_validator = MaxBodySizeValidator(MAX_REQUEST_BODY_SIZE)
    file_validator = MaxSizeValidator(MAX_FILE_SIZE)
    
    async for chunk in request.stream():
        body_validator(chunk)
        parser.data_received(chunk)

Das obige ist der detaillierte Inhalt vonWie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn