Puisque Python est un langage interprété, lorsqu'il est utilisé pour le développement back-end, comme dans la combinaison de Python Django, par rapport à Java Spring, son temps de réponse sera un peu plus long. Toutefois, tant que le code est raisonnable, la différence n’est pas trop significative. Même lorsque Django utilise le mode multi-processus, sa capacité de traitement simultané reste bien plus faible. Python propose des solutions pour améliorer les capacités de traitement simultané. Par exemple, en utilisant le framework asynchrone FastAPI, avec ses capacités asynchrones, la capacité de traitement simultané des tâches gourmandes en E/S peut être considérablement améliorée. FastAPI est l'un des frameworks Python les plus rapides.
FastAPI comme exemple
Voyons d'abord brièvement comment utiliser FastAPI.
Exemple 1 : E/S asynchrones du réseau par défaut
Installation :
pip install fastapi
Code simple côté serveur :
# app.py from typing import Union from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): return {"Hello": "World"}
Démarrage :
uvicorn app:app --reload
On constate que, par rapport à d'autres frameworks, l'interface de FastAPI n'a qu'un mot-clé async supplémentaire. Le mot-clé async définit l'interface comme asynchrone. À partir du seul résultat renvoyé, nous ne pouvons pas faire la différence entre FastAPI et les autres frameworks Python. La différence réside dans l'accès simultané. Lorsque les threads du serveur de FastAPI gèrent les requêtes de route, telles que http://127.0.0.1:8000/, s'ils rencontrent des E/S réseau, ils ne l'attendront plus mais traiteront d'autres requêtes à la place. Lorsque les E/S réseau sont terminées, l'exécution reprend. Cette capacité asynchrone améliore la capacité de traitement des tâches gourmandes en E/S.
Exemple 2 : E/S asynchrones de réseau explicites
Regardons un autre exemple. Dans le code métier, une requête réseau asynchrone explicite est lancée. Pour ces E/S réseau, tout comme les requêtes de route, FastAPI les gérera également de manière asynchrone.
# app.py from fastapi import FastAPI, HTTPException import httpx app = FastAPI() # Example of an asynchronous GET request @app.get("/external-api") async def call_external_api(): url = "https://leapcell.io" async with httpx.AsyncClient() as client: response = await client.get(url) if response.status_code!= 200: raise HTTPException(status_code=response.status_code, detail="Failed to fetch data") return response.json()
Si vous souhaitez que les E/S de la base de données soient asynchrones, vous avez besoin de la prise en charge des opérations asynchrones à partir du pilote de base de données ou de l'ORM.
E/S asynchrones
L'implémentation principale de l'asynchronie de FastAPI est l'E/S asynchrone. Nous pouvons démarrer un serveur avec des capacités de traitement asynchrone directement en utilisant des E/S asynchrones sans utiliser FastAPI.
import asyncio from aiohttp import web async def index(request): await asyncio.sleep(1) # Simulate I/O operation return web.Response(text='{"Hello": "World"}', content_type='application/json') async def init(loop): # Use the event loop to monitor web requests app = web.Application(loop=loop) app.router.add_route('GET', '/', index) # Start the server, and the event loop monitors and processes web requests srv = await loop.create_server(app.make_handler(), '127.0.0.1', 8000) print('Server started at http://127.0.0.1:8000...') return srv # Explicitly get an event loop loop = asyncio.get_event_loop() # Start the event loop loop.run_until_complete(init(loop)) loop.run_forever()
Lorsque cet exemple est démarré, le résultat renvoyé par http://127.0.0.1:8000/ est le même que celui de l'exemple 1. Le principe d'implémentation sous-jacent des E/S asynchrones est les « coroutines » et les « boucles d'événements ». .
Coroutines
pip install fastapi
L'index de fonction est défini avec async def, ce qui signifie qu'il s'agit d'une coroutine. Le mot clé wait est utilisé avant une opération d'E/S pour indiquer au thread d'exécution de ne pas attendre cette opération d'E/S. Les appels de fonctions normales sont implémentés via la pile, et les fonctions ne peuvent être appelées et exécutées qu'une par une. Cependant, une coroutine est un type particulier de fonction (pas un fil collaboratif). Il permet au thread de suspendre l'exécution à la marque d'attente et de passer à l'exécution d'autres tâches. Une fois l'opération d'E/S terminée, l'exécution se poursuivra.
Jetons un coup d'œil à l'effet de plusieurs coroutines exécutées simultanément.
# app.py from typing import Union from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): return {"Hello": "World"}
Sortie :
uvicorn app:app --reload
On voit que le thread n'exécute pas les trois tâches une à une. Lorsqu'il rencontre une opération d'E/S, il passe à l'exécution d'autres tâches. Une fois l’opération d’E/S terminée, elle continue à s’exécuter. On peut également voir que les trois coroutines commencent essentiellement à attendre l'opération d'E/S en même temps, de sorte que les délais d'exécution de l'exécution finale sont fondamentalement les mêmes. Bien que la boucle d'événements ne soit pas utilisée explicitement ici, asyncio.run l'utilisera implicitement.
Générateurs
Les coroutines sont implémentées via des générateurs. Les générateurs peuvent suspendre l'exécution des fonctions et également la reprendre, ce qui est la caractéristique des coroutines.
# app.py from fastapi import FastAPI, HTTPException import httpx app = FastAPI() # Example of an asynchronous GET request @app.get("/external-api") async def call_external_api(): url = "https://leapcell.io" async with httpx.AsyncClient() as client: response = await client.get(url) if response.status_code!= 200: raise HTTPException(status_code=response.status_code, detail="Failed to fetch data") return response.json()
Lors de l'exécution du générateur avec next(), lorsqu'il rencontre un rendement, il se met en pause. Lorsque next() est réexécuté, il continuera à s'exécuter à partir du rendement où il a été interrompu la dernière fois. Avant Python 3.5, les coroutines étaient également écrites avec un résultat "annotations". À partir de Python 3.5, async def wait est utilisé.
import asyncio from aiohttp import web async def index(request): await asyncio.sleep(1) # Simulate I/O operation return web.Response(text='{"Hello": "World"}', content_type='application/json') async def init(loop): # Use the event loop to monitor web requests app = web.Application(loop=loop) app.router.add_route('GET', '/', index) # Start the server, and the event loop monitors and processes web requests srv = await loop.create_server(app.make_handler(), '127.0.0.1', 8000) print('Server started at http://127.0.0.1:8000...') return srv # Explicitly get an event loop loop = asyncio.get_event_loop() # Start the event loop loop.run_until_complete(init(loop)) loop.run_forever()
Les fonctionnalités de pause et de reprise des générateurs peuvent être utilisées pour beaucoup de choses en plus des coroutines. Par exemple, il peut calculer en boucle et stocker des algorithmes. Par exemple, implémenter un triangle de Pascal (les deux extrémités de chaque ligne sont 1 et les nombres dans les autres positions sont la somme des deux nombres au-dessus).
async def index(request): await asyncio.sleep(1) # Simulate I/O operation return web.Response(text='{"Hello": "World"}', content_type='application/json')
Sortie :
import asyncio from datetime import datetime async def coroutine3(): print(f"Coroutine 3 started at {datetime.now()}") await asyncio.sleep(1) # Simulate I/O operation print(f"Coroutine 3 finished at {datetime.now()}") async def coroutine2(): print(f"Coroutine 2 started at {datetime.now()}") await asyncio.sleep(1) # Simulate I/O operation print(f"Coroutine 2 finished at {datetime.now()}") async def coroutine1(): print(f"Coroutine 1 started at {datetime.now()}") await asyncio.sleep(1) # Simulate I/O operation print(f"Coroutine 1 finished at {datetime.now()}") async def main(): print("Main started") # Create tasks to make coroutines execute concurrently task1 = asyncio.create_task(coroutine1()) task2 = asyncio.create_task(coroutine2()) task3 = asyncio.create_task(coroutine3()) # Wait for all tasks to complete await task1 await task2 await task3 print("Main finished") # Run the main coroutine asyncio.run(main())
Boucles d'événements
Puisque l'exécution de la coroutine peut être suspendue, quand la coroutine reprendra-t-elle l'exécution ? Cela nécessite l'utilisation d'une boucle d'événements pour informer le thread d'exécution.
Main started Coroutine 1 started at 2024-12-27 12:28:01.661251 Coroutine 2 started at 2024-12-27 12:28:01.661276 Coroutine 3 started at 2024-12-27 12:28:01.665012 Coroutine 1 finished at 2024-12-27 12:28:02.665125 Coroutine 2 finished at 2024-12-27 12:28:02.665120 Coroutine 3 finished at 2024-12-27 12:28:02.665120 Main finished
La boucle d'événements utilise la technologie de multiplexage d'E/S, cycliquement en permanence pour surveiller les événements où les coroutines peuvent continuer à s'exécuter. Lorsqu'ils pourront être exécutés, le thread continuera à exécuter les coroutines.
Technologie de multiplexage d'E/S
Pour comprendre le multiplexage E/S de manière simple : je suis le patron d'une station de messagerie. Je n'ai pas besoin d'interroger activement chaque coursier sur l'accomplissement de ses tâches. Au lieu de cela, les coursiers viendront me voir d'eux-mêmes après avoir terminé leurs tâches. Cela améliore ma capacité de traitement des tâches et je peux faire plus de choses.
select, poll et epoll peuvent tous réaliser le multiplexage d'E/S. Comparé à select et poll, epoll a de meilleures performances. Linux utilise généralement epoll par défaut et macOS utilise kqueue, qui est similaire à epoll et a des performances similaires.
Serveur Socket utilisant des boucles d'événements
pip install fastapi
Démarrez le socket du serveur pour surveiller le port spécifié. S'ils sont exécutés sur un système Linux, les sélecteurs utilisent epoll comme implémentation par défaut. Le code utilise epoll pour enregistrer un événement de réception de demande (accepter l'événement). Lorsqu'une nouvelle demande arrive, epoll déclenchera et exécutera la fonction de gestion des événements et, en même temps, enregistrera un événement de lecture (événement de lecture) pour traiter et répondre aux données de la demande. Lors d'un accès depuis le côté Web avec http://127.0.0.1:8000/, le résultat renvoyé est le même que celui de l'exemple 1. Journal d'exécution du serveur :
# app.py from typing import Union from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): return {"Hello": "World"}
Serveur de sockets
Utilisez directement Socket pour démarrer un serveur. Lorsqu'il est accessible avec un navigateur à l'adresse http://127.0.0.1:8080/ ou en utilisant curl http://127.0.0.1:8080/, il renverra {"Hello": "World">
uvicorn app:app --reload
Lorsque vous y accédez avec curl http://127.0.0.1:8001/, journal d'exécution du serveur :
# app.py from fastapi import FastAPI, HTTPException import httpx app = FastAPI() # Example of an asynchronous GET request @app.get("/external-api") async def call_external_api(): url = "https://leapcell.io" async with httpx.AsyncClient() as client: response = await client.get(url) if response.status_code!= 200: raise HTTPException(status_code=response.status_code, detail="Failed to fetch data") return response.json()
Résumé
Les E/S asynchrones sont implémentées au niveau de la couche inférieure à l'aide de « coroutines » et de « boucles d'événements ». Les "coroutines" garantissent que lorsque le thread rencontre des opérations d'E/S marquées pendant l'exécution, il n'a pas besoin d'attendre la fin de l'E/S mais peut faire une pause et laisser le thread exécuter d'autres tâches sans blocage. Les « boucles d'événements » utilisent la technologie de multiplexage d'E/S, effectuant un cycle constant pour surveiller les événements d'E/S. Lorsqu'un certain événement d'E/S est terminé, le rappel correspondant est déclenché, permettant à la coroutine de poursuivre l'exécution.
Leapcell : la plate-forme idéale pour FastAPI et autres applications Python :
Enfin, permettez-moi de vous présenter la plateforme idéale pour déployer Flask/FastAPI : Leapcell.
Leapcell est une plate-forme de cloud computing conçue spécifiquement pour les applications distribuées modernes. Son modèle de tarification par répartition garantit l'absence de coûts inutiles, ce qui signifie que les utilisateurs ne paient que pour les ressources qu'ils utilisent réellement.
Les avantages uniques de Leapcell pour les applications WSGI/ASGI :
1. Prise en charge multilingue
- Prend en charge le développement en JavaScript, Python, Go ou Rust.
2. Déploiement gratuit de projets illimités
- Frais uniquement en fonction de l'utilisation. Aucun frais lorsqu'il n'y a aucune demande.
3. Rentabilité inégalée
- Payez à l'utilisation, sans frais d'inactivité.
- Par exemple, 25 $ peuvent prendre en charge 6,94 millions de requêtes, avec un temps de réponse moyen de 60 millisecondes.
4. Expérience de développeur simplifiée
- Interface utilisateur intuitive pour une configuration facile.
- Pipelines CI/CD entièrement automatisés et intégration GitOps.
- Mesures et journaux en temps réel, fournissant des informations exploitables.
5. Évolutivité sans effort et hautes performances
- Mise à l'échelle automatique pour gérer facilement une concurrence élevée.
- Zéro surcharge opérationnelle, permettant aux développeurs de se concentrer sur le développement.
Apprenez-en plus dans la documentation !
Twitter de Leapcell : https://x.com/LeapcellHQ
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Python et C ont chacun leurs propres avantages, et le choix doit être basé sur les exigences du projet. 1) Python convient au développement rapide et au traitement des données en raison de sa syntaxe concise et de son typage dynamique. 2) C convient à des performances élevées et à une programmation système en raison de son typage statique et de sa gestion de la mémoire manuelle.

Le choix de Python ou C dépend des exigences du projet: 1) Si vous avez besoin de développement rapide, de traitement des données et de conception du prototype, choisissez Python; 2) Si vous avez besoin de performances élevées, de faible latence et de contrôle matériel, choisissez C.

En investissant 2 heures d'apprentissage Python chaque jour, vous pouvez améliorer efficacement vos compétences en programmation. 1. Apprenez de nouvelles connaissances: lire des documents ou regarder des tutoriels. 2. Pratique: Écrivez du code et complétez les exercices. 3. Revue: consolider le contenu que vous avez appris. 4. Pratique du projet: Appliquez ce que vous avez appris dans les projets réels. Un tel plan d'apprentissage structuré peut vous aider à maîtriser systématiquement Python et à atteindre des objectifs de carrière.

Les méthodes pour apprendre Python efficacement dans les deux heures incluent: 1. Passez en revue les connaissances de base et assurez-vous que vous connaissez l'installation de Python et la syntaxe de base; 2. Comprendre les concepts de base de Python, tels que les variables, les listes, les fonctions, etc.; 3. Master Basic et Advanced Utilisation en utilisant des exemples; 4. Apprenez des erreurs courantes et des techniques de débogage; 5. Appliquer l'optimisation des performances et les meilleures pratiques, telles que l'utilisation des compréhensions de la liste et le suivi du guide de style PEP8.

Python convient aux débutants et à la science des données, et C convient à la programmation système et au développement de jeux. 1. Python est simple et facile à utiliser, adapté à la science des données et au développement Web. 2.C fournit des performances et un contrôle élevés, adaptés au développement de jeux et à la programmation système. Le choix doit être basé sur les besoins du projet et les intérêts personnels.

Python est plus adapté à la science des données et au développement rapide, tandis que C est plus adapté aux performances élevées et à la programmation système. 1. La syntaxe Python est concise et facile à apprendre, adaptée au traitement des données et à l'informatique scientifique. 2.C a une syntaxe complexe mais d'excellentes performances et est souvent utilisée dans le développement de jeux et la programmation système.

Il est possible d'investir deux heures par jour pour apprendre Python. 1. Apprenez de nouvelles connaissances: apprenez de nouveaux concepts en une heure, comme les listes et les dictionnaires. 2. Pratique et pratique: utilisez une heure pour effectuer des exercices de programmation, tels que la rédaction de petits programmes. Grâce à une planification et à une persévérance raisonnables, vous pouvez maîtriser les concepts de base de Python en peu de temps.

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

SublimeText3 version anglaise
Recommandé : version Win, prend en charge les invites de code !

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

Version Mac de WebStorm
Outils de développement JavaScript utiles

mPDF
mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),