Maison >développement back-end >Tutoriel Python >Comment puis-je récupérer de manière asynchrone le contenu de plusieurs pages Web à l'aide de la bibliothèque « requests » de Python ?
Requêtes asynchrones avec requêtes Python : récupération de contenu à partir de plusieurs pages
La bibliothèque de requêtes Python permet le traitement asynchrone des requêtes HTTP. Alors que l'exemple fourni dans la documentation présente la récupération des codes de réponse, cet article explore comment récupérer le contenu de chaque page demandée.
Pour ce faire, il est nécessaire de décomposer la tâche en étapes suivantes :
Exemple de code :
from requests import async urls = [ 'http://python-requests.org', 'http://httpbin.org', 'http://python-guide.org', 'http://kennethreitz.com' ] # Task function to extract page content def extract_content(response): return response.content # List to hold asynchronous actions async_list = [] # Create requests with event hooks for u in urls: action_item = async.get(u, hooks={'response': extract_content}) async_list.append(action_item) # Initiate asynchronous processing async.map(async_list) # Print the extracted content for item in async_list: print(item.content)
En suivant ces étapes et en utilisant l'exemple de code fourni, vous pouvez récupérer avec succès le contenu de plusieurs pages de manière asynchrone à l'aide de la bibliothèque de requêtes Python.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!