Heim >Backend-Entwicklung >Python-Tutorial >Wie kann ich mithilfe der „Requests'-Bibliothek von Python asynchron Inhalte von mehreren Webseiten abrufen?
Asynchrone Anfragen mit Python-Anfragen: Inhalte von mehreren Seiten abrufen
Die Python-Anfragebibliothek ermöglicht die asynchrone Verarbeitung von HTTP-Anfragen. Während das bereitgestellte Beispiel in der Dokumentation den Abruf von Antwortcodes zeigt, wird in diesem Artikel erläutert, wie der Inhalt jeder angeforderten Seite abgerufen wird.
Um dies zu erreichen, ist es notwendig, die Aufgabe in die folgenden Schritte zu unterteilen:
Beispielcode:
from requests import async urls = [ 'http://python-requests.org', 'http://httpbin.org', 'http://python-guide.org', 'http://kennethreitz.com' ] # Task function to extract page content def extract_content(response): return response.content # List to hold asynchronous actions async_list = [] # Create requests with event hooks for u in urls: action_item = async.get(u, hooks={'response': extract_content}) async_list.append(action_item) # Initiate asynchronous processing async.map(async_list) # Print the extracted content for item in async_list: print(item.content)
Indem Sie diese Schritte befolgen und das bereitgestellte Codebeispiel verwenden, Mit der Python-Anforderungsbibliothek können Sie den Inhalt mehrerer Seiten erfolgreich asynchron abrufen.
Das obige ist der detaillierte Inhalt vonWie kann ich mithilfe der „Requests'-Bibliothek von Python asynchron Inhalte von mehreren Webseiten abrufen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!