Heim  >  Artikel  >  Backend-Entwicklung  >  Welche Bibliotheken werden zum Schreiben von Crawlern in Python verwendet?

Welche Bibliotheken werden zum Schreiben von Crawlern in Python verwendet?

silencement
silencementOriginal
2019-06-21 15:34:327249Durchsuche

Welche Bibliotheken werden zum Schreiben von Crawlern in Python verwendet?

Python-Crawler, der vollständige Name des Python-Webcrawlers, ist ein Programm oder Skript, das World Wide Web-Informationen nach bestimmten Regeln automatisch crawlt. Es wird hauptsächlich zum Crawlen von Wertpapierhandelsdaten verwendet Wetterdaten, Website-Benutzerdaten und Bilddaten usw. Um die normalen Funktionen von Webcrawlern zu unterstützen, verfügt Python über eine große Anzahl integrierter Bibliotheken, hauptsächlich verschiedener Typen. Der folgende Artikel stellt es Ihnen vor.

1. Python-Crawler-Netzwerkbibliothek

Die Python-Crawler-Netzwerkbibliothek umfasst hauptsächlich: urllib, Anfragen, Grab, Pycurl, urllib3, httplib2, RoboBrowser, MechanicalSoup, Mechanismus, Socket, Unirest für Python, Hyper , PySocks, treq und aiohttp usw.

2. Python-Webcrawler-Framework

Das Python-Webcrawler-Framework umfasst hauptsächlich: Grab, Scrapy, Pyspider, Cola, Portia, Restkit und Demiurge usw.

3. HTML/XML-Parser

● lxml: Eine effiziente HTML/XML-Verarbeitungsbibliothek, geschrieben in C-Sprache. Unterstützt XPath.

● cssselect: DOM-Baum und CSS-Selektor analysieren.

● Pyquery: DOM-Baum und jQuery-Selektor analysieren.

●BeautifulSoup: Ineffiziente HTML/XML-Verarbeitungsbibliothek, implementiert in reinem Python.

● html5lib: Erzeugt das DOM von HTML/XML-Dokumenten gemäß der WHATWG-Spezifikation. Diese Spezifikation wird in allen aktuellen Browsern verwendet.

● Feedparser: RSS/ATOM-Feeds analysieren.

● MarkupSafe: Bietet sichere Escape-Strings für XML/HTML/XHTML.

● xmltodict: Ein Python-Modul, das die Verarbeitung von XML wie JSON anfühlt.

● xhtml2pdf: HTML/CSS in PDF konvertieren.

●entangle: XML-Dateien einfach in Python-Objekte konvertieren.

4. Textverarbeitung

Eine Bibliothek zum Parsen und Bearbeiten von einfachem Text.

● difflib: (Python-Standardbibliothek) hilft bei differenziellen Vergleichen.

● Levenshtein: Berechnen Sie schnell den Levenshtein-Abstand und die String-Ähnlichkeit.

● fuzzywuzzy: Fuzzy-String-Übereinstimmung.

● esmre: Beschleuniger für reguläre Ausdrücke.

● ftfy: Unicode-Text automatisch organisieren, um Fragmentierung zu reduzieren.

5. Verarbeitung spezifischer Formatdateien

Eine Bibliothek zum Parsen und Verarbeiten spezifischer Textformate.

● tablib: Ein Modul, das Daten in XLS, CSV, JSON, YAML und andere Formate exportiert.

●texttract: Extrahieren Sie Text aus verschiedenen Dateien wie Word, PowerPoint, PDF usw.

● Messytables: Ein Tool zum Parsen unordentlicher Tabellendaten.

● Zeilen: eine gemeinsame Datenschnittstelle, die viele Formate unterstützt (unterstützt derzeit CSV, HTML, XLS, TXT; weitere werden in Zukunft bereitgestellt!).

Das obige ist der detaillierte Inhalt vonWelche Bibliotheken werden zum Schreiben von Crawlern in Python verwendet?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn