suchen
HeimBackend-EntwicklungPython-TutorialWie macht man einen guten Webcrawler?

Wie macht man einen guten Webcrawler?

Jun 20, 2017 pm 04:23 PM
如何爬虫网络

Das Wesen von Webcrawlern besteht eigentlich darin, Daten aus dem Internet zu „stehlen“. Durch Webcrawler können wir die benötigten Ressourcen sammeln, aber auch eine unsachgemäße Verwendung kann zu ernsthaften Problemen führen.

Daher müssen wir beim Einsatz von Webcrawlern in der Lage sein, „auf die richtige Art und Weise zu stehlen“.

Webcrawler werden hauptsächlich in die folgenden drei Kategorien unterteilt:

1. Kleiner Maßstab, kleine Datenmenge und unempfindliche Crawling-Geschwindigkeit; Dafür können wir die Requests-Bibliothek verwenden, um Webcrawler zu implementieren, die hauptsächlich zum Crawlen von Webseiten verwendet werden.

2 Kann die Scrapy-Bibliothek verwenden, die hauptsächlich zum Crawlen von Websites oder einer Reihe von Websites verwendet wird das gesamte Netzwerk, normalerweise zum Aufbau des gesamten Netzwerks Suchmaschinen wie Baidu, Google-Suche usw.

Von diesen drei Typen ist der erste der häufigste, und die meisten von ihnen sind kleine Crawler, die Webseiten crawlen.

Es gibt auch viele Einwände gegen Webcrawler. Da Webcrawler ständig Anfragen an den Server senden, beeinträchtigt dies die Serverleistung, verursacht Belästigungen für den Server und erhöht die Arbeitsbelastung der Website-Betreuer.

Neben der Belästigung von Servern können Webcrawler auch rechtliche Risiken mit sich bringen.

Da die Daten auf dem Server Eigentumsrechte haben, birgt die gewinnorientierte Nutzung der Daten rechtliche Risiken. Darüber hinaus können Webcrawler auch zu Datenschutzverletzungen bei den Benutzern führen.

Kurz gesagt, das Risiko von Webcrawlern ergibt sich hauptsächlich aus den folgenden drei Punkten:

    Leistung des Servers Belästigung
  • Rechtliche Risiken auf inhaltlicher Ebene
  • Verletzung der Privatsphäre
  • Daher Web Crawler Die Nutzung erfordert bestimmte Regeln.

In der Praxis haben einige größere Websites den Webcrawlern entsprechende Einschränkungen auferlegt, und Webcrawler gelten auch im gesamten Internet als standardisierbare Funktion.

Für allgemeine Server können wir Webcrawler auf zwei Arten einschränken: 1. Wenn der Eigentümer der Website über bestimmte technische Fähigkeiten verfügt Begrenzen Sie Webcrawler durch Quellenüberprüfung.

Die Quellenüberprüfung führt im Allgemeinen zu Einschränkungen durch die Beurteilung von User-Agent. Dieser Artikel konzentriert sich auf den zweiten Typ.

2. Verwenden Sie das Robots-Protokoll, um Webcrawlern die Regeln mitzuteilen, die sie einhalten müssen, welche Regeln gecrawlt werden können und welche nicht, und um von allen Crawlern die Einhaltung dieses Protokolls zu verlangen.

Die zweite Methode besteht darin, in Form einer Bekanntmachung darüber zu informieren, dass die Robots-Vereinbarung zwar empfohlen, aber nicht bindend ist, es aber möglicherweise rechtliche Risiken gibt. Durch diese beiden Methoden werden im Internet wirksame moralische und technische Beschränkungen für Webcrawler gebildet.

Dann

wenn wir einen Webcrawler schreiben, müssen wir die Verwaltung der Website-Ressourcen durch die Website-Betreuer respektieren.

Im Internet verfügen einige Websites nicht über das Robots-Protokoll und alle Daten können gecrawlt werden. Die überwiegende Mehrheit der Mainstream-Websites unterstützt jedoch das Robots-Protokoll und unterliegt den entsprechenden Einschränkungen Einführung in die grundlegende Syntax des Robots-Protokolls.

Robots-Protokoll (Robots Exclusion Standard, Web-Crawler-Ausschlussstandard): Funktion: Die Website teilt Webcrawlern mit, welche Seiten gecrawlt werden können und welche nein.

Formular: robots.txt-Datei im Stammverzeichnis der Website.

Grundlegende Syntax des Robots-Protokolls: * steht für alles, / steht für das Stammverzeichnis.

Zum Beispiel das Robots-Protokoll von PMCAFF:

Benutzeragent: *

Disallow: /article/edit

Disallow: /discuss/write

Disallow: /discuss/edit

in Zeile 1 Benutzer -agent:* bedeutet, dass alle Webcrawler die folgenden Protokolle einhalten müssen;

Disallow: /article/edit in Zeile 2 bedeutet, dass alle Webcrawler nicht auf Artikel unter Artikel/Bearbeiten zugreifen dürfen das Gleiche gilt auch für andere.

Wenn Sie das Robots-Protokoll von JD.com beachten, können Sie sehen, dass es den Benutzeragenten EtaoSpider, Disallow: / gibt, wobei EtaoSpider ein böswilliger Crawler ist und keine Ressourcen von JD.com crawlen darf.

Benutzeragent: *

Nicht zulassen: /?*

Nicht zulassen: /pop /*.html

Disallow: /pinpai/*.html?*

User-agent: EtaoSpider

Nicht zulassen: /

Benutzeragent: HuihuiSpider

Nicht zulassen: /

Benutzeragent: GwdangSpider

Nicht zulassen: /

Benutzeragent: WochachaSpider

Nicht zulassen: /

Mit dem Robots-Protokoll können Sie den Inhalt der Website regulieren und allen Webcrawlern mitteilen, welche gecrawlt werden dürfen und welche nicht.

Es ist wichtig zu beachten, dass das Robots-Protokoll im Stammverzeichnis vorhanden ist. Verschiedene Stammverzeichnisse können unterschiedliche Robots-Protokolle haben , daher müssen Sie beim Crawlen mehr Aufmerksamkeit schenken.

Das obige ist der detaillierte Inhalt vonWie macht man einen guten Webcrawler?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Python und Zeit: Machen Sie das Beste aus Ihrer StudienzeitPython und Zeit: Machen Sie das Beste aus Ihrer StudienzeitApr 14, 2025 am 12:02 AM

Um die Effizienz des Lernens von Python in einer begrenzten Zeit zu maximieren, können Sie Pythons DateTime-, Zeit- und Zeitplanmodule verwenden. 1. Das DateTime -Modul wird verwendet, um die Lernzeit aufzuzeichnen und zu planen. 2. Das Zeitmodul hilft, die Studie zu setzen und Zeit zu ruhen. 3. Das Zeitplanmodul arrangiert automatisch wöchentliche Lernaufgaben.

Python: Spiele, GUIs und mehrPython: Spiele, GUIs und mehrApr 13, 2025 am 12:14 AM

Python zeichnet sich in Gaming und GUI -Entwicklung aus. 1) Spielentwicklung verwendet Pygame, die Zeichnungen, Audio- und andere Funktionen bereitstellt, die für die Erstellung von 2D -Spielen geeignet sind. 2) Die GUI -Entwicklung kann Tkinter oder Pyqt auswählen. Tkinter ist einfach und einfach zu bedienen. PYQT hat reichhaltige Funktionen und ist für die berufliche Entwicklung geeignet.

Python vs. C: Anwendungen und Anwendungsfälle verglichenPython vs. C: Anwendungen und Anwendungsfälle verglichenApr 12, 2025 am 12:01 AM

Python eignet sich für Datenwissenschafts-, Webentwicklungs- und Automatisierungsaufgaben, während C für Systemprogrammierung, Spieleentwicklung und eingebettete Systeme geeignet ist. Python ist bekannt für seine Einfachheit und sein starkes Ökosystem, während C für seine hohen Leistung und die zugrunde liegenden Kontrollfunktionen bekannt ist.

Der 2-stündige Python-Plan: ein realistischer AnsatzDer 2-stündige Python-Plan: ein realistischer AnsatzApr 11, 2025 am 12:04 AM

Sie können grundlegende Programmierkonzepte und Fähigkeiten von Python innerhalb von 2 Stunden lernen. 1. Lernen Sie Variablen und Datentypen, 2. Master Control Flow (bedingte Anweisungen und Schleifen), 3.. Verstehen Sie die Definition und Verwendung von Funktionen, 4. Beginnen Sie schnell mit der Python -Programmierung durch einfache Beispiele und Code -Snippets.

Python: Erforschen der primären AnwendungenPython: Erforschen der primären AnwendungenApr 10, 2025 am 09:41 AM

Python wird in den Bereichen Webentwicklung, Datenwissenschaft, maschinelles Lernen, Automatisierung und Skripten häufig verwendet. 1) In der Webentwicklung vereinfachen Django und Flask Frameworks den Entwicklungsprozess. 2) In den Bereichen Datenwissenschaft und maschinelles Lernen bieten Numpy-, Pandas-, Scikit-Learn- und TensorFlow-Bibliotheken eine starke Unterstützung. 3) In Bezug auf Automatisierung und Skript ist Python für Aufgaben wie automatisiertes Test und Systemmanagement geeignet.

Wie viel Python können Sie in 2 Stunden lernen?Wie viel Python können Sie in 2 Stunden lernen?Apr 09, 2025 pm 04:33 PM

Sie können die Grundlagen von Python innerhalb von zwei Stunden lernen. 1. Lernen Sie Variablen und Datentypen, 2. Master -Steuerungsstrukturen wie wenn Aussagen und Schleifen, 3. Verstehen Sie die Definition und Verwendung von Funktionen. Diese werden Ihnen helfen, einfache Python -Programme zu schreiben.

Wie lehre ich innerhalb von 10 Stunden die Grundlagen für Computer-Anfänger-Programmierbasis in Projekt- und problemorientierten Methoden?Wie lehre ich innerhalb von 10 Stunden die Grundlagen für Computer-Anfänger-Programmierbasis in Projekt- und problemorientierten Methoden?Apr 02, 2025 am 07:18 AM

Wie lehre ich innerhalb von 10 Stunden die Grundlagen für Computer -Anfänger für Programmierungen? Wenn Sie nur 10 Stunden Zeit haben, um Computer -Anfänger zu unterrichten, was Sie mit Programmierkenntnissen unterrichten möchten, was würden Sie dann beibringen ...

Wie kann man vom Browser vermeiden, wenn man überall Fiddler für das Lesen des Menschen in der Mitte verwendet?Wie kann man vom Browser vermeiden, wenn man überall Fiddler für das Lesen des Menschen in der Mitte verwendet?Apr 02, 2025 am 07:15 AM

Wie kann man nicht erkannt werden, wenn Sie Fiddlereverywhere für Man-in-the-Middle-Lesungen verwenden, wenn Sie FiddLereverywhere verwenden ...

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

VSCode Windows 64-Bit-Download

VSCode Windows 64-Bit-Download

Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

WebStorm-Mac-Version

WebStorm-Mac-Version

Nützliche JavaScript-Entwicklungstools

Sicherer Prüfungsbrowser

Sicherer Prüfungsbrowser

Safe Exam Browser ist eine sichere Browserumgebung für die sichere Teilnahme an Online-Prüfungen. Diese Software verwandelt jeden Computer in einen sicheren Arbeitsplatz. Es kontrolliert den Zugriff auf alle Dienstprogramme und verhindert, dass Schüler nicht autorisierte Ressourcen nutzen.

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung