Heim  >  Artikel  >  Backend-Entwicklung  >  Ausführliche Erläuterung der Beispiele für rekursives Crawlen des Python-Crawler-Pakets BeautifulSoup

Ausführliche Erläuterung der Beispiele für rekursives Crawlen des Python-Crawler-Pakets BeautifulSoup

高洛峰
高洛峰Original
2017-02-03 15:59:292235Durchsuche

Python-Crawler-Paket BeautifulSoup Detaillierte Erläuterung der Beispiele für rekursives Crawling

Zusammenfassung:

Der Hauptzweck des Crawlers besteht darin, den erforderlichen Inhalt im Netzwerk zu crawlen. Ihr Wesen ist ein rekursiver Prozess. Sie müssen zuerst den Inhalt der Webseite abrufen, dann den Seiteninhalt analysieren und eine andere URL finden, dann den Seiteninhalt dieser URL abrufen und diesen Vorgang wiederholen.

Nehmen wir Wikipedia als Beispiel.

Wir möchten alle Links extrahieren, die auf andere Einträge im Kevin Bacon-Eintrag in Wikipedia verweisen.

# -*- coding: utf-8 -*-
# @Author: HaonanWu
# @Date:  2016-12-25 10:35:00
# @Last Modified by:  HaonanWu
# @Last Modified time: 2016-12-25 10:52:26
from urllib2 import urlopen
from bs4 import BeautifulSoup
 
html = urlopen('http://en.wikipedia.org/wiki/Kevin_Bacon')
bsObj = BeautifulSoup(html, "html.parser")
 
for link in bsObj.findAll("a"):
  if 'href' in link.attrs:
    print link.attrs['href']

Der obige Code kann alle Hyperlinks auf der Seite extrahieren.

/wiki/Wikipedia:Protection_policy#semi
#mw-head
#p-search
/wiki/Kevin_Bacon_(disambiguation)
/wiki/File:Kevin_Bacon_SDCC_2014.jpg
/wiki/San_Diego_Comic-Con
/wiki/Philadelphia
/wiki/Pennsylvania
/wiki/Kyra_Sedgwick

Erstens können die extrahierten URLs einige Duplikate enthalten.

Zweitens gibt es einige URLs, die wir nicht benötigen , wie Seitenleiste, Kopfzeile, Fußzeile, Link zur Verzeichnisleiste usw.

Durch Beobachtung können wir also feststellen, dass alle Links, die auf die Einstiegsseite verweisen, drei Merkmale aufweisen:

Sie befinden sich alle im div-Tag mit der ID bodyContent

Die URL-Link ist kein URL-Link, der Doppelpunkte enthält

sind alle relative Pfade, die mit /wiki/ beginnen (der vollständige absolute Pfad, der mit http beginnt, wird ebenfalls gecrawlt)

from urllib2 import urlopen
from bs4 import BeautifulSoup
import datetime
import random
import re
 
pages = set()
random.seed(datetime.datetime.now())
def getLinks(articleUrl):
  html = urlopen("http://en.wikipedia.org"+articleUrl)
  bsObj = BeautifulSoup(html, "html.parser")
  return bsObj.find("div", {"id":"bodyContent"}).findAll("a", href=re.compile("^(/wiki/)((?!:).)*$"))
 
links = getLinks("/wiki/Kevin_Bacon")
while len(links) > 0:
  newArticle = links[random.randint(0, len(links)-1)].attrs["href"]
  if newArticle not in pages:
    print(newArticle)
    pages.add(newArticle)
    links = getLinks(newArticle)

Der Parameter von getLinks ist /wiki/c2f4fa33b587e052ef537825d84e076a, und die URL der Seite wird durch Zusammenführen mit dem absoluten Pfad von Wikipedia erhalten. Erfassen Sie alle URLs, die auf andere Begriffe verweisen, über reguläre Ausdrücke und geben Sie sie an die Hauptfunktion zurück.

Die Hauptfunktion ruft rekursive Getlinks auf und greift zufällig auf eine nicht besuchte URL zu, bis keine Einträge mehr vorhanden sind oder sie aktiv stoppt.

Dieser Code kann die gesamte Wikipedia crawlen

from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
 
pages = set()
def getLinks(pageUrl):
  global pages
  html = urlopen("http://en.wikipedia.org"+pageUrl)
  bsObj = BeautifulSoup(html, "html.parser")
  try:
    print(bsObj.h1.get_text())
    print(bsObj.find(id ="mw-content-text").findAll("p")[0])
    print(bsObj.find(id="ca-edit").find("span").find("a").attrs['href'])
  except AttributeError:
    print("This page is missing something! No worries though!")
 
  for link in bsObj.findAll("a", href=re.compile("^(/wiki/)")):
    if 'href' in link.attrs:
      if link.attrs['href'] not in pages:
        #We have encountered a new page
        newPage = link.attrs['href']
        print("----------------\n"+newPage)
        pages.add(newPage)
        getLinks(newPage)
getLinks("")

Im Allgemeinen beträgt die Rekursionsgrenze von Python 1000 Mal um künstlich einen größeren Rekursionszähler festzulegen oder andere Mittel zu verwenden, damit der Code auch nach 1.000 Iterationen noch ausgeführt werden kann.

Vielen Dank fürs Lesen, ich hoffe, es kann Ihnen helfen, vielen Dank für Ihre Unterstützung dieser Website!

Weitere Beispiele für das rekursive Crawling des Python-Crawler-Pakets BeautifulSoup und verwandte Artikel finden Sie auf der chinesischen PHP-Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn