Heim >Backend-Entwicklung >Python-Tutorial >Wie Beautiful Soup zum Extrahieren von Daten aus dem öffentlichen Web verwendet wird

Wie Beautiful Soup zum Extrahieren von Daten aus dem öffentlichen Web verwendet wird

WBOY
WBOYOriginal
2024-08-02 09:20:53748Durchsuche

How Beautiful Soup is used to extract data out of the Public Web

Beautiful Soup ist eine Python-Bibliothek, die zum Scrapen von Daten aus Webseiten verwendet wird. Es erstellt einen Analysebaum zum Parsen von HTML- und XML-Dokumenten und erleichtert so das Extrahieren der gewünschten Informationen.

Beautiful Soup bietet mehrere Schlüsselfunktionen für Web Scraping:

  1. Navigieren im Analysebaum: Sie können problemlos im Analysebaum navigieren und nach Elementen, Tags und Attributen suchen.
  2. Ändern des Analysebaums: Sie können den Analysebaum ändern, einschließlich des Hinzufügens, Entfernens und Aktualisierens von Tags und Attributen.
  3. Ausgabeformatierung: Sie können den Analysebaum wieder in eine Zeichenfolge umwandeln, um das Speichern des geänderten Inhalts zu vereinfachen.

Um Beautiful Soup verwenden zu können, müssen Sie die Bibliothek zusammen mit einem Parser wie lxml oder html.parser installieren. Sie können sie mit pip
installieren

#Install Beautiful Soup using pip.
pip install beautifulsoup4 lxml

Umgang mit Paginierung

Bei Websites, die Inhalte auf mehreren Seiten anzeigen, ist die Handhabung der Paginierung unerlässlich, um alle Daten zu erfassen.

  1. Identifizieren Sie die Paginierungsstruktur: Überprüfen Sie die Website, um zu verstehen, wie die Paginierung strukturiert ist (z. B. die Schaltfläche „Nächste Seite“ oder nummerierte Links).
  2. Über Seiten iterieren: Verwenden Sie eine Schleife, um jede Seite zu durchlaufen und die Daten zu extrahieren.
  3. URL oder Parameter aktualisieren:Ändern Sie die URL oder Parameter, um den Inhalt der nächsten Seite abzurufen.
import requests
from bs4 import BeautifulSoup

base_url = 'https://example-blog.com/page/'
page_number = 1
all_titles = []

while True:
    # Construct the URL for the current page
    url = f'{base_url}{page_number}'
    response = requests.get(url)
    soup = BeautifulSoup(response.content, 'html.parser')

    # Find all article titles on the current page
    titles = soup.find_all('h2', class_='article-title')
    if not titles:
        break  # Exit the loop if no titles are found (end of pagination)

    # Extract and store the titles
    for title in titles:
        all_titles.append(title.get_text())

    # Move to the next page
    page_number += 1

# Print all collected titles
for title in all_titles:
    print(title)

Extrahieren verschachtelter Daten

Manchmal sind die Daten, die Sie extrahieren müssen, in mehreren Tag-Ebenen verschachtelt. Hier erfahren Sie, wie Sie mit der Extraktion verschachtelter Daten umgehen.

  1. Navigieren Sie zu übergeordneten Tags:Suchen Sie die übergeordneten Tags, die die verschachtelten Daten enthalten.
  2. Verschachtelte Tags extrahieren: Suchen und extrahieren Sie in jedem übergeordneten Tag die verschachtelten Tags.
  3. Durch verschachtelte Tags iterieren: Durch die verschachtelten Tags iterieren, um die erforderlichen Informationen zu extrahieren.
import requests
from bs4 import BeautifulSoup

url = 'https://example-blog.com/post/123'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')

# Find the comments section
comments_section = soup.find('div', class_='comments')

# Extract individual comments
comments = comments_section.find_all('div', class_='comment')

for comment in comments:
    # Extract author and content from each comment
    author = comment.find('span', class_='author').get_text()
    content = comment.find('p', class_='content').get_text()
    print(f'Author: {author}\nContent: {content}\n')

Umgang mit AJAX-Anfragen

Viele moderne Websites verwenden AJAX, um Daten dynamisch zu laden. Die Handhabung von AJAX erfordert verschiedene Techniken, wie z. B. die Überwachung von Netzwerkanfragen mithilfe von Browser-Entwicklertools und die Replikation dieser Anfragen in Ihrem Scraper.

import requests
from bs4 import BeautifulSoup

# URL to the API endpoint providing the AJAX data
ajax_url = 'https://example.com/api/data?page=1'
response = requests.get(ajax_url)
data = response.json()

# Extract and print data from the JSON response
for item in data['results']:
    print(item['field1'], item['field2'])

Risiken von Web Scraping

Web Scraping erfordert eine sorgfältige Abwägung rechtlicher, technischer und ethischer Risiken. Durch die Implementierung geeigneter Sicherheitsmaßnahmen können Sie diese Risiken mindern und Web Scraping verantwortungsbewusst und effektiv durchführen.

  • Verstöße gegen die Nutzungsbedingungen: Viele Websites verbieten Scraping in ihren Nutzungsbedingungen (ToS) ausdrücklich. Ein Verstoß gegen diese Bedingungen kann zu rechtlichen Schritten führen.
  • Probleme mit geistigem Eigentum: Das Scrapen von Inhalten ohne Genehmigung kann geistige Eigentumsrechte verletzen und zu Rechtsstreitigkeiten führen.
  • IP-Blockierung: Websites können IP-Adressen erkennen und blockieren, die Scraping-Verhalten zeigen.
  • Kontosperrungen: Wenn Scraping auf Websites durchgeführt wird, die eine Benutzerauthentifizierung erfordern, kann das für das Scraping verwendete Konto gesperrt werden.

Beautiful Soup ist eine leistungsstarke Bibliothek, die den Web-Scraping-Prozess vereinfacht, indem sie eine benutzerfreundliche Oberfläche zum Navigieren und Durchsuchen von HTML- und XML-Dokumenten bereitstellt. Es kann verschiedene Parsing-Aufgaben bewältigen und ist somit ein unverzichtbares Werkzeug für jeden, der Daten aus dem Web extrahieren möchte.

Das obige ist der detaillierte Inhalt vonWie Beautiful Soup zum Extrahieren von Daten aus dem öffentlichen Web verwendet wird. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn