Heim  >  Artikel  >  Backend-Entwicklung  >  So verwenden Sie Selenium zum Crawlen von Webseitendaten in Python

So verwenden Sie Selenium zum Crawlen von Webseitendaten in Python

WBOY
WBOYnach vorne
2023-05-09 11:05:362331Durchsuche

    1. Was ist Selenium

    Webcrawlen ist eine sehr nützliche Technik in der Python-Programmierung, mit der Sie automatisch Daten abrufen können von der Webseite.

    Selenium ist ein automatisiertes Testtool, das Benutzervorgänge im Browser simulieren kann, z. B. das Klicken auf Schaltflächen, das Ausfüllen von Formularen usw. Im Gegensatz zu häufig verwendeten Crawler-Bibliotheken wie BeautifulSoup und Requests kann Selenium dynamisch von JavaScript geladene Inhalte verarbeiten. Daher ist Selenium eine sehr geeignete Wahl für Daten, die durch Simulation von Benutzerinteraktionen ermittelt werden müssen.

    2. Installieren Sie Selenium

    Um Selenium verwenden zu können, müssen Sie es zuerst installieren. Sie können den Befehl pip verwenden, um die Selenium-Bibliothek zu installieren:

    pip install selenium

    Nach Abschluss der Installation müssen Sie außerdem einen Browsertreiber herunterladen, der mit Selenium funktioniert. In diesem Artikel wird der Chrome-Browser als Beispiel verwendet. Sie müssen den ChromeDriver herunterladen, der Ihrer Chrome-Browserversion entspricht. Download-Adresse: sites.google.com/a/chromium.…

    Nach dem Herunterladen und Dekomprimieren legen Sie die Datei chromedriver.exe an einem geeigneten Speicherort ab und merken sich den Speicherort. Wir werden dies später tun im Code verwendet werden.

    3. Webseitendaten crawlen

    Das Folgende ist ein einfaches Beispiel: Wir verwenden Selenium, um eine Webseite zu crawlen und den Seitentitel auszugeben.

    from selenium import webdriver
    # 指定chromedriver.exe的路径
    driver_path = r"C:\path\to\chromedriver.exe"
    # 创建一个WebDriver实例,指定使用Chrome浏览器
    driver = webdriver.Chrome(driver_path)
    # 访问目标网站
    driver.get("https://www.example.com")
    # 获取网页标题
    page_title = driver.title
    print("Page Title:", page_title)
    # 关闭浏览器
    driver.quit()

    4. Benutzerinteraktion simulieren

    Selenium kann verschiedene Benutzervorgänge im Browser simulieren, z. B. das Klicken auf Schaltflächen, das Ausfüllen von Formularen usw. Hier ist ein Beispiel, in dem wir Selenium verwenden, um Anmeldevorgänge auf einer Website durchzuführen:

    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys
    
    driver_path = r"C:\path\to\chromedriver.exe"
    driver = webdriver.Chrome(driver_path)
    
    driver.get("https://www.example.com/login")
    
    # 定位用户名和密码输入框
    username_input = driver.find_element_by_name("username")
    password_input = driver.find_element_by_name("password")
    
    # 输入用户名和密码
    username_input.send_keys("your_username")
    password_input.send_keys("your_password")
    
    # 模拟点击登录按钮
    login_button = driver.find_element_by_xpath("//button[@type='submit']")
    login_button.click()
    
    # 其他操作...
    
    # 关闭浏览器
    driver.quit()

    Durch die Kombination verschiedener Funktionen von Selenium können Sie einen leistungsstarken Webcrawler schreiben, um Daten auf verschiedenen Websites zu crawlen. Bitte beachten Sie jedoch, dass Sie beim Crawlen die robots.txt-Bestimmungen der Zielwebsite einhalten und die Data-Scraping-Richtlinien der Website respektieren müssen. Darüber hinaus kann zu häufiges Crawlen die Website belasten und sogar den Anti-Crawling-Mechanismus auslösen. Daher wird empfohlen, die Crawling-Geschwindigkeit angemessen zu kontrollieren.

    5. Umgang mit dynamisch geladenen Inhalten

    Für einige Websites mit dynamisch geladenen Inhalten können wir die von Selenium bereitgestellten expliziten Warte- und impliziten Wartemechanismen verwenden, um sicherzustellen, dass die Inhalte auf der Webseite Das Element wurde geladen.

    1. Explizites Warten

    Explizites Warten bezieht sich auf das Festlegen einer bestimmten Wartebedingung und das Warten darauf, dass ein Element die Bedingung innerhalb einer bestimmten Zeit erfüllt.

    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    
    driver_path = r"C:\path\to\chromedriver.exe"
    driver = webdriver.Chrome(driver_path)
    
    driver.get("https://www.example.com/dynamic-content")
    
    # 等待指定元素出现,最多等待10秒
    element = WebDriverWait(driver, 10).until(
        EC.presence_of_element_located((By.ID, "dynamic-element-id"))
    )
    
    # 操作该元素...
    
    driver.quit()

    2. Implizites Warten

    Wenn das Element nicht innerhalb dieser Zeit erscheint, wird eine Ausnahme ausgelöst.

    from selenium import webdriver
    
    driver_path = r"C:\path\to\chromedriver.exe"
    driver = webdriver.Chrome(driver_path)
    
    # 设置隐式等待时间为10秒
    driver.implicitly_wait(10)
    
    driver.get("https://www.example.com/dynamic-content")
    
    # 尝试定位元素
    element = driver.find_element_by_id("dynamic-element-id")
    
    # 操作该元素...
    
    driver.quit()

    Das obige ist der detaillierte Inhalt vonSo verwenden Sie Selenium zum Crawlen von Webseitendaten in Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

    Stellungnahme:
    Dieser Artikel ist reproduziert unter:yisu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen