Maison  >  Article  >  développement back-end  >  Comment supprimer des sites Web protégés par la connexion avec Selenium (guide étape par étape)

Comment supprimer des sites Web protégés par la connexion avec Selenium (guide étape par étape)

Barbara Streisand
Barbara Streisandoriginal
2024-11-02 10:34:30634parcourir

How to Scrape Login-Protected Websites with Selenium (Step by Step Guide)

Mes étapes pour supprimer un site Web protégé par mot de passe :

  1. Capturez les éléments du formulaire HTML : identifiant du nom d'utilisateur, identifiant du mot de passe et classe du bouton de connexion
  2. - Utilisez un outil comme les requêtes ou Selenium pour automatiser la connexion : remplissez le nom d'utilisateur, attendez, remplissez le mot de passe, attendez, cliquez sur connexion
  3. - Stocker les cookies de session pour l'authentification
  4. - Continuer à scraper les pages authentifiées

Avertissement : j'ai créé une API pour ce cas d'utilisation spécifique sur https://www.scrapewebapp.com/. Donc, si vous voulez simplement le faire rapidement, utilisez-le, sinon continuez à lire.

Utilisons cet exemple : disons que je souhaite récupérer ma propre clé API de mon compte sur https://www.scrapewebapp.com/. C'est sur cette page : https://app.scrapewebapp.com/account/api_key

1. La page de connexion

Tout d’abord, vous devez trouver la page de connexion. La plupart des sites Web vous donneront une redirection 303 si vous essayez d'accéder à une page derrière la connexion, donc si vous essayez de gratter directement https://app.scrapewebapp.com/account/api_key, vous obtiendrez automatiquement la page de connexion https:// app.scrapewebapp.com/login. C'est donc un bon moyen d'automatiser la recherche de la page de connexion si elle n'est pas déjà fournie.

Ok, maintenant que nous avons la page de connexion, nous devons trouver l'endroit où ajouter le nom d'utilisateur ou l'e-mail ainsi que le mot de passe et le bouton de connexion proprement dit. La meilleure façon est de créer un script simple qui trouve l'ID des entrées en utilisant leur type « email », « nom d'utilisateur », « mot de passe » et trouve le bouton avec le type « soumettre ». J'ai fait un code pour vous ci-dessous :

from bs4 import BeautifulSoup


def extract_login_form(html_content: str):
    """
    Extracts the login form elements from the given HTML content and returns their CSS selectors.
    """
    soup = BeautifulSoup(html_content, "html.parser")

    # Finding the username/email field
    username_email = (
        soup.find("input", {"type": "email"})
        or soup.find("input", {"name": "username"})
        or soup.find("input", {"type": "text"})
    )  # Fallback to input type text if no email type is found

    # Finding the password field
    password = soup.find("input", {"type": "password"})

    # Finding the login button
    # Searching for buttons/input of type submit closest to the password or username field
    login_button = None

    # First try to find a submit button within the same form
    if password:
        form = password.find_parent("form")
        if form:
            login_button = form.find("button", {"type": "submit"}) or form.find(
                "input", {"type": "submit"}
            )
    # If no button is found in the form, fall back to finding any submit button
    if not login_button:
        login_button = soup.find("button", {"type": "submit"}) or soup.find(
            "input", {"type": "submit"}
        )

    # Extracting CSS selectors
    def generate_css_selector(element, element_type):
        if "id" in element.attrs:
            return f"#{element['id']}"
        elif "type" in element.attrs:
            return f"{element_type}[type='{element['type']}']"
        else:
            return element_type

    # Generate CSS selectors with the updated logic
    username_email_css_selector = None
    if username_email:
        username_email_css_selector = generate_css_selector(username_email, "input")

    password_css_selector = None
    if password:
        password_css_selector = generate_css_selector(password, "input")

    login_button_css_selector = None
    if login_button:
        login_button_css_selector = generate_css_selector(
            login_button, "button" if login_button.name == "button" else "input"
        )

    return username_email_css_selector, password_css_selector, login_button_css_selector


def main(html_content: str):
    # Call the extract_login_form function and return its result
    return extract_login_form(html_content)

2. Utiliser Selenium pour se connecter réellement

Vous devez maintenant créer un pilote Web Selenium. Nous utiliserons Chrome sans tête pour l'exécuter avec Python. Voici comment l'installer :

# Install selenium and chromium

!pip install selenium
!apt-get update 
!apt install chromium-chromedriver

!cp /usr/lib/chromium-browser/chromedriver /usr/bin
import sys
sys.path.insert(0,'/usr/lib/chromium-browser/chromedriver')

Ensuite, connectez-vous à notre site Web et enregistrez les cookies. Nous enregistrerons tous les cookies, mais vous ne pourrez enregistrer les cookies d'authentification que si vous le souhaitez.

# Imports
from selenium import webdriver
from selenium.webdriver.common.by import By
import requests
import time

# Set up Chrome options
chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--no-sandbox')
chrome_options.add_argument('--disable-dev-shm-usage')

# Initialize the WebDriver
driver = webdriver.Chrome(options=chrome_options)

try:
    # Open the login page
    driver.get("https://app.scrapewebapp.com/login")

    # Find the email input field by ID and input your email
    email_input = driver.find_element(By.ID, "email")
    email_input.send_keys("******@gmail.com")

    # Find the password input field by ID and input your password
    password_input = driver.find_element(By.ID, "password")
    password_input.send_keys("*******")

    # Find the login button and submit the form
    login_button = driver.find_element(By.CSS_SELECTOR, "button[type='submit']")
    login_button.click()

    # Wait for the login process to complete
    time.sleep(5)  # Adjust this depending on your site's response time


finally:
    # Close the browser
    driver.quit()

3. Stocker les cookies

C'est aussi simple que de les enregistrer dans un dictionnaire à partir de la fonction driver.getcookies().

def save_cookies(driver):
    """Save cookies from the Selenium WebDriver into a dictionary."""
    cookies = driver.get_cookies()
    cookie_dict = {}
    for cookie in cookies:
        cookie_dict[cookie['name']] = cookie['value']
    return cookie_dict

Enregistrez les cookies du WebDriver

cookies = save_cookies(pilote)

4. Obtenez les données de notre session connectée

Dans cette partie, nous utiliserons les requêtes simples de la bibliothèque, mais vous pouvez également continuer à utiliser le sélénium.

Maintenant, nous voulons obtenir l'API réelle à partir de cette page : https://app.scrapewebapp.com/account/api_key.

Nous créons donc une session à partir de la bibliothèque de requêtes et y ajoutons chaque cookie. Demandez ensuite l'URL et imprimez le texte de la réponse.

def scrape_api_key(cookies):
    """Use cookies to scrape the /account/api_key page."""
    url = 'https://app.scrapewebapp.com/account/api_key'

    # Set up the session to persist cookies
    session = requests.Session()

    # Add cookies from Selenium to the requests session
    for name, value in cookies.items():
        session.cookies.set(name, value)

    # Make the request to the /account/api_key page
    response = session.get(url)

    # Check if the request is successful
    if response.status_code == 200:
        print("API Key page content:")
        print(response.text)  # Print the page content (could contain the API key)
    else:
        print(f"Failed to retrieve API key page, status code: {response.status_code}")

5. Obtenez les données réelles que vous souhaitez (BONUS)

Nous avons obtenu le texte de la page que nous voulions, mais il y a beaucoup de données dont nous ne nous soucions pas. Nous voulons juste l'api_key.

Le moyen le meilleur et le plus simple de le faire est d'utiliser une IA comme ChatGPT (modèle GPT4o).

Proposez au modèle comme ceci : « Vous êtes un scraper expert et vous n'extrairez que les informations demandées du contexte. J'ai besoin de la valeur de ma clé API de {context}"

from bs4 import BeautifulSoup


def extract_login_form(html_content: str):
    """
    Extracts the login form elements from the given HTML content and returns their CSS selectors.
    """
    soup = BeautifulSoup(html_content, "html.parser")

    # Finding the username/email field
    username_email = (
        soup.find("input", {"type": "email"})
        or soup.find("input", {"name": "username"})
        or soup.find("input", {"type": "text"})
    )  # Fallback to input type text if no email type is found

    # Finding the password field
    password = soup.find("input", {"type": "password"})

    # Finding the login button
    # Searching for buttons/input of type submit closest to the password or username field
    login_button = None

    # First try to find a submit button within the same form
    if password:
        form = password.find_parent("form")
        if form:
            login_button = form.find("button", {"type": "submit"}) or form.find(
                "input", {"type": "submit"}
            )
    # If no button is found in the form, fall back to finding any submit button
    if not login_button:
        login_button = soup.find("button", {"type": "submit"}) or soup.find(
            "input", {"type": "submit"}
        )

    # Extracting CSS selectors
    def generate_css_selector(element, element_type):
        if "id" in element.attrs:
            return f"#{element['id']}"
        elif "type" in element.attrs:
            return f"{element_type}[type='{element['type']}']"
        else:
            return element_type

    # Generate CSS selectors with the updated logic
    username_email_css_selector = None
    if username_email:
        username_email_css_selector = generate_css_selector(username_email, "input")

    password_css_selector = None
    if password:
        password_css_selector = generate_css_selector(password, "input")

    login_button_css_selector = None
    if login_button:
        login_button_css_selector = generate_css_selector(
            login_button, "button" if login_button.name == "button" else "input"
        )

    return username_email_css_selector, password_css_selector, login_button_css_selector


def main(html_content: str):
    # Call the extract_login_form function and return its result
    return extract_login_form(html_content)

Si vous voulez tout cela dans une API simple et fiable, essayez mon nouveau produit https://www.scrapewebapp.com/

Si vous aimez ce post, applaudissez-moi et suivez-moi. Cela aide beaucoup !

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn