Heim > Artikel > Backend-Entwicklung > Lektion „Arbeiten mit APIs und Web Scraping für die HR-Automatisierung“.
Willkommen zurück zu unserer Python from 0 to Hero-Serie! Bisher haben wir gelernt, wie man Daten manipuliert und leistungsstarke externe Bibliotheken für Aufgaben im Zusammenhang mit Lohn- und Gehaltsabrechnungs- und HR-Systemen nutzt. Was aber, wenn Sie Echtzeitdaten abrufen oder mit externen Diensten interagieren müssen? Hier kommen APIs und Web Scraping ins Spiel.
In dieser Lektion werden wir Folgendes behandeln:
Am Ende dieser Lektion werden Sie in der Lage sein, den externen Datenabruf zu automatisieren und so Ihre HR-Systeme dynamischer und datengesteuerter zu gestalten.
Eine API (Application Programming Interface) ist eine Reihe von Regeln, die es verschiedenen Softwareanwendungen ermöglichen, miteinander zu kommunizieren. Einfacher ausgedrückt ermöglicht es Ihnen, direkt über Ihren Code mit einem anderen Dienst oder einer anderen Datenbank zu interagieren.
Zum Beispiel:
Die meisten APIs verwenden einen Standard namens REST (Representational State Transfer), der es Ihnen ermöglicht, HTTP-Anfragen (wie GET oder POST) zu senden, um auf Daten zuzugreifen oder diese zu aktualisieren.
Die Anforderungsbibliothek von Python erleichtert die Arbeit mit APIs. Sie können es installieren, indem Sie Folgendes ausführen:
pip install requests
Beginnen wir mit einem einfachen Beispiel, wie man Daten von einer API mithilfe einer GET-Anfrage abruft.
import requests # Example API to get public data url = "https://jsonplaceholder.typicode.com/users" response = requests.get(url) # Check if the request was successful (status code 200) if response.status_code == 200: data = response.json() # Parse the response as JSON print(data) else: print(f"Failed to retrieve data. Status code: {response.status_code}")
In diesem Beispiel:
Angenommen, Sie möchten Steuersätze in Echtzeit für Lohn- und Gehaltsabrechnungszwecke abrufen. Viele Länder stellen öffentliche APIs für Steuersätze bereit.
In diesem Beispiel simulieren wir das Abrufen von Daten von einer Steuer-API. Die Logik wäre ähnlich, wenn eine tatsächliche API verwendet würde.
import requests # Simulated API for tax rates api_url = "https://api.example.com/tax-rates" response = requests.get(api_url) if response.status_code == 200: tax_data = response.json() federal_tax = tax_data['federal_tax'] state_tax = tax_data['state_tax'] print(f"Federal Tax Rate: {federal_tax}%") print(f"State Tax Rate: {state_tax}%") # Use the tax rates to calculate total tax for an employee's salary salary = 5000 total_tax = salary * (federal_tax + state_tax) / 100 print(f"Total tax for a salary of ${salary}: ${total_tax:.2f}") else: print(f"Failed to retrieve tax rates. Status code: {response.status_code}")
Dieses Skript kann so angepasst werden, dass es mit einer echten Steuersatz-API funktioniert und Ihnen dabei hilft, Ihr Lohn- und Gehaltsabrechnungssystem mit den neuesten Steuersätzen auf dem neuesten Stand zu halten.
Obwohl APIs die bevorzugte Methode zum Abrufen von Daten sind, bieten sie nicht alle Websites an. In diesen Fällen kann Web Scraping verwendet werden, um Daten von einer Webseite zu extrahieren.
Pythons BeautifulSoup-Bibliothek erleichtert zusammen mit Anfragen das Web-Scraping. Sie können es installieren, indem Sie Folgendes ausführen:
pip install beautifulsoup4
Stellen Sie sich vor, Sie möchten Daten über Leistungen an Arbeitnehmer von der HR-Website eines Unternehmens abrufen. Hier ist ein einfaches Beispiel:
import requests from bs4 import BeautifulSoup # URL of the webpage you want to scrape url = "https://example.com/employee-benefits" response = requests.get(url) # Parse the page content with BeautifulSoup soup = BeautifulSoup(response.content, 'html.parser') # Find and extract the data you need (e.g., benefits list) benefits = soup.find_all("div", class_="benefit-item") # Loop through and print out the benefits for benefit in benefits: title = benefit.find("h3").get_text() description = benefit.find("p").get_text() print(f"Benefit: {title}") print(f"Description: {description}\n")
In diesem Beispiel:
Diese Technik ist nützlich, um HR-bezogene Daten wie Sozialleistungen, Stellenausschreibungen oder Gehaltsbenchmarks aus dem Internet zu sammeln.
Lassen Sie uns alles zusammenfügen und eine Minianwendung erstellen, die API-Nutzung und Web Scraping für ein reales HR-Szenario kombiniert: Berechnung der Gesamtkosten eines Mitarbeiters.
Wir werden:
import requests from bs4 import BeautifulSoup # Step 1: Get tax rates from API def get_tax_rates(): api_url = "https://api.example.com/tax-rates" response = requests.get(api_url) if response.status_code == 200: tax_data = response.json() federal_tax = tax_data['federal_tax'] state_tax = tax_data['state_tax'] return federal_tax, state_tax else: print("Error fetching tax rates.") return None, None # Step 2: Scrape employee benefit costs from a website def get_benefit_costs(): url = "https://example.com/employee-benefits" response = requests.get(url) if response.status_code == 200: soup = BeautifulSoup(response.content, 'html.parser') # Let's assume the page lists the monthly benefit cost benefit_costs = soup.find("div", class_="benefit-total").get_text() return float(benefit_costs.strip("$")) else: print("Error fetching benefit costs.") return 0.0 # Step 3: Calculate total employee cost def calculate_total_employee_cost(salary): federal_tax, state_tax = get_tax_rates() benefits_cost = get_benefit_costs() if federal_tax is not None and state_tax is not None: # Total tax deduction total_tax = salary * (federal_tax + state_tax) / 100 # Total cost = salary + benefits + tax total_cost = salary + benefits_cost + total_tax return total_cost else: return None # Example usage employee_salary = 5000 total_cost = calculate_total_employee_cost(employee_salary) if total_cost: print(f"Total cost for the employee: ${total_cost:.2f}") else: print("Could not calculate employee cost.")
This is a simplified example but demonstrates how you can combine data from different sources (APIs and web scraping) to create more dynamic and useful HR applications.
While web scraping is powerful, there are some important best practices to follow:
In this lesson, we explored how to interact with external services using APIs and how to extract data from websites through web scraping. These techniques open up endless possibilities for integrating external data into your Python applications, especially in an HR context.
Das obige ist der detaillierte Inhalt vonLektion „Arbeiten mit APIs und Web Scraping für die HR-Automatisierung“.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!