Heim >Backend-Entwicklung >Python-Tutorial >Automatisieren Sie Ihre Jobsuche: Scrapen Sie LinkedIn-Jobs mit Python
Daten von LinkedIn zeigen, dass der durchschnittliche Arbeitssuchende wöchentlich 11 Stunden für die Jobsuche aufwendet; Tech-Rollen verstärken dies erheblich, da sie das Durchsuchen von Hunderten von Einträgen auf verschiedenen Plattformen erfordern. Die Jobsuche meines Partners hat diese Ineffizienz deutlich gemacht – er verbrachte täglich Stunden damit, allein durch LinkedIn zu scrollen. Es war eine effizientere Lösung erforderlich.
Die Herausforderung
Die schiere Menge an Beiträgen überfordert Webentwickler. Eine einfache Suche nach „Frontend Developer“ in London ergab 401 Ergebnisse. Für jede Auflistung ist Folgendes erforderlich:
Die Bearbeitung von 401 Aufträgen bedeutet stundenlange, sich wiederholende, manuelle Arbeit.
Die Lösung: Ein automatisierter Workflow
Eine dreistufige Automatisierungspipeline reduzierte diesen Prozess auf etwa 10 Minuten:
JobSpy bildete die Grundlage, JobsParser kümmerte sich um Folgendes:
Ausführung:
<code>pip install jobsparser</code>
<code>jobsparser \ --search-term "Frontend Developer" \ --location "London" \ --site linkedin \ --results-wanted 200 \ --distance 25 \ --job-type fulltime</code>
Die CSV-Ausgabe enthielt umfassende Daten:
JobSpy und JobsParser unterstützen auch andere Jobbörsen, darunter LinkedIn, Indeed, Glassdoor, Google und ZipRecruiter.
Während Pandas in Betracht gezogen (und getestet) wurde, bot Google Sheets eine größere Flexibilität. Die Filterstrategie umfasste:
Für Berufseinsteiger:
Ausgefeiltere Filter können mehrere Technologien integrieren.
Dadurch wurden 401 Stellen auf überschaubare 8 reduziert.
Die gefilterten Jobs wurden durchlaufen:
Fazit
Dieses Tool zielt darauf ab, die Jobsuche zu optimieren. Feedback und Fragen sind willkommen.
Das obige ist der detaillierte Inhalt vonAutomatisieren Sie Ihre Jobsuche: Scrapen Sie LinkedIn-Jobs mit Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!