많은 회사 웹사이트에서는 주류 구직 웹사이트에서는 찾을 수 없는 채용 정보를 게시합니다. 예를 들어, 원격 스타트업에서 일자리를 찾는 것은 이러한 회사가 채용 사이트에 등록되어 있지 않을 수도 있기 때문에 어려울 수 있습니다. 이러한 일자리를 찾으려면 다음이 필요합니다.
- 잠재력 있는 기업을 찾습니다
- 채용 페이지 검색
- 사용 가능한 채용 정보 분석
- 작업 세부정보 수동 기록
이 작업은 시간이 많이 걸리지만 자동화하겠습니다.
준비
우리는 Parsera 라이브러리를 사용하여 작업 스크래핑을 자동화할 것입니다. Parsera는 두 가지 사용 옵션을 제공합니다:
- 로컬 모드: 선택한 LLM을 사용하여 컴퓨터에서 페이지를 처리합니다.
- API 모드: 모든 처리는 Parsera 서버에서 수행됩니다.
이 예에서는 일회성 소규모 추출이므로 로컬 모드를 사용합니다.
먼저 필수 패키지를 설치합니다.
<code>pip install parsera playwright install</code>
로컬 설정을 실행하고 있으므로 LLM 연결이 필요합니다. 단순화를 위해 OpenAI의 gpt-4o-mini를 사용하고 하나의 환경 변수만 설정하면 됩니다.
<code>import os from parsera import Parsera os.environ["OPENAI_API_KEY"] = "<your_openai_api_key_here>" scraper = Parsera(model=llm) </your_openai_api_key_here></code>
모든 것이 설정되면 크롤링을 시작할 수 있습니다.
1단계: 최신 시리즈 A 펀딩 스타트업 목록 확인
먼저 관심 있는 회사 목록과 해당 웹사이트를 찾아야 합니다. 지난달 시리즈A 자금을 조달한 스타트업 100곳의 목록을 찾았습니다. 성장하는 기업과 새로운 자금 조달을 받는 기업이 좋은 선택인 것 같습니다.
이 회사의 국가와 웹사이트를 알아보세요:
<code>url = "https://growthlist.co/series-a-startups/" elements = { "Website": "公司的网站", "Country": "公司的国家", } all_startups = await scraper.arun(url=url, elements=elements)</code>
국가 정보를 통해 관심 있는 국가를 필터링할 수 있습니다. 검색 범위를 미국으로 좁혀 보겠습니다.
<code>us_websites = [ item["Website"] for item in all_startups if item["Country"] == "United States" ]</code>
2단계: 채용 페이지 찾기
이제 미국의 시리즈 A 펀딩 스타트업 웹사이트 목록이 생겼습니다. 다음 단계는 경력 페이지를 찾는 것입니다. 홈페이지에서 직접 채용 페이지를 가져옵니다.
<code>from urllib.parse import urljoin # 定义我们的目标 careers_target = {"url": "职业页面网址"} careers_pages = [] for website in us_websites: website = "https://" + website result = await scraper.arun(url=website, elements=careers_target) if len(result) > 0: url = result[0]["url"] if url.startswith("/") or url.startswith("./"): url = urljoin(website, url) careers_pages.append(url)</code>
선택적으로 이 단계를 검색 API로 대체하고 LLM 호출을 검색 호출로 대체할 수 있습니다.
3단계: 채용 공고
마지막 단계는 웹사이트의 채용 페이지에서 모든 채용 공고를 로드하는 것입니다. 소프트웨어 엔지니어링 직무를 찾고 있다고 가정해 보겠습니다. 그런 다음 직위, 위치, 링크를 찾고 소프트웨어 엔지니어링과 관련된 것인지 검색합니다.
<code>jobs_target = { "Title": "职位的名称", "Location": "职位的所在地", "Link": "职位发布的链接", "SE": "如果这是软件工程职位,则为True,否则为False", } jobs = [] for page in careers_pages: result = await scraper.arun(url=page, elements=jobs_target) if len(result) > 0: for row in result: row["url"] = page row["Link"] = urljoin(row["url"], row["Link"]) jobs.extend(result)</code>
모든 직위가 추출되면 소프트웨어 엔지니어링 이외의 모든 직위를 필터링하여 .csv 파일에 저장할 수 있습니다.
<code>import csv engineering_jobs = [job for job in jobs if job["SE"] == "True"] with open("jobs.csv", "w") as f: write = csv.writer(f) write.writerow(engineering_jobs[0].keys()) for job in engineering_jobs: write.writerow(job.values()) </code>
마지막으로 아래와 같이 직위 목록이 포함된 테이블이 생성됩니다.
<..>职位名称 | 所在地 | 链接 | 软件工程职位 | 网址 |
---|---|---|---|---|
AI技术主管经理 | 班加罗尔 | https://job-boards.greenhouse.io/enterpret/jobs/6286095003 | True | https://boards.greenhouse.io/enterpret/ |
后端开发人员 | 特拉维夫 | https://www.upwind.io/careers/co/tel-aviv/BA.04A/backend-developer/all#jobs | True | https://www.upwind.io/careers |
... | ... | ... | ... | ... |
위 내용은 Python 및 LLM을 사용하여 시작 작업 검색의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

PythonArraysSupportVariousOperations : 1) SlicingExtractsSubsets, 2) 추가/확장 어드먼트, 3) 삽입 값 삽입 ATSpecificPositions, 4) retingdeletesElements, 5) 분류/ReversingChangesOrder 및 6) ListsompectionScreateNewListSbasedOnsistin

NumpyArraysareSentialplosplicationSefficationSefficientNumericalcomputationsanddatamanipulation. Theyarcrucialindatascience, MachineLearning, Physics, Engineering 및 Financeduetotheiribility에 대한 handlarge-scaledataefficivally. forexample, Infinancialanyaly

UseanArray.ArrayOveralistInpyThonWhendealingwithhomogeneousData, Performance-CriticalCode, OrinterFacingwithCcode.1) HomogeneousData : ArraysSaveMemorywithtypepletement.2) Performance-CriticalCode : arraysofferbetterporcomanceFornumericalOperations.3) Interf

아니요, NOTALLLISTOPERATIONARESUPPORTEDBYARRARES, andVICEVERSA.1) ArraySDONOTSUPPORTDYNAMICOPERATIONSLIKEPENDORINSERTWITHUTRESIGING, WHITHIMPACTSPERFORMANCE.2) ListSDONOTEECONSTANTTIMECOMPLEXITEFORDITITICCESSLIKEARRAYSDO.

ToaccesselementsInapyThonlist, 사용 인덱싱, 부정적인 인덱싱, 슬라이스, 오리 화.

Arraysinpython, 특히 비밀 복구를위한 ArecrucialInscientificcomputing.1) theaRearedFornumericalOperations, DataAnalysis 및 MachinELearning.2) Numpy'SimplementationIncensuressuressurations thanpythonlists.3) arraysenablequick

Pyenv, Venv 및 Anaconda를 사용하여 다양한 Python 버전을 관리 할 수 있습니다. 1) PYENV를 사용하여 여러 Python 버전을 관리합니다. Pyenv를 설치하고 글로벌 및 로컬 버전을 설정하십시오. 2) VENV를 사용하여 프로젝트 종속성을 분리하기 위해 가상 환경을 만듭니다. 3) Anaconda를 사용하여 데이터 과학 프로젝트에서 Python 버전을 관리하십시오. 4) 시스템 수준의 작업을 위해 시스템 파이썬을 유지하십시오. 이러한 도구와 전략을 통해 다양한 버전의 Python을 효과적으로 관리하여 프로젝트의 원활한 실행을 보장 할 수 있습니다.

Numpyarrayshaveseveraladvantagesstandardpythonarrays : 1) thearemuchfasterduetoc 기반 간증, 2) thearemorememory-refficient, 특히 withlargedatasets 및 3) wepferoptizedformationsformationstaticaloperations, 만들기, 만들기


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

WebStorm Mac 버전
유용한 JavaScript 개발 도구

드림위버 CS6
시각적 웹 개발 도구
