>  기사  >  백엔드 개발  >  phpspider 크롤러를 사용하는 방법

phpspider 크롤러를 사용하는 방법

小云云
小云云원래의
2018-03-20 10:38:296908검색

이 기사에서는 주로 phpspider 크롤러를 사용하는 방법을 공유합니다. Python 크롤러를 사용하는 것이 매우 편리하지만 프레임워크 크롤러를 사용하는 것이 실제로는 훨씬 더 효율적이라는 점을 발견했습니다.

1, 먼저 phpspider


2의 구조를 살펴보세요. 예를 들어 Nanchang News Network


카테고리를 크롤링하면 이 댓글이 추가되어야 하고, 그렇지 않으면 오류가 발생합니다. 보고되면 소스 코드를 살펴볼 수 있습니다. 소스 코드에는

3 많은 메소드가 있습니다. 그런 다음 크롤러를 구성합니다.



4 그런 다음 구성 파일을 프레임워크에 넣습니다. 클래스 파일 및 인스턴스화:

여기의 on_scan_page는 크롤러입니다. 이 URL은 제가 구성한 content_url_regxes 일반 규칙과 일치하므로 후속 크롤링 프로세스에서 이 페이지의 데이터가


5 크롤링되고 일치하는 필드가 됩니다. 콜백 처리:


6, 크롤링된 데이터를 데이터베이스로 처리하고 실행합니다.


위는 단순한 예일 뿐이며 다중 프로세스 크롤링, 프록시 크롤러도 수행할 수 있습니다. , 그리고 많은 재미.

관련 권장 사항:

PHP 웹 크롤러용 CURL에 대한 자세한 설명

PHP가 크롤러를 구현하는 방법

NodeJS 크롤러에 대한 자세한 설명

위 내용은 phpspider 크롤러를 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.