웹사이트 콘텐츠를 크롤링할 때 가장 흔히 발생하는 문제는 웹사이트에 IP 제한이 있고 크롤링 방지 기능이 있다는 것입니다. 가장 좋은 방법은 IP 캡처를 순환(프록시 추가)하는 것입니다.
에 대해 이야기해 보겠습니다. Scrapy가 크롤링을 위해 프록시를 구성하는 방법
1. Scrapy 프로젝트
# Importing base64 library because we'll need it ONLY in case if the proxy we are going to use requires authentication import base64 # Start your middleware class class ProxyMiddleware(object): # overwrite process request def process_request(self, request, spider): # Set the location of the proxy request.meta['proxy'] = "http://YOUR_PROXY_IP:PORT" # Use the following lines if your proxy requires authentication proxy_user_pass = "USERNAME:PASSWORD" # setup basic authentication for the proxy encoded_user_pass = base64.encodestring(proxy_user_pass) request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass
에서 새 "middlewares.py"를 만듭니다. 프로젝트 구성 파일(./pythontab/settings.py)
DOWNLOADER_MIDDLEWARES = { 'scrapy.contrib.downloadermiddleware.httpproxy.HttpProxyMiddleware': 110, 'pythontab.middlewares.ProxyMiddleware': 100, }에