웹 크롤러가 개발됨에 따라 데이터가 악의적으로 크롤링되는 것을 방지하기 위해 점점 더 많은 웹사이트와 서버가 크롤러 방지 전략을 채택하기 시작했습니다. 이러한 전략에는 IP 차단, 사용자 에이전트 감지, 쿠키 확인 등이 포함됩니다. 해당 대응 전략이 없으면 당사 크롤러는 쉽게 악성으로 분류되어 금지될 수 있습니다. 따라서 이러한 상황을 방지하려면 Scrapy 프레임워크의 크롤러 프로그램에 프록시 IP, 사용자 에이전트, 쿠키 등의 정책을 적용해야 합니다. 이 기사에서는 이 세 가지 전략을 적용하는 방법을 자세히 소개합니다.
프록시 IP는 실제 IP 주소를 효과적으로 변환하여 서버가 크롤러 프로그램을 감지하지 못하게 할 수 있습니다. 동시에 프록시 IP는 여러 IP에서 크롤링할 수 있는 기회도 제공하므로 빈번한 요청으로 인해 단일 IP가 차단되는 상황을 방지할 수 있습니다.
Scrapy에서는 미들웨어를 사용하여 프록시 IP 설정을 구현할 수 있습니다. 먼저 settings.py에서 관련 구성을 만들어야 합니다. 예:
DOWNLOADER_MIDDLEWARES = { 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None, 'scrapy.downloadermiddlewares.retry.RetryMiddleware': None, 'scrapy_proxies.RandomProxy': 100, 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 110, }
위 구성에서는 scrapy_proxies 라이브러리를 사용하여 프록시 IP 설정을 구현합니다. 그 중 100은 우선순위를 나타내며, 값이 작을수록 우선순위가 높습니다. 이 설정 후 요청 프로세스 중에 Scrapy는 프록시 IP 풀에서 IP 주소를 무작위로 선택하여 요청합니다.
물론 프록시 IP 소스를 맞춤 설정할 수도 있습니다. 예를 들어, 무료 프록시 IP 웹사이트에서 제공하는 API를 사용하여 프록시 IP를 얻을 수 있습니다. 코드 예제는 다음과 같습니다.
class GetProxy(object): def __init__(self, proxy_url): self.proxy_url = proxy_url def get_proxy_ip(self): response = requests.get(self.proxy_url) if response.status_code == 200: json_data = json.loads(response.text) proxy = json_data.get('proxy') return proxy else: return None class RandomProxyMiddleware(object): def __init__(self): self.proxy_url = 'http://api.xdaili.cn/xdaili-api//greatRecharge/getGreatIp?spiderId=e2f1f0cc6c5e4ef19f884ea6095deda9&orderno=YZ20211298122hJ9cz&returnType=2&count=1' self.get_proxy = GetProxy(self.proxy_url) def process_request(self, request, spider): proxy = self.get_proxy.get_proxy_ip() if proxy: request.meta['proxy'] = 'http://' + proxy
위 코드에서는 RandomProxyMiddleware 클래스를 정의하고 Requests 라이브러리를 사용하여 프록시 IP를 얻습니다. 요청 헤더에 프록시 IP를 추가하면 프록시 IP를 설정할 수 있습니다.
사용자 에이전트는 요청을 시작한 장치, 운영 체제 및 브라우저와 같은 정보가 포함된 식별 요청 헤더의 일부입니다. 많은 서버가 요청을 처리할 때 요청 헤더의 사용자 에이전트 정보를 사용하여 요청이 크롤러인지 여부를 확인함으로써 크롤러 방지 처리를 수행합니다.
마찬가지로 Scrapy에서는 미들웨어를 사용하여 사용자 에이전트 설정을 구현할 수 있습니다. 예:
class RandomUserAgent(object): def __init__(self): self.user_agents = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'] def process_request(self, request, spider): user_agent = random.choice(self.user_agents) request.headers.setdefault('User-Agent', user_agent)
위 코드에서는 RandomUserAgent 클래스를 정의하고 요청 헤더의 사용자 에이전트 정보로 User-Agent를 무작위로 선택합니다. 이렇게 하면 크롤러가 대량의 요청을 보내더라도 서버에서 악성 크롤러로 간주되는 것을 피할 수 있습니다.
쿠키는 요청에 응답할 때 응답 헤더의 Set-Cookie 필드를 통해 서버가 반환하는 데이터 조각입니다. 브라우저가 서버에 다시 요청을 시작하면 로그인 확인 및 기타 작업을 수행하기 위해 이전 쿠키 정보가 요청 헤더에 포함됩니다.
마찬가지로 Scrapy에서는 미들웨어를 통해 쿠키를 설정할 수도 있습니다. 예:
class RandomCookies(object): def __init__(self): self.cookies = { 'example_cookie': 'example_value' } def process_request(self, request, spider): cookie = random.choice(self.cookies) request.cookies = cookie
위 코드에서는 RandomCookies 클래스를 정의하고 요청 헤더의 쿠키 정보로 쿠키를 무작위로 선택합니다. 이러한 방식으로 요청 프로세스 중에 쿠키를 설정하여 로그인 확인 작업을 구현할 수 있습니다.
요약
데이터 크롤링을 위해 Scrapy를 사용하는 과정에서는 크롤러 방지 전략의 아이디어와 방법을 피하는 것이 매우 중요합니다. 이 기사에서는 크롤러 프로그램을 더욱 숨기고 안전하게 만들기 위해 Scrapy의 미들웨어를 통해 프록시 IP, 사용자 에이전트, 쿠키 및 기타 정책을 설정하는 방법을 자세히 설명합니다.
위 내용은 Scrapy가 프록시 IP, 사용자 에이전트 및 쿠키를 사용하여 크롤러 방지 전략을 피하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!