>백엔드 개발 >파이썬 튜토리얼 >python2 및 python3을 사용하여 브라우저를 위장하고 웹 콘텐츠를 크롤링합니다.

python2 및 python3을 사용하여 브라우저를 위장하고 웹 콘텐츠를 크롤링합니다.

高洛峰
高洛峰원래의
2016-10-18 13:55:381972검색

Python 웹페이지 크롤링 기능은 매우 강력합니다. urllib 또는 urllib2를 사용하면 웹페이지 콘텐츠를 쉽게 크롤링할 수 있습니다. 하지만 많은 웹사이트에는 수집 방지 기능이 있을 수 있으므로 원하는 콘텐츠를 캡처하기가 쉽지 않다는 사실에 주의해야 할 경우가 많습니다.

오늘은 python2, python3 다운로드 시 차단과 크롤링을 건너뛰도록 브라우저를 시뮬레이션하는 방법을 공유하겠습니다.

가장 기본적인 크롤링:

#! /usr/bin/env python
# -*- coding=utf-8 -*-
# @Author pythontab
import urllib.request
url = "http://www.pythontab.com"
html = urllib.request.urlopen(url).read()
print(html)

하지만... 일부 웹사이트는 크롤링이 불가능하고 수집 방지 설정이 있어서 방법을 바꿔야 합니다

python2 Medium (최신 안정 버전 python2.7)

#! /usr/bin/env python
# -*- coding=utf-8 -*-
# @Author pythontab.com
import urllib2
url="http://pythontab.com"
req_header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
             'Accept':'text/html;q=0.9,*/*;q=0.8',
             'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
             'Accept-Encoding':'gzip',
             'Connection':'close',
             'Referer':None #注意如果依然不能抓取的话,这里可以设置抓取网站的host
             }
req_timeout = 5
req = urllib2.Request(url,None,req_header)
resp = urllib2.urlopen(req,None,req_timeout)
html = resp.read()
print(html)

python3 Medium (최신 안정 버전 python3.3)

#! /usr/bin/env python
# -*- coding=utf-8 -*-
# @Author pythontab
import urllib.request
  
url = "http://www.pythontab.com"
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
             'Accept':'text/html;q=0.9,*/*;q=0.8',
             'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
             'Accept-Encoding':'gzip',
             'Connection':'close',
             'Referer':None #注意如果依然不能抓取,这里可以设置抓取网站的host
             }
  
opener = urllib.request.build_opener()
opener.addheaders = [headers]
data = opener.open(url).read()
print(data)


성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.