首頁 >後端開發 >Python教學 >詳解Python爬蟲使用代理proxy抓取網頁方法

詳解Python爬蟲使用代理proxy抓取網頁方法

高洛峰
高洛峰原創
2017-03-19 14:43:462057瀏覽

代理類型(proxy):透明代理匿名代理混淆代理和高匿代理. 這裡寫一些python爬蟲使用代理的知識, 還有一個代理池的類. 方便大家應對工作中各種複雜的抓取問題。

urllib 模組使用代理

urllib/urllib2使用代理程式比較麻煩, 需要先建立一個ProxyHandler的類別, 隨後將該類別用於建立網頁開啟的opener的類別,再在request中安裝該opener.

代理程式格式是"http://127.0.0.1:80",如果要帳號密碼是"http://user:password@127.0.0.1:80".

proxy="http://127.0.0.1:80"
# 创建一个ProxyHandler对象
proxy_support=urllib.request.ProxyHandler({'http':proxy})
# 创建一个opener对象
opener = urllib.request.build_opener(proxy_support)
# 给request装载opener
urllib.request.install_opener(opener)
# 打开一个url
r = urllib.request.urlopen('http://youtube.com',timeout = 500)

requests 模組使用代理

requests使用代理要比urllib簡單多了…這裡以單次代理為例. 多次的話可以用session一類構建.

如果需要使用代理,你可以透過為任意請求方法提供proxies 參數來設定單一請求:

import requests
proxies = {
  "http": "http://127.0.0.1:3128",
  "https": "http://127.0.0.1:2080",
}
r=requests.get("http://youtube.com", proxies=proxies)
print r.text

你也可以透過環境變數 HTTP_PROXY 和HTTPS_PROXY 來設定代理。

export HTTP_PROXY="http://127.0.0.1:3128"
export HTTPS_PROXY="http://127.0.0.1:2080"
python
>>> import requests
>>> r=requests.get("http://youtube.com")
>>> print r.text

如果你的代理程式需要使用HTTP Basic Auth,可以使用http://user:password@host/ 語法:

proxies = {
    "http": "http://user:pass@127.0.0.1:3128/",
}

python的代理程式使用非常簡單, 最重要的是要找一個網路穩定可靠的代理,有問題歡迎留言提問

以上是詳解Python爬蟲使用代理proxy抓取網頁方法的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn