0x00 前言
大家對HTTP代理應該都非常熟悉,它在許多方面都有著極為廣泛的應用。 HTTP代理分為正向代理和反向代理兩種,後者一般用於將防火牆後面的服務提供給用戶存取或進行負載平衡,典型的有Nginx、HAProxy等。本文所討論的是正向代理。
HTTP代理最常見的用途是用於網路共享、網路加速和網路限制突破等。此外,HTTP代理也常用於Web應用偵錯、Android/IOS APP 所呼叫的Web API監控與分析,目前知名的軟體有Fiddler、Charles、Burp Suite和mitmproxy等。 HTTP代理也可用於請求/回應內容修改,在不改變服務端的情況下為Web應用程式增加額外的功能或改變應用行為等。
0x01 HTTP代理程式是什麼
HTTP代理程式本質上是一個網頁應用,它和其他普通Web應用程式沒有根本區別。 HTTP代理收到請求後,根據Header中Host欄位的主機名稱和Get/POST請求地址綜合判斷目標主機,建立新的HTTP請求並轉送請求數據,並將收到的回應資料轉送至客戶端。
如果請求位址是絕對位址,HTTP代理採用該位址中的Host,否則使用Header中的HOST欄位。做一個簡單測試,假設網路環境如下:
192.168.1.2 Web服务器 192.168.1.3 HTTP代理服务器
#使用telnet進行測試
$ telnet 192.168.1.3 GET / HTTP/1.0 HOST: 192.168.1.2
##注意最後需要連續兩個回車,這是HTTP協定要求。完成後,可以收到 http://www.php.cn/ 的頁面內容。下面做一下調整,GET請求時帶上絕對位址
$ telnet 192.168.1.3
GET http://www.php.cn/ HTTP/1.0
HOST: 192.168.1.2
#注意這裡同樣設定了HOST為192.168.1.2,但運行結果卻回傳了http: //www.php.cn/ 頁面的內容,也就是公網IP位址資訊。 從上面的測試過程可以看出,HTTP代理並不是什麼很複雜的東西,只要將原始請求傳送到代理伺服器即可。在無法設定HTTP代理的情況下,對於少量Host需要走HTTP代理的場景來說,最簡單的方式就是將目標Host網域的IP指向代理伺服器,可以採取修改hosts檔案的方式來實現。
是Python標準函式庫,功能很強大,只是使用起來稍微麻煩一點。在Python 3中,urllib2不再保留,遷移到了urllib模組中。 urllib2中透過ProxyHandler來設定使用代理伺服器。
proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'}) opener = urllib2.build_opener(proxy_handler) r = opener.open('http://httpbin.org/ip') print(r.read())
也可以用install_opener將設定好的opener安裝到全域環境中,這樣所有的urllib2.urlopen都會自動使用代理程式。
urllib2.install_opener(opener) r = urllib2.urlopen('http://httpbin.org/ip') print(r.read())
在Python 3中,使用urllib。
proxy_handler = urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'}) opener = urllib.request.build_opener(proxy_handler) r = opener.open('http://httpbin.org/ip') print(r.read())requests 代理程式設定
requests是目前最優秀的HTTP庫之一,也是我平時建構http請求時使用最多的庫。它的API設計非常人性化,使用起來很容易上手。為requests設定代理程式很簡單,只需為proxies設定一個形如 {'http': 'x.x.x.x:8080', 'https': 'x.x.x.x:8080'} 的參數即可。其中http和https相互獨立。
In [5]: requests.get('http://httpbin.org/ip', proxies={'http': '121.193.143.249:80'}).json() Out[5]: {'origin': '121.193.143.249'}
可以直接設定session的proxies屬性,省去每次要求都要帶上proxies參數的麻煩。
s = requests.session() s.proxies = {'http': '121.193.143.249:80'} print(s.get('http://httpbin.org/ip').json())0x03 HTTP_PROXY / HTTPS_PROXY 環境變數
urllib2 和Requests 函式庫都能辨識HTTP_PROXY 和HTTPS_PROXY 環境變量,一旦偵測到這些環境變數就會自動設定使用代理。這在用HTTP代理程式進行偵錯的時候非常有用,因為不用修改程式碼,可以隨意根據環境變數來調整代理伺服器的ip位址和連接埠。 *nix中的軟體也大多支援HTTP_PROXY環境變數識別,例如curl、wget、axel、aria2c等。
$ http_proxy=121.193.143.249:80 python -c 'import requests; print(requests.get("http://httpbin.org/ip").json())' {u'origin': u'121.193.143.249'} $ http_proxy=121.193.143.249:80 curl httpbin.org/ip { "origin": "121.193.143.249" }
在IPython互動環境中,可能經常需要臨時性地調試HTTP請求,可以簡單透過設定os.environ['http_proxy'] 增加/取消HTTP代理來實作。
In [245]: os.environ['http_proxy'] = '121.193.143.249:80' In [246]: requests.get("http://httpbin.org/ip").json() Out[246]: {u'origin': u'121.193.143.249'} In [249]: os.environ['http_proxy'] = '' In [250]: requests.get("http://httpbin.org/ip").json() Out[250]: {u'origin': u'x.x.x.x'}######0x04 MITM-Proxy#########MITM 源自Man-in-the-Middle Attack,指中間人攻擊,一般在客戶端和伺服器之間的網路中攔截、監聽和篡改資料。 ######mitmproxy 是一款Python語言開發的開源中間人代理神器,支援SSL,支援透明代理、反向代理,支援流量錄製回放,支援自訂腳本等。功能上同Windows中的 Fiddler 有些類似,但mitmproxy是一款console程序,沒有GUI介面,不過用起來還算方便。使用mitmproxy可以很方便的過濾、攔截、修改任意經過代理的HTTP請求/回應資料包,甚至可以利用它的scripting API,編寫腳本達到自動攔截修改HTTP資料的目的。 #########
# test.py def response(flow): flow.response.headers["BOOM"] = "boom!boom!boom!"######
上面的脚本会在所有经过代理的Http响应包头里面加上一个名为BOOM的header。用 mitmproxy -s 'test.py' 命令启动mitmproxy,curl验证结果发现的确多了一个BOOM头。
$ http_proxy=localhost:8080 curl -I 'httpbin.org/get' HTTP/1.1 200 OK Server: nginx Date: Thu, 03 Nov 2016 09:02:04 GMT Content-Type: application/json Content-Length: 186 Connection: keep-alive Access-Control-Allow-Origin: * Access-Control-Allow-Credentials: true BOOM: boom!boom!boom! ...
显然mitmproxy脚本能做的事情远不止这些,结合Python强大的功能,可以衍生出很多应用途径。除此之外,mitmproxy还提供了强大的API,在这些API的基础上,完全可以自己定制一个实现了特殊功能的专属代理服务器。
经过性能测试,发现mitmproxy的效率并不是特别高。如果只是用于调试目的那还好,但如果要用到生产环境,有大量并发请求通过代理的时候,性能还是稍微差点。我用twisted实现了一个简单的proxy,用于给公司内部网站增加功能、改善用户体验,以后有机会再和大家分享。
更多Python程序中设置HTTP代理相关文章请关注PHP中文网!