在scrapy项目中建一个与spider同级的python目录并在下面添加一个py文件内容为
# encoding: utf-8 import base64 proxyServer = 代理服务器地址 ##我的是‘:9010’ # 代理隧道验证信息 这个是在那个网站上申请的 proxyUser = 用户名 proxyPass = 密码 proxyAuth = "Basic " + base64.b64encode(proxyUser + ":" + proxyPass) class ProxyMiddleware(object): def process_request(self, request, spider): request.meta["proxy"] = proxyServer request.headers["Proxy-Authorization"] = proxyAuth 在setting文件中添加
DOWNLOADER_MIDDLEWARES = { '项目名.spider同级文件名.文件名.ProxyMiddleware': 543, } 代码地址
<br>
以上是分享一篇python scrapy ip代理的设置实例的详细内容。更多信息请关注PHP中文网其他相关文章!