博客列表 >海外网站如何通过代理IP进行采集?

海外网站如何通过代理IP进行采集?

英俊的程序员
英俊的程序员原创
2020年05月11日 15:39:502171浏览

海外网站如何通过代理IP进行采集?

我们在做爬虫的时候,经常会遇到这种情况,爬虫最初运行的时候,数据是可以正常获取的,一切看起来都那么的美好,然而,不一会儿,就可能会出现403 Forbidden , 然后你会打开网站看一眼,可能会看到”您的IP访问频率过高,请稍后重试“。 出现这种情况的时候,通常这种情况,我们会使用代理IP来隐藏自身IP,来实现大量抓取。国内的代理常用的产品多达几十种,而当我们需要爬取海外网站的时候,这些个代理是都不能用的,所以我们今天使用的是一款Ipidea的全球代理。

使用起来和国内的相差不大,可以根据需求,选在指定国家,或者全球混播,通过api接口调用,指定提取数量,也可以指定接口返回数据格式,有txt,json,html等,这里就以全球混播、json格式为例,获取代理,单次获取1个,python代码如下:

  1. import requests
  2. url = "http://tiqu.linksocket.com:81/abroad?num=1&type=2&pro=0&city=0&yys=0&port=1&flow=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=0&regions=www&n=0&f=1"
  3. resp = requests.get(url)
  4. # 成功获取到的数据为:{'code': 0, 'data': [{'ip': '47.74.232.57', 'port': 21861}], 'msg': '0', 'success': True}
  5. data = resp.json().get('data')[0]
  6. proxy = {
  7. "http": "http://%s:%d" % (data.get("ip"), data.get("port")),
  8. "https": "https://%s:%d" % (data.get("ip"), data.get("port"))
  9. }

在获取ip之前,我们要通过个人中心设置IP白名单,否则是无法获取到数据的。

把你本机公网填入保存即可(官方也提供了接口添加或删除白名单),若不知道公网IP为多少,可以通过百度搜索IP即可。

爬虫demo如下,这里以六度新闻为例:

  1. import requests
  2. url = "http://tiqu.linksocket.com:81/abroad?num=1&type=2&pro=0&city=0&yys=0&port=1&flow=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=0&regions=www&n=0&f=1"
  3. def get_proxy():
  4. """
  5. 获取代理
  6. """
  7. resp = requests.get(url)
  8. data = resp.json().get('data')[0]
  9. proxy = {
  10. "http": "http://%s:%d" % (data.get("ip"), data.get("port")),
  11. "https": "https://%s:%d" % (data.get("ip"), data.get("port"))
  12. }
  13. return proxy
  14. def download_html(url):
  15. """
  16. 获取url接口数据
  17. """
  18. resp = requests.get(url,proxies=get_proxy())
  19. return resp.json()
  20. def run():
  21. """
  22. 主程序
  23. :return:
  24. """
  25. url = "https://6do.news/api/tag/114?page=1"
  26. content = download_html(url)
  27. # 数据处理略
  28. if __name__ == '__main__':
  29. run()

数据如图:

前后端分离的接口,对于爬虫来说还是比较友好的,数据提取起来比较方便,这里就不做过多处理,根据需求提取数据即可。

如果在爬虫中挂不上代理,请检查是否添加白名单。

本次海外网站的采集教程到这里就结束了,详细交流欢迎与我联系。

本文章旨在用于交流分享,【未经允许,谢绝转载】

声明:本文内容转载自脚本之家,由网友自发贡献,版权归原作者所有,如您发现涉嫌抄袭侵权,请联系admin@php.cn 核实处理。
全部评论
文明上网理性发言,请遵守新闻评论服务协议