首页  >  问答  >  正文

python - 除了代理ip,香港的服务器爬取国内网站还有更好的方法吗?

我在做一只淘宝的爬虫,但是用的是香港的服务器,但是比较困惑:
因为每次爬淘宝的首页时候,就自动给我跳转到香港淘宝~~
导致源代码和内容都不一样~
请问如果遇到这种情况要怎么处理呢?

简单来说,比如采集58同城
如果我是泉州的,我想采集北京的,要怎么采集?

因为我用我的ip打开会总跳转到北京,但是直接想采集58首页的


?
![图片上传中...]

ringa_leeringa_lee2740 天前822

全部回复(3)我来回复

  • PHP中文网

    PHP中文网2017-04-18 10:21:01

    禁止重定向,以requests为例子:

    r = requests.get('http://github.com/', allow_redirects=False)
    r.status_code  # 302
    r.url  # http://github.com, not https.
    r.headers['Location']  # https://github.com/ -- the redirect destination

    回复
    0
  • PHP中文网

    PHP中文网2017-04-18 10:21:01

    如果是想采集的北京的,就去打子城名,不过有PGTID保护

    http://bj.58.com/?PGTID=0d000...

    建义使用selenium

    回复
    0
  • 迷茫

    迷茫2017-04-18 10:21:01

    有时候服务器会根据你的ip对应的地理位置信息作重定向的,这个你除了找代理应该没有别的方法了。。

    回复
    0
  • 取消回复