搜尋

首頁  >  問答  >  主體

网页爬虫 - python爬取大众点评网伪装浏览器返回出现403错误

hi,各位好,我在爬大众点评的这个网页http://www.dianping.com/search/keyword/2/75_%E6%96%B0%E4%B8%9C%E6%96%B9,用的request包获取网页源码,header主要添加了user-agent和cookie,但为什么总是返回错误?求助,谢谢各位了!
PS:用curl可以返回正常的源码,没有被封IP

import requests

def gethtml(url, headers):
    html = requests.get(url, headers = headers)
    html.encoding = 'utf-8'
    return html.text

head = {'User_Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2723.3 Safari/537.36',
        'Cookie': 'PHOENIX_ID=0a650c81-154a0633f47-a97843; _hc.v="\"e27e18eb-3a3d-4b40-b06a-cbe624c96048.1462979739\""; s_ViewType=10; JSESSIONID=877B00919AD417544F72F5A9953E54B4; aburl=1; cy=2; cye=beijing'}

url = 'http://www.dianping.com/search/keyword/2/75_%E6%96%B0%E4%B8%9C%E6%96%B9'
html = gethtml(url, head)
print(html)
PHPzPHPz2802 天前2064

全部回覆(2)我來回復

  • 伊谢尔伦

    伊谢尔伦2017-04-17 17:45:45

    已經解決,header中添加
    {'Accept': 'application/json, text/javascript'}就能正常返回了

    回覆
    0
  • 巴扎黑

    巴扎黑2017-04-17 17:45:45

    如果換 cookie 換 user agent 都不行,那你試試普通的 CURL。可能是 IP 被 ban 了?

    回覆
    0
  • 取消回覆