Maison  >  Questions et réponses  >  le corps du texte

网页爬虫 - python 爬虫问题,请问为什么我爬不下这个的数据?求解,网站都能打开。

import sys
import time
import requests
import json
reload(sys)
sys.setdefaultencoding('utf-8')
time=int(time.time())
session=requests.session()
user_agent='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.87 Safari/537.36'
headers={'User-Agent':user_agent,'Host':'xygs.gsaic.gov.cn','Connection':'keep-alive','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8'}
params={'pripid':'62030200052016012700011'}
cookies={'JSESSIONID':'2B33BC6D34DF44BE8D76C2AE20701D95'}
Url='http://xygs.gsaic.gov.cn/gsxygs/smallEnt!view.do?pripid=62030200052016012700011'
captcha=session.get(Url,headers=headers,params=(params),cookies=cookies).text
print captcha

得不到表格里的信息,求解为什么啊?

PHP中文网PHP中文网2741 Il y a quelques jours226

répondre à tous(2)je répondrai

  • 高洛峰

    高洛峰2017-04-17 17:51:31

    https://segmentfault.com/q/1010000005117988
    前一个问题帮你解答了,不知道有没有解决你的问题,为啥没有任何反映
    如已解决记得采纳, 这个问题的代码如下:

    import requests
    
    headers = {
        'Accept-Language': 'zh-CN,zh;q=0.8,en;q=0.6'
    }
    url = 'http://xygs.gsaic.gov.cn/gsxygs/smallEnt!view.do?pripid=62030200052016012700011'
    r = requests.get(url, headers=headers)
    print r.text

    répondre
    0
  • 迷茫

    迷茫2017-04-17 17:51:31

    网页表格使用了ajax技术。你可以用chrome工具中的Network看表格来源。
    另外爬虫不仅语言python基础。你最好学习下web开发相关的知识,特别是js和http协议
    不好意思,之前因为在手机上作答所以没有仔细看、

    刚刚看了下,是因为你缺少Accept-Language协议头

    répondre
    0
  • Annulerrépondre