搜索

首页  >  问答  >  正文

python - requests get不到完整页面源码

使用requests进行get只获取到了一部分html源码,下面是我的代码

def get_url(self,url=None,proxies=None):
    header = {
        'User-Agent' : 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:46.0) Gecko/20100101 Firefox/46.0',
        'Content-Type': 'application/x-www-form-urlencoded',
        'Connection' : 'Keep-Alive',
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
        }
    for prox in proxies:
        try:
            r=requests.get(url,proxies=prox,headers=header)
            if r.status_code!=200:
                continue
            else:
                print "使用{0}连接成功>>".format(prox)
                return r.content
        except Exception, e:
            return None

proxies参数是一个代理列表,这段代码会尝试使用proxies进行访问,访问成功就会返回
但是我获取到的页面源码不完整

巴扎黑巴扎黑2802 天前3340

全部回复(5)我来回复

  • 巴扎黑

    巴扎黑2017-04-17 17:55:46

    存在几个原因
    1.也许有些内容是通过ajax加载的。
    所以通过requests.get是得不到全剖内容的,
    建议通过使用firebug等工具去确定是不是这样的原因。

    1. 是不是登录后才能有的内容。

    回复
    0
  • PHP中文网

    PHP中文网2017-04-17 17:55:46

    我的代码可以获取到页面的全部内容,但没有用requests的proxies参数。
    试试看不用代理能否获得完整内容呢?

    我的代码:

    import requests
    
    headers = {
            'User-Agent' : 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:46.0) Gecko/20100101 Firefox/46.0',
            'Content-Type': 'application/x-www-form-urlencoded',
            'Connection' : 'Keep-Alive',
            'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
    }
    html = requests.get('http://www.xicidaili.com/nn/', headers=headers).text
    print html

    回复
    0
  • PHP中文网

    PHP中文网2017-04-17 17:55:46

    抓到Ubuntuer一枚....竟然还装了主题....我就是飘过....

    回复
    0
  • 怪我咯

    怪我咯2017-04-17 17:55:46

    1楼回答的很清楚了,应该是网页返回是异步加载的,建议你用fiddler之类的抓包看下,是不是有异步请求!

    回复
    0
  • ringa_lee

    ringa_lee2017-04-17 17:55:46

    我来说说怎么排查吧。【老司机勿吐槽】

    1、使用chrome的network工具进行抓包(其他工具也行),对比response和你抓取的结果。如果相同,则意味着这个页面需要通过js进行渲染。

    2、如果步骤1对比后结果不一致,则考虑header内的其他字段造成的影响了。一般情况下,cookie影响访问权限,user-agent影响dom结构和内容。主要先排查这两点。(有可能会有一些奇奇怪怪的header则需要特殊处理)

    3、开代理测试请求排查访问ip被封禁等问题

    4、如果确定是js渲染的页面。解决方案有二,一是抓取api接口(需要敏锐的发现规则能力),抓包方法参考1。二是直接在服务器上进行js渲染(相关的运算),得到最终页面渲染的结果。

    回复
    0
  • 取消回复