suchen

Heim  >  Fragen und Antworten  >  Hauptteil

网页爬虫 - python+selenium+firefox爬虫,页面元素可以定位到,但是打印page_source却显示不出来该元素?爬虫

用python+selenium+firefox爬取网易云音乐指定音乐精彩评论,switch到iframe了,也可以定位到该元素,但是我打印driver.page_source却显示不全?


driver = webdriver.Firefox()
driver.maximize_window()
driver.set_page_load_timeout(10)

try:
    driver.get("http://music.163.com/#/song?id=31877470")
except selenium.common.exceptions.TimeoutException:
    print("time out of 10 s")
    driver.execute_script('window.stop()')

print("休眠结束")
driver.switch_to.frame("contentFrame")
time.sleep(5)
print(driver.find_element_by_id('comment-box').text)
bsObj = BeautifulSoup(driver.page_source)
print(driver.page_source)   

这时候能通过driver输出精彩评论:

这是输出的page_source的部分截图,可以看到在p id="comment-box"后并没有精彩评论的内容,这部分源码没有。

阿神阿神2802 Tage vor1599

Antworte allen(3)Ich werde antworten

  • 怪我咯

    怪我咯2017-04-18 10:04:58

    #encoding=utf-8
    from selenium import webdriver
    driver = webdriver.Chrome()#用的谷歌,到http://chromedriver.storage.googleapis.com/index.htm 下载
    driver.maximize_window()
    driver.set_page_load_timeout(10)
    
    try:
        driver.get("http://music.163.com/#/song?id=31877470")
    except selenium.common.exceptions.TimeoutException:
        print("time out of 10 s")
        driver.execute_script('window.stop()')
    
    print(u"休眠结束")
    driver.switch_to.frame("contentFrame")
    time.sleep(5)
    print(driver.find_element_by_id('comment-box').text.encode('GBK', 'ignore'))
    bsObj = BeautifulSoup(driver.page_source)
    source = driver.page_source.encode('GBK', 'ignore')
    open('163.txt','w').write(source)#163.txt文件可以看到精彩评论的
    #print(driver.page_source.encode('GBK', 'ignore'))

    Antwort
    0
  • 黄舟

    黄舟2017-04-18 10:04:58

    运行了一下你的代码,是有的啊。看截图,在p id="comment-box"的不知道多少辈孙子p里

    Antwort
    0
  • 怪我咯

    怪我咯2017-04-18 10:04:58

    请问大神使用driver.page_source方法获取APP内嵌的webView的源码,好多标签也是空的?该怎样处理?

    Antwort
    0
  • StornierenAntwort