首頁 >後端開發 >Python教學 >Python利用Phantomjs抓取渲染JS後的網頁

Python利用Phantomjs抓取渲染JS後的網頁

大家讲道理
大家讲道理原創
2016-11-07 09:59:111402瀏覽

最近需要爬取某網站,無奈頁面都是JS渲染後產生的,普通的爬蟲框架搞不定,於是想到用Phantomjs搭一個代理。
Python呼叫Phantomjs貌似沒有現成的第三方函式庫(如果有,請告知小2),漫步了一圈,發現只有pyspider提供了現成的方案。
簡單試用了一下,感覺pyspider更像一個為新手打造的爬蟲工具,好比一個老媽子,有時無微不至,有時喋喋不休。
輕巧的小工具應該更受人喜愛,我也懷著一點私心,可以帶著我最愛的BeautifulSoup一塊兒用,而不用再學PyQuery(pyspider用來解析HTML),更不用忍受瀏覽器寫Python的糟糕體驗(偷笑)。
所以花了一個下午的時間,把pyspider當中實現Phantomjs代理的部分拆了出來,獨立成一個小的爬蟲模組,希望大家會喜歡(感謝binux!)。

準備工作

你當然要有Phantomjs,廢話! (Linux下最好用supervisord守護,必須保持抓取的時候Phantomjs一直處於開啟狀態)

用專案路徑下的phantomjs_fetcher.js啟動:phantomjs phantomjs_fetcher.js [port]

的依賴httpclient模組)

呼叫是超簡單的

from tornado_fetcher import Fetcher
# 创建一个爬虫
>>> fetcher=Fetcher(
    user_agent='phantomjs', # 模拟浏览器的User-Agent
    phantomjs_proxy='http://localhost:12306', # phantomjs的地址
    poolsize=10, # 最大的httpclient数量
    async=False # 同步还是异步
    )
# 开始连接Phantomjs的代理,可以渲染JS!
>>> fetcher.phantomjs_fetch(url)
# 渲染成功后执行额外的JS脚本(注意用function包起来!)
>>> fetcher.phantomjs_fetch(url, js_script='function(){setTimeout("window.scrollTo(0,100000)}", 1000)')


陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn