今天為大家推薦一些較有效率的Python爬蟲框架。分享給大家。
1.Scrapy
#Scrapy是為了爬取網站數據,提取結構性數據而寫的應用程式框架。可以應用在包括資料挖掘,資訊處理或儲存歷史資料等一系列的程序中。用這個框架可以輕鬆爬下來如亞馬遜商品資訊之類的資料。 (推薦學習:Python影片教學)
計畫網址:https://scrapy.org/
2.PySpider
pyspider 是一個用python實現的功能強大的網絡爬蟲系統,能在瀏覽器界面上進行腳本的編寫,功能的調度和爬取結果的實時查看,後端使用常用的數據庫進行爬取結果的存儲,還能定時設定任務與任務優先級等。
專案網址:https://github.com/binux/pyspider
#3.Crawley
Crawley可以高速爬取對應網站的內容,支援關係和非關聯式資料庫,資料可以匯出為JSON、XML等。
專案地址:http://project.crawley-cloud.com/
#4.Newspaper
Newspaper可以用來提取新聞、文章和內容分析。使用多線程,支援10多種語言等。
專案地址:https://github.com/codelucas/newspaper
#5.Beautiful Soup
Beautiful Soup 是一個可以從HTML或XML檔案中提取資料的Python庫.它能夠透過你喜歡的轉換器實現慣用的文檔導航,查找,修改文檔的方式.Beautiful Soup會幫你節省數小時甚至數天的工作時間。
專案網址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/
6.Grab
Grab是一個用來建立Web刮板的Python框架。透過Grab,您可以建立各種複雜的網頁抓取工具,從簡單的5行腳本到處理數百萬個網頁的複雜非同步網站抓取工具。 Grab提供一個API用於執行網路請求和處理接收到的內容,例如與HTML文件的DOM樹進行互動。
專案網址:http://docs.grablib.org/en/latest/#grab-spider-user-manual
7.Cola
Cola是一個分散式的爬蟲框架,對於使用者來說,只需編寫幾個特定的函數,而無需關注分散式運行的細節。任務會自動分配到多台機器上,整個過程對使用者是透明的。
專案網址:https://github.com/chineking/cola
更多Python相關技術文章,請造訪Python教學欄位學習!
以上是python爬蟲框架有哪些的詳細內容。更多資訊請關注PHP中文網其他相關文章!