首頁  >  文章  >  後端開發  >  Python寫爬蟲用到什麼函式庫

Python寫爬蟲用到什麼函式庫

silencement
silencement原創
2019-06-21 15:34:327242瀏覽

Python寫爬蟲用到什麼函式庫

Python爬蟲,全名為Python網路爬蟲,是一種依照一定的規則,自動抓取萬維網資訊的程式或腳本,主要用於抓取證券交易資料、天氣數據、網站用戶資料和圖片資料等,Python為支援網路爬蟲正常功能實現,內建了大量的庫,主要有幾種類型。下面本篇文章就來跟大家介紹。

一、Python爬蟲網庫

Python爬蟲網庫主要包括:urllib、requests、grab、pycurl、urllib3、httplib2、RoboBrowser、MechanicalSoup、mechanize、socket、Unirest for Python、hyper 、PySocks、treq以及aiohttp等。

二、Python網路爬蟲框架

Python網路爬蟲框架主要包括:grab、scrapy、pyspider、cola、portia、restkit以及demiurge等。

三、HTML/XML解析器 

● lxml:C語言編寫高效能HTML/ XML處理庫。支援XPath。

● cssselect:解析DOM樹和CSS選擇器。

● pyquery:解析DOM樹和jQuery選擇器。

● BeautifulSoup:低效HTML/ XML處理庫,純Python實作。

● html5lib:根據WHATWG規範產生HTML/ XML文檔的DOM。這個規範被用在現在所有的瀏覽器上。

● feedparser:解析RSS/ATOM feeds。

● MarkupSafe:為XML/HTML/XHTML提供了安全轉義的字串。

● xmltodict:一個可以讓你在處理XML時感覺像在處理JSON一樣的Python模組。

● xhtml2pdf:將HTML/CSS轉換為PDF。

● untangle:輕鬆實現將XML檔案轉換為Python物件。

四、文字處理

用於解析、操作簡單文字的函式庫。

● difflib:(Python標準函式庫)幫助進行差異化比較。

● Levenshtein:快速計算Levenshtein距離和字串相似度。

● fuzzywuzzy:模糊字串匹配。

● esmre:正規表示式加速器。

● ftfy:自動整理Unicode文本,減少碎片化。

五、特定格式檔案處理

解析和處理特定文字格式的函式庫。

● tablib:一個把資料匯出為XLS、CSV、JSON、YAML等格式的模組。

● textract:從各種文件中提取文本,例如 Word、PowerPoint、PDF等。

● messytables:解析混亂的表格資料的工具。

● rows:一個常用資料接口,支援的格式很多(目前支援CSV,HTML,XLS,TXT:將來還會提供更多!)。

以上是Python寫爬蟲用到什麼函式庫的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn