一、Beautiful Soup概述:
Beautiful Soup支援從HTML或XML檔案中擷取資料的Python函式庫;
它支援Python標準函式庫中的HTML解析器,也支援一些第三方的解析器lxml。
Beautiful Soup會自動將輸入文件轉換為Unicode編碼,輸出文件轉換為utf-8編碼。
安裝:
pip install beautifulsoup4
可選擇安裝解析器
pip install lxml
pip install html5lib
##pip install html5lib
##二、BeautifulSoup4簡單使用
假設有這樣一個Html,具體內容如下:
<!DOCTYPE html> <html> <head> <meta content="text/html;charset=utf-8" http-equiv="content-type" /> <meta content="IE=Edge" http-equiv="X-UA-Compatible" /> <meta content="always" name="referrer" /> <link href="https://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css" rel="external nofollow" rel="stylesheet" type="text/css" /> <title>百度一下,你就知道 </title> </head> <body link="#0000cc"> <div id="wrapper"> <div id="head"> <div class="head_wrapper"> <div id="u1"> <a class="mnav" href="http://news.baidu.com" rel="external nofollow" name="tj_trnews">新闻 </a> <a class="mnav" href="https://www.hao123.com" rel="external nofollow" name="tj_trhao123">hao123 </a> <a class="mnav" href="http://map.baidu.com" rel="external nofollow" name="tj_trmap">地图 </a> <a class="mnav" href="http://v.baidu.com" rel="external nofollow" name="tj_trvideo">视频 </a> <a class="mnav" href="http://tieba.baidu.com" rel="external nofollow" rel="external nofollow" name="tj_trtieba">贴吧 </a> <a class="bri" href="//www.baidu.com/more/" rel="external nofollow" name="tj_briicon" >更多产品 </a> </div> </div> </div> </div> </body> </html>
創建beautifulsoup4物件:
from bs4 import BeautifulSoup file = open('./aa.html', 'rb') html = file.read() bs = BeautifulSoup(html, "html.parser") # 缩进格式 print(bs.prettify()) # 格式化html结构 print(bs.title) # print(bs.title.name) # 获取title标签的名称 :title print(bs.title.string) # 获取title标签的文本内容 : 百度一下,你就知道 print(bs.head) # 获取head标签的所有内容 : print(bs.div) # 获取第一个div标签中的所有内容 : print(bs.div["id"]) # 获取第一个div标签的id的值 : wrapper print(bs.a) # 获取第一个a标签中的所有内容 : <a href="http://news.baidu.com/" rel="external nofollow" target="_blank">新闻 </a> print(bs.find_all("a")) # 获取所有的a标签中的所有内容 : [....] print(bs.find(id="u1")) # 获取id="u1"的所有内容 : for item in bs.find_all("a"): # 获取所有的a标签,并遍历打印a标签中的href的值 : print(item.get("href")) for item in bs.find_all("a"): # 获取所有的a标签,并遍历打印a标签的文本值: print(item.get_text())
三、BeautifulSoup4四大物件種類
BeautifulSoup4將複雜HTML文件轉換成一個複雜的樹狀結構,每個節點都是Python物件,所有物件可以歸納為4種:Tag 、NavigableString 、BeautifulSoup 、Comment、
1、Tag:標籤Tag通俗點講就是HTML中的一個個標籤,例如:
print(bs.title) # 获取title标签的所有内容 print(bs.head) # 获取head标签的所有内容 print(bs.a) # 获取第一个a标签的所有内容 print(type(bs.a))# 类型
我們可以利用soup 加標籤名輕鬆地取得這些標籤的內容,這些物件的類型是bs4.element.Tag。但是注意,它查找的是在所有內容中的第一個符合要求的標籤。
對於Tag,它有
兩個重要的屬性,是 name 和attrs:print(bs.name) # [document] #bs 对象本身比较特殊,它的 name 即为 [document] print(bs.head.name) # head #对于其他内部标签,输出的值便为标签本身的名称 print(bs.a.attrs) # 在这里,我们把 a 标签的所有属性打印输出了出来,得到的类型是一个字典。 print(bs.a['class']) ##还可以利用get方法,传入属性的名称,二者是等价的,等价 bs.a.get('class') bs.a['class'] = "newClass"# 可以对这些属性和内容等等进行修改 print(bs.a) del bs.a['class'] # 还可以对这个属性进行删除 print(bs.a)
2、NavigableString:標籤內部的文字
#既然我們已經得到了標籤的內容,那麼問題來了,我們要想取得標籤內部的文字怎麼辦呢?很簡單,用 .string 即可,例如:
print(bs.title.string) # 百度一下,你就知道 print(type(bs.title.string)) #
3、BeautifulSoup:文件的內容
BeautifulSoup物件表示的是一個文件的內容。大部分時候,可以把它當作Tag 對象,是一個特殊的Tag,我們可以分別取得它的類型,名稱,以及屬性,例如:
print(type(bs.name)) # print(bs.name) # [document] print(bs.attrs) # {}
- 4、Comment:註解
Comment 物件是一個特殊類型的NavigableString 對象,其輸出的內容不包括註解符號。
print(bs.a) # 此时不能出现空格和换行符,a标签如下: # print(bs.a.string) # 新闻 print(type(bs.a.string)) #
四、遍歷文檔樹所用屬性
- #.contents:
取得Tag的所有子節點,回傳一個list
print(bs.head.contents) # tag的.contents属性可以将tag的子节点以列表的方式输出:[...] print(bs.head.contents[1]) # 用列表索引来获取它的某一个元素:
- .
- children:
取得Tag的所有子節點,回傳一個生成器
for child in bs.body.children: print(child)
-
.descendants:取得Tag的所有子孫節點
#.parent:取得Tag的父節點
.parents:遞歸得到父輩元素的所有節點,傳回一個生成器
.previous_sibling:取得目前Tag的上一個節點,屬性通常是字串或空白,真實結果是當前標籤與上一個標籤之間的頓號和換行符
##.next_sibling:取得目前Tag的下一個節點,屬性通常是字串或空白,真是結果是目前標籤與下一個標籤之間的頓號與換行符
.previous_siblings:取得目前Tag的上面所有的兄弟節點,傳回一個生成器
.next_siblings:取得目前Tag的下面所有的兄弟節點,傳回一個生成器
.previous_element:取得解析過程中上一個被解析的物件(字串或tag),可能與previous_sibling相同,但通常是不一樣的
.next_element:取得解析過程中下一個被解析的物件(字串或tag),可能與next_sibling相同,但通常是不一樣的
.previous_elements:傳回一個生成器,可以向前存取文件的解析內容
.next_elements:傳回一個生成器,可以向後存取文件的解析內容
.strings:如果Tag包含多個字串,即在子孫節點中有內容,可以用此獲取,而後進行遍歷
#.stripped_strings:與strings用法一致,只不過可以去除掉那些多餘的空白內容
.has_attr:
判斷Tag是否包含屬性五、搜尋文檔樹
find_all(name, attrs, recursive, text, **kwargs):
find_all過濾器可以用在tag的name中,節點的屬性等。
(1)name參數:字串過濾
:會尋找與字串完全匹配的內容a_list = bs.find_all("a") print(a_list)正規表示式過濾:如果傳入的是正規表示式,那麼BeautifulSoup4會透過search()來匹配內容
import re t_list = bs.find_all(re.compile("a")) for item in t_list: print(item)列表:如果傳入一個列表,BeautifulSoup4將會與列表中的任一元素匹配到的節點回傳###
t_list = bs.find_all(["meta","link"]) for item in t_list: print(item)#######方法###:傳入一個方法,根據方法來匹配###
def name_is_exists(tag): return tag.has_attr("name") t_list = bs.find_all(name_is_exists) for item in t_list: print(item)
(2)kwargs参数:
t_list = bs.find_all(id="head") # 查询id=head的Tag t_list = bs.find_all(href=re.compile(http://news.baidu.com)) # 查询href属性包含ss1.bdstatic.com的Tag t_list = bs.find_all(class_=True) # 查询所有包含class的Tag(注意:class在Python中属于关键字,所以加_以示区别) for item in t_list: print(item)
(3)attrs参数:
并不是所有的属性都可以使用上面这种方式进行搜索,比如HTML的data-*属性:
t_list = bs.find_all(data-foo="value")
如果执行这段代码,将会报错。我们可以使用attrs参数,定义一个字典来搜索包含特殊属性的tag:
t_list = bs.find_all(attrs={"data-foo":"value"}) for item in t_list: print(item)
(4)text参数:
通过text参数可以搜索文档中的字符串内容,与name参数的可选值一样,text参数接受 字符串,正则表达式,列表
t_list = bs.find_all(text="hao123") t_list = bs.find_all(text=["hao123", "地图", "贴吧"]) t_list = bs.find_all(text=re.compile("\d"))
当我们搜索text中的一些特殊属性时,同样也可以传入一个方法来达到我们的目的:
def length_is_two(text): return text and len(text) == 2 t_list = bs.find_all(text=length_is_two)
(5)limit参数:
可以传入一个limit参数来限制返回的数量,当搜索出的数据量为5,而设置了limit=2时,此时只会返回前2个数据
t_list = bs.find_all("a",limit=2)
find_all除了上面一些常规的写法,还可以对其进行一些简写:
# 下面两者是相等的 t_list = bs.find_all("a") t_list = bs("a") # 下面两者是相等的 t_list = bs.a.find_all(text="新闻") t_list = bs.a(text="新闻")
2、find()
find()将返回符合条件的第一个Tag,有时我们只需要或一个Tag时,我们就可以用到find()方法了。当然了,也可以使用find_all()方法,传入一个limit=1,然后再取出第一个值也是可以的,不过未免繁琐。
t_list = bs.find_all("title",limit=1) # 返回只有一个结果的列表 t = bs.find("title") # 返回唯一值 t = bs.find("abc") # 如果没有找到,则返回None
从结果可以看出find_all,尽管传入了limit=1,但是返回值仍然为一个列表,当我们只需要取一个值时,远不如find方法方便。但是如果未搜索到值时,将返回一个None。
在上面介绍BeautifulSoup4的时候,我们知道可以通过bs.div来获取第一个div标签,如果我们需要获取第一个div下的第一个div,我们可以这样:
t = bs.div.div # 等价于 t = bs.find("div").find("div")
六、CSS选择器:select()方法
BeautifulSoup支持部分的CSS选择器,在Tag获取BeautifulSoup对象的.select()方法中传入字符串参数,即可使用CSS选择器的语法找到Tag:
print(bs.select('title')) # 1、通过标签名查找 print(bs.select('a')) print(bs.select('.mnav')) # 2、通过类名查找 print(bs.select('#u1')) # 3、通过id查找 print(bs.select('div .bri')) # 4、组合查找 print(bs.select('a[class="bri"]')) # 5、属性查找 print(bs.select('a[href="http://tieba.baidu.com" rel="external nofollow" rel="external nofollow" ]')) print(bs.select("head > title")) # 6、直接子标签查找 print(bs.select(".mnav ~ .bri")) # 7、兄弟节点标签查找 print(bs.select('title')[0].get_text()) # 8、获取内容
七、综合实例:
from bs4 import BeautifulSoup import requests,re req_obj = requests.get('https://www.baidu.com') soup = BeautifulSoup(req_obj.text,'lxml') '''标签查找''' print(soup.title) #只是查找出第一个 print(soup.find('title')) #效果和上面一样 print(soup.find_all('div')) #查出所有的div标签 '''获取标签里的属性''' tag = soup.div print(tag['class']) #多属性的话,会返回一个列表 print(tag['id']) #查找标签的id属性 print(tag.attrs) #查找标签所有的属性,返回一个字典(属性名:属性值) '''标签包的字符串''' tag = soup.title print(tag.string) #获取标签里的字符串 tag.string.replace_with("哈哈") #字符串不能直接编辑,可以替换 '''子节点的操作''' tag = soup.head print(tag.title) #获取head标签后再获取它包含的子标签 '''contents 和 .children''' tag = soup.body print(tag.contents) #将标签的子节点以列表返回 print([child for child in tag.children]) #输出和上面一样 '''descendants''' tag = soup.body [print(child_tag) for child_tag in tag.descendants] #获取所有子节点和子子节点 '''strings和.stripped_strings''' tag = soup.body [print(str) for str in tag.strings] #输出所有所有文本内容 [print(str) for str in tag.stripped_strings] #输出所有所有文本内容,去除空格或空行 '''.parent和.parents''' tag = soup.title print(tag.parent) #输出便签的父标签 [print(parent) for parent in tag.parents] #输出所有的父标签 '''.next_siblings 和 .previous_siblings 查出所有的兄弟节点 ''' '''.next_element 和 .previous_element 下一个兄弟节点 ''' '''find_all的keyword 参数''' soup.find_all(id='link2') #查找所有包含 id 属性的标签 soup.find_all(href=re.compile("elsie")) #href 参数,Beautiful Soup会搜索每个标签的href属性: soup.find_all(id=True) #找出所有的有id属性的标签 soup.find_all(href=re.compile("elsie"), id='link1') #也可以组合查找 soup.find_all(attrs={"属性名": "属性值"}) #也可以通过字典的方式查找
八、BeautifulSoup 和lxml(Xpath)对比
# test.py # -*- coding: utf-8 -*- import requests from bs4 import BeautifulSoup, SoupStrainer import traceback import json from lxml import etree import re import time def getHtmlText(url): try: r = requests.get(url, headers=headers) r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding return r.text except: traceback.print_exc() # ----------使用BeautifulSoup解析------------------------ def parseWithBeautifulSoup(html_text): soup = BeautifulSoup(html_text, 'lxml') content = [] for mulu in soup.find_all(class_='mulu'): # 先找到所有的 div class=mulu 标记 # 找到div_h3 标记 h3 = mulu.find('h3') if h3 != None: h3_title = h3.string # 获取标题 lst = [] for a in mulu.select('div.box a'): href = a.get('href') # 找到 href 属性 box_title = a.get('title') # 找到 title 属性 pattern = re.compile(r'\s*\[(.*)\]\s+(.*)') # (re) 匹配括号内的表达式,也表示一个组 match = pattern.search(box_title) if match != None: date = match.group(1) real_title = match.group(2) lst.append({'href':href,'title':real_title,'date':date}) content.append({'title':h3_title,'content':lst}) with open('dmbj_bs.json', 'w') as fp: json.dump(content, fp=fp, indent=4) # ----------使用Xpath解析------------------------ def parseWithXpath(html_text): html = etree.HTML(html_text) content = [] for div_mulu in html.xpath('.//*[@class="mulu"]'): # 先找到所有的 div class=mulu 标记 # 找到所有的 div_h3 标记 div_h3 = div_mulu.xpath('./div[@class="mulu-title"]/center/h3/text()') if len(div_h3) > 0: h3_title = div_h3[0] # 获取标题 a_s = div_mulu.xpath('./div[@class="box"]/ul/li/a') lst = [] for a in a_s: href = a.xpath('./@href')[0] # 找到 href 属性 box_title = a.xpath('./@title')[0] # 找到 title 属性 pattern = re.compile(r'\s*\[(.*)\]\s+(.*)') # (re) 匹配括号内的表达式,也表示一个组 match = pattern.search(box_title) if match != None: date = match.group(1) real_title = match.group(2) lst.append({'href':href,'title':real_title,'date':date}) content.append({'title':h3_title,'content':lst}) with open('dmbj_xp.json', 'w') as fp: json.dump(content, fp=fp, indent=4) def main(): html_text = getHtmlText('http://www.seputu.com') print(len(html_text)) start = time.clock() parseWithBeautifulSoup(html_text) print('BSoup cost:', time.clock()-start) start = time.clock() parseWithXpath(html_text) print('Xpath cost:', time.clock()-start) if __name__ == '__main__': user_agent = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.117 Safari/537.36' headers={'User-Agent': user_agent} main()
以上是Python如何使用Beautiful Soup(BS4)函式庫解析HTML和XML的詳細內容。更多資訊請關注PHP中文網其他相關文章!

Python更易學且易用,C 則更強大但複雜。 1.Python語法簡潔,適合初學者,動態類型和自動內存管理使其易用,但可能導致運行時錯誤。 2.C 提供低級控制和高級特性,適合高性能應用,但學習門檻高,需手動管理內存和類型安全。

Python和C 在内存管理和控制方面的差异显著。1.Python使用自动内存管理,基于引用计数和垃圾回收,简化了程序员的工作。2.C 则要求手动管理内存,提供更多控制权但增加了复杂性和出错风险。选择哪种语言应基于项目需求和团队技术栈。

Python在科學計算中的應用包括數據分析、機器學習、數值模擬和可視化。 1.Numpy提供高效的多維數組和數學函數。 2.SciPy擴展Numpy功能,提供優化和線性代數工具。 3.Pandas用於數據處理和分析。 4.Matplotlib用於生成各種圖表和可視化結果。

選擇Python還是C 取決於項目需求:1)Python適合快速開發、數據科學和腳本編寫,因其簡潔語法和豐富庫;2)C 適用於需要高性能和底層控制的場景,如係統編程和遊戲開發,因其編譯型和手動內存管理。

Python在數據科學和機器學習中的應用廣泛,主要依賴於其簡潔性和強大的庫生態系統。 1)Pandas用於數據處理和分析,2)Numpy提供高效的數值計算,3)Scikit-learn用於機器學習模型構建和優化,這些庫讓Python成為數據科學和機器學習的理想工具。

每天學習Python兩個小時是否足夠?這取決於你的目標和學習方法。 1)制定清晰的學習計劃,2)選擇合適的學習資源和方法,3)動手實踐和復習鞏固,可以在這段時間內逐步掌握Python的基本知識和高級功能。

Python在Web開發中的關鍵應用包括使用Django和Flask框架、API開發、數據分析與可視化、機器學習與AI、以及性能優化。 1.Django和Flask框架:Django適合快速開發複雜應用,Flask適用於小型或高度自定義項目。 2.API開發:使用Flask或DjangoRESTFramework構建RESTfulAPI。 3.數據分析與可視化:利用Python處理數據並通過Web界面展示。 4.機器學習與AI:Python用於構建智能Web應用。 5.性能優化:通過異步編程、緩存和代碼優

Python在開發效率上優於C ,但C 在執行性能上更高。 1.Python的簡潔語法和豐富庫提高開發效率。 2.C 的編譯型特性和硬件控制提升執行性能。選擇時需根據項目需求權衡開發速度與執行效率。


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

記事本++7.3.1
好用且免費的程式碼編輯器

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

Dreamweaver CS6
視覺化網頁開發工具