這篇文章主要為大家介紹了python中 Beautiful Soup 模組的搜尋方法函數。 方法不同類型的過濾參數能夠進行不同的過濾,得到想要的結果。文中介紹的非常詳細,對大家有一定的參考價值,需要的朋友們下面來一起看看吧。
前言
我們將利用Beautiful Soup 模組的搜尋功能,根據標籤名稱、標籤屬性、文件文字和正規表示式來搜尋。
搜尋方法
Beautiful Soup 內建的搜尋方法如下:
find()
find_all()
find_parent()
find_parents()
find_next_sibling()
find_next_siblings()
find_previous_sibling()
#find_previous_siblings()
find_previous()
find_all_previous()
find_next()
find_all_next()
# #首先還是需要建立一個HTML 檔案用來做測試。
<html> <body> <p class="ecopyramid"> <ul id="producers"> <li class="producerlist"> <p class="name">plants</p> <p class="number">100000</p> </li> <li class="producerlist"> <p class="name">algae</p> <p class="number">100000</p> </li> </ul> <ul id="primaryconsumers"> <li class="primaryconsumerlist"> <p class="name">deer</p> <p class="number">1000</p> </li> <li class="primaryconsumerlist"> <p class="name">rabbit</p> <p class="number">2000</p> </li> </ul> <ul id="secondaryconsumers"> <li class="secondaryconsumerlist"> <p class="name">fox</p> <p class="number">100</p> </li> <li class="secondaryconsumerlist"> <p class="name">bear</p> <p class="number">100</p> </li> </ul> <ul id="tertiaryconsumers"> <li class="tertiaryconsumerlist"> <p class="name">lion</p> <p class="number">80</p> </li> <li class="tertiaryconsumerlist"> <p class="name">tiger</p> <p class="number">50</p> </li> </ul> </p> </body> </html>我們可以透過
find()
方法來獲得- 標籤,預設會得到第一個出現的。接著再取得
- 標籤,預設還是會得到第一個出現的,接著取得
標籤,透過輸出內容來驗證是否取得了第一個出現的標籤。
from bs4 import BeautifulSoup with open('search.html','r') as filename: soup = BeautifulSoup(filename,'lxml') first_ul_entries = soup.find('ul') print first_ul_entries.li.p.string
find() 方法具體如下:find(name,attrs,recursive,text,**kwargs)
如上程式碼所示,
方法接受五個參數:name、attrs、recursive、text 和**kwargs 。 name 、attrs 和 text 參數都可以在
find( )find()
方法充當過濾器,提高匹配結果的精確度。搜尋標籤
除了上面程式碼的搜尋- 標籤外,我們還可以搜尋
- 標籤,回傳結果也是回傳出現的第一個符合內容。
tag_li = soup.find('li') # tag_li = soup.find(name = "li") print type(tag_li) print tag_li.p.string
搜尋文字
#如果我們只想根據文字內容來搜尋的話,我們可以只傳入文字參數:
search_for_text = soup.find(text='plants') print type(search_for_text) <class 'bs4.element.NavigableString'>
傳回的結果也是NavigableString 物件。根據正規表示式搜尋
如下的一段HTML 文字內容
<p>The below HTML has the information that has email ids.</p> abc@example.com <p>xyz@example.com</p> <span>foo@example.com</span>
- 可以看到abc@ example 郵件地址並沒有包含在任何標籤內,這樣就不能根據標籤來找到郵件地址了。這個時候,我們可以使用正規表示式來進行比對。
email_id_example = """ <p>The below HTML has the information that has email ids.</p> abc@example.com <p>xyz@example.com</p> <span>foo@example.com</span> """ email_soup = BeautifulSoup(email_id_example,'lxml') print email_soup # pattern = "\w+@\w+\.\w+" emailid_regexp = re.compile("\w+@\w+\.\w+") first_email_id = email_soup.find(text=emailid_regexp) print first_email_id
- 在使用正規表示式進行比對時,如果有多個符合項,也是先傳回第一個。 根據標籤屬性值搜尋
可以透過標籤的屬性值來搜尋:
但對以下兩種情況會有不同:search_for_attribute = soup.find(id='primaryconsumers') print search_for_attribute.li.p.string
根據標籤屬性值來搜尋對大多數屬性都是可用的,例如:id、style 和title 。
自訂屬性類別( class )屬性
我們不能再直接使用屬性值來搜尋了,而是得使用attrs 參數來傳遞給find()
函數。根據自訂屬性來搜尋
在 HTML5 中是可以為標籤新增自訂屬性的,例如為標籤新增 屬性。如下程式碼所示,如果我們再像搜尋 id 那樣進行操作的話,會報錯的,Python 的變數不能包括 - 符號。
customattr = """ <p data-custom="custom">custom attribute example</p> """ customsoup = BeautifulSoup(customattr,'lxml') customsoup.find(data-custom="custom") # SyntaxError: keyword can't be an expression
這個時候使用attrs 屬性值來傳遞一個字典類型作為參數進行搜尋:
using_attrs = customsoup.find(attrs={'data-custom':'custom'}) print using_attrs
#基於CSS 中的類別進行搜尋
對於CSS 的類別屬性,由於在Python 中class 是個關鍵字,所以是不能當做標籤屬性參數傳遞的,這種情況下,就和自定義屬性一樣進行搜尋。也是使用 attrs 屬性,傳遞一個字典來配對 。
除了使用 attrs 屬性之外,還可以使用 class_ 屬性進行傳遞,這與 class 區別開了,也不會導致錯誤。
css_class = soup.find(attrs={'class':'producerlist'}) css_class2 = soup.find(class_ = "producerlist") print css_class print css_class2
###使用自訂的函數搜尋#########可以給###find() ###方法傳遞一個函數,這樣就會根據函數定義的條件進行搜尋。 #########函數應該會傳回 true 或是 false 值。 ############def is_producers(tag): return tag.has_attr('id') and tag.get('id') == 'producers' tag_producers = soup.find(is_producers) print tag_producers.li.p.string
###程式碼中定義了一個 is_producers 函數,它將檢查標籤是否具體 id 屬性以及屬性值是否等於 producers,如果符合條件則傳回 true ,否則傳回 false 。 #########聯合使用各種搜尋方法#########Beautiful Soup 提供了各種搜尋方法,同樣,我們也可以聯合使用這些方法來進行匹配,提高搜尋的準確度。 ###combine_html = """ <p class="identical"> Example of p tag with class identical </p> <p class="identical"> Example of p tag with class identical <p> """ combine_soup = BeautifulSoup(combine_html,'lxml') identical_p = combine_soup.find("p",class_="identical") print identical_p
使用 find_all() 方法搜索
使用
find()
方法会从搜索结果中返回第一个匹配的内容,而find_all()
方法则会返回所有匹配的项。在
find()
方法中用到的过滤项,同样可以用在find_all()
方法中。事实上,它们可以用到任何搜索方法中,例如:find_parents()
和find_siblings()
中 。# 搜索所有 class 属性等于 tertiaryconsumerlist 的标签。 all_tertiaryconsumers = soup.find_all(class_='tertiaryconsumerlist') print type(all_tertiaryconsumers) for tertiaryconsumers in all_tertiaryconsumers: print tertiaryconsumers.p.string
find_all()
方法为 :find_all(name,attrs,recursive,text,limit,**kwargs)
它的参数和
find()
方法有些类似,多个了 limit 参数。limit 参数是用来限制结果数量的。而find()
方法的 limit 就是 1 了。同时,我们也能传递一个字符串列表的参数来搜索标签、标签属性值、自定义属性值和 CSS 类。
# 搜索所有的 p 和 li 标签 p_li_tags = soup.find_all(["p","li"]) print p_li_tags print # 搜索所有类属性是 producerlist 和 primaryconsumerlist 的标签 all_css_class = soup.find_all(class_=["producerlist","primaryconsumerlist"]) print all_css_class print
搜索相关标签
一般情况下,我们可以使用
find()
和find_all()
方法来搜索指定的标签,同时也能搜索其他与这些标签相关的感兴趣的标签。搜索父标签
可以使用
find_parent()
或者find_parents()
方法来搜索标签的父标签。find_parent()
方法将返回第一个匹配的内容,而find_parents()
将返回所有匹配的内容,这一点与find()
和find_all()
方法类似。# 搜索 父标签 primaryconsumers = soup.find_all(class_='primaryconsumerlist') print len(primaryconsumers) # 取父标签的第一个 primaryconsumer = primaryconsumers[0] # 搜索所有 ul 的父标签 parent_ul = primaryconsumer.find_parents('ul') print len(parent_ul) # 结果将包含父标签的所有内容 print parent_ul print # 搜索,取第一个出现的父标签.有两种操作 immediateprimary_consumer_parent = primaryconsumer.find_parent() # immediateprimary_consumer_parent = primaryconsumer.find_parent('ul') print immediateprimary_consumer_parent
搜索同级标签
Beautiful Soup 还提供了搜索同级标签的功能。
使用函数
find_next_siblings()
函数能够搜索同一级的下一个所有标签,而find_next_sibling()
函数能够搜索同一级的下一个标签。producers = soup.find(id='producers') next_siblings = producers.find_next_siblings() print next_siblings
同样,也可以使用
find_previous_siblings()
和find_previous_sibling()
方法来搜索上一个同级的标签。搜索下一个标签
使用
find_next()
方法将搜索下一个标签中第一个出现的,而find_next_all()
将会返回所有下级的标签项。# 搜索下一级标签 first_p = soup.p all_li_tags = first_p.find_all_next("li") print all_li_tags
搜索上一个标签
与搜索下一个标签类似,使用
find_previous()
和find_all_previous()
方法来搜索上一个标签。 - 標籤,回傳結果也是回傳出現的第一個符合內容。
以上是詳解Python利用Beautiful Soup模組搜尋內容方法的詳細內容。更多資訊請關注PHP中文網其他相關文章!

Tomergelistsinpython,YouCanusethe操作員,estextMethod,ListComprehension,Oritertools

在Python3中,可以通過多種方法連接兩個列表:1)使用 運算符,適用於小列表,但對大列表效率低;2)使用extend方法,適用於大列表,內存效率高,但會修改原列表;3)使用*運算符,適用於合併多個列表,不修改原列表;4)使用itertools.chain,適用於大數據集,內存效率高。

使用join()方法是Python中從列表連接字符串最有效的方法。 1)使用join()方法高效且易讀。 2)循環使用 運算符對大列表效率低。 3)列表推導式與join()結合適用於需要轉換的場景。 4)reduce()方法適用於其他類型歸約,但對字符串連接效率低。完整句子結束。

pythonexecutionistheprocessoftransformingpypythoncodeintoExecutablestructions.1)InternterPreterReadSthecode,ConvertingTingitIntObyTecode,whepythonvirtualmachine(pvm)theglobalinterpreterpreterpreterpreterlock(gil)the thepythonvirtualmachine(pvm)

Python的關鍵特性包括:1.語法簡潔易懂,適合初學者;2.動態類型系統,提高開發速度;3.豐富的標準庫,支持多種任務;4.強大的社區和生態系統,提供廣泛支持;5.解釋性,適合腳本和快速原型開發;6.多範式支持,適用於各種編程風格。

Python是解釋型語言,但也包含編譯過程。 1)Python代碼先編譯成字節碼。 2)字節碼由Python虛擬機解釋執行。 3)這種混合機制使Python既靈活又高效,但執行速度不如完全編譯型語言。

UseeAforloopWheniteratingOveraseQuenceOrforAspecificnumberoftimes; useAwhiLeLoopWhenconTinuingUntilAcIntiment.forloopsareIdealForkNownsences,而WhileLeleLeleLeleLeleLoopSituationSituationsItuationsItuationSuationSituationswithUndEtermentersitations。

pythonloopscanleadtoerrorslikeinfiniteloops,modifyingListsDuringteritation,逐個偏置,零indexingissues,andnestedloopineflinefficiencies


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver Mac版
視覺化網頁開發工具

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

Dreamweaver CS6
視覺化網頁開發工具