BeautifulSoup4
은 주로 HTML과 XML을 구문 분석하는 데 사용되는 크롤러 지식 시스템에서 HTML 구문 분석이 더 많이 이루어집니다. 라이브러리 설치 명령은 다음과 같습니다.BeautifulSoup4
是一款 python 解析库,主要用于解析 HTML 和 XML,在爬虫知识体系中解析 HTML 会比较多一些,
该库安装命令如下:
pip install beautifulsoup4
BeautifulSoup
在解析数据时,需依赖第三方解析器,常用解析器与优势如下所示:
python 标准库 html.parser
:python 内置标准库,容错能力强;
lxml 解析器
:速度快,容错能力强;
html5lib
:容错性最强,解析方式与浏览器一致。
接下来用一段自定义的 HTML 代码来演示 beautifulsoup4
库的基本使用,测试代码如下:
<html> <head> <title>测试bs4模块脚本</title> </head> <body> <h2>橡皮擦的爬虫课</h2> <p>用一段自定义的 HTML 代码来演示</p> </body> </html>
使用 BeautifulSoup
对其进行简单的操作,包含实例化 BS 对象,输出页面标签等内容。
from bs4 import BeautifulSoup text_str = """<html> <head> <title>测试bs4模块脚本</title> </head> <body> <h2>橡皮擦的爬虫课</h2> <p>用1段自定义的 HTML 代码来演示</p> <p>用2段自定义的 HTML 代码来演示</p> </body> </html> """ # 实例化 Beautiful Soup 对象 soup = BeautifulSoup(text_str, "html.parser") # 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化 # soup = BeautifulSoup(open('test.html')) print(soup) # 输入网页标题 title 标签 print(soup.title) # 输入网页 head 标签 print(soup.head) # 测试输入段落标签 p print(soup.p) # 默认获取第一个
我们可以通过 BeautifulSoup 对象,直接调用网页标签,这里存在一个问题,通过 BS 对象调用标签只能获取排在第一位置上的标签,如上述代码中,只获取到了一个 p
标签,如果想要获取更多内容,请继续阅读。
学习到这里,我们需要了解 BeautifulSoup 中的 4 个内置对象:
BeautifulSoup
:基本对象,整个 HTML 对象,一般当做 Tag 对象看即可;
Tag
:标签对象,标签就是网页中的各个节点,例如 title,head,p;
NavigableString
:标签内部字符串;
Comment
:注释对象,爬虫里面使用场景不多。
下述代码为你演示这几种对象出现的场景,注意代码中的相关注释:
from bs4 import BeautifulSoup text_str = """<html> <head> <title>测试bs4模块脚本</title> </head> <body> <h2>橡皮擦的爬虫课</h2> <p>用1段自定义的 HTML 代码来演示</p> <p>用2段自定义的 HTML 代码来演示</p> </body> </html> """ # 实例化 Beautiful Soup 对象 soup = BeautifulSoup(text_str, "html.parser") # 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化 # soup = BeautifulSoup(open('test.html')) print(soup) print(type(soup)) # <class 'bs4.BeautifulSoup'> # 输入网页标题 title 标签 print(soup.title) print(type(soup.title)) # <class 'bs4.element.Tag'> print(type(soup.title.string)) # <class 'bs4.element.NavigableString'> # 输入网页 head 标签 print(soup.head)
对于 Tag 对象,有两个重要的属性,是 name
和 attrs
from bs4 import BeautifulSoup text_str = """<html> <head> <title>测试bs4模块脚本</title> </head> <body> <h2>橡皮擦的爬虫课</h2> <p>用1段自定义的 HTML 代码来演示</p> <p>用2段自定义的 HTML 代码来演示</p> <a href="http://www.csdn.net" rel="external nofollow" rel="external nofollow" >CSDN 网站</a> </body> </html> """ # 实例化 Beautiful Soup 对象 soup = BeautifulSoup(text_str, "html.parser") print(soup.name) # [document] print(soup.title.name) # 获取标签名 title print(soup.html.body.a) # 可以通过标签层级获取下层标签 print(soup.body.a) # html 作为一个特殊的根标签,可以省略 print(soup.p.a) # 无法获取到 a 标签 print(soup.a.attrs) # 获取属性
上述代码演示了获取 name
属性和 attrs
属性的用法,其中 attrs
属性得到的是一个字典,可以通过键获取对应的值。
获取标签的属性值,在 BeautifulSoup 中,还可以使用如下方法:
print(soup.a["href"]) print(soup.a.get("href"))
获取 NavigableString
对象 获取了网页标签之后,就要获取标签内文本了,通过下述代码进行。
print(soup.a.string)
除此之外,你还可以使用 text
属性和 get_text()
方法获取标签内容。
print(soup.a.string) print(soup.a.text) print(soup.a.get_text())
还可以获取标签内所有文本,使用 strings
和 stripped_strings
即可。
print(list(soup.body.strings)) # 获取到空格或者换行 print(list(soup.body.stripped_strings)) # 去除空格或者换行
扩展标签/节点选择器之遍历文档树
直接子节点
标签(Tag)对象的直接子元素,可以使用 contents
和 children
属性获取。
from bs4 import BeautifulSoup text_str = """<html> <head> <title>测试bs4模块脚本</title> </head> <body> <div id="content"> <h2>橡皮擦的爬虫课<span>最棒</span></h2> <p>用1段自定义的 HTML 代码来演示</p> <p>用2段自定义的 HTML 代码来演示</p> <a href="http://www.csdn.net" rel="external nofollow" rel="external nofollow" >CSDN 网站</a> </div> <ul class="nav"> <li>首页</li> <li>博客</li> <li>专栏课程</li> </ul> </body> </html> """ # 实例化 Beautiful Soup 对象 soup = BeautifulSoup(text_str, "html.parser") # contents 属性获取节点的直接子节点,以列表的形式返回内容 print(soup.div.contents) # 返回列表 # children 属性获取的也是节点的直接子节点,以生成器的类型返回 print(soup.div.children) # 返回 <list_iterator object at 0x00000111EE9B6340>
请注意以上两个属性获取的都是直接子节点,例如 h2
标签内的后代标签 span
,不会单独获取到。
如果希望将所有的标签都获取到,使用 descendants
属性,它返回的是一个生成器,所有标签包括标签内的文本都会单独获取。
print(list(soup.div.descendants))
其它节点的获取(了解即可,即查即用)
parent
和 parents
:直接父节点和所有父节点;
next_sibling
,next_siblings
,previous_sibling
,previous_siblings
:分别表示下一个兄弟节点、下面所有兄弟节点、上一个兄弟节点、上面所有兄弟节点,由于换行符也是一个节点,所有在使用这几个属性时,要注意一下换行符;
next_element
,next_elements
,previous_element
,previous_elements
:这几个属性分别表示上一个节点或者下一个节点,注意它们不分层次,而是针对所有节点,例如上述代码中 div
节点的下一个节点是 h2
,而 div
节点的兄弟节点是 ul
。
文档树搜索相关函数
第一个要学习的函数就是 find_all()
函数,原型如下所示:
find_all(name,attrs,recursive,text,limit=None,**kwargs)
name
:该参数为 tag 标签的名字,例如 find_all('p')
是查找所有的 p
print(soup.find_all('li')) # 获取所有的 li print(soup.find_all(attrs={'class': 'nav'})) # 传入 attrs 属性 print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想 print(soup.find_all(['a','p'])) # 传递列表
BeautifulSoup
데이터를 구문 분석할 때 타사 구문 분석기에 의존해야 합니다. 일반적으로 사용되는 구문 분석기와 그 장점은 다음과 같습니다. 다음:🎜python 표준 라이브러리 html.parser
: Python 내장 표준 라이브러리, 강력한 내결함성 🎜 lxml 파서
: 빠르고 내결함성 🎜html5lib
: 가장 내결함성이 뛰어나고 구문 분석 방법 브라우저와 일치합니다. 🎜beautifulsoup4
라이브러리의 기본 사용을 보여줍니다. 테스트 코드는 다음과 같습니다. 🎜print(soup.body.div.find_all(['a','p'],recursive=False)) # 传递列表🎜
BeautifulSoup BS 개체 인스턴스화, 페이지 태그 출력 등을 포함하여 간단한 작업을 수행합니다. 🎜<pre class="brush:py;">print(soup.find_all(text=&#39;首页&#39;)) # [&#39;首页&#39;]
print(soup.find_all(text=re.compile("^首"))) # [&#39;首页&#39;]
print(soup.find_all(text=["首页",re.compile(&#39;课&#39;)])) # [&#39;橡皮擦的爬虫课&#39;, &#39;首页&#39;, &#39;专栏课程&#39;]</pre>🎜BeautifulSoup 개체를 통해 웹페이지 태그를 직접 호출할 수 있는데 여기에는 문제가 있습니다. BS 개체를 통해 태그를 호출하면 태그 순위가 1위만 나올 수 있습니다. 예를 들어 위 코드에서는 <code>p 태그를 얻었습니다. 더 많은 콘텐츠를 얻으려면 계속 읽으십시오. 🎜🎜<strong>이것을 배운 후에는 BeautifulSoup에 내장된 4개의 객체를 이해해야 합니다: </strong>🎜<ul class=" list-paddingleft-2">
<li>🎜<code>BeautifulSoup
: 기본 개체, 전체 HTML 개체는 일반적으로 태그 개체로 볼 수 있습니다. 🎜
태그
: 태그 개체, 태그는 웹 페이지의 각 노드입니다. 예: 제목, 머리글, p ;🎜NavigableString
: 태그 내부 문자열 🎜Comment
: 주석 개체 , 크롤러의 사용 시나리오는 동일하지 않습니다. 🎜print(soup.find_all(class_ = 'nav')) print(soup.find_all(class_ = 'nav li'))🎜태그 개체 에는
name
및 attrs
라는 두 가지 중요한 속성이 있습니다.🎜print(soup.select('ul[class^="na"]'))🎜위 코드는
name을 얻는 방법을 보여줍니다.
속성 및 attrs
속성의 사용. 여기서 attrs
속성은 사전을 가져오고 해당 값은 키로 얻을 수 있습니다. 🎜🎜태그의 속성 값을 가져옵니다. BeautifulSoup에서는 다음 방법을 사용할 수도 있습니다. 🎜print(soup.select('ul[class*="li"]'))🎜
NavigableString
개체 가져오기 웹페이지 태그를 가져온 후 다음 코드를 통해 태그의 텍스트를 가져와야 합니다. 🎜from bs4 import BeautifulSoup import requests import logging logging.basicConfig(level=logging.NOTSET) def get_html(url, headers) -> None: try: res = requests.get(url=url, headers=headers, timeout=3) except Exception as e: logging.debug("采集异常", e) if res is not None: html_str = res.text soup = BeautifulSoup(html_str, "html.parser") imgs = soup.find_all(attrs={'class': 'lazy'}) print("获取到的数据量是", len(imgs)) datas = [] for item in imgs: name = item.get('alt') src = item["src"] logging.info(f"{name},{src}") # 获取拼接数据 datas.append((name, src)) save(datas, headers) def save(datas, headers) -> None: if datas is not None: for item in datas: try: # 抓取图片 res = requests.get(url=item[1], headers=headers, timeout=5) except Exception as e: logging.debug(e) if res is not None: img_data = res.content with open("./imgs/{}.jpg".format(item[0]), "wb+") as f: f.write(img_data) else: return None if __name__ == '__main__': headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36" } url_format = "http://www.9thws.com/#p{}" urls = [url_format.format(i) for i in range(1, 2)] get_html(urls[0], headers)🎜또한
text
속성과 get_text()
메서드를 사용하여 태그 콘텐츠를 가져올 수도 있습니다. 🎜rrreee🎜 strings
및 stripped_strings
를 사용하여 태그의 모든 텍스트를 가져올 수도 있습니다. 🎜rrreee🎜문서 트리를 순회하는 확장된 태그/노드 선택기🎜🎜직접 하위 노드🎜🎜태그(태그) 객체의 직접 하위 요소, contents
를 사용할 수 있으며 children
속성 획득. 🎜rrreee🎜위의 두 속성은 h2
태그 내의 하위 태그 span
와 같은 직접 하위 노드를 획득하고 분리되지 않습니다. 🎜🎜모든 태그를 가져오려면 생성기를 반환하는 descendants
속성을 사용하세요. 그러면 태그 내의 텍스트를 포함한 모든 태그가 별도로 가져옵니다. 🎜rrreee🎜다른 노드 획득(알고 확인하고 사용하세요)🎜부모
및 부모
code >: 직접 상위 노드 및 모든 상위 노드 🎜next_sibling
, next_siblings
, previous_sibling
, Previous_siblings
: 다음 형제 노드, 아래의 모든 형제 노드, 이전 형제 노드 및 위의 모든 형제 노드를 나타냅니다. 개행 문자도 노드이므로 이러한 속성을 사용할 때는 개행 문자에 주의하세요. next_element
, next_elements
, previous_element
, previous_elements
: 이러한 속성은 각각 이전을 나타냅니다. 노드 또는 다음 노드는 계층적이지 않고 모든 노드에 적용됩니다. 예를 들어 위 코드에서 div
노드의 다음 노드는 h2
입니다. , div
노드의 형제 노드는 ul
입니다. 🎜find_all()
함수이고, 프로토타입은 다음과 같습니다. 표시:🎜rrreeename
: 이 매개변수는 태그 태그의 이름입니다(예: find_all). ('p' )
는 모든 p
태그를 찾는 것이며 태그 이름 문자열, 정규 표현식 및 목록을 허용할 수 있습니다 🎜attrs
:传入的属性,该参数可以字典的形式传入,例如 attrs={'class': 'nav'}
,返回的结果是 tag 类型的列表;
上述两个参数的用法示例如下:
print(soup.find_all('li')) # 获取所有的 li print(soup.find_all(attrs={'class': 'nav'})) # 传入 attrs 属性 print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想 print(soup.find_all(['a','p'])) # 传递列表
recursive
:调用 find_all ()
方法时,BeautifulSoup 会检索当前 tag 的所有子孙节点,如果只想搜索 tag 的直接子节点,可以使用参数 recursive=False
,测试代码如下:
print(soup.body.div.find_all(['a','p'],recursive=False)) # 传递列表
text
:可以检索文档中的文本字符串内容,与 name
参数的可选值一样,text
参数接受标签名字符串、正则表达式、 列表;
print(soup.find_all(text='首页')) # ['首页'] print(soup.find_all(text=re.compile("^首"))) # ['首页'] print(soup.find_all(text=["首页",re.compile('课')])) # ['橡皮擦的爬虫课', '首页', '专栏课程']
limit
:可以用来限制返回结果的数量;
kwargs
:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作 tag 的属性来搜索。这里要按 class
属性搜索,因为 class
是 python 的保留字,需要写作 class_
,按 class_
查找时,只要一个 CSS 类名满足即可,如需多个 CSS 名称,填写顺序需要与标签一致。
print(soup.find_all(class_ = 'nav')) print(soup.find_all(class_ = 'nav li'))
还需要注意网页节点中,有些属性在搜索中不能作为kwargs
参数使用,比如html5
中的 data-*
属性,需要通过attrs
参数进行匹配。
与
find_all()
方法用户基本一致的其它方法清单如下:
find()
:函数原型find( name , attrs , recursive , text , **kwargs )
,返回一个匹配元素;
find_parents(),find_parent()
:函数原型 find_parent(self, name=None, attrs={}, **kwargs)
,返回当前节点的父级节点;
find_next_siblings(),find_next_sibling()
:函数原型 find_next_sibling(self, name=None, attrs={}, text=None, **kwargs)
,返回当前节点的下一兄弟节点;
find_previous_siblings(),find_previous_sibling()
:同上,返回当前的节点的上一兄弟节点;
find_all_next(),find_next(),find_all_previous () ,find_previous ()
:函数原型 find_all_next(self, name=None, attrs={}, text=None, limit=None, **kwargs)
,检索当前节点的后代节点。
CSS 选择器 该小节的知识点与pyquery
有点撞车,核心使用select()
方法即可实现,返回数据是列表元组。
通过标签名查找,soup.select("title")
;
通过类名查找,soup.select(".nav")
;
通过 id 名查找,soup.select("#content")
;
通过组合查找,soup.select("div#content")
;
通过属性查找,soup.select("div[id='content'")
,soup.select("a[href]")
;
在通过属性查找时,还有一些技巧可以使用,例如:
^=
:可以获取以 XX 开头的节点:
print(soup.select('ul[class^="na"]'))
*=
:获取属性包含指定字符的节点:
print(soup.select('ul[class*="li"]'))
BeautifulSoup 的基础知识掌握之后,在进行爬虫案例的编写,就非常简单了,本次要采集的目标网站 ,该目标网站有大量的艺术二维码,可以供设计大哥做参考。
下述应用到了 BeautifulSoup 模块的标签检索与属性检索,完整代码如下:
from bs4 import BeautifulSoup import requests import logging logging.basicConfig(level=logging.NOTSET) def get_html(url, headers) -> None: try: res = requests.get(url=url, headers=headers, timeout=3) except Exception as e: logging.debug("采集异常", e) if res is not None: html_str = res.text soup = BeautifulSoup(html_str, "html.parser") imgs = soup.find_all(attrs={'class': 'lazy'}) print("获取到的数据量是", len(imgs)) datas = [] for item in imgs: name = item.get('alt') src = item["src"] logging.info(f"{name},{src}") # 获取拼接数据 datas.append((name, src)) save(datas, headers) def save(datas, headers) -> None: if datas is not None: for item in datas: try: # 抓取图片 res = requests.get(url=item[1], headers=headers, timeout=5) except Exception as e: logging.debug(e) if res is not None: img_data = res.content with open("./imgs/{}.jpg".format(item[0]), "wb+") as f: f.write(img_data) else: return None if __name__ == '__main__': headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36" } url_format = "http://www.9thws.com/#p{}" urls = [url_format.format(i) for i in range(1, 2)] get_html(urls[0], headers)
本次代码测试输出采用的 logging
模块实现,效果如下图所示。 测试仅采集了 1 页数据,如需扩大采集范围,只需要修改 main
函数内页码规则即可。 ==代码编写过程中,发现数据请求是类型是 POST,数据返回格式是 JSON,所以本案例仅作为 BeautifulSoup 的上手案例吧==
위 내용은 Python beautifulsoup4 모듈을 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!