ホームページ >バックエンド開発 >Python チュートリアル >Python クローラーでの lxml-etree と xpath の併用 (ケースあり)
この記事では、Python クローラーにおける lxml-etree と xpath の併用方法を紹介します (事例あり) 非常に詳しい内容となっておりますので、お役に立てれば幸いです。
lxml: Python の HTML/XML パーサー
公式 Web サイトのドキュメント: https://lxml.de/
使用する前に、lxml パッケージをインストールする必要があります
関数:
1. HTML の解析: etree.HTML(text) を使用して、文字列形式の HTML フラグメントを HTML ドキュメントに解析します
2. XML ファイルの読み取り
3.etree と XPath を併用します
lxml のインストール
[PyCharm]>[ファイル]>[設定]>[プロジェクト インタープリター]>[ ] > ;[lxml]>[install]
詳細な操作のスクリーンショット:
# #lxml-etree の使用法# 先安装lxml # 用 lxml 来解析HTML代码 from lxml import etree text = '''<p> <ul> <li class="item-0"><a href="0.html">item 0 </a></li> <li class="item-1"><a href="1.html">item 1 </a></li> <li class="item-2"><a href="2.html">item 2 </a></li> <li class="item-3"><a href="3.html">item 3 </a></li> <li class="item-4"><a href="4.html">item 4 </a></li> <li class="item-5"><a href="5.html">item 5 </a></li> </ul> </p>''' # 利用 etree.HTML 把字符串解析成 HTML 文件 html = etree.HTML(text) s = etree.tostring(html).decode() print(s)実行結果
#lxml-etree
## を使用する# ケース v26etree2 ファイル: https://xpwi.github.io/py/pycrawer/py26etree2.py# lxml-etree读取文件from lxml import etree xml = etree.parse("./py24.xml") sxml = etree.tostring(xml, pretty_print=True) print(sxml)実行結果
etree と XPath を一緒に使用する
Case v26exppath.File: https: //xpwi.github.io/py/pycrawler/py26exppath.py# lxml-etree读取文件from lxml import etree xml = etree.parse("./py24.xml") print(type(xml))# 查找所有 book 节点rst = xml.xpath('//book') print(type(rst)) print(rst)# 查找带有 category 属性值为 sport 的元素rst2 = xml.xpath('//book[@category="sport"]') print(type(rst2)) print(rst2)# 查找带有category属性值为sport的元素的book元素下到的year元素rst3 = xml.xpath('//book[@category="sport"]/year') rst3 = rst3[0] print('-------------\n',type(rst3)) print(rst3.tag) print(rst3.text)実行結果
##Python クローラー用の xpath の基本の詳細な説明使用法
##Python クローラーとは何ですか? Python はなぜクローラーと呼ばれるのでしょうか?
以上がPython クローラーでの lxml-etree と xpath の併用 (ケースあり)の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。