Rumah  >  Artikel  >  pembangunan bahagian belakang  >  如何完整写一个爬虫框架

如何完整写一个爬虫框架

零到壹度
零到壹度asal
2018-03-30 11:28:404736semak imbas

本文主要为大家分享一篇如何完整写一个爬虫框架的请求方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧,希望能帮助到大家。

产生爬虫框架:

1、建立一个scrapy爬虫工程

2、在工程中产生一个scrapy爬虫

3、配置spider爬虫

4、运行爬虫,获取网页

具体操作:

1、建立工程

定义一个工程,名称为:python123demo

方法:

在cmd中,d:  进入d盘,   cd pycodes  进入文件pycodes

然后输入

scrapy startproject python123demo

在pycodes中会生成一个文件:



_init_.py不需要用户编写



2、在工程中产生一个scrapy爬虫

执行一条命令,给出爬虫名字和爬取的网站

产生爬虫:


生成一个名称为 demo 的spider

仅限生成 demo.py,其内容为:


name = 'demo'  当前爬虫名字为demo

allowed_domains =  "   爬取该网站域名以下的链接,该域名由cmd命令台输入

start_urls = [] 爬取的初始页面

parse()用于处理相应,解析内容形成字典,发现新的url爬取请求

3、配置产生的spider爬虫,使之满足我们的需求

将解析的页面保存成文件

修改demo.py文件


4、运行爬虫,获取网页

打开cmd输入命令行进行爬虫


然后我的电脑上出现了一个错误


windows系统上出现这个问题的解决需要安装Py32Win模块,但是直接通过官网链接装exe会出现几百个错误,更方便的做法是


pip3 install pypiwin32 

这是py3的解决方案

注意:py3版本如果用 pip install pypiwin32指令会发生错误

安装完成后,重新进行爬虫,成功!撒花!


捕获页面存储在 demo.html文件中


demo.py  所对应的完整代码:

两版本等价:


Atas ialah kandungan terperinci 如何完整写一个爬虫框架. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel sebelumnya:Python之爬取其他网页Artikel seterusnya:python操作文件方法