Rumah >pembangunan bahagian belakang >Tutorial Python >python爬虫是干什么的
python爬虫是指基于Python开发的爬虫,而网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本;用户可以用爬虫爬图片,爬取视频等一些想要爬取的数据,只要能通过浏览器访问的数据都可以通过爬虫获取。
本文操作环境:linux5.9.8系统、Dell G3电脑、python3.6.4。
世界上80%的爬虫是基于Python开发的,学好爬虫技能,可为后续的大数据分析、挖掘、机器学习等提供重要的数据源。你可以用爬虫爬图片,爬取视频等等你想要爬取的数据,只要你能通过浏览器访问的数据都可以通过爬虫获取。
什么是爬虫?
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓取数据。
爬虫的本质是什么?
模拟浏览器打开网页,获取网页中我们想要的那部分数据
浏览器打开网页的过程:
当你在浏览器中输入地址后,经过DNS服务器找到服务器主机,向服务器发送一个请求,服务器经过解析后发送给用户浏览器结果,包括html,js,css等文件内容,浏览器解析出来最后呈现给用户在浏览器上看到的结果
所以用户看到的浏览器的结果就是由HTML代码构成的,我们爬虫就是为了获取这些内容,通过分析和过滤html代码,从中获取我们想要资源。
【推荐阅读:Python视频教程】
Atas ialah kandungan terperinci python爬虫是干什么的. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!