博客列表 >Python爬虫丨大众点评数据爬虫教程(1)

Python爬虫丨大众点评数据爬虫教程(1)

英俊的程序员
英俊的程序员原创
2020年04月23日 17:11:264033浏览

大众点评数据获取 —- 基础版本

大众点评是一款非常受普罗大众喜爱的一个第三方的美食相关的点评网站。

因此,该网站的数据也就非常有价值。优惠,评价数量,好评度等数据也就非常受数据公司的欢迎。

今天就写了一个简单的大众点评列表页数据抓取demo。

希望对看到这篇文章的朋友有所帮助。

  • 环境和工具包:
    • python 3.6
    • 自建的IP池(代理)(使用的是ipidea的国内代理)
    • parsel(页面解析)
    • loguru(报错提示)

下面就让我看开启探索之旅

第一步,页面解析

从图中可以看到,对应的数字都是方框。那具体是什么呢?

下图是我简单处理后,控制台输出的内容。以及直接在html中右键查看网页源码

由此可以看到下面连个内容

  1. {'名称': 'Maison Lameloise 莱美露滋(上海中心店)', '评分': '4.90', '评价数': '11\ueeb5\ue753', '人均花费': '¥\uf802\uf0b6\ue753\ue867', '推荐': ['鸭肝棒棒糖', '前菜', '餐后甜品']}
  1. <b>11<svgmtsi class="shopNum"></svgmtsi><svgmtsi class="shopNum"></svgmtsi></b>
  2. <b><svgmtsi class="shopNum"></svgmtsi><svgmtsi class="shopNum"></svgmtsi><svgmtsi class="shopNum"></svgmtsi><svgmtsi class="shopNum"></svgmtsi></b>

也就是说,评价数据和人均消费价格数据,都应经被隐藏了。

这种方式焦作svg映射。

那么该怎么搞定这些数据呢。

首先我们需要找到网页打开后,他们所引用的woff字体文件。

在F12中,选中Network,然后再次选中第三行菜单栏中的Font。现在,在杂论的网络访问内容中,就只有几个woff文件了。

下一步就是打开这个文件了。

打开的方式有两种

  • 方式一:

    • 首先下载好目标woff,直接右键这个访问内容,选中”Open in new tab”就会下载这个woff文件

    • 打开https://www.fontke.com/tool/convfont/这个地址,在线转换成ttf文件

    • 打开http://fontstore.baidu.com/static/editor/index.html这个地址,在线解析刚打开的ttf文件

    • 会看到这种:

    • 通过查找字形:

      通过观察,我们看到在百度字体解析的文字代码中,都是以“unie”开头的,那么我们将之前看到的编码内容组合后进入字体文件中搜索,就可以验证该编码是否正确对应网页显示的数字了。

      比如

      我们通过一一对应,很容易就知道“\ueeb5”是3,“\ue753”是7,还为什么要费尽做这个呢。

      目的有两个,一个是验证这种设想,还有一种是为了下一篇复杂篇的内容埋个伏笔。

      果真,在其中一个文件中找到了对应的字符编码,说明想法没有错误

  • 方式二:

    1. 需要安装fontTools包,没安装的请(pip install fontTools
    2. from fontTools.ttLib import TTFont
    3. def get_xml(self):
    4. font = TTFont('dzdp.woff')
    5. font.saveXML('dzdp.xml')
  • 执行上述方法(和脚本放在同一目录下,改好名字),就会得到一个xml文件,然后用工具打开这个xml文件,直接全局搜索eeb5,很快就会定位到这么一行。从而就会很清楚的了解到。页面中的0xeeb5和ttf文件中的unieeb5是意义对应关系。也就再次证明了0xxeb5就是数字3
  • 构造映射字典

    从刚才的页面解析中,我们已经明白了“\ueeb5”是3,“\ue753”是7,那么咱们再次在页面中找到其他的相关数字,【0-9】十个数字很容易就组合出来了。记住,1不需要重构,。

    1. self.woff = {
    2. "\uf0b6": "0",
    3. # "": "1",
    4. "\uf802": "2",
    5. "\ueeb5": "3",
    6. "\ueb5e": "4",
    7. "\uf508": "5",
    8. "\ue867": "6",
    9. "\ue753": "7",
    10. "\uf0a6": "8",
    11. "\uf506": "9",
    12. }
    13. 不要正对着数据抄写,点评的字体svg经常改变。需要自己对应当时的情况写一下

    省下的就是直接处理数据和解析数据了。

    内容如下:

    ``` python
    def get_count(self, uncode_list):

    1. try:
    2. count = ""
    3. for uncode in uncode_list:
    4. uncodes_ = uncode.replace('<svgmtsi class="shopNum"', "").replace("</svgmtsi", "").replace("</b>",
    5. "").replace(
    6. "</b>", "").replace("<b>", "").split('>')
    7. # pprint.pprint(uncodes_)
    8. for uncs in uncodes_:
    9. if uncs in self.woff.keys():
    10. cc = self.woff[uncs]
    11. else:
    12. cc = uncs
    13. count += cc
    14. return count
    15. except Exception as e:
    16. logger.info("数字解析出现错误")
    17. return uncode_list[0]
  1. def run(self):
  2. url = 'http://www.dianping.com/shanghai/ch10/r801'
  3. html = self.get_html(url)
  4. shop_el_list = html.css("#shop-all-list li")
  5. for shop_info in shop_el_list:
  6. item = {}
  7. shop_name = shop_info.css("div.txt div.tit a::attr(title) ").extract_first()
  8. item["名称"] = shop_name
  9. score = shop_info.css("div.txt div.comment div.nebula_star div.star_score::text").extract_first()
  10. item["评分"] = score
  11. review_num = shop_info.css("div.txt div.comment>a.review-num > b ").extract()
  12. item["评价数"] = self.get_count(review_num)
  13. mean_price = shop_info.css("div.txt div.comment>a.mean-price > b ").extract()
  14. item["人均花费"]=self.get_count(mean_price)
  15. # item["类型"]
  16. # item["地址"]
  17. recommend = shop_info.css("div.txt div.recommend>a::text").extract()
  18. item["推荐"] = recommend
  19. print(item)

```

上述代码就是这个demo中最关键的两个内容,一个是逻辑,一个是数字解析。这里我就不费口舌进行一一解释了。同学们自己看下吧。

成果展示

存在的缺点

  • 如果点评换了一版映射,咱们就要重新做一次字典集合

  • 只是简单的对【0-9】十个数字的映射做了解析。我想拿文字怎么办?

我的demo中就有类型和地址两个字段没有进行数据填充,因为这两个字段就是有文字映射的,这个问题会在下一篇中进行解答。

同时也会解决点评网站换动态字体该怎么解决的。

咱们Python爬虫丨大众点评数据爬虫教程(2)见~~~

​ 本文章旨在用于交流分享,【未经允许,谢绝转载】

声明:本文内容转载自脚本之家,由网友自发贡献,版权归原作者所有,如您发现涉嫌抄袭侵权,请联系admin@php.cn 核实处理。
全部评论
文明上网理性发言,请遵守新闻评论服务协议