search
HomeBackend DevelopmentPython Tutorial零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。

项目内容:

用Python写的百度贴吧的网络爬虫。

使用方法:

新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。

程序功能:

将贴吧中楼主发布的内容打包txt存储到本地。

原理解释:

首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了:
http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1
可以看出来,see_lz=1是只看楼主,pn=1是对应的页码,记住这一点为以后的编写做准备。
这就是我们需要利用的url。
接下来就是查看页面源码。
首先把题目抠出来存储文件的时候会用到。
可以看到百度使用gbk编码,标题使用h1标记:

复制代码 代码如下:

【原创】时尚首席(关于时尚,名利,事业,爱情,励志)

 

同样,正文部分用div和class综合标记,接下来要做的只是用正则表达式来匹配即可。
运行截图:

生成的txt文件:

复制代码 代码如下:

# -*- coding: utf-8 -*- 
#--------------------------------------- 
#   程序:百度贴吧爬虫 
#   版本:0.5 
#   作者:why 
#   日期:2013-05-16 
#   语言:Python 2.7 
#   操作:输入网址后自动只看楼主并保存到本地文件 
#   功能:将楼主发布的内容打包txt存储到本地。 
#--------------------------------------- 
  
import string 
import urllib2 
import re 
 
#----------- 处理页面上的各种标签 ----------- 
class HTML_Tool: 
    # 用非 贪婪模式 匹配 \t 或者 \n 或者 空格 或者 超链接 或者 图片 
    BgnCharToNoneRex = re.compile("(\t|\n| ||零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版)") 
     
    # 用非 贪婪模式 匹配 任意标签 
    EndCharToNoneRex = re.compile("<.>") 
 
    # 用非 贪婪模式 匹配 任意

标签 
    BgnPartRex = re.compile("

") 
    CharToNewLineRex = re.compile("(
|||
|
)") 
    CharToNextTabRex = re.compile("") 
 
    # 将一些html的符号实体转变为原始符号 
    replaceTab = [("",">"),("&","&"),("&","\""),(" "," ")] 
     
    def Replace_Char(self,x): 
        x = self.BgnCharToNoneRex.sub("",x) 
        x = self.BgnPartRex.sub("\n    ",x) 
        x = self.CharToNewLineRex.sub("\n",x) 
        x = self.CharToNextTabRex.sub("\t",x) 
        x = self.EndCharToNoneRex.sub("",x) 
 
        for t in self.replaceTab:   
            x = x.replace(t[0],t[1])   
        return x   
     
class Baidu_Spider: 
    # 申明相关的属性 
    def __init__(self,url):   
        self.myUrl = url + '?see_lz=1' 
        self.datas = [] 
        self.myTool = HTML_Tool() 
        print u'已经启动百度贴吧爬虫,咔嚓咔嚓' 
   
    # 初始化加载页面并将其转码储存 
    def baidu_tieba(self): 
        # 读取页面的原始信息并将其从gbk转码 
        myPage = urllib2.urlopen(self.myUrl).read().decode("gbk") 
        # 计算楼主发布内容一共有多少页 
        endPage = self.page_counter(myPage) 
        # 获取该帖的标题 
        title = self.find_title(myPage) 
        print u'文章名称:' + title 
        # 获取最终的数据 
        self.save_data(self.myUrl,title,endPage) 
 
    #用来计算一共有多少页 
    def page_counter(self,myPage): 
        # 匹配 "共有12页" 来获取一共有多少页 
        myMatch = re.search(r'class="red">(\d+?)', myPage, re.S) 
        if myMatch:   
            endPage = int(myMatch.group(1)) 
            print u'爬虫报告:发现楼主共有%d页的原创内容' % endPage 
        else: 
            endPage = 0 
            print u'爬虫报告:无法计算楼主发布内容有多少页!' 
        return endPage 
 
    # 用来寻找该帖的标题 
    def find_title(self,myPage): 
        # 匹配

xxxxxxxxxx

找出标题 
        myMatch = re.search(r'(.*?)', myPage, re.S) 
        title = u'暂无标题' 
        if myMatch: 
            title  = myMatch.group(1) 
        else: 
            print u'爬虫报告:无法加载文章标题!' 
        # 文件名不能包含以下字符: \ / : * ? " | 
        title = title.replace('\\','').replace('/','').replace(':','').replace('*','').replace('?','').replace('"','').replace('>','').replace('         return title 
 
    # 用来存储楼主发布的内容 
    def save_data(self,url,title,endPage): 
        # 加载页面数据到数组中 
        self.get_data(url,endPage) 
        # 打开本地文件 
        f = open(title+'.txt','w+') 
        f.writelines(self.datas) 
        f.close() 
        print u'爬虫报告:文件已下载到本地并打包成txt文件' 
        print u'请按任意键退出...' 
        raw_input(); 
 
    # 获取页面源码并将其存储到数组中 
    def get_data(self,url,endPage): 
        url = url + '&pn=' 
        for i in range(1,endPage+1): 
            print u'爬虫报告:爬虫%d号正在加载中...' % i 
            myPage = urllib2.urlopen(url + str(i)).read() 
            # 将myPage中的html代码处理并存储到datas里面 
            self.deal_data(myPage.decode('gbk')) 
             
    # 将内容从页面代码中抠出来 
    def deal_data(self,myPage): 
        myItems = re.findall('id="post_content.*?>(.*?)',myPage,re.S) 
        for item in myItems: 
            data = self.myTool.Replace_Char(item.replace("\n","").encode('gbk')) 
            self.datas.append(data+'\n') 

#-------- 程序入口处 ------------------ 
print u"""#---------------------------------------
#   程序:百度贴吧爬虫
#   版本:0.5
#   作者:why
#   日期:2013-05-16
#   语言:Python 2.7
#   操作:输入网址后自动只看楼主并保存到本地文件
#   功能:将楼主发布的内容打包txt存储到本地。
#---------------------------------------
""" 
# 以某小说贴吧为例子 
# bdurl = 'http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1' 
 
print u'请输入贴吧的地址最后的数字串:' 
bdurl = 'http://tieba.baidu.com/p/' + str(raw_input(u'http://tieba.baidu.com/p/'))  
 
#调用 
mySpider = Baidu_Spider(bdurl) 
mySpider.baidu_tieba() 

以上就是改进之后的抓取百度贴吧的全部代码了,非常的简单实用吧,希望能对大家有所帮助

Statement
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn
详细讲解Python之Seaborn(数据可视化)详细讲解Python之Seaborn(数据可视化)Apr 21, 2022 pm 06:08 PM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于Seaborn的相关问题,包括了数据可视化处理的散点图、折线图、条形图等等内容,下面一起来看一下,希望对大家有帮助。

详细了解Python进程池与进程锁详细了解Python进程池与进程锁May 10, 2022 pm 06:11 PM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于进程池与进程锁的相关问题,包括进程池的创建模块,进程池函数等等内容,下面一起来看一下,希望对大家有帮助。

Python自动化实践之筛选简历Python自动化实践之筛选简历Jun 07, 2022 pm 06:59 PM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于简历筛选的相关问题,包括了定义 ReadDoc 类用以读取 word 文件以及定义 search_word 函数用以筛选的相关内容,下面一起来看一下,希望对大家有帮助。

归纳总结Python标准库归纳总结Python标准库May 03, 2022 am 09:00 AM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于标准库总结的相关问题,下面一起来看一下,希望对大家有帮助。

分享10款高效的VSCode插件,总有一款能够惊艳到你!!分享10款高效的VSCode插件,总有一款能够惊艳到你!!Mar 09, 2021 am 10:15 AM

VS Code的确是一款非常热门、有强大用户基础的一款开发工具。本文给大家介绍一下10款高效、好用的插件,能够让原本单薄的VS Code如虎添翼,开发效率顿时提升到一个新的阶段。

python中文是什么意思python中文是什么意思Jun 24, 2019 pm 02:22 PM

pythn的中文意思是巨蟒、蟒蛇。1989年圣诞节期间,Guido van Rossum在家闲的没事干,为了跟朋友庆祝圣诞节,决定发明一种全新的脚本语言。他很喜欢一个肥皂剧叫Monty Python,所以便把这门语言叫做python。

Python数据类型详解之字符串、数字Python数据类型详解之字符串、数字Apr 27, 2022 pm 07:27 PM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于数据类型之字符串、数字的相关问题,下面一起来看一下,希望对大家有帮助。

详细介绍python的numpy模块详细介绍python的numpy模块May 19, 2022 am 11:43 AM

本篇文章给大家带来了关于Python的相关知识,其中主要介绍了关于numpy模块的相关问题,Numpy是Numerical Python extensions的缩写,字面意思是Python数值计算扩展,下面一起来看一下,希望对大家有帮助。

See all articles

Hot AI Tools

Undresser.AI Undress

Undresser.AI Undress

AI-powered app for creating realistic nude photos

AI Clothes Remover

AI Clothes Remover

Online AI tool for removing clothes from photos.

Undress AI Tool

Undress AI Tool

Undress images for free

Clothoff.io

Clothoff.io

AI clothes remover

AI Hentai Generator

AI Hentai Generator

Generate AI Hentai for free.

Hot Article

R.E.P.O. Energy Crystals Explained and What They Do (Yellow Crystal)
2 weeks agoBy尊渡假赌尊渡假赌尊渡假赌
Repo: How To Revive Teammates
4 weeks agoBy尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: How To Get Giant Seeds
4 weeks agoBy尊渡假赌尊渡假赌尊渡假赌

Hot Tools

VSCode Windows 64-bit Download

VSCode Windows 64-bit Download

A free and powerful IDE editor launched by Microsoft

SublimeText3 Linux new version

SublimeText3 Linux new version

SublimeText3 Linux latest version

Notepad++7.3.1

Notepad++7.3.1

Easy-to-use and free code editor

EditPlus Chinese cracked version

EditPlus Chinese cracked version

Small size, syntax highlighting, does not support code prompt function

Zend Studio 13.0.1

Zend Studio 13.0.1

Powerful PHP integrated development environment