Heim  >  Artikel  >  Backend-Entwicklung  >  [Python] Web Crawler (6): Ein einfacher Crawler für Baidu Tieba

[Python] Web Crawler (6): Ein einfacher Crawler für Baidu Tieba

黄舟
黄舟Original
2017-01-21 14:07:391475Durchsuche

[Python] Web Crawler (6): Ein einfacher Crawler für Baidu Tieba

# -*- coding: utf-8 -*-  
#---------------------------------------  
#   程序:百度贴吧爬虫  
#   版本:0.1  
#   作者:why  
#   日期:2013-05-14  
#   语言:Python 2.7  
#   操作:输入带分页的地址,去掉最后面的数字,设置一下起始页数和终点页数。  
#   功能:下载对应页码内的所有页面并存储为html文件。  
#---------------------------------------  
   
import string, urllib2  
   
#定义百度函数  
def baidu_tieba(url,begin_page,end_page):     
    for i in range(begin_page, end_page+1):  
        sName = string.zfill(i,5) + '.html'#自动填充成六位的文件名  
        print '正在下载第' + str(i) + '个网页,并将其存储为' + sName + '......'  
        f = open(sName,'w+')  
        m = urllib2.urlopen(url + str(i)).read()  
        f.write(m)  
        f.close()  
   
   
#-------- 在这里输入参数 ------------------  
  
# 这个是山东大学的百度贴吧中某一个帖子的地址  
#bdurl = 'http://tieba.baidu.com/p/2296017831?pn='  
#iPostBegin = 1  
#iPostEnd = 10  
  
bdurl = str(raw_input(u'请输入贴吧的地址,去掉pn=后面的数字:\n'))  
begin_page = int(raw_input(u'请输入开始的页数:\n'))  
end_page = int(raw_input(u'请输入终点的页数:\n'))  
#-------- 在这里输入参数 ------------------  
   
  
#调用  
baidu_tieba(bdurl,begin_page,end_page)

Das Obige ist [Python] Web Crawler (6) ): Der Inhalt eines einfachen Crawlers auf Baidu Tieba. Weitere verwandte Inhalte finden Sie auf der chinesischen PHP-Website (www.php.cn)!


Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn