>  기사  >  백엔드 개발  >  Python의 크롤러 기술을 이용하여 창피한사전을 크롤링하는 방법에 대한 자세한 설명

Python의 크롤러 기술을 이용하여 창피한사전을 크롤링하는 방법에 대한 자세한 설명

高洛峰
高洛峰원래의
2017-03-20 09:25:321225검색

크롤러 기술을 처음 배웠는데, 부끄러운 것들에 대한 백과사전에 크롤링하는 방법에 대한 Zhihu의 농담을 읽고 직접 만들기로 결정했습니다.

목표 달성: 1. Encyclopedia of 당황스러운 것들에 대한 농담을 크롤링

2. 한 번에 한 단락씩 크롤링하고 Enter를 누를 때마다 다음 페이지로 크롤링

기술적 구현: python 구현을 기반으로 Requests 라이브러리, re 라이브러리, bs4 라이브러리의 BeautifulSoup 메소드를 사용하여

구현 주요 내용: 먼저 크롤링 구현에 대한 아이디어를 명확히 하고 본체프레임워크를 구축해 보겠습니다. 첫 번째 단계에서는 먼저 Requests 라이브러리를 사용하여 웹 페이지를 얻는 방법을 작성합니다. 두 번째 단계에서는 bs4 라이브러리의 BeautifulSoup 방법을 사용하여 얻은 웹 페이지 정보를 분석하고 정규 표현식을 사용합니다. 관련 단락 정보를 일치시킵니다. 세 번째 단계는 획득한 정보를 인쇄하는 것입니다. 우리 모두는 메인 함수 를 통해 위의 메소드를 실행합니다.

첫째, 해당 라이브러리를 먼저 가져옵니다

import requests
from bs4 import BeautifulSoup
import bs4
import  re

둘째, 먼저 웹페이지 정보를 가져옵니다

def getHTMLText(url):
    try:
        user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
        headers = {'User-Agent': user_agent}
        r = requests.get(url,headers = headers)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""

셋, 해당 정보를 r에 넣고 분석합니다

soup = BeautifulSoup(html,"html.parser")

우리에게 필요한 것은 농담의 내용과 게시자입니다. 웹페이지의 소스 코드를 보면 농담의 게시자가

'p', attrs={'class': 'content'}中

농담의 내용은

'p', attrs={'class': 'author clearfix'}中
, 따라서 bs4 라이브러리 메소드를 전달하여 이 두 태그

def fillUnivlist(lis,li,html,count):
    soup = BeautifulSoup(html,"html.parser")
    try:
        a = soup.find_all('p', attrs={'class': 'content'})
        ll = soup.find_all('p', attrs={'class': 'author clearfix'})
의 특정 콘텐츠를 추출한 다음 특정 정규 표현식

for sp in a:
    patten = re.compile(r'<span>(.*?)</span>',re.S)
    Info = re.findall(patten,str(sp))
    lis.append(Info)
    count = count + 1
for mc in ll:
    namePatten = re.compile(r'<h2>(.*?)</h2>', re.S)
    d = re.findall(namePatten, str(mc))
    li.append(d)
을 통해 정보를 얻습니다. 주의할 점은 re에서 반환한 find_all과 findall 메소드입니다. 정규식을 사용할 때 태그의 줄 바꿈만 대략적으로 추출하고 제거하지 않습니다.

다음으로 필요한 것은 두 목록의 내용을 결합하여 출력

def printUnivlist(lis,li,count):
    for i in range(count):
        a = li[i][0]
        b = lis[i][0]
        print ("%s:"%a+"%s"%b)
그런 다음 입력 제어 기능을 만들고, Q를 입력하여 오류를 반환하고, 종료하고, Enter를 입력하여 올바른 값을 반환하고, 단락의 다음 페이지를 로드합니다.

def input_enter():
    input1 = input()
    if input1 == 'Q':
        return False
    else:
        return True
주 함수를 통해 입력 제어를 구현하는데, 제어 함수가 오류를 반환하면 출력이 수행되지 않고 반환 함수가 정확하면 출력이 계속됩니다. 다음 페이지를 로드하려면

for 루프를 사용합니다.

def main():
    passage = 0
    enable = True
    for i in range(20):
        mc = input_enter()
        if mc==True:
            lit = []
            li = []
            count = 0
            passage = passage + 1
            qbpassage = passage
            print(qbpassage)
            url = 'http://www.qiushibaike.com/8hr/page/' + str(qbpassage) + '/?s=4966318'
            a = getHTMLText(url)
            fillUnivlist(lit, li, a, count)
            number = fillUnivlist(lit, li, a, count)
            printUnivlist(lit, li, number)
        else:
            break
여기서 모든 for 루프는 lis[] 및 li[]를 새로 고쳐 웹페이지의 단락 내용이 매번 올바르게 출력될 수 있다는 점에 유의해야 합니다.

소스는 다음과 같습니다. code :

import requests
from bs4 import BeautifulSoup
import bs4
import  re
def getHTMLText(url):
    try:
        user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
        headers = {'User-Agent': user_agent}
        r = requests.get(url,headers = headers)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""
def fillUnivlist(lis,li,html,count):
    soup = BeautifulSoup(html,"html.parser")
    try:
        a = soup.find_all('p', attrs={'class': 'content'})
        ll = soup.find_all('p', attrs={'class': 'author clearfix'})
        for sp in a:
            patten = re.compile(r'(.*?)',re.S)
            Info = re.findall(patten,str(sp))
            lis.append(Info)
            count = count + 1
        for mc in ll:
            namePatten = re.compile(r'

(.*?)

', re.S)             d = re.findall(namePatten, str(mc))             li.append(d)     except:         return ""     return count def printUnivlist(lis,li,count):     for i in range(count):         a = li[i][0]         b = lis[i][0]         print ("%s:"%a+"%s"%b) def input_enter():     input1 = input()     if input1 == 'Q':         return False     else:         return True def main():     passage = 0     enable = True     for i in range(20):         mc = input_enter()         if mc==True:             lit = []             li = []             count = 0             passage = passage + 1             qbpassage = passage             print(qbpassage)             url = 'http://www.qiushibaike.com/8hr/page/' + str(qbpassage) + '/?s=4966318'             a = getHTMLText(url)             fillUnivlist(lit, li, a, count)             number = fillUnivlist(lit, li, a, count)             printUnivlist(lit, li, number)         else:             break main()
이번이 처음이고 아직 최적화할 수 있는 부분이 많이 있으니 지적해 주시면 좋겠습니다.

위 내용은 Python의 크롤러 기술을 이용하여 창피한사전을 크롤링하는 방법에 대한 자세한 설명의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.