>  기사  >  백엔드 개발  >  크롤러가 Python을 사용해야 하는 이유는 무엇입니까?

크롤러가 Python을 사용해야 하는 이유는 무엇입니까?

silencement
silencement원래의
2019-06-24 15:52:292736검색

크롤러가 Python을 사용해야 하는 이유는 무엇입니까?

웹 크롤러란 무엇인가요?

웹 크롤러는 검색 엔진용 World Wide Web에서 웹 페이지를 자동으로 추출하는 프로그램이며 검색 엔진의 중요한 구성 요소입니다. 기존 크롤러는 하나 또는 여러 개의 초기 웹페이지의 URL에서 시작하여 웹페이지를 크롤링하는 동안 현재 페이지에서 새로운 URL을 지속적으로 추출하여 특정 URL이 나올 때까지 대기열에 넣습니다. 시스템 중지 조건이 충족되었습니다#🎜🎜 #

크롤러의 용도는 무엇인가요?

은 범용 검색 엔진 웹 페이지 수집기 역할을 합니다. (google, baidu)는 과학 연구: 온라인 인간 행동, 온라인 커뮤니티 진화, 인간 역학 연구, 계량 사회학, 복잡한 네트워크, 데이터 마이닝 및 기타 분야에는 많은 양의 데이터가 필요합니다. 관련 데이터를 수집하는 도구입니다. 엿보기, 해킹, 스팸...

크롤링은 검색 엔진의 첫 번째이자 가장 쉬운 단계

웹 컬렉션#🎜 🎜#

인덱스 구축

쿼리 정렬

크롤러를 작성하려면 어떤 언어를 사용해야 합니까?

C, C++. 매우 효율적이고 빠르며 전체 웹을 크롤링하는 일반 검색 엔진에 적합합니다. 단점: 개발이 느리고 작성이 냄새나고 길다. 예: Skynet 검색 소스 코드.

스크립팅 언어: Perl, Python, Java, Ruby. 간단하고 배우기 쉬우며 텍스트 처리가 잘되면 웹 콘텐츠의 상세한 추출이 용이하지만 효율성이 높지 않은 경우가 많습니다.

C#? (정보관리쪽 사람들이 선호하는 언어같네요)

결국 Python을 선택한 이유는 무엇인가요?

크로스 플랫폼, Linux 및 Windows를 잘 지원합니다.


과학적 계산, 수치 피팅: Numpy, Scipy

시각화: 2d: Matplotlib(그림이 매우 아름답습니다), 3d: Mayavi2

# 🎜🎜#복잡한 네트워크: Networkx

통계: R 언어와의 인터페이스: Rpy

대화형 터미널

빠른 웹사이트 개발

# 🎜🎜#간단한 Python 크롤러

 1 import urllib
 2 import urllib.request
 3 
 4 def loadPage(url,filename):
 5     """
 6     作用:根据url发送请求,获取html数据;
 7     :param url:
 8     :return:
 9     """
10     request=urllib.request.Request(url)
11     html1= urllib.request.urlopen(request).read()
12     return  html1.decode('utf-8')
13 
14 def writePage(html,filename):
15     """
16     作用将html写入本地
17 
18     :param html: 服务器相应的文件内容
19     :return:
20     """
21     with open(filename,'w') as f:
22         f.write(html)
23     print('-'*30)
24 def tiebaSpider(url,beginPage,endPage):
25     """
26     作用贴吧爬虫调度器,负责处理每一个页面url;
27     :param url:
28     :param beginPage:
29     :param endPage:
30     :return:
31     """
32     for page in range(beginPage,endPage+1):
33         pn=(page - 1)*50
34         fullurl=url+"&pn="+str(pn)
35         print(fullurl)
36         filename='第'+str(page)+'页.html'
37         html= loadPage(url,filename)
38 
39         writePage(html,filename)
40 
41 
42 
43 if __name__=="__main__":
44     kw=input('请输入你要需要爬取的贴吧名:')
45     beginPage=int(input('请输入起始页'))
46     endPage=int(input('请输入结束页'))
47     url='https://tieba.baidu.com/f?'
48     kw1={'kw':kw}
49     key = urllib.parse.urlencode(kw1)
50     fullurl=url+key
51     tiebaSpider(fullurl,beginPage,endPage)

위 내용은 크롤러가 Python을 사용해야 하는 이유는 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.