>백엔드 개발 >파이썬 튜토리얼 >Python3 크롤러는 쿠키를 제공합니다

Python3 크롤러는 쿠키를 제공합니다

Guanhui
Guanhui원래의
2020-07-28 18:34:112992검색

Python3 크롤러는 쿠키를 제공합니다

쿠키의 원래 영어 뜻은 "snack"입니다. 클라이언트가 웹 서버에 접속할 때 서버가 클라이언트의 하드 드라이브에 저장해 두는 정보입니다. 고객. 서버는 쿠키를 기반으로 고객 상태를 추적할 수 있으며, 이는 고객을 구별해야 하는 경우(예: 전자상거래)에 특히 유용합니다.

클라이언트가 처음으로 서버에 대한 접근을 요청하면 서버는 먼저 클라이언트의 관련 정보가 포함된 쿠키를 클라이언트에 저장합니다. 이후 클라이언트가 서버에 대한 접근을 요청할 때마다 해당 쿠키는 클라이언트에 포함됩니다. HTTP 요청 데이터 및 서버는 HTTP 요청을 구문 분석하여 고객에 대한 관련 정보를 얻는 데 사용될 수 있습니다.

python3 크롤러에 쿠키를 가져오는 방법을 살펴보겠습니다.

1. 헤더에 쿠키를 직접 작성합니다.

# coding:utf-8
import requests
from bs4 import BeautifulSoup
cookie = '''cisession=19dfd70a27ec0eecf1fe3fc2e48b7f91c7c83c60;CNZZDATA1000201968=181584
6425-1478580135-https%253A%252F%252Fwww.baidu.com%252F%7C1483922031;Hm_lvt_f805f7762a9a2
37a0deac37015e9f6d9=1482722012,1483926313;Hm_lpvt_f805f7762a9a237a0deac37015e9f6d9=14839
26368'''
header = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Geck
o) Chrome/53.0.2785.143 Safari/537.36',
'Connection': 'keep-alive',
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Cookie': cookie}
url = 'https://www.jb51.net/article/191947.htm'
wbdata = requests.get(url,headers=header).text
soup = BeautifulSoup(wbdata,'lxml')
print(soup)

2 요청을 사용하여 쿠키를 삽입합니다.

# coding:utf-8
import requests
from bs4 import BeautifulSoup
cookie = {
"cisession":"19dfd70a27ec0eecf1fe3fc2e48b7f91c7c83c60",
"CNZZDATA100020196":"1815846425-1478580135-https%253A%252F%252Fwww.baidu.com%252F%7C1483
922031",
"Hm_lvt_f805f7762a9a237a0deac37015e9f6d9":"1482722012,1483926313",
"Hm_lpvt_f805f7762a9a237a0deac37015e9f6d9":"1483926368"
}
url = 'https://www.jb51.net/article/191947.htm'
wbdata = requests.get(url,cookies=cookie).text
soup = BeautifulSoup(wbdata,'lxml')
print(soup)

예제 확장:

쿠키 사용 하얼빈공업대학 ACM 사이트로

사이트 로그인 주소 받기

http://acm.hit.edu.cn/hoj/system/login

전송할 게시물 데이터 보기
사용자 및 비밀번호

코드 보기 :

#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
__author__ = 'pi'
__email__ = 'pipisorry@126.com'

"""
import urllib.request, urllib.parse, urllib.error
import http.cookiejar

LOGIN_URL = 'http://acm.hit.edu.cn/hoj/system/login'
values = {'user': '******', 'password': '******'} # , 'submit' : 'Login'
postdata = urllib.parse.urlencode(values).encode()
user_agent = r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'
headers = {'User-Agent': user_agent, 'Connection': 'keep-alive'}

cookie_filename = 'cookie.txt'
cookie = http.cookiejar.MozillaCookieJar(cookie_filename)
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)

request = urllib.request.Request(LOGIN_URL, postdata, headers)
try:
  response = opener.open(request)
  page = response.read().decode()
  # print(page)
except urllib.error.URLError as e:
  print(e.code, ':', e.reason)

cookie.save(ignore_discard=True, ignore_expires=True) # 保存cookie到cookie.txt中
print(cookie)
for item in cookie:
  print('Name = ' + item.name)
  print('Value = ' + item.value)

get_url = 'http://acm.hit.edu.cn/hoj/problem/solution/?problem=1' # 利用cookie请求訪问还有一个网址
get_request = urllib.request.Request(get_url, headers=headers)
get_response = opener.open(get_request)
print(get_response.read().decode())
# print('You have not solved this problem' in get_response.read().decode())

추천 튜토리얼 : "Python Tutorial"

위 내용은 Python3 크롤러는 쿠키를 제공합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.