>  기사  >  백엔드 개발  >  로그인이 필요한 웹사이트 코드 예제를 크롤링하기 위해 Python을 구현하는 방법

로그인이 필요한 웹사이트 코드 예제를 크롤링하기 위해 Python을 구현하는 방법

黄舟
黄舟원래의
2017-08-20 10:26:403425검색

이 글은 로그인이 필요한 웹사이트 크롤링을 구현하기 위해 Python을 주로 소개하고, Python 로그인 웹사이트와 데이터 캡처 관련 운영 기술을 완전한 예시 형태로 분석합니다. 도움이 필요한 친구들이 참고할 수 있습니다

이 글의 예시는 Python 웹사이트 구현 방법으로 크롤링하려면 로그인이 필요합니다. 참고용으로 모든 사람과 공유하세요. 세부 사항은 다음과 같습니다:


import requests
from lxml import html
# 创建 session 对象。这个对象会保存所有的登录会话请求。
session_requests = requests.session()
# 提取在登录时所使用的 csrf 标记
login_url = "https://bitbucket.org/account/signin/?next=/"
result = session_requests.get(login_url)
tree = html.fromstring(result.text)
authenticity_token = list(set(tree.xpath("//input[@name='csrfmiddlewaretoken']/@value")))[0]
payload = {
  "username": "<你的用户名>",
  "password": "<你的密码>",
  "csrfmiddlewaretoken": authenticity_token # 在源代码中,有一个名为 “csrfmiddlewaretoken” 的隐藏输入标签。
}
# 执行登录
result = session_requests.post(
  login_url,
  data = payload,
  headers = dict(referer=login_url)
)
# 已经登录成功了,然后从 bitbucket dashboard 页面上爬取内容。
url = &#39;https://bitbucket.org/dashboard/overview&#39;
result = session_requests.get(
  url,
  headers = dict(referer = url)
)
# 测试爬取的内容
tree = html.fromstring(result.content)
bucket_elems = tree.findall(".//span[@class=&#39;repo-name&#39;]/")
bucket_names = [bucket.text_content.replace("n", "").strip() for bucket in bucket_elems]
print(bucket_names)

위 내용은 로그인이 필요한 웹사이트 코드 예제를 크롤링하기 위해 Python을 구현하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.