웹 스크래핑은 웹사이트에서 데이터를 수집하는 강력한 도구입니다. 제품 리뷰를 수집하든, 가격을 추적하든, 아니면 우리의 경우 Goodreads 도서를 스크랩하든 웹 스크래핑은 데이터 기반 애플리케이션에 대한 무한한 기회를 제공합니다.
이 블로그 게시물에서는 웹 스크래핑의 기본 사항과 Python BeautifulSoup 라이브러리의 강력한 기능을 살펴보고 Goodreads Choice Awards 데이터를 스크래핑하도록 설계된 Python 스크립트를 분석해 보겠습니다. 마지막으로 추가 분석이나 적용을 위해 이 데이터를 CSV 파일에 저장하는 방법에 대해 논의하겠습니다.
Goodreads란 무엇인가요?
Goodreads는 독자와 도서 추천을 제공하는 세계 최대 규모의 플랫폼입니다. 이는 사용자에게 서평, 저자 세부정보 및 인기 순위에 대한 액세스를 제공합니다. 매년 Goodreads는 독자들이 소설, 판타지, 로맨스 등 다양한 장르에 걸쳐 자신이 좋아하는 책에 투표하는 Goodreads Choice Awards를 개최합니다. 따라서 Goodreads는 인기 도서 및 작가에 대한 통찰력을 수집하기 위한 웹 스크래핑의 이상적인 대상이 됩니다.
웹 스크래핑이란 무엇입니까?
웹 스크래핑에는 자동화된 방식으로 웹사이트에서 데이터를 추출하는 작업이 포함됩니다. 이를 통해 다음과 같은 작업에 대한 정보를 수집하고 구조화할 수 있습니다.
- 트렌드와 패턴을 분석합니다.
- 리뷰나 기사 등의 콘텐츠를 집계합니다.
- 기계 학습 모델 또는 데이터베이스를 제공합니다.
환경 설정
스크립트를 시작하기 전에 필요한 라이브러리를 설치해야 합니다.
-
파이썬 설치
시스템에 Python이 설치되어 있는지 확인하세요.
-
필수 라이브러리 설치
pip를 사용하여 필수 라이브러리를 설치합니다.
pip install beautifulsoup4 pip install requests
요청: HTTP 요청을 URL로 보내고 웹페이지 콘텐츠를 검색할 수 있습니다.
BeautifulSoup: HTML 구문 분석 및 데이터 추출을 단순화합니다.
설치가 완료되면 스크래핑할 준비가 된 것입니다!
BeautifulSoup 소개
BeautifulSoup은 HTML 및 XML 문서를 구문 분석하기 위한 Python 라이브러리입니다. 이를 통해 개발자는 페이지 구조를 탐색하고, 콘텐츠를 추출하고, 원시 HTML을 구조화된 형식으로 변환할 수 있습니다.
BeautifulSoup의 주요 메소드
다음은 스크립트에서 사용할 몇 가지 필수 방법입니다.
- BeautifulSoup(html, 'html.parser'): 파서를 초기화하고 HTML 콘텐츠로 작업할 수 있게 해줍니다.
- Soup.select(selector): CSS 선택자를 사용하여 클래스나 태그 등의 요소를 찾습니다.
- 수프.find(class_='class_name'): 지정된 클래스가 있는 요소가 처음 나타나는 위치를 찾습니다.
- Soup.find_parent(class_='class_name'): 현재 요소의 상위 태그를 찾습니다.
- Soup.get('attribute'): href 또는 src와 같은 요소에서 속성 값을 검색합니다.
전체 메소드 목록을 보려면 BeautifulSoup 문서를 확인하세요.
스크립트 설정
우선 브라우저를 모방하기 위해 필요한 라이브러리를 가져오고 사용자 정의 헤더를 정의해 보겠습니다. 이렇게 하면 웹사이트가 차단되는 것을 방지할 수 있습니다.
pip install beautifulsoup4 pip install requests
카테고리 및 도서 스크랩
Goodreads’ Choice Award 페이지와 기본 애플리케이션의 URL을 정의하는 것부터 시작합니다. start_url에 요청을 보내고 웹페이지 콘텐츠를 가져옵니다.
from bs4 import BeautifulSoup as bs import requests import re import csv HEADERS = { "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...", "Accept-Language": "en-US, en;q=0.5", }
각 카테고리에는 장르와 해당 페이지에 대한 링크가 포함되어 있습니다. Soup.select를 사용하여 .category 클래스에 나열된 모든 카테고리를 추출합니다.
다음으로 각 카테고리를 반복하여 장르 이름과 페이지 URL을 가져옵니다.
app_url = "https://www.goodreads.com" start_url = "https://www.goodreads.com/choiceawards/best-books-2024" res = requests.get(start_url, headers=HEADERS) soup = bs(res.text, 'html.parser') categories = soup.select('.category')
여기서 추가 처리를 위해 카테고리 이름(장르)과 카테고리 페이지 URL을 추출합니다.
각 Category_url에 또 다른 요청을 보내고 해당 카테고리에 속한 모든 도서를 찾습니다.
for index, category in enumerate(categories): genre = category.select('h4.category__copy')[0].text.strip() url = category.select('a')[0].get('href') category_url = f"{app_url}{url}"
category_books에는 해당 카테고리에 속한 모든 도서 목록이 포함됩니다.
도서 데이터 추출
책 목록이 확보되면 각 책을 반복하여 데이터를 추출합니다.
투표 추출
res = requests.get(category_url, headers=HEADERS) soup = bs(res.text, 'html.parser') category_books = soup.select('.resultShown a.pollAnswer__bookLink')
DOM을 보면 카테고리 요소의 상위 요소에 투표 횟수가 표시되어 있습니다. 따라서 find_parent 메소드를 사용하여 요소를 찾고 투표수를 추출해야 합니다.
도서 제목, 저자 및 이미지 URL 추출
for book_index, book in enumerate(category_books): parent_tag = book.find_parent(class_='resultShown') votes = parent_tag.find(class_='result').text.strip() book_votes = clean_string(votes).split(" ")[0].replace(",", "")
각 도서의 URL, 표지 이미지 URL, 제목, 저자가 추출됩니다.
clean_string 함수는 제목의 형식을 깔끔하게 유지합니다. 스크립트 상단에서 정의할 수 있습니다
book_url = book.get('href') book_url_formatted = f"{app_url}{book_url}" book_img = book.find('img') book_img_url = book_img.get('src') book_img_alt = book_img.get('alt') book_title = clean_string(book_img_alt) print(book_title) book_name = book_title.split('by')[0].strip() book_author = book_title.split('by')[1].strip()
도서 세부정보 더 추출
평점, 리뷰 등 책에 대한 자세한 내용을 확인하기 위해 book_url_formatted에 또 다른 요청을 보내드리겠습니다.
def clean_string(string): cleaned = re.sub(r'\s+', ' ', string).strip() return cleaned
여기서 get_atings_reviews는 올바른 형식의 평점 및 리뷰 텍스트를 반환합니다.
이 기능은 스크립트 상단에서 정의할 수 있습니다.
pip install beautifulsoup4 pip install requests
각 도서의 세부정보 페이지로 이동하면 평점, 리뷰, 자세한 설명과 같은 추가 정보가 추출됩니다. 여기서는 책 설명 요소가 존재하는지 확인하고 그렇지 않으면 스크립트가 실패하지 않도록 기본 설명을 입력합니다.
from bs4 import BeautifulSoup as bs import requests import re import csv HEADERS = { "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...", "Accept-Language": "en-US, en;q=0.5", }
여기서 저자 세부정보, 출판 정보, 기타 메타데이터도 수집했습니다.
책 사전 만들기
책에 대해 추출한 모든 데이터를 사전에 저장해 보겠습니다.
app_url = "https://www.goodreads.com" start_url = "https://www.goodreads.com/choiceawards/best-books-2024" res = requests.get(start_url, headers=HEADERS) soup = bs(res.text, 'html.parser') categories = soup.select('.category')
이 사전을 사용하여 csv 파일에 데이터를 추가합니다.
CSV 파일에 데이터 저장
파이썬 표준 라이브러리의 일부인 csv 모듈을 사용하겠습니다. 그래서 따로 설치할 필요가 없습니다.
먼저 이것이 첫 번째 항목인지 확인해야 합니다. csv 파일의 첫 번째 행에 헤더를 추가하려면 이 확인이 필요합니다.
for index, category in enumerate(categories): genre = category.select('h4.category__copy')[0].text.strip() url = category.select('a')[0].get('href') category_url = f"{app_url}{url}"
header 항목이 포함된 새 csv 파일을 생성하는 mode="w"를 사용하고 있습니다.
이제 모든 후속 항목에 대해 데이터를 CSV 파일에 추가합니다.
res = requests.get(category_url, headers=HEADERS) soup = bs(res.text, 'html.parser') category_books = soup.select('.resultShown a.pollAnswer__bookLink')
mode="a"는 데이터를 CSV 파일에 추가합니다.
이제 대본이 실행되는 동안 편히 앉아 커피 한 잔의 여유를 즐겨보세요 😄
완료되면 최종 데이터는 다음과 같습니다.
이 Github 저장소에서 전체 소스 코드를 찾을 수 있습니다.
요약
Python과 BeautifulSoup을 사용하여 Goodreads 데이터를 스크랩하는 방법을 배웠습니다. 기본 설정부터 CSV 파일에 데이터를 저장하는 것까지 스크래핑 프로세스의 모든 측면을 탐색했습니다. 스크랩된 데이터는 다음 용도로 사용될 수 있습니다.
- 데이터 시각화(예: 가장 인기 있는 장르 또는 작가)
- 도서 인기도를 예측하는 머신러닝 모델.
- 개인 도서 추천 시스템 구축
웹 스크래핑은 창의적인 데이터 분석 및 응용 가능성을 열어줍니다. BeautifulSoup과 같은 라이브러리를 사용하면 복잡한 스크래핑 작업도 관리할 수 있습니다. 스크랩하는 동안 윤리적 관행을 따르고 웹사이트의 서비스 약관을 존중하는 것을 잊지 마세요!
위 내용은 Python과 BeautifulSoup을 사용하여 Goodreads에서 데이터를 긁어내는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Linux 터미널에서 Python 버전을 보려고 할 때 Linux 터미널에서 Python 버전을 볼 때 권한 문제에 대한 솔루션 ... Python을 입력하십시오 ...

이 기사에서는 HTML을 구문 분석하기 위해 파이썬 라이브러리 인 아름다운 수프를 사용하는 방법을 설명합니다. 데이터 추출, 다양한 HTML 구조 및 오류 처리 및 대안 (SEL과 같은 Find (), find_all (), select () 및 get_text ()와 같은 일반적인 방법을 자세히 설명합니다.

파이썬 객체의 직렬화 및 사막화는 사소한 프로그램의 주요 측면입니다. 무언가를 Python 파일에 저장하면 구성 파일을 읽거나 HTTP 요청에 응답하는 경우 객체 직렬화 및 사태화를 수행합니다. 어떤 의미에서, 직렬화와 사제화는 세계에서 가장 지루한 것들입니다. 이 모든 형식과 프로토콜에 대해 누가 걱정합니까? 일부 파이썬 객체를 지속하거나 스트리밍하여 나중에 완전히 검색하려고합니다. 이것은 세상을 개념적 차원에서 볼 수있는 좋은 방법입니다. 그러나 실제 수준에서 선택한 직렬화 체계, 형식 또는 프로토콜은 속도, 보안, 유지 보수 상태 및 프로그램의 기타 측면을 결정할 수 있습니다.

이 기사는 딥 러닝을 위해 텐서 플로와 Pytorch를 비교합니다. 데이터 준비, 모델 구축, 교육, 평가 및 배포와 관련된 단계에 대해 자세히 설명합니다. 프레임 워크, 특히 계산 포도와 관련하여 주요 차이점

Python의 통계 모듈은 강력한 데이터 통계 분석 기능을 제공하여 생물 통계 및 비즈니스 분석과 같은 데이터의 전반적인 특성을 빠르게 이해할 수 있도록 도와줍니다. 데이터 포인트를 하나씩 보는 대신 평균 또는 분산과 같은 통계를보고 무시할 수있는 원래 데이터에서 트렌드와 기능을 발견하고 대형 데이터 세트를보다 쉽고 효과적으로 비교하십시오. 이 튜토리얼은 평균을 계산하고 데이터 세트의 분산 정도를 측정하는 방법을 설명합니다. 달리 명시되지 않는 한,이 모듈의 모든 함수는 단순히 평균을 합산하는 대신 평균 () 함수의 계산을 지원합니다. 부동 소수점 번호도 사용할 수 있습니다. 무작위로 가져옵니다 수입 통계 Fracti에서

이 튜토리얼은 간단한 나무 탐색을 넘어서 DOM 조작에 중점을 둔 아름다운 수프에 대한 이전 소개를 바탕으로합니다. HTML 구조를 수정하기위한 효율적인 검색 방법과 기술을 탐색하겠습니다. 일반적인 DOM 검색 방법 중 하나는 EX입니다

이 기사는 Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask 및 요청과 같은 인기있는 Python 라이브러리에 대해 설명하고 과학 컴퓨팅, 데이터 분석, 시각화, 기계 학습, 웹 개발 및 H에서의 사용에 대해 자세히 설명합니다.

이 기사는 Python 개발자가 CLIS (Command-Line Interfaces) 구축을 안내합니다. Typer, Click 및 Argparse와 같은 라이브러리를 사용하여 입력/출력 처리를 강조하고 CLI 유용성을 향상시키기 위해 사용자 친화적 인 디자인 패턴을 홍보하는 세부 정보.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Dreamweaver Mac版
시각적 웹 개발 도구
