참고: chatGPT/LLM의 출력이 아닙니다
데이터 스크래핑은 공개 웹 소스에서 데이터를 수집하는 프로세스이며 대부분 자동화된 방식으로 스크립트를 사용하여 수행됩니다. 자동화로 인해 수집된 데이터에는 오류가 있는 경우가 많아 걸러내고 정리하여 사용해야 하는 경우가 많습니다. 그러나 스크래핑 중에 스크래핑된 데이터의 유효성을 검사할 수 있다면 더 좋을 것입니다.
데이터 유효성 검사 요구 사항을 고려할 때 Scrapy와 같은 대부분의 스크래핑 프레임워크에는 데이터 유효성 검사에 사용할 수 있는 패턴이 내장되어 있습니다. 그러나 데이터 스크래핑 프로세스 중에는 requests 및 beautifulsoup과 같은 범용 모듈을 사용하여 스크래핑하는 경우가 많습니다. 이러한 경우 수집된 데이터의 유효성을 검사하기가 어렵기 때문에 이 블로그 게시물에서는 Pydantic을 사용한 유효성 검사를 통해 데이터 스크래핑에 대한 간단한 접근 방식을 설명합니다.
https://docs.pydantic.dev/latest/
Pydantic은 데이터 검증 Python 모듈입니다. 이는 인기 있는 API 모듈인 FastAPI의 백본이기도 합니다. Pydantic과 마찬가지로 데이터 스크래핑 중 유효성 검사에 사용할 수 있는 다른 Python 모듈도 있습니다. 그러나 이 블로그에서는 pydantic을 탐색하고 여기에 대체 패키지 링크가 있습니다(학습 연습으로 다른 모듈로 pydantic을 변경해 볼 수 있습니다)
- Cerberus는 가볍고 확장 가능한 Python용 데이터 검증 라이브러리입니다. https://pypi.org/project/Cerberus/
긁어내기 계획:
이번 블로그에서는 명언 사이트의 명언을 스크랩해 드립니다.
요청과 beautifulsoup을 사용하여 데이터를 가져옵니다. pydantic 데이터 클래스를 생성하여 스크랩된 각 데이터의 유효성을 검사합니다. 필터링되고 유효성이 검사된 데이터를 json 파일에 저장합니다.
더 나은 정리와 이해를 위해 각 단계는 메인 섹션에서 사용할 수 있는 Python 방식으로 구현되었습니다.
기본 가져오기
import requests # for web request from bs4 import BeautifulSoup # cleaning html content # pydantic for validation from pydantic import BaseModel, field_validator, ValidationError import json
1. 대상 사이트 및 견적 받기
인용문 스크랩은 http://quotes.toscrape.com/)을 이용하고 있습니다. 각 인용문에는 quote_text, 작성자 및 태그의 세 가지 필드가 있습니다. 예:
아래 방법은 특정 URL에 대한 HTML 콘텐츠를 가져오는 일반적인 스크립트입니다.
def get_html_content(page_url: str) -> str: page_content ="" # Send a GET request to the website response = requests.get(url) # Check if the request was successful (status code 200) if response.status_code == 200: page_content = response.content else: page_content = f'Failed to retrieve the webpage. Status code: {response.status_code}' return page_content
2. 스크래핑에서 견적 데이터 가져오기
요청과 beautifulsoup를 사용하여 지정된 URL에서 데이터를 스크랩합니다. 프로세스는 세 부분으로 나뉩니다. 1) 웹에서 HTML 콘텐츠 가져오기 2) 각 대상 필드에 대해 원하는 HTML 태그 추출 3) 각 태그에서 값 가져오기
import requests # for web request from bs4 import BeautifulSoup # cleaning html content # pydantic for validation from pydantic import BaseModel, field_validator, ValidationError import json
def get_html_content(page_url: str) -> str: page_content ="" # Send a GET request to the website response = requests.get(url) # Check if the request was successful (status code 200) if response.status_code == 200: page_content = response.content else: page_content = f'Failed to retrieve the webpage. Status code: {response.status_code}' return page_content
아래 스크립트는 각 인용문의 div에서 데이터 포인트를 가져옵니다.
def get_tags(tags): tags =[tag.get_text() for tag in tags.find_all('a')] return tags
3. Pydantic 데이터 클래스를 생성하고 각 견적에 대한 데이터 유효성을 검사합니다.
견적의 각 필드별로 pydantic 클래스를 생성하고 데이터 스크래핑 중 데이터 검증을 위해 동일한 클래스를 사용합니다.
pydantic 모델 인용문
아래는 quote_text, 작성자 및 태그와 같은 세 가지 필드가 있는 BaseModel에서 확장된 Quote 클래스입니다. 이 3가지 중 quote_text와 작성자는 문자열(str) 형식이고, 태그는 목록 형식입니다.
두 가지 유효성 검사기 메서드(데코레이터 포함)가 있습니다.
1) tagged_more_than_two () : 태그가 2개 이상인지 확인합니다. (예를 들어 여기에는 어떤 규칙이라도 적용할 수 있습니다)
2.) check_quote_text(): 이 메소드는 인용문에서 ""를 제거하고 텍스트를 테스트합니다.
def get_quotes_div(html_content:str) -> str : # Parse the page content with BeautifulSoup soup = BeautifulSoup(html_content, 'html.parser') # Find all the quotes on the page quotes = soup.find_all('div', class_='quote') return quotes
데이터 가져오기 및 유효성 검사
pydantic을 사용하면 데이터 유효성 검사가 매우 쉽습니다. 예를 들어 아래 코드에서는 스크랩한 데이터를 pydantic 클래스 Quote에 전달합니다.
# Loop through each quote and extract the text and author for quote in quotes_div: quote_text = quote.find('span', class_='text').get_text() author = quote.find('small', class_='author').get_text() tags = get_tags(quote.find('div', class_='tags')) # yied data to a dictonary quote_temp ={'quote_text': quote_text, 'author': author, 'tags':tags }
class Quote(BaseModel): quote_text:str author:str tags: list @field_validator('tags') @classmethod def tags_more_than_two(cls, tags_list:list) -> list: if len(tags_list) str: return quote_text.removeprefix('“').removesuffix('”')
4. 데이터 저장
데이터가 검증되면 json 파일에 저장됩니다. (Python 사전을 json 파일로 변환하는 범용 메소드가 작성되었습니다.)
quote_data = Quote(**quote_temp)
모두 합치기
스크래핑의 각 부분을 이해했다면 이제 모두 모아서 스크래핑을 실행하여 데이터를 수집할 수 있습니다.
def get_quotes_data(quotes_div: list) -> list: quotes_data = [] # Loop through each quote and extract the text and author for quote in quotes_div: quote_text = quote.find('span', class_='text').get_text() author = quote.find('small', class_='author').get_text() tags = get_tags(quote.find('div', class_='tags')) # yied data to a dictonary quote_temp ={'quote_text': quote_text, 'author': author, 'tags':tags } # validate data with Pydantic model try: quote_data = Quote(**quote_temp) quotes_data.append(quote_data.model_dump()) except ValidationError as e: print(e.json()) return quotes_data
참고: 개정이 계획되어 있습니다. 개정된 버전에 포함할 아이디어나 제안을 알려주세요.
링크 및 리소스:
https://pypi.org/project/parsel/
https://docs.pydantic.dev/latest/
위 내용은 스크랩 후 검증: Pydantic 검증을 사용한 데이터 스크랩의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

이 튜토리얼은 Python을 사용하여 Zipf의 법칙의 통계 개념을 처리하는 방법을 보여주고 법을 처리 할 때 Python의 읽기 및 대형 텍스트 파일을 정렬하는 효율성을 보여줍니다. ZIPF 분포라는 용어가 무엇을 의미하는지 궁금 할 것입니다. 이 용어를 이해하려면 먼저 Zipf의 법칙을 정의해야합니다. 걱정하지 마세요. 지침을 단순화하려고 노력할 것입니다. Zipf의 법칙 Zipf의 법칙은 단순히 : 큰 자연어 코퍼스에서 가장 자주 발생하는 단어는 두 번째 빈번한 단어, 세 번째 빈번한 단어보다 세 번, 네 번째 빈번한 단어 등 4 배나 자주 발생합니다. 예를 살펴 보겠습니다. 미국 영어로 브라운 코퍼스를 보면 가장 빈번한 단어는 "TH입니다.

이 기사에서는 HTML을 구문 분석하기 위해 파이썬 라이브러리 인 아름다운 수프를 사용하는 방법을 설명합니다. 데이터 추출, 다양한 HTML 구조 및 오류 처리 및 대안 (SEL과 같은 Find (), find_all (), select () 및 get_text ()와 같은 일반적인 방법을 자세히 설명합니다.

시끄러운 이미지를 다루는 것은 특히 휴대폰 또는 저해상도 카메라 사진에서 일반적인 문제입니다. 이 튜토리얼은 OpenCV를 사용 하여이 문제를 해결하기 위해 Python의 이미지 필터링 기술을 탐구합니다. 이미지 필터링 : 강력한 도구 이미지 필터

PDF 파일은 운영 체제, 읽기 장치 및 소프트웨어 전체에서 일관된 콘텐츠 및 레이아웃과 함께 크로스 플랫폼 호환성에 인기가 있습니다. 그러나 Python Processing Plain Text 파일과 달리 PDF 파일은 더 복잡한 구조를 가진 이진 파일이며 글꼴, 색상 및 이미지와 같은 요소를 포함합니다. 다행히도 Python의 외부 모듈로 PDF 파일을 처리하는 것은 어렵지 않습니다. 이 기사는 PYPDF2 모듈을 사용하여 PDF 파일을 열고 페이지를 인쇄하고 텍스트를 추출하는 방법을 보여줍니다. PDF 파일의 생성 및 편집에 대해서는 저의 다른 튜토리얼을 참조하십시오. 준비 핵심은 외부 모듈 PYPDF2를 사용하는 데 있습니다. 먼저 PIP를 사용하여 설치하십시오. PIP는 p입니다

이 튜토리얼은 Redis 캐싱을 활용하여 특히 Django 프레임 워크 내에서 Python 응용 프로그램의 성능을 향상시키는 방법을 보여줍니다. 우리는 Redis 설치, Django 구성 및 성능 비교를 다루어 Bene을 강조합니다.

이 기사는 딥 러닝을 위해 텐서 플로와 Pytorch를 비교합니다. 데이터 준비, 모델 구축, 교육, 평가 및 배포와 관련된 단계에 대해 자세히 설명합니다. 프레임 워크, 특히 계산 포도와 관련하여 주요 차이점

데이터 과학 및 처리가 가장 좋아하는 Python은 고성능 컴퓨팅을위한 풍부한 생태계를 제공합니다. 그러나 Python의 병렬 프로그래밍은 독특한 과제를 제시합니다. 이 튜토리얼은 이러한 과제를 탐구하며 전 세계 해석에 중점을 둡니다.

이 튜토리얼은 Python 3에서 사용자 정의 파이프 라인 데이터 구조를 작성하여 클래스 및 작업자 과부하를 활용하여 향상된 기능을 보여줍니다. 파이프 라인의 유연성은 일련의 기능을 데이터 세트, GE에 적용하는 능력에 있습니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경
