이 코드는 웹 데이터를 스크랩 및 구문 분석하고 데이터베이스로 가져오는 데 필요한 라이브러리를 가져오는 데 사용할 수 있습니다. Python 요청 라이브러리를 사용하여 웹 페이지를 가져옵니다. BeautifulSoup 라이브러리를 사용하여 페이지를 구문 분석하고 필요한 데이터를 추출합니다. 데이터베이스 연결을 설정하고 SQLite3 라이브러리를 사용하여 테이블을 생성했습니다. 추출된 데이터를 데이터베이스 테이블에 씁니다. 변경 사항을 커밋하고 데이터베이스 연결을 닫습니다.
Python 및 SQL을 사용하여 웹 데이터 스크랩 및 구문 분석
import requests from bs4 import BeautifulSoup import sqlite3
url = 'https://example.com/page/' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser')
find_all()
和 get_text()
메서드를 사용하여 페이지.
titles = soup.find_all('h1') titles = [title.get_text() for title in titles]
conn = sqlite3.connect('database.db') c = conn.cursor()
for title in titles: c.execute('INSERT INTO titles (title) VALUES (?)', (title,))
conn.commit() conn.close()
이 코드를 사용하여 Amazon 홈페이지의 상위 제품 제목 데이터를 스크랩하여 SQLite에 저장합니다. 데이터베이스 중간. 데모 코드는 다음과 같습니다:
import requests from bs4 import BeautifulSoup import sqlite3 url = 'https://amazon.com' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') titles = soup.find_all('h2', {'class': 'a-size-medium s-inline s-access-title'}) titles = [title.get_text().strip() for title in titles] conn = sqlite3.connect('amazon_titles.db') c = conn.cursor() for title in titles: c.execute('INSERT INTO titles (title) VALUES (?)', (title,)) conn.commit() conn.close()
위 내용은 HTML 단락 간격에 공백 두 개 추가의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!