인터넷이 발달하면서 인터넷에 존재하는 정보의 양이 늘어나고 있으며, 사람들은 다양한 분석과 마이닝을 수행하기 위해 다양한 웹사이트에서 정보를 크롤링해야 합니다. Scrapy는 웹사이트 데이터를 자동으로 크롤링하고 구조화된 형식으로 출력할 수 있는 완전한 기능을 갖춘 Python 크롤러 프레임워크입니다. Kugou Music은 가장 인기 있는 온라인 음악 플랫폼 중 하나입니다. 아래에서는 Kugou Music의 노래 정보를 크롤링하기 위해 Scrapy를 사용하는 방법을 소개하겠습니다.
1. Scrapy 설치
Scrapy는 Python 언어 기반의 프레임워크이므로 먼저 Python 환경을 구성해야 합니다. Scrapy를 설치하기 전에 먼저 Python 및 pip 도구를 설치해야 합니다. 설치가 완료되면 다음 명령을 통해 Scrapy를 설치할 수 있습니다:
pip install scrapy
2. 새 Scrapy 프로젝트 만들기
Scrapy는 새 프로젝트를 쉽게 만들 수 있도록 명령줄 도구 세트를 제공합니다. 명령줄에 다음 코드를 입력하세요.
scrapy startproject kuwo_music
실행 후 현재 디렉터리에 "kuwo_music"이라는 Scrapy 프로젝트가 생성됩니다. 이 프로젝트에서는 Kugou Music의 노래 정보를 크롤링하기 위한 새로운 크롤러를 만들어야 합니다.
3. 새 크롤러 만들기
Scrapy 프로젝트에서 크롤러는 특정 웹사이트의 데이터를 크롤링하고 구문 분석하는 데 사용되는 프로그램입니다. "kuwo_music" 프로젝트 디렉터리에서 다음 명령을 실행합니다.
scrapy genspider kuwo www.kuwo.cn
위 명령을 실행하면 "kuwo_music/spiders" 디렉터리에 "kuwo.py"라는 파일이 생성됩니다. 이는 크롤러 프로그램 코드입니다. 이 파일에서 웹사이트 데이터의 크롤링 및 구문 분석 프로세스를 정의해야 합니다.
4. 웹사이트 요청 및 페이지 구문 분석
새 "kuwo.py" 파일에서 먼저 필요한 모듈을 가져와야 합니다.
import scrapy from kuwo_music.items import KuwoMusicItem from scrapy_redis.spiders import RedisSpider from scrapy_redis import get_redis_from_settings from scrapy.utils.project import get_project_settings
위 코드를 통해 Scrapy에서 제공하는 다양한 도구 클래스를 사용할 수 있습니다. 프레임워크와 메소드, 프로젝트의 사용자 정의 모듈. 크롤러 코드 작성을 계속하기 전에 먼저 Kugou Music 노래 정보가 있는 웹 페이지를 분석해야 합니다.
브라우저를 열고 www.kuwo.cn을 방문하여 검색창에 노래 이름을 입력하고 검색하면 해당 웹페이지가 검색 결과 페이지로 이동하는 것을 확인할 수 있습니다. 검색 결과 페이지에서는 곡명, 아티스트, 재생 시간 등 각 곡에 대한 관련 정보를 확인할 수 있습니다. Scrapy를 통해 요청을 보내고 검색 결과 페이지를 구문 분석하여 각 노래의 세부 정보를 가져와야 합니다.
크롤러 프로그램 코드에서는 다음 두 가지 메소드를 구현해야 합니다.
def start_requests(self): ... def parse(self, response): ...
그 중 start_requests() 메소드는 초기 웹 페이지 요청을 보내는 데 사용되며 구문 분석 메소드인parse()는 콜백으로 지정됩니다. 함수; 구문 분석() 메서드는 웹 페이지를 구문 분석하고, 데이터를 추출하고, 응답을 처리하는 데 사용됩니다. 구체적인 코드는 다음과 같습니다.
class KuwoSpider(RedisSpider): name = 'kuwo' allowed_domains = ['kuwo.cn'] redis_cli = get_redis_from_settings(get_project_settings()) def start_requests(self): keywords = ['爱情', '妳太善良', '说散就散'] # 搜索结果页面的url for keyword in keywords: url = f'http://www.kuwo.cn/search/list?key={keyword}&rformat=json&ft=music&encoding=utf8&rn=8&pn=1' yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): data = json.loads(response.text) # 获取搜索结果页面的每个歌曲信息 song_list = data['data']['list'] for song in song_list: music_id = song['musicrid'][6:] song_name = song['name'] singer_name = song['artist'] album_name = song['album'] # 根据歌曲id获取歌曲详细信息 url = f'http://www.kuwo.cn/url?format=mp3&rid=MUSIC_{music_id}&response=url&type=convert_url3&br=128kmp3&from=web&t=1639056420390&httpsStatus=1&reqId=6be77da1-4325-11ec-b08e-11263642326e' meta = {'song_name': song_name, 'singer_name': singer_name, 'album_name': album_name} yield scrapy.Request(url=url, callback=self.parse_song, meta=meta) def parse_song(self, response): item = KuwoMusicItem() item['song_name'] = response.meta.get('song_name') item['singer_name'] = response.meta.get('singer_name') item['album_name'] = response.meta.get('album_name') item['song_url'] = response.text.strip() yield item
위 코드에서는 먼저 start_requests() 메소드에 검색할 노래 키워드를 정의하고, 각 노래 검색 결과 페이지의 URL을 구성한 후 요청을 보냅니다. pars() 메소드에서는 검색 결과 페이지를 구문 분석하고 노래 이름, 아티스트, 앨범 등 각 노래에 대한 관련 정보를 추출합니다. 그런 다음 각 노래의 ID를 기반으로 해당 노래 정보를 얻기 위한 URL을 구성하고 Scrapy의 메타데이터(메타) 메커니즘을 사용하여 노래 이름, 가수, 앨범 및 기타 정보를 전송합니다. 마지막으로 노래 정보 페이지를 구문 분석하고parse_song() 메서드에서 노래 재생 주소를 추출하여 사용자 정의 KuwoMusicItem 개체에 출력합니다.
5. 데이터 저장 및 사용
위 코드에서는 크롤링된 노래 정보를 저장하기 위해 사용자 정의 KuwoMusicItem 개체를 정의합니다. RedisPipeline 도구 클래스를 사용하여 크롤링된 데이터를 Redis 데이터베이스에 저장할 수 있습니다:
ITEM_PIPELINES = { 'kuwo_music.pipelines.RedisPipeline': 300, }
동시에 JsonLinesItemExporter 도구 클래스를 사용하여 데이터를 로컬 csv 파일에 저장할 수도 있습니다:
from scrapy.exporters import JsonLinesItemExporter import csv class CsvPipeline(object): # 将数据存储到csv文件 def __init__(self): self.file = open('kuwo_music.csv', 'w', encoding='utf-8', newline='') self.exporter = csv.writer(self.file) self.exporter.writerow(['song_name', 'singer_name', 'album_name', 'song_url']) def close_spider(self, spider): self.file.close() def process_item(self, item, spider): self.exporter.writerow([item['song_name'], item['singer_name'], item['album_name'], item['song_url']]) return item
마지막으로 실행합니다. 명령줄에서 다음 명령을 사용하면 Scrapy 크롤러를 시작할 수 있습니다.
scrapy crawl kuwo
위는 Kugou Music의 노래 정보를 크롤링하기 위해 Scrapy 프레임워크를 사용하는 방법에 대한 자세한 소개입니다. 참고 및 도움이 되기를 바랍니다.
위 내용은 Scrapy를 사용하여 Kugou Music 노래를 크롤링하는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

Python과 C는 메모리 관리 및 제어에 상당한 차이가 있습니다. 1. Python은 참조 계산 및 쓰레기 수집을 기반으로 자동 메모리 관리를 사용하여 프로그래머의 작업을 단순화합니다. 2.C는 메모리 수동 관리가 필요하므로 더 많은 제어를 제공하지만 복잡성과 오류 위험을 증가시킵니다. 선택할 언어는 프로젝트 요구 사항 및 팀 기술 스택을 기반으로해야합니다.

과학 컴퓨팅에서 Python의 응용 프로그램에는 데이터 분석, 머신 러닝, 수치 시뮬레이션 및 시각화가 포함됩니다. 1.numpy는 효율적인 다차원 배열 및 수학적 함수를 제공합니다. 2. Scipy는 Numpy 기능을 확장하고 최적화 및 선형 대수 도구를 제공합니다. 3. 팬더는 데이터 처리 및 분석에 사용됩니다. 4. matplotlib는 다양한 그래프와 시각적 결과를 생성하는 데 사용됩니다.

Python 또는 C를 선택할 것인지 프로젝트 요구 사항에 따라 다릅니다. 1) Python은 간결한 구문 및 풍부한 라이브러리로 인해 빠른 개발, 데이터 과학 및 스크립팅에 적합합니다. 2) C는 컴파일 및 수동 메모리 관리로 인해 시스템 프로그래밍 및 게임 개발과 같은 고성능 및 기본 제어가 필요한 시나리오에 적합합니다.

Python은 데이터 과학 및 기계 학습에 널리 사용되며 주로 단순성과 강력한 라이브러리 생태계에 의존합니다. 1) 팬더는 데이터 처리 및 분석에 사용되며, 2) Numpy는 효율적인 수치 계산을 제공하며 3) Scikit-Learn은 기계 학습 모델 구성 및 최적화에 사용되며 이러한 라이브러리는 Python을 데이터 과학 및 기계 학습에 이상적인 도구로 만듭니다.

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

드림위버 CS6
시각적 웹 개발 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경
