cari
Rumahpembangunan bahagian belakangTutorial PythonCara Mengikis Data Daripada Goodreads Menggunakan Python dan BeautifulSoup

Pengikisan web ialah alat yang berkuasa untuk mengumpul data daripada tapak web. Sama ada anda mengumpul ulasan produk, menjejak harga atau, dalam kes kami, mengikis buku Goodreads, mengikis web menyediakan peluang yang tidak berkesudahan untuk aplikasi terdorong data.

Dalam catatan blog ini, kami akan meneroka asas pengikisan web, kuasa perpustakaan Python BeautifulSoup dan memecahkan skrip Python yang direka untuk mengikis data Goodreads Choice Awards. Akhir sekali, kami akan membincangkan cara menyimpan data ini dalam fail CSV untuk analisis atau aplikasi lanjut.


Apakah itu Goodreads?

Goodreads ialah platform terbesar di dunia untuk pembaca dan cadangan buku. Ia memberikan pengguna akses kepada ulasan buku, butiran pengarang dan kedudukan popular. Setiap tahun, Goodreads menganjurkan Anugerah Pilihan Goodreads, tempat pembaca mengundi buku kegemaran mereka merentas pelbagai genre seperti fiksyen, fantasi, percintaan dan banyak lagi. Ini menjadikan Goodreads sasaran ideal untuk mengikis web untuk mengumpul cerapan tentang buku dan pengarang yang menjadi sohor kini.


Apakah Web Scraping?

Pengikisan web melibatkan pengekstrakan data daripada tapak web secara automatik. Ia membolehkan anda mengumpul dan menyusun maklumat untuk tugasan seperti:

  • Menganalisis trend dan corak.
  • Mengagregatkan kandungan seperti ulasan atau artikel.
  • Menyuap model pembelajaran mesin atau pangkalan data.

Sediakan Persekitaran Anda

Sebelum menyelami skrip, anda perlu memasang perpustakaan yang diperlukan.

  1. Pasang Python

    Pastikan anda telah memasang Python pada sistem anda.

  2. Pasang Perpustakaan Diperlukan

    Pasang perpustakaan yang diperlukan menggunakan pip:

    pip install beautifulsoup4
    pip install requests
    

    permintaan: Membolehkan kami menghantar permintaan HTTP ke URL dan mendapatkan semula kandungan halaman web.

    BeautifulSoup: Memudahkan penghuraian HTML dan pengekstrakan data.

Setelah pemasangan ini selesai, anda sudah bersedia untuk mengikis!


Pengenalan kepada BeautifulSoup

BeautifulSoup ialah perpustakaan Python untuk menghuraikan dokumen HTML dan XML. Ia membolehkan pembangun menavigasi struktur halaman, mengekstrak kandungan dan mengubah HTML mentah kepada format berstruktur.

Kaedah Utama dalam BeautifulSoup

Berikut ialah beberapa kaedah penting yang akan kami gunakan dalam skrip kami:

  • BeautifulSoup(html, 'html.parser'): Memulakan penghurai dan membolehkan anda bekerja dengan kandungan HTML.
  • soup.select(selector): Cari elemen menggunakan pemilih CSS, seperti kelas atau teg.
  • soup.find(class_='class_name'): Mengesan kejadian pertama elemen dengan kelas tertentu.
  • soup.find_parent(class_='class_name'): Mencari teg induk bagi elemen semasa.
  • soup.get('attribute'): Mengambil nilai atribut daripada elemen, seperti href atau src.

Untuk mendapatkan senarai lengkap kaedah, lihat dokumentasi BeautifulSoup.


Menyediakan Skrip

Mari mulakan dengan mengimport perpustakaan yang diperlukan dan menentukan pengepala tersuai untuk meniru penyemak imbas. Ini membantu mengelakkan daripada disekat oleh tapak web.

pip install beautifulsoup4
pip install requests

Mengikis Kategori dan Buku

Kami bermula dengan mentakrifkan URL untuk halaman Anugerah Pilihan Goodreads dan aplikasi utama. Kami akan menghantar permintaan untuk start_url dan mendapatkan kandungan halaman web.

from bs4 import BeautifulSoup as bs
import requests
import re
import csv

HEADERS = {
    "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...",
    "Accept-Language": "en-US, en;q=0.5",
}

Setiap kategori mengandungi genre dan pautan ke halaman masing-masing. Menggunakan soup.select, kami mengekstrak semua kategori yang disenaraikan di bawah kelas .category.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Seterusnya, ulangi setiap kategori untuk mendapatkan nama genre dan URL halamannya.

app_url = "https://www.goodreads.com"
start_url = "https://www.goodreads.com/choiceawards/best-books-2024"

res = requests.get(start_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

categories = soup.select('.category')

Di sini, kami mengekstrak nama kategori (genre) dan URL halaman kategori untuk pemprosesan selanjutnya.

Kami akan menghantar permintaan lain kepada setiap category_url dan mencari semua buku di bawah kategori itu.

for index, category in enumerate(categories):
    genre = category.select('h4.category__copy')[0].text.strip()
    url = category.select('a')[0].get('href')
    category_url = f"{app_url}{url}"

buku_kategori akan mengandungi senarai semua buku di bawah kategori masing-masing.

Mengekstrak Data Buku

Sebaik sahaja kami mempunyai senarai buku, kami akan mengulangi setiap buku dan mengekstrak data.

Ekstrak Undi

res = requests.get(category_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

category_books = soup.select('.resultShown a.pollAnswer__bookLink')

Jika kita lihat dalam DOM, kiraan undian terdapat dalam elemen induk bagi elemen kategori. Jadi kita perlu menggunakan kaedah find_parent untuk mencari elemen dan mengekstrak kiraan undian.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Ekstrak Tajuk Buku, Pengarang dan URL Imej

for book_index, book in enumerate(category_books):
    parent_tag = book.find_parent(class_='resultShown')
    votes = parent_tag.find(class_='result').text.strip()
    book_votes = clean_string(votes).split(" ")[0].replace(",", "")

URL setiap buku, URL imej muka depan, tajuk dan pengarang diekstrak.

Fungsi clean_string memastikan tajuk diformat dengan kemas. Anda boleh menentukannya di bahagian atas skrip

book_url = book.get('href')
book_url_formatted = f"{app_url}{book_url}"
book_img = book.find('img')
book_img_url = book_img.get('src')
book_img_alt = book_img.get('alt')
book_title = clean_string(book_img_alt)
print(book_title)
book_name = book_title.split('by')[0].strip()
book_author = book_title.split('by')[1].strip()

Ekstrak Lagi Butiran Buku

Untuk mendapatkan butiran lanjut tentang buku seperti rating, ulasan, dll., kami akan menghantar permintaan lain ke book_url_formatted.

def clean_string(string):
    cleaned = re.sub(r'\s+', ' ', string).strip()
    return cleaned

Di sini get_ratings_reviews mengembalikan teks penilaian dan ulasan yang diformat dengan baik.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Anda boleh menentukan fungsi ini di bahagian atas skrip.

pip install beautifulsoup4
pip install requests

Dengan menavigasi ke halaman butiran setiap buku, maklumat tambahan seperti penilaian, ulasan dan penerangan terperinci diekstrak. Di sini, kami juga menyemak sama ada elemen perihalan buku wujud sebaliknya meletakkan perihalan lalai supaya skrip tidak gagal.

from bs4 import BeautifulSoup as bs
import requests
import re
import csv

HEADERS = {
    "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...",
    "Accept-Language": "en-US, en;q=0.5",
}

Di sini, kami juga telah mengumpulkan butiran pengarang, maklumat penerbitan dan metadata lain.

Buat Kamus Buku

Mari simpan semua data yang telah kami ekstrak untuk sebuah buku dalam kamus.

app_url = "https://www.goodreads.com"
start_url = "https://www.goodreads.com/choiceawards/best-books-2024"

res = requests.get(start_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

categories = soup.select('.category')

Kami akan menggunakan kamus ini untuk menambah data dalam fail csv.


Menyimpan Data dalam Fail CSV

Kami akan menggunakan modul csv yang merupakan sebahagian daripada perpustakaan standard Python. Jadi anda tidak perlu memasangnya secara berasingan.

Mula-mula kita perlu menyemak sama ada ini adalah entri pertama. Semakan ini diperlukan untuk menambah pengepala dalam fail csv dalam baris pertama.

for index, category in enumerate(categories):
    genre = category.select('h4.category__copy')[0].text.strip()
    url = category.select('a')[0].get('href')
    category_url = f"{app_url}{url}"

Kami menggunakan mod="w" yang akan mencipta fail csv baharu dengan entri pengepala.

Sekarang untuk semua entri seterusnya, kami akan menambahkan data pada fail CSV:

res = requests.get(category_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

category_books = soup.select('.resultShown a.pollAnswer__bookLink')

mode="a" akan menambahkan data pada fail CSV.

Sekarang, duduk, berehat dan nikmati secawan kopi ☕️ sementara skrip berjalan.

Setelah selesai, data akhir akan kelihatan seperti ini:

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Anda boleh mencari kod sumber lengkap dalam repositori github ini.


Ringkasan

Kami telah mempelajari cara mengikis data Goodreads menggunakan Python dan BeautifulSoup. Bermula daripada persediaan asas kepada menyimpan data dalam fail CSV, kami meneroka setiap aspek proses mengikis. Data yang dikikis boleh digunakan untuk:

  • Visualisasi data (cth., genre atau pengarang yang paling popular).
  • Model pembelajaran mesin untuk meramalkan populariti buku.
  • Membina sistem pengesyoran buku peribadi.

Pengikisan web membuka kemungkinan untuk analisis dan aplikasi data kreatif. Dengan perpustakaan seperti BeautifulSoup, tugas mengikis yang rumit pun menjadi terurus. Ingatlah untuk mengikuti amalan beretika dan hormati syarat perkhidmatan tapak web sambil mengikis!

Atas ialah kandungan terperinci Cara Mengikis Data Daripada Goodreads Menggunakan Python dan BeautifulSoup. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux?Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux?Apr 01, 2025 pm 05:09 PM

Penyelesaian kepada Isu Kebenaran Semasa Melihat Versi Python di Terminal Linux Apabila anda cuba melihat versi Python di Terminal Linux, masukkan Python ...

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html?Bagaimana saya menggunakan sup yang indah untuk menghuraikan html?Mar 10, 2025 pm 06:54 PM

Artikel ini menerangkan cara menggunakan sup yang indah, perpustakaan python, untuk menghuraikan html. Ia memperincikan kaedah biasa seperti mencari (), find_all (), pilih (), dan get_text () untuk pengekstrakan data, pengendalian struktur dan kesilapan HTML yang pelbagai, dan alternatif (sel

Modul Matematik dalam Python: StatistikModul Matematik dalam Python: StatistikMar 09, 2025 am 11:40 AM

Modul Statistik Python menyediakan keupayaan analisis statistik data yang kuat untuk membantu kami dengan cepat memahami ciri -ciri keseluruhan data, seperti biostatistik dan analisis perniagaan. Daripada melihat titik data satu demi satu, cuma melihat statistik seperti min atau varians untuk menemui trend dan ciri dalam data asal yang mungkin diabaikan, dan membandingkan dataset besar dengan lebih mudah dan berkesan. Tutorial ini akan menjelaskan cara mengira min dan mengukur tahap penyebaran dataset. Kecuali dinyatakan sebaliknya, semua fungsi dalam modul ini menyokong pengiraan fungsi min () dan bukan hanya menjumlahkan purata. Nombor titik terapung juga boleh digunakan. Import secara rawak Statistik import dari fracti

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch?Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch?Mar 10, 2025 pm 06:52 PM

Artikel ini membandingkan tensorflow dan pytorch untuk pembelajaran mendalam. Ia memperincikan langkah -langkah yang terlibat: penyediaan data, bangunan model, latihan, penilaian, dan penempatan. Perbezaan utama antara rangka kerja, terutamanya mengenai grap pengiraan

Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka?Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka?Mar 21, 2025 pm 06:46 PM

Artikel ini membincangkan perpustakaan Python yang popular seperti Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask, dan Permintaan, memperincikan kegunaan mereka dalam pengkomputeran saintifik, analisis data, visualisasi, pembelajaran mesin, pembangunan web, dan h

Bagaimana untuk membuat antara muka baris arahan (CLI) dengan python?Bagaimana untuk membuat antara muka baris arahan (CLI) dengan python?Mar 10, 2025 pm 06:48 PM

Artikel ini membimbing pemaju Python mengenai bangunan baris baris komando (CLI). Butirannya menggunakan perpustakaan seperti Typer, Klik, dan ArgParse, menekankan pengendalian input/output, dan mempromosikan corak reka bentuk mesra pengguna untuk kebolehgunaan CLI yang lebih baik.

Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python?Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python?Apr 01, 2025 pm 11:15 PM

Apabila menggunakan Perpustakaan Pandas Python, bagaimana untuk menyalin seluruh lajur antara dua data data dengan struktur yang berbeza adalah masalah biasa. Katakan kita mempunyai dua DAT ...

Terangkan tujuan persekitaran maya di Python.Terangkan tujuan persekitaran maya di Python.Mar 19, 2025 pm 02:27 PM

Artikel ini membincangkan peranan persekitaran maya di Python, memberi tumpuan kepada menguruskan kebergantungan projek dan mengelakkan konflik. Ia memperincikan penciptaan, pengaktifan, dan faedah mereka dalam meningkatkan pengurusan projek dan mengurangkan isu pergantungan.

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

SublimeText3 versi Inggeris

SublimeText3 versi Inggeris

Disyorkan: Versi Win, menyokong gesaan kod!

MantisBT

MantisBT

Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

mPDF

mPDF

mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

SublimeText3 Linux versi baharu

SublimeText3 Linux versi baharu

SublimeText3 Linux versi terkini