Rumah >pembangunan bahagian belakang >Tutorial Python >Membina Web Crawler dengan Python: Mengekstrak Data daripada Halaman Web
Labah-labah web, atau perangkak web, ialah program automatik yang direka untuk menavigasi internet, mengumpul dan mengekstrak data tertentu daripada halaman web. Python, yang terkenal dengan sintaksnya yang jelas, perpustakaan yang luas dan komuniti yang aktif, telah muncul sebagai bahasa pilihan untuk membina perangkak ini. Tutorial ini menyediakan panduan langkah demi langkah untuk mencipta perangkak web Python asas untuk pengekstrakan data, termasuk strategi untuk mengatasi langkah anti perangkak, dengan proksi 98IP sebagai penyelesaian yang berpotensi.
Pastikan Python dipasang pada sistem anda. Python 3 disyorkan untuk prestasi unggul dan sokongan perpustakaan yang lebih luas. Muat turun versi yang sesuai daripada tapak web rasmi Python.
Membina perangkak web biasanya memerlukan perpustakaan Python ini:
requests
: Untuk menghantar permintaan HTTP.BeautifulSoup
: Untuk menghuraikan HTML dan mengekstrak data.pandas
: Untuk manipulasi dan penyimpanan data (pilihan).time
dan random
: Untuk mengurus kelewatan dan permintaan rawak untuk mengelakkan pengesanan oleh mekanisme anti-perakak.Pasang ini menggunakan pip:
<code class="language-bash">pip install requests beautifulsoup4 pandas</code>
Gunakan pustaka requests
untuk mengambil kandungan halaman web:
<code class="language-python">import requests url = 'http://example.com' # Replace with your target URL headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # Mimics a browser response = requests.get(url, headers=headers) if response.status_code == 200: page_content = response.text else: print(f'Request failed: {response.status_code}')</code>
Gunakan BeautifulSoup untuk menghuraikan HTML dan mengekstrak data:
<code class="language-python">from bs4 import BeautifulSoup soup = BeautifulSoup(page_content, 'html.parser') # Example: Extract text from all <h1> tags. titles = soup.find_all('h1') for title in titles: print(title.get_text())</code>
Tapak web menggunakan teknik anti perangkak seperti penyekatan IP dan CAPTCHA. Untuk memintas perkara ini:
User-Agent
dan Accept
, seperti yang ditunjukkan di atas.Menggunakan Proksi 98IP (Contoh):
Dapatkan IP proksi dan port daripada Proksi 98IP. Kemudian, masukkan maklumat ini ke dalam panggilan requests
anda:
<code class="language-python">proxies = { 'http': f'http://{proxy_ip}:{proxy_port}', # Replace with your 98IP proxy details 'https': f'https://{proxy_ip}:{proxy_port}', # If HTTPS is supported } response = requests.get(url, headers=headers, proxies=proxies)</code>
Nota: Untuk rangkak yang mantap, dapatkan berbilang IP proksi daripada 98IP dan putarkannya untuk menghalang sekatan IP tunggal. Laksanakan pengendalian ralat untuk mengurus kegagalan proksi.
Simpan data yang diekstrak dalam fail, pangkalan data atau storan awan. Begini caranya untuk menyimpan ke CSV:
<code class="language-bash">pip install requests beautifulsoup4 pandas</code>
Atas ialah kandungan terperinci Membina Web Crawler dengan Python: Mengekstrak Data daripada Halaman Web. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!