搜尋
首頁後端開發Python教學Python 中先進的非同步網頁抓取技術可提高速度和效率

dvanced Asynchronous Web Scraping Techniques in Python for Speed and Efficiency

身為暢銷書作家,我邀請您在亞馬遜上探索我的書。不要忘記在 Medium 上關注我並表示您的支持。謝謝你!您的支持意味著全世界!

網頁抓取已成為數位時代資料擷取與分析的重要工具。隨著線上資訊量的不斷增長,對高效且可擴展的抓取技術的需求變得至關重要。 Python 擁有豐富的函式庫和框架生態系統,為非同步網頁抓取提供了強大的解決方案。在本文中,我將探討六種利用非同步編程來提高網頁抓取操作的速度和效率的高階技術。

非同步程式設計允許並發執行多個任務,這使其成為我們經常需要同時從多個來源獲取資料的網路抓取的理想選擇。透過利用非同步技術,我們可以大幅減少從網路收集大量資料所需的時間。

讓我們從 aiohttp 開始,它是一個用於發出非同步 HTTP 請求的強大函式庫。 aiohttp 提供了一種並發發送多個請求的有效方法,這對於大規模的網頁抓取操作至關重要。以下是如何使用 aiohttp 同時取得多個網頁的範例:

import aiohttp
import asyncio

async def fetch(session, url):
    async with session.get(url) as response:
        return await response.text()

async def main():
    urls = ['https://example.com', 'https://example.org', 'https://example.net']
    async with aiohttp.ClientSession() as session:
        tasks = [fetch(session, url) for url in urls]
        responses = await asyncio.gather(*tasks)
        for response in responses:
            print(len(response))

asyncio.run(main())

在此範例中,我們建立一個非同步函數 fetch,它將會話和 URL 作為參數。 main 函數使用列表理解建立任務列表,然後使用 asyncio.gather 同時執行所有任務。這種方法讓我們可以並行取得多個網頁,從而顯著減少操作所需的總時間。

接下來,讓我們探索如何將 BeautifulSoup 與我們的非同步抓取設定整合。 BeautifulSoup 是一個受歡迎的用於解析 HTML 和 XML 文件的函式庫。雖然 BeautifulSoup 本身不是非同步的,但我們可以將它與 aiohttp 結合使用來解析我們非同步取得的 HTML 內容:

import aiohttp
import asyncio
from bs4 import BeautifulSoup

async def fetch_and_parse(session, url):
    async with session.get(url) as response:
        html = await response.text()
        soup = BeautifulSoup(html, 'html.parser')
        return soup.title.string if soup.title else "No title found"

async def main():
    urls = ['https://example.com', 'https://example.org', 'https://example.net']
    async with aiohttp.ClientSession() as session:
        tasks = [fetch_and_parse(session, url) for url in urls]
        titles = await asyncio.gather(*tasks)
        for url, title in zip(urls, titles):
            print(f"{url}: {title}")

asyncio.run(main())

在這個範例中,我們修改了 fetch 函數以包含使用 BeautifulSoup 進行解析。 fetch_and_parse 函數現在會傳回每個網頁的標題,演示了我們如何從 HTML 內容中非同步提取特定資訊。

在處理大量抓取的資料時,通常需要將資訊儲存到檔案中。 aiofiles 是一個為檔案 I/O 操作提供非同步介面的函式庫。以下是我們如何使用 aiofiles 非同步保存抓取的資料:

import aiohttp
import asyncio

async def fetch(session, url):
    async with session.get(url) as response:
        return await response.text()

async def main():
    urls = ['https://example.com', 'https://example.org', 'https://example.net']
    async with aiohttp.ClientSession() as session:
        tasks = [fetch(session, url) for url in urls]
        responses = await asyncio.gather(*tasks)
        for response in responses:
            print(len(response))

asyncio.run(main())

此腳本取得 HTML 內容、提取標題並將其儲存到文件中,所有操作都是非同步進行的。在處理需要保存到磁碟的大型資料集時,這種方法特別有用。

對於更複雜的網頁抓取任務,Scrapy 框架提供了強大且可擴展的解決方案。 Scrapy 以非同步編程為核心構建,使其成為大規模網路爬行和抓取專案的絕佳選擇。這是 Scrapy 蜘蛛的一個簡單範例:

import aiohttp
import asyncio
from bs4 import BeautifulSoup

async def fetch_and_parse(session, url):
    async with session.get(url) as response:
        html = await response.text()
        soup = BeautifulSoup(html, 'html.parser')
        return soup.title.string if soup.title else "No title found"

async def main():
    urls = ['https://example.com', 'https://example.org', 'https://example.net']
    async with aiohttp.ClientSession() as session:
        tasks = [fetch_and_parse(session, url) for url in urls]
        titles = await asyncio.gather(*tasks)
        for url, title in zip(urls, titles):
            print(f"{url}: {title}")

asyncio.run(main())

要執行此蜘蛛,您通常會使用 Scrapy 命令列工具。 Scrapy 在內部處理 Web 要求的非同步特性,讓您可以專注於定義解析邏輯。

大規模執行網頁抓取時,實施速率限制以避免目標伺服器不堪重負並尊重其 robots.txt 檔案至關重要。這是我們如何在非同步抓取器中實現速率限制的範例:

import aiohttp
import asyncio
import aiofiles
from bs4 import BeautifulSoup

async def fetch_and_save(session, url, filename):
    async with session.get(url) as response:
        html = await response.text()
        soup = BeautifulSoup(html, 'html.parser')
        title = soup.title.string if soup.title else "No title found"
        async with aiofiles.open(filename, 'w') as f:
            await f.write(f"{url}: {title}\n")
        return title

async def main():
    urls = ['https://example.com', 'https://example.org', 'https://example.net']
    async with aiohttp.ClientSession() as session:
        tasks = [fetch_and_save(session, url, f"title_{i}.txt") for i, url in enumerate(urls)]
        titles = await asyncio.gather(*tasks)
        for url, title in zip(urls, titles):
            print(f"Saved: {url} - {title}")

asyncio.run(main())

在此範例中,我們使用 aiolimiter 函式庫建立一個每秒允許一個請求的速率限制器。這可以確保我們的抓取工具不會太快發送請求,這可能會導致被目標網站封鎖。

錯誤處理是強大的網頁抓取的另一個關鍵方面。在處理多個非同步請求時,重要的是要妥善處理異常,以防止單一失敗的請求停止整個抓取過程。以下是我們如何實現錯誤處理和重試的範例:

import scrapy

class TitleSpider(scrapy.Spider):
    name = 'title_spider'
    start_urls = ['https://example.com', 'https://example.org', 'https://example.net']

    def parse(self, response):
        yield {
            'url': response.url,
            'title': response.css('title::text').get()
        }

此腳本實現了具有指數退避的重試機制,有助於處理臨時網路問題或伺服器錯誤。它還為每個請求設定超時,以防止回應緩慢。

對於非常大規模的抓取操作,您可能需要將工作負載分配到多台機器上。雖然分散式抓取的具體細節超出了本文的範圍,但您可以使用 Celery 和 Redis 或 RabbitMQ 等工具在工作電腦叢集中分發抓取任務。

當我們結束 Python 非同步網路抓取技術的探索時,強調道德抓取實踐的重要性非常重要。請務必檢查並尊重您正在抓取的網站的 robots.txt 文件,並在進行大規模抓取操作時考慮聯繫網站所有者以獲得許可。

非同步網頁抓取比傳統同步方法提供了顯著的效能改進,特別是在處理大量網頁或 API 時。透過利用我們討論過的技術——使用aiohttp 進行並發請求、集成BeautifulSoup 進行解析、利用aiofiles 進行非阻塞文件操作、使用Scrapy 進行複雜的抓取任務、實施速率限制以及穩健地處理錯誤——您可以構建強大且可靠的解決方案。高效率的網頁抓取解決方案。

隨著網路的不斷發展和發展,可用於網路抓取的技術和工具也會不斷發展。隨時了解最新的庫和最佳實踐將確保您的網頁抓取專案保持高效、可擴展並尊重您與之互動的網站。


101 本書

101 Books是一家由人工智慧驅動的出版公司,由作家Aarav Joshi共同創立。透過利用先進的人工智慧技術,我們將出版成本保持在極低的水平——一些書籍的價格低至 4 美元——讓每個人都能獲得高品質的知識。

查看我們的書Golang Clean Code,亞馬​​遜上有售。

請繼續關注更新和令人興奮的消息。購買書籍時,搜尋 Aarav Joshi 以尋找更多我們的書籍。使用提供的連結即可享受特別折扣

我們的創作

一定要看看我們的創作:

投資者中心 | 投資者中央西班牙語 | 投資者中德意志 | 智能生活 | 時代與迴響 | 令人費解的謎團 | 印度教 | 菁英發展 | JS學校


我們在媒體上

科技無尾熊洞察 | 時代與迴響世界 | 投資人中央媒體 | 令人費解的謎團 | | 令人費解的謎團 | >科學與時代媒介 |

現代印度教

以上是Python 中先進的非同步網頁抓取技術可提高速度和效率的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
您如何將元素附加到Python數組?您如何將元素附加到Python數組?Apr 30, 2025 am 12:19 AM

Inpython,YouAppendElementStoAlistusingTheAppend()方法。 1)useappend()forsingleelements:my_list.append(4).2)useextend()orextend()或= formultiplelements:my_list.extend.extend(emote_list)ormy_list = [4,5,6] .3)useInsert()forspefificpositions:my_list.insert(1,5).beaware

您如何調試與Shebang有關的問題?您如何調試與Shebang有關的問題?Apr 30, 2025 am 12:17 AM

調試shebang問題的方法包括:1.檢查shebang行確保是腳本首行且無前置空格;2.驗證解釋器路徑是否正確;3.直接調用解釋器運行腳本以隔離shebang問題;4.使用strace或truss跟踪系統調用;5.檢查環境變量對shebang的影響。

如何從python數組中刪除元素?如何從python數組中刪除元素?Apr 30, 2025 am 12:16 AM

pythonlistscanbemanipulationusseveralmethodstoremovelements:1)theremove()MethodRemovestHefirStocCurrenceOfAstePecificiedValue.2)thepop()thepop()methodRemovesandReturnturnturnturnsanaNelementAgivenIndex.3)

可以在Python列表中存儲哪些數據類型?可以在Python列表中存儲哪些數據類型?Apr 30, 2025 am 12:07 AM

pythonlistscanstoreanydatate型,包括素,弦,浮子,布爾人,其他列表和迪克尼亞式

在Python列表上可以執行哪些常見操作?在Python列表上可以執行哪些常見操作?Apr 30, 2025 am 12:01 AM

pythristssupportnumeroferations:1)addingElementSwithAppend(),Extend(),andInsert()。 2)emovingItemSusingRemove(),pop(),andclear(),and clear()。 3)訪問andModifyingandmodifyingwithIndexingandSlicing.4)

如何使用numpy創建多維數組?如何使用numpy創建多維數組?Apr 29, 2025 am 12:27 AM

使用NumPy創建多維數組可以通過以下步驟實現:1)使用numpy.array()函數創建數組,例如np.array([[1,2,3],[4,5,6]])創建2D數組;2)使用np.zeros(),np.ones(),np.random.random()等函數創建特定值填充的數組;3)理解數組的shape和size屬性,確保子數組長度一致,避免錯誤;4)使用np.reshape()函數改變數組形狀;5)注意內存使用,確保代碼清晰高效。

說明Numpy陣列中'廣播”的概念。說明Numpy陣列中'廣播”的概念。Apr 29, 2025 am 12:23 AM

播放innumpyisamethodtoperformoperationsonArraySofDifferentsHapesbyAutapityallate AligningThem.itSimplifififiesCode,增強可讀性,和Boostsperformance.Shere'shore'showitworks:1)較小的ArraySaraySaraysAraySaraySaraySaraySarePaddedDedWiteWithOnestOmatchDimentions.2)

說明如何在列表,Array.Array和用於數據存儲的Numpy數組之間進行選擇。說明如何在列表,Array.Array和用於數據存儲的Numpy數組之間進行選擇。Apr 29, 2025 am 12:20 AM

forpythondataTastorage,choselistsforflexibilityWithMixedDatatypes,array.ArrayFormeMory-effficityHomogeneousnumericalData,andnumpyArraysForAdvancedNumericalComputing.listsareversareversareversareversArversatilebutlessEbutlesseftlesseftlesseftlessforefforefforefforefforefforefforefforefforefforlargenumerdataSets; arrayoffray.array.array.array.array.array.ersersamiddreddregro

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

強大的PHP整合開發環境

EditPlus 中文破解版

EditPlus 中文破解版

體積小,語法高亮,不支援程式碼提示功能

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具