要約: このガイドでは、crawl4ai の AI を活用した抽出と Pydantic データ モデルを使用して、e コマース スクレーパーを構築する方法を説明します。 スクレイパーは、製品リスト (名前、価格) と詳細な製品情報 (仕様、レビュー) の両方を非同期的に取得します。
Google Colab で完全なコードにアクセスします
電子商取引データ分析のための従来の Web スクレイピングの複雑さにうんざりしていませんか?このチュートリアルでは、最新の Python ツールを使用してプロセスを簡素化します。インテリジェントなデータ抽出には crawl4ai を、堅牢なデータ モデリングと検証には Pydantic を活用します。
Crawl4AI と Pydantic を選ぶ理由
- crawl4ai: AI 主導の抽出方法を使用して、Web のクローリングとスクレイピングを合理化します。
- Pydantic: データ検証とスキーマ管理を提供し、構造化された正確なスクレイピング データを保証します。
なぜ Tokopedia をターゲットにするのですか?
インドネシアの大手電子商取引プラットフォームである Tokopedia が例として挙げられます。 (注: 著者はインドネシア人であり、プラットフォームのユーザーですが、提携はしていません。) この原則は他の電子商取引サイトにも適用されます。 このスクレイピング アプローチは、e コマース分析、市場調査、自動データ収集に興味のある開発者にとって有益です。
このアプローチの特徴は何ですか?
複雑な CSS セレクターや XPath に依存する代わりに、crawl4ai の LLM ベースの抽出を利用します。これにより以下が提供されます:
- Web サイト構造の変更に対する復元力の強化
- よりクリーンで構造化されたデータ出力。
- メンテナンスのオーバーヘッドを削減します。
開発環境のセットアップ
必要なパッケージをインストールすることから始めます:
%pip install -U crawl4ai %pip install nest_asyncio %pip install pydantic
ノートブックでの非同期コード実行の場合は、nest_asyncio
:
import crawl4ai import asyncio import nest_asyncio nest_asyncio.apply()
Pydantic を使用したデータ モデルの定義
私たちは Pydantic を使用して、予想されるデータ構造を定義します。 モデルは次のとおりです:
from pydantic import BaseModel, Field from typing import List, Optional class TokopediaListingItem(BaseModel): product_name: str = Field(..., description="Product name from listing.") product_url: str = Field(..., description="URL to product detail page.") price: str = Field(None, description="Price displayed in listing.") store_name: str = Field(None, description="Store name from listing.") rating: str = Field(None, description="Rating (1-5 scale) from listing.") image_url: str = Field(None, description="Primary image URL from listing.") class TokopediaProductDetail(BaseModel): product_name: str = Field(..., description="Product name from detail page.") all_images: List[str] = Field(default_factory=list, description="List of all product image URLs.") specs: str = Field(None, description="Technical specifications or short info.") description: str = Field(None, description="Long product description.") variants: List[str] = Field(default_factory=list, description="List of variants or color options.") satisfaction_percentage: Optional[str] = Field(None, description="Customer satisfaction percentage.") total_ratings: Optional[str] = Field(None, description="Total number of ratings.") total_reviews: Optional[str] = Field(None, description="Total number of reviews.") stock: Optional[str] = Field(None, description="Stock availability.")
これらのモデルはテンプレートとして機能し、データ検証を確実にし、明確なドキュメントを提供します。
スクレイピングプロセス
スクレーパーは 2 つのフェーズで動作します:
1.商品リストをクロール
まず、検索結果ページを取得します。
async def crawl_tokopedia_listings(query: str = "mouse-wireless", max_pages: int = 1): # ... (Code remains the same) ...
2.製品詳細を取得しています
次に、製品 URL ごとに詳細情報を取得します。
async def crawl_tokopedia_detail(product_url: str): # ... (Code remains the same) ...
ステージの結合
最後に、両方のフェーズを統合します。
async def run_full_scrape(query="mouse-wireless", max_pages=2, limit=15): # ... (Code remains the same) ...
スクレーパーの実行
スクレイパーを実行する方法は次のとおりです:
%pip install -U crawl4ai %pip install nest_asyncio %pip install pydantic
プロのヒント
- レート制限: Tokopedia のサーバーを尊重します。大規模なスクレイピングのリクエスト間に遅延が発生します。
-
キャッシュ: 開発中に roll4ai のキャッシュを有効にします (
cache_mode=CacheMode.ENABLED
)。 - エラー処理: 運用環境で使用するための包括的なエラー処理および再試行メカニズムを実装します。
- API キー: Gemini API キーはコード内に直接ではなく、環境変数に安全に保存します。
次のステップ
このスクレーパーは次のように拡張できます:
- データをデータベースに保存します。
- モニター価格は時間の経過とともに変化します。
- 製品の傾向とパターンを分析します。
- 複数の店舗の価格を比較します。
結論
crawl4ai の LLM ベースの抽出により、従来の方法と比較して Web スクレイピングの保守性が大幅に向上します。 Pydantic との統合により、データの正確性と構造が保証されます。
スクレイピングする前に、必ず Web サイトの robots.txt
と利用規約を遵守してください。
重要なリンク:
クロール4AI
- 公式ウェブサイト: https://www.php.cn/link/1026d8c97a822ee171c6cbf939fe4aca
- GitHub リポジトリ: https://www.php.cn/link/62c1b075041300455ec2b54495d93c99
- ドキュメント: https://www.php.cn/link/1026d8c97a822ee171c6cbf939fe4aca/mkdocs/core/installation/
ピダンティック
- 公式ドキュメント: https://www.php.cn/link/a4d4ec4aa3c45731396ed6e65fee40b9
- PyPI ページ: https://www.php.cn/link/4d8ab89733dd9a88f1a9d130ca675c2e
- GitHub リポジトリ: https://www.php.cn/link/22935fba49f7d80d5adf1cfa6b0344f4
注: 完全なコードは Colab ノートブックで入手できます。 自由に実験して、特定のニーズに合わせて調整してください。
以上がPydantic、Crawl、Gemini を使用した非同期電子商取引 Web スクレイパーの構築の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

LinuxターミナルでPythonバージョンを表示する際の許可の問題の解決策PythonターミナルでPythonバージョンを表示しようとするとき、Pythonを入力してください...

この記事では、Pythonライブラリである美しいスープを使用してHTMLを解析する方法について説明します。 find()、find_all()、select()、およびget_text()などの一般的な方法は、データ抽出、多様なHTML構造とエラーの処理、および代替案(SEL

Pythonの統計モジュールは、強力なデータ統計分析機能を提供して、生物統計やビジネス分析などのデータの全体的な特性を迅速に理解できるようにします。データポイントを1つずつ見る代わりに、平均や分散などの統計を見て、無視される可能性のある元のデータの傾向と機能を発見し、大きなデータセットをより簡単かつ効果的に比較してください。 このチュートリアルでは、平均を計算し、データセットの分散の程度を測定する方法を説明します。特に明記しない限り、このモジュールのすべての関数は、単に平均を合計するのではなく、平均()関数の計算をサポートします。 浮動小数点数も使用できます。 ランダムをインポートします インポート統計 fractiから

この記事では、深い学習のためにTensorflowとPytorchを比較しています。 関連する手順、データの準備、モデルの構築、トレーニング、評価、展開について詳しく説明しています。 特に計算グラップに関して、フレームワーク間の重要な違い

この記事では、numpy、pandas、matplotlib、scikit-learn、tensorflow、django、flask、and requestsなどの人気のあるPythonライブラリについて説明し、科学的コンピューティング、データ分析、視覚化、機械学習、Web開発、Hの使用について説明します。

この記事では、コマンドラインインターフェイス(CLI)の構築に関するPython開発者をガイドします。 Typer、Click、Argparseなどのライブラリを使用して、入力/出力の処理を強調し、CLIの使いやすさを改善するためのユーザーフレンドリーな設計パターンを促進することを詳述しています。

PythonのPandasライブラリを使用する場合、異なる構造を持つ2つのデータフレーム間で列全体をコピーする方法は一般的な問題です。 2つのデータがあるとします...

この記事では、Pythonにおける仮想環境の役割について説明し、プロジェクトの依存関係の管理と競合の回避に焦点を当てています。プロジェクト管理の改善と依存関係の問題を減らすための作成、アクティベーション、およびメリットを詳しく説明しています。


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

ZendStudio 13.5.1 Mac
強力な PHP 統合開発環境

SAP NetWeaver Server Adapter for Eclipse
Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。

mPDF
mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

SecLists
SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

ホットトピック



