ホームページ  >  に質問  >  本文

python - 请问scrapy中如何设置request的重试次数

scrapy版本:1.1.2
python 版本:3.5

在使用scrapy抓取数据的时候使用了代理IP,难免会遇到代理IP失效的情况。

因为对数据完整性要求较高,请问如何设置只要没有成功的返回response则把任务重新放进Request队列中去继续爬取?

天蓬老师天蓬老师2741日前874

全員に返信(1)返信します

  • 阿神

    阿神2017-04-18 09:39:31

    scrapy に付属の scrapy.downloadermiddlewares.retry.RetryMiddleware ミドルウェアを使用し、次のパラメータで設定できます:
    RETRY_ENABLED: 再試行を有効にするかどうか
    RETRY_TIMES: 再試行の回数
    RETRY_HTTP_CODECS : http コードが発生した場合は再試行する必要があります。デフォルトは 500、502、503、504、408 です。ネットワーク接続タイムアウトなどの他の問題の場合も、自動的に再試行されます。

    返事
    0
  • キャンセル返事