ホームページ  >  に質問  >  本文

windows - Python爬虫爬资源时由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。怎么破?

迷茫迷茫2740日前4361

全員に返信(2)返信します

  • 高洛峰

    高洛峰2017-04-18 10:16:55

    Scrapy フレームワークを使用してクローラーを実装できます。クロールが失敗した場合は、3 回試して、それをログに書き込むことができ、後で自分で対処できます。

    返事
    0
  • PHPz

    PHPz2017-04-18 10:16:55

    requests.get にはタイムアウトパラメータがあります。

    リーリー

    返事
    0
  • キャンセル返事