搜索

首页  >  问答  >  正文

python - scrapy的异常处理一般怎么做?

发现在运行过程中有少量的请求有异常,或者请求响应了404 500之类的,又或者代码本身运行抛异常, 怎么记录这些异常呢。

巴扎黑巴扎黑2889 天前459

全部回复(3)我来回复

  • 巴扎黑

    巴扎黑2017-04-17 17:52:26

    我目前的做法是用下载中间件去捕捉失败的请求,仅供大家参考

    class CustomFaillogMiddleware(object):
    
        @classmethod
        def from_crawler(cls, crawler):
            return cls()
    
        def process_response(self, request, response, spider):
            if response.status >= 400:
                reason = response_status_message(response.status)
                self._faillog(request, u'HTTPERROR',reason, spider)
            return response
    
        def process_exception(self, request, exception, spider):
            self._faillog(request, u'EXCEPTION', exception, spider)
            return request
    
        def _faillog(self, request, errorType, reason, spider):
            with codecs.open('log/faillog.log', 'a', encoding='utf-8') as file:
                file.write("%(now)s [%(error)s] %(url)s reason: %(reason)s \r\n" %
                           {'now':datetime.now().strftime("%Y-%m-%d %H:%M:%S"),
                            'error': errorType,
                            'url': request.url,
                            'reason': reason})

    回复
    0
  • 迷茫

    迷茫2017-04-17 17:52:26

    你是想通过log的方式来记录异常吗? Scrapy提供了log功能的

    回复
    0
  • ringa_lee

    ringa_lee2017-04-17 17:52:26

    http://scrapy-chs.readthedocs.io/zh_CN/1.0/topics/logging.html

    回复
    0
  • 取消回复