首页  >  问答  >  正文

网页爬虫 - python urlopen 报错 timeout: timed out

今天脚本总报timeout的错误,timeout的异常处理是什么啊?
下面的try except没用

        try:
            url_open = urllib.request.urlopen(url)
        except urllib.error.HTTPError:
            print('HTTPError')
            continue
        except urllib.error.URLError:
            print('URLError')
            continue

就是返回

  File "F:\Program Files (x86)\Anaconda3\lib\http\client.py", line 612, in _safe_read
    chunk = self.fp.read(min(amt, MAXAMOUNT))
  File "F:\Program Files (x86)\Anaconda3\lib\socket.py", line 586, in readinto
    return self._sock.recv_into(b)
   timeout: timed out

把except写成

except Exception:

也没用

伊谢尔伦伊谢尔伦2711 天前1041

全部回复(1)我来回复

  • 伊谢尔伦

    伊谢尔伦2017-05-18 11:03:23

    试试requests.get(url)

    回复
    0
  • 取消回复