Python WebCrawling urllib.error.urleror:<;urlopen错误名称解析暂时失败>;
我正在从web上抓取一些数据,由于我应该获得的数据量很大,我已经同时收到了500多个请求(通过Python WebCrawling urllib.error.urleror:<;urlopen错误名称解析暂时失败>;,python,web-crawler,urllib,Python,Web Crawler,Urllib,我正在从web上抓取一些数据,由于我应该获得的数据量很大,我已经同时收到了500多个请求(通过urllib.request.urlopen(url)通过多处理池发出) 这里的问题是引发了以下错误: urllib.error.URLEROR:urlopen error名称中的临时故障 决议 经过一些研究,我发现这个问题是由于当有太多的请求时连接无法关闭。但还没有找到任何解决办法 我应该将同时连接限制在某个安全范围内,还是更改urllib请求配置 发展环境: Ubuntu 16.04 Python
urllib.request.urlopen(url)
通过多处理池
发出)
这里的问题是引发了以下错误:
urllib.error.URLEROR:urlopen error名称中的临时故障
决议
经过一些研究,我发现这个问题是由于当有太多的请求时连接无法关闭。但还没有找到任何解决办法
我应该将同时连接限制在某个安全范围内,还是更改urllib
请求配置
发展环境:
- Ubuntu 16.04
- Python 3.6