Python 如果internet连接中断,web抓取脚本将停止

Python 如果internet连接中断,web抓取脚本将停止,python,selenium,web-scraping,scrapy,Python,Selenium,Web Scraping,Scrapy,我已经使用python selenium web驱动程序编写了web抓取脚本,它工作正常,但问题是数据太大,因此当internet连接中断一秒钟时,我的脚本将停止执行,因此我必须从头开始。 请帮助我或指导我使用scrapy框架的其他解决方案 工作代码: 通常,当驱动程序发现一个元素时,如果您没有设置隐式超时,它会立即抛出异常。因此,如果页面加载速度缓慢,那么find元素也会等待,即使页面被中断。您可以在启动浏览器后添加以下超时并重试,这可能会对您有所帮助 driver.implicitly_wa

我已经使用python selenium web驱动程序编写了web抓取脚本,它工作正常,但问题是数据太大,因此当internet连接中断一秒钟时,我的脚本将停止执行,因此我必须从头开始。 请帮助我或指导我使用scrapy框架的其他解决方案

工作代码:


通常,当驱动程序发现一个元素时,如果您没有设置隐式超时,它会立即抛出异常。因此,如果页面加载速度缓慢,那么find元素也会等待,即使页面被中断。您可以在启动浏览器后添加以下超时并重试,这可能会对您有所帮助

driver.implicitly_wait(30);

并在for循环的顶部插入另一个try/except块以捕获TimeOutException。这将阻止程序退出。也许在块的except部分内适当暂停后安排重试。举一个带有堆栈跟踪的确切异常示例会非常有用。
driver.implicitly_wait(30);