Java 如何为Crawler4J编写自己的异常处理?

Java 如何为Crawler4J编写自己的异常处理?,java,exception,web-crawler,crawler4j,Java,Exception,Web Crawler,Crawler4j,我希望我的爬虫程序在出现SocketConnectException(即,如果internet连接关闭)时等待5分钟,然后再次恢复,还可能向管理员发送一封有关此问题的邮件。 我已经看过源代码,抛出这个异常的方法是私有的,所以我不能重载它们。除了更改源代码之外,还有其他选项可以处理此异常吗?谢谢。是的,现在可以实现了 最近一次(从2015年7月底开始)提交了一份修正案 请覆盖: 在这个被重写的方法上,您可以将ex类与SocketConnect…Exception进行比较,并在那里执行您想要的任何

我希望我的爬虫程序在出现SocketConnectException(即,如果internet连接关闭)时等待5分钟,然后再次恢复,还可能向管理员发送一封有关此问题的邮件。
我已经看过源代码,抛出这个异常的方法是私有的,所以我不能重载它们。除了更改源代码之外,还有其他选项可以处理此异常吗?谢谢。

是的,现在可以实现了

最近一次(从2015年7月底开始)提交了一份修正案

请覆盖:


在这个被重写的方法上,您可以将ex类与SocketConnect…Exception进行比较,并在那里执行您想要的任何操作。

是的,现在可以实现它

最近一次(从2015年7月底开始)提交了一份修正案

请覆盖:


在该重写方法上,您可以将ex类与SocketConnect…Exception进行比较,然后在那里执行任何您想执行的操作。

我认为这是不可能的,因为此时我唯一能想到的是在更高的位置捕获异常,并从被终止爬虫的最后一个url触发另一个爬虫,我认为这可能会返回到您已经访问过的页面。我认为这是不可能的,因为此时我唯一能想到的是在更高的位置捕获异常,并从被杀死的爬虫的最后一个url触发另一个爬虫,我认为这可能会返回到您已经访问过的页面。我认为这是不可能的,因为在这一点上,我唯一能想到的是在更高的位置捕获异常,并从被杀死的爬虫的最后一个url触发另一个爬虫,我认为这可能会返回到您已经访问过的页面。