Java 爬虫4J重新爬网一个不工作的网站

Java 爬虫4J重新爬网一个不工作的网站,java,crawler4j,Java,Crawler4j,我正在使用crawler4j库对一些网站进行爬网,但我在两次调用过程中遇到了问题。它只是第一次起作用。第二次没有给出任何错误,但它什么也不做 我认为库正在保存已爬网的URL,这就是我无法调用的原因 我在这里看到了一些信息,但没有找到解决方案 提前感谢, Hibernator。您的爬网存储文件夹是在第一次写入之后写入的,而且,该文件无法自动删除(重新爬网),因为对该文件的访问被拒绝,因此在第二次,程序检查了该文件并认为所有URL都已爬网。您应该编辑crawler4j以完全关闭对爬网存储文件夹的访

我正在使用crawler4j库对一些网站进行爬网,但我在两次调用过程中遇到了问题。它只是第一次起作用。第二次没有给出任何错误,但它什么也不做

我认为库正在保存已爬网的URL,这就是我无法调用的原因

我在这里看到了一些信息,但没有找到解决方案

提前感谢,


Hibernator。

您的爬网存储文件夹是在第一次写入之后写入的,而且,该文件无法自动删除(重新爬网),因为对该文件的访问被拒绝,因此在第二次,程序检查了该文件并认为所有URL都已爬网。您应该编辑crawler4j以完全关闭对爬网存储文件夹的访问。遵循以下步骤:

您的爬网存储文件夹是在第一次写入之后写入的,而且,由于对该文件的访问被拒绝,因此无法自动删除(重新爬网)该文件,因此在第二次,程序检查了该文件并认为所有URL都已爬网。您应该编辑crawler4j以完全关闭对爬网存储文件夹的访问。遵循以下步骤: