Linux 恢复中断的整个网站的wget而不在开始时启动

Linux 恢复中断的整个网站的wget而不在开始时启动,linux,download,wget,downloading-website-files,Linux,Download,Wget,Downloading Website Files,我一直在使用此wget命令下载网站: wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --wait=10 \ --limit-rate=30K \ www.domain.org/directory/something.htm

我一直在使用此wget命令下载网站:

wget \
 --recursive \
 --no-clobber \
 --page-requisites \
 --html-extension \
 --convert-links \
 --restrict-file-names=windows \
 --domains website.org \
 --wait=10 \
 --limit-rate=30K \
    www.domain.org/directory/something.html
我想使用-wait和-limitrate选项来避免网站过载。我的下载进展顺利,但24小时后就中断了。我想我可以通过使用-no-clobber选项来恢复,但是尽管wget没有覆盖它已经下载的文件,但是在检查每个文件后仍然要等待10秒

有没有办法让wget只在实际需要下载文件时才等待,从而使检查过程更快,直到我到达我的位置?最好的方法是什么


谢谢。

您研究过-continue选项吗?我认为-continue或-c选项用于恢复文件下载,而不是文件序列。也就是说,如果我的下载在文件的中间被切断,文件将被恢复而不是重新启动。但我不认为它能在这里帮助我。我试过了,结果是一样的。我错过什么了吗?