Linux 恢复中断的整个网站的wget而不在开始时启动
我一直在使用此wget命令下载网站:Linux 恢复中断的整个网站的wget而不在开始时启动,linux,download,wget,downloading-website-files,Linux,Download,Wget,Downloading Website Files,我一直在使用此wget命令下载网站: wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --wait=10 \ --limit-rate=30K \ www.domain.org/directory/something.htm
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--wait=10 \
--limit-rate=30K \
www.domain.org/directory/something.html
我想使用-wait和-limitrate选项来避免网站过载。我的下载进展顺利,但24小时后就中断了。我想我可以通过使用-no-clobber选项来恢复,但是尽管wget没有覆盖它已经下载的文件,但是在检查每个文件后仍然要等待10秒
有没有办法让wget只在实际需要下载文件时才等待,从而使检查过程更快,直到我到达我的位置?最好的方法是什么
谢谢。您研究过-continue选项吗?我认为-continue或-c选项用于恢复文件下载,而不是文件序列。也就是说,如果我的下载在文件的中间被切断,文件将被恢复而不是重新启动。但我不认为它能在这里帮助我。我试过了,结果是一样的。我错过什么了吗?