Web 使用wget备份站点和文件
我正试图用wget备份一个播客网站,因为作者要离开了。它不会将mp3文件复制到我的硬盘上,也不会知道我需要使用什么样的语法。我尝试了以下选项,但它们不会复制所有文件:Web 使用wget备份站点和文件,web,wget,Web,Wget,我正试图用wget备份一个播客网站,因为作者要离开了。它不会将mp3文件复制到我的硬盘上,也不会知道我需要使用什么样的语法。我尝试了以下选项,但它们不会复制所有文件: wget --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://www.voiceamerica.com/rss/show/2063 wget -A pdf,jpg -m -p -E -k -K -np http:/
wget --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://www.voiceamerica.com/rss/show/2063
wget -A pdf,jpg -m -p -E -k -K -np http://www.voiceamerica.com/rss/show/2063
wget -A pdf,jpg,mp3 -m -p -E -k -K -np http://www.voiceamerica.com/rss/show/2063
可以单独下载mp3吗?你可以跑
wget http://www.voiceamerica.com/rss/show/2063 -O - 2> /dev/null | egrep "http://cdn.voiceamerica.com/7thwave/011136/waldrop\w+\.mp3" -o | sort | uniq | awk '{system("wget "$1)}'
在你的第二次尝试中,你不应该将mp3添加到已接受的文件列表中吗?@RogueBaneling尝试过,但它仍然不会备份那些已编辑的文件。我正在本地备份该站点。如果我们把这些文件分开存储,那会带走采访的描述,我们就不知道mp3文件里有什么。嗯,好吧。我不确定这样做的最佳方式,但为了不浪费时间尝试不同的wget选项,似乎wget不可能递归搜索xml文件: