Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/windows/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何下载网站内容(http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/)和所有子目录_Ubuntu_Url_Download_Installation_Wget - Fatal编程技术网

如何下载网站内容(http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/)和所有子目录

如何下载网站内容(http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/)和所有子目录,ubuntu,url,download,installation,wget,Ubuntu,Url,Download,Installation,Wget,我想从about URL下载内容(目录)和子目录。在Windows或Linux(命令行)中有没有一种简单的方法可以做到这一点 这些选择包括: --递归:下载整个网站 --域名网站:不要关注ubuntu.com以外的链接 --无父项:不要跟踪目录映像之外的链接 --页面必备条件:获取组成页面的所有元素(图像、CSS等) --转换链接:转换链接,使其在本地脱机工作 --限制文件名=windows:修改文件名,使其也能在windows中工作 --无重击:不覆盖任何现有文件(用于下载中断和恢复的情况)

我想从about URL下载内容(目录)和子目录。在Windows或Linux(命令行)中有没有一种简单的方法可以做到这一点

这些选择包括:

--递归:下载整个网站

--域名网站:不要关注ubuntu.com以外的链接

--无父项:不要跟踪目录映像之外的链接

--页面必备条件:获取组成页面的所有元素(图像、CSS等)

--转换链接:转换链接,使其在本地脱机工作

--限制文件名=windows:修改文件名,使其也能在windows中工作

--无重击:不覆盖任何现有文件(用于下载中断和恢复的情况)

wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains archive.ubuntu.com \
     --no-parent \
         http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/