Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux 如何使用多个下载流下载整个web目录?_Linux_Command Line Interface - Fatal编程技术网

Linux 如何使用多个下载流下载整个web目录?

Linux 如何使用多个下载流下载整个web目录?,linux,command-line-interface,Linux,Command Line Interface,我想下载一个有100个大文件的目录(每个500MB-1.5GB)。唯一的问题是有下载速度限制,下载一个文件需要将近一个小时 Linux上的哪个内置命令或包能够下载具有多个下载流的web目录中的所有文件?如果我不得不重新启动,我需要程序忽略已经下载的文件 阅读wget的手册页。它完全支持你想要的东西 请注意,大多数网站都会禁止你下载太多太快的文件。有人在为带宽付费,如果你吸得太多,它就会变成一个问题。阅读wget的手册页。它完全支持你想要的东西 请注意,大多数网站都会禁止你下载太多太快的文件。有人

我想下载一个有100个大文件的目录(每个500MB-1.5GB)。唯一的问题是有下载速度限制,下载一个文件需要将近一个小时


Linux上的哪个内置命令或包能够下载具有多个下载流的web目录中的所有文件?如果我不得不重新启动,我需要程序忽略已经下载的文件

阅读wget的手册页。它完全支持你想要的东西


请注意,大多数网站都会禁止你下载太多太快的文件。有人在为带宽付费,如果你吸得太多,它就会变成一个问题。

阅读wget的手册页。它完全支持你想要的东西


请注意,大多数网站都会禁止你下载太多太快的文件。有人在为带宽付费,如果你榨取了太多的带宽,它就会变成一个问题。

除了wget,你还可以用它为一个文件打开多个流,以防你在单个文件上也需要更高的速度。

除了wget,你还可以用它为一个文件打开多个流,如果你在单个文件上也需要更快的速度。

我知道wget的基本知识,但不知道如何使用多个流下载。我知道wget的基本知识,但不知道如何使用多个流下载。“为单个文件打开多个流”它会下载整个目录中的文件吗?不。寻找“递归检索选项”“为单个文件打开多个流”它会下载整个目录下的全部文件吗?不会。寻找“递归检索选项”