Linux 使用wget和部分url列表

Linux 使用wget和部分url列表,linux,bash,unix,wget,Linux,Bash,Unix,Wget,我发现一个网站上有一些我想要的文件,太多了,无法单独下载。文件名采用相当标准和可复制的形式,即1_a、1_b、1_c等 在linux命令行中,有没有一种方法可以使用wget自动下载它们?我可以很容易地将文件名放在一个每行1个条目的文本文件中,并指示命令行从那里查找,但它不是整个url,只是更改了一点,因此命令需要如下所示: wget url.com/files/(文件中的位).doc sourcefile.txt 并且基本上能够将源文件中的条目替换为括号中的位 另外,在某个阶段,一大块(几百个)

我发现一个网站上有一些我想要的文件,太多了,无法单独下载。文件名采用相当标准和可复制的形式,即1_a、1_b、1_c等

在linux命令行中,有没有一种方法可以使用wget自动下载它们?我可以很容易地将文件名放在一个每行1个条目的文本文件中,并指示命令行从那里查找,但它不是整个url,只是更改了一点,因此命令需要如下所示:

wget url.com/files/(文件中的位).doc sourcefile.txt

并且基本上能够将源文件中的条目替换为括号中的位

另外,在某个阶段,一大块(几百个)文件只是按顺序编号,所以我可以使用for循环来表示那个一位吗?如果是这样,我将如何在命令行中按语法执行此操作

非常感谢。

阅读fn
while read fn
do
    wget "url.com/files/$fn.doc"
done < sourcefile.txt
做 wget“url.com/files/$fn.doc” 完成
您可以使用大括号展开:

wget x.com/files/1_{a..z}.doc
如果需要,您可以将其合并:

wget x.com/files/{1..10}_{a..z}.doc

使用bash/参数生成器:

    $ echo wget http://example.com/files_{1,2}_{a..d}

wget

可能更适合使用texteditor+“搜索并替换”来生成完整的URL。您也可以使用libreoffice calc来执行此操作。然后使用wget。这太神奇了