Bash GNU并行中的for循环

Bash GNU并行中的for循环,bash,parallel-processing,gnu-parallel,Bash,Parallel Processing,Gnu Parallel,我正在尝试从一个网页下载大量文件(其中只包含一个图像,所以我可以使用一个简单的wget),但我想使用GNU Parallel来加快下载速度。有人能帮我把这个for循环并行化吗?谢谢 for i in `seq 1 1000` do wget -O "$i.jpg" www.somewebsite.com/webpage done 你可以这样做: seq 1 1000 | parallel wget www.somewebsite.com/webpage/{}.

我正在尝试从一个网页下载大量文件(其中只包含一个图像,所以我可以使用一个简单的wget),但我想使用GNU Parallel来加快下载速度。有人能帮我把这个for循环并行化吗?谢谢

    for i in `seq 1 1000`
    do
    wget -O "$i.jpg" www.somewebsite.com/webpage
    done

你可以这样做:

 seq 1 1000 | parallel wget www.somewebsite.com/webpage/{}.jpg
您还可以使用
-p
选项指定要同时运行的作业数

您也可以决定使用curl,例如:

parallel -P 1000 curl -o {}.jpg www.somewebsite.com/webpage/{}.jpg ::: {1..1000}

在wget命令末尾添加空格和
&
。C风格的for循环比在
bash
中使用
seq
要好:
for((i=1;没有理由将
curl
带入答案中。