Bash GNU并行中的for循环
我正在尝试从一个网页下载大量文件(其中只包含一个图像,所以我可以使用一个简单的wget),但我想使用GNU Parallel来加快下载速度。有人能帮我把这个for循环并行化吗?谢谢Bash GNU并行中的for循环,bash,parallel-processing,gnu-parallel,Bash,Parallel Processing,Gnu Parallel,我正在尝试从一个网页下载大量文件(其中只包含一个图像,所以我可以使用一个简单的wget),但我想使用GNU Parallel来加快下载速度。有人能帮我把这个for循环并行化吗?谢谢 for i in `seq 1 1000` do wget -O "$i.jpg" www.somewebsite.com/webpage done 你可以这样做: seq 1 1000 | parallel wget www.somewebsite.com/webpage/{}.
for i in `seq 1 1000`
do
wget -O "$i.jpg" www.somewebsite.com/webpage
done
你可以这样做:
seq 1 1000 | parallel wget www.somewebsite.com/webpage/{}.jpg
您还可以使用-p
选项指定要同时运行的作业数
您也可以决定使用curl,例如:
parallel -P 1000 curl -o {}.jpg www.somewebsite.com/webpage/{}.jpg ::: {1..1000}
在wget命令末尾添加空格和
&
。C风格的for循环比在bash
中使用seq
要好:for((i=1;没有理由将curl
带入答案中。