bash:读取文本文件,获取HTTP头,保存结果

bash:读取文本文件,获取HTTP头,保存结果,bash,curl,Bash,Curl,我正在使用OSX10.8中的终端 挑战在于读取文本文件(其中每一行都是一个url)、获取HTTP头、将结果保存到其他文本文件 我试过这个: for line in cat ~/Desktop/a.txt; do curl -I line > ~/Desktop/b.txt; done 加上多个循环示例,如 (while read l; do echo $l; done) < ~/Desktop/a.txt 在我看来,我无法创建简单的循环。 请告诉我。 最好的方法是,您可以尝试

我正在使用OSX10.8中的终端 挑战在于读取文本文件(其中每一行都是一个url)、获取HTTP头、将结果保存到其他文本文件

我试过这个:

for line in cat ~/Desktop/a.txt; do curl -I line > ~/Desktop/b.txt;  done
加上多个循环示例,如

(while read l; do echo $l; done) < ~/Desktop/a.txt 
在我看来,我无法创建简单的循环。 请告诉我。
最好的方法是,您可以尝试以下方法:

for i in $(cat test); do curl -I $i >> test2; done

这将读取文件
test
中的所有内容,并将curl输出附加到文件
test2

谢谢您的快速回复。不幸的是,它不起作用:(抱歉,刚刚发现输入文件是空的(可能是因为我最近的实验)。错误是提供了nodename或servname,或者不知道
for i in $(cat test); do curl -I $i >> test2; done