Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/bash/15.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux 使用bash脚本刷新浏览器_Linux_Bash_Curl_Sh_Wget - Fatal编程技术网

Linux 使用bash脚本刷新浏览器

Linux 使用bash脚本刷新浏览器,linux,bash,curl,sh,wget,Linux,Bash,Curl,Sh,Wget,目标是创建一个bash脚本,每五秒钟刷新一个网页,我一直在努力做到这一点。我知道crontab可能会起作用,但我宁愿把它作为bash脚本来做。。。 我这里有一个代码: #!/bin/bash echo "This script will reload/refresh a webpage every 5 seconds" while true; do wget http://website.com/ >/dev/null sleep 2; done 这在很大程度上是有效的。它会下载网

目标是创建一个bash脚本,每五秒钟刷新一个网页,我一直在努力做到这一点。我知道crontab可能会起作用,但我宁愿把它作为bash脚本来做。。。 我这里有一个代码:

#!/bin/bash
echo "This script will reload/refresh a webpage every 5 seconds"

while true;
do

wget http://website.com/ >/dev/null
sleep 2;

done
这在很大程度上是有效的。它会下载网页,但不会像我希望的那样刷新它。我尝试在“wget”之后添加一个“-e”,但它说这是一个无效的命令。我还使用了“curl”而不是“wget”,我喜欢“curl”如何显示反馈,而不是下载,但它不会刷新页面

我也尝试过类似的方法:

#!/bin/bash
while true;
do
iceweasel -remote "openURL(website.com)"
sleep 10;

done 
它完成了它的工作,打开了我想要的网页,但它每10秒就不断添加一个又一个标签。我尝试使用killall命令在选项卡再次通过循环之前关闭它,这样它将类似于我想要的东西,但也不起作用。
这可能很简单,但我真的不知道我做错了什么。

如果您不介意在gui web浏览器上为您自动按F5或ctrl+r的脚本,那么您可以按照sjsam的建议执行并使用xdotool

(确保安装了xdool)


如果您不介意在gui web浏览器上为您自动按下F5或ctrl+r的脚本,那么您可以按照sjsam的建议执行并使用xdotool

(确保安装了xdool)


你已经是一个很好的解决方案你已经是一个很好的解决方案@TuxForLife如果我打开了很多选项卡,我如何找到特定的URL并只刷新该页面?@TuxForLife如果我打开了很多选项卡,我如何找到特定的URL并只刷新该页面?
while true ; do
    sleep 2
    xdotool key ctrl+r
done