Bash 网页监视脚本返回误报
我正在尝试自动化一个以前需要全职工作的过程:监控一系列网站以获取新帖子。这似乎是一个相对简单的脚本问题,所以我解决了它,编写了一个bash脚本,并将其设置为在crontab中每分钟运行一次。它工作得很好,但在页面更改后,它会持续返回误报一个小时左右,我一辈子都不知道为什么。它会在一段时间后自行解决,但在了解发生了什么之前,我不想部署脚本。这是我的密码:Bash 网页监视脚本返回误报,bash,if-statement,webpage,crontab,monitor,Bash,If Statement,Webpage,Crontab,Monitor,我正在尝试自动化一个以前需要全职工作的过程:监控一系列网站以获取新帖子。这似乎是一个相对简单的脚本问题,所以我解决了它,编写了一个bash脚本,并将其设置为在crontab中每分钟运行一次。它工作得很好,但在页面更改后,它会持续返回误报一个小时左右,我一辈子都不知道为什么。它会在一段时间后自行解决,但在了解发生了什么之前,我不想部署脚本。这是我的密码: #!/bin/bash SITENAME=example wget http://web.site.url/apache/folder/$(
#!/bin/bash
SITENAME=example
wget http://web.site.url/apache/folder/$(date +%Y)/$(date +%m)-$(date +%B) -O $SITENAME.backend.new --no-cache
touch $SITENAME.backend.old
diff $SITENAME.backend.new $SITENAME.backend.old > $SITENAME.backend.diff
if [ -s $SITENAME.backend.diff ]
then sendemail -xu myaddress@mydomain.com -xp password -f myaddress@mydomain.com -t myaddress@mydomain.com -s smtpout.secureserver.net -u $SITENAME -m backend \
&& cp $SITENAME.backend.new $SITENAME.backend.old \
&& echo true
fi
如果差异的唯一区别是绝对的或不是绝对的链接,考虑使用<代码> -转换链接< /代码>切换为<代码> WGET < /代码>,如该人所说:
下载完成后,转换文档中的链接,使其适合本地查看。这不仅会影响可见的超链接,还会影响文档中链接到外部内容的任何部分,例如嵌入的图像、到样式表的链接、到非HTML内容的超链接等这会将链接转换为绝对链接。您能显示一下
$SITENAME.backend.diff
包含的内容吗?几行HTML,除了一些时间戳外,它们基本上是相同的,关闭了几个小时。六羟甲基三聚氰胺六甲醚。。。你认为他们是在多台服务器之间进行负载平衡吗?我会做一些测试。是的,看起来他们有多个运行相似但略有不同的页面的服务器。它们在一台服务器上的链接是相对的,而在另一台服务器上的链接是绝对的。看起来我的连接大约每五分钟就在这两者之间切换一次。有没有人有任何想法,以一种可能的方式,使其工作,尽管在网页上的小变化?哇,太好了!谢谢
-k
--convert-links