Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/sorting/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Asp.net &引用;这是无效的脚本资源请求。”;Websense爬网/ScriptResource.axd时出错_Asp.net_Iis 7_Robots.txt_Web Crawler_Websense - Fatal编程技术网

Asp.net &引用;这是无效的脚本资源请求。”;Websense爬网/ScriptResource.axd时出错

Asp.net &引用;这是无效的脚本资源请求。”;Websense爬网/ScriptResource.axd时出错,asp.net,iis-7,robots.txt,web-crawler,websense,Asp.net,Iis 7,Robots.txt,Web Crawler,Websense,我的网站上经常出现以下错误: “这是无效的脚本资源请求。” 爬行器尝试爬网/ScriptResource.axd或/WebResource.axd时会发生此错误 在robots.txt中禁用这些文件效果很好(正如Lukemcarthy所建议的) 用户代理:* 不允许:/WebSite/ScriptResource.axd 禁止: /网站/WebResource.axd 我想,这对于像Websense这样(粗暴地)忽略robots.txt的服务来说是行不通的 你知道如何阻止Websense试图抓取

我的网站上经常出现以下错误:

“这是无效的脚本资源请求。”

爬行器尝试爬网/ScriptResource.axd或/WebResource.axd时会发生此错误

在robots.txt中禁用这些文件效果很好(正如Lukemcarthy所建议的)

用户代理:*
不允许:/WebSite/ScriptResource.axd
禁止: /网站/WebResource.axd

我想,这对于像Websense这样(粗暴地)忽略robots.txt的服务来说是行不通的

你知道如何阻止Websense试图抓取这些文件吗

这些网站是使用ASP.NET和HTML5开发的,托管在IIS7上


提前谢谢

我们得到了类似的结果。我唯一的想法是在IIS中关闭IP地址限制,然后阻止他们的IP地址。(我个人没有这样做,所以这只是一个想法。)

谢谢汤姆。您的解决方案会起作用,但我宁愿不阻止IPs,因为这是一个真正不会影响用户体验的错误。它只是冒犯了我的完美主义。我只是想学着接受错误,但我还没有找到解决的办法。