Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/design-patterns/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Asp.net 我的网站&x27;的错误日志中填充了和ScriptResource.axd相关的错误_Asp.net - Fatal编程技术网

Asp.net 我的网站&x27;的错误日志中填充了和ScriptResource.axd相关的错误

Asp.net 我的网站&x27;的错误日志中填充了和ScriptResource.axd相关的错误,asp.net,Asp.net,我的站点的错误日志中包含以下错误:- 这是无效的脚本资源请求。 无效的视图状态。 Base-64字符串中的字符无效。 Base-64字符数组的长度无效 所有这些错误每天至少出现100次 在互联网上做了一些RnD之后,我做了以下事情:- 1-在我的web配置中定义机器密钥。 2-创建robots.txt文件并在其中添加ScriptResource.axd文件 有人能告诉我我错过了什么或做错了什么吗 第一个可能的原因 我看到一些爬虫程序删除文件末尾的验证密钥,或者将转换为小写,因此这导致了此错误 第

我的站点的错误日志中包含以下错误:-

这是无效的脚本资源请求。 无效的视图状态。 Base-64字符串中的字符无效。 Base-64字符数组的长度无效

所有这些错误每天至少出现100次

在互联网上做了一些RnD之后,我做了以下事情:-

1-在我的web配置中定义机器密钥。 2-创建robots.txt文件并在其中添加ScriptResource.axd文件

有人能告诉我我错过了什么或做错了什么吗

  • 第一个可能的原因
    我看到一些爬虫程序删除文件末尾的验证密钥,或者将转换为小写,因此这导致了此错误

  • 第二个可能的原因
    有人会测试和搜索你的页面,寻找弱点和返回数据的入口方式

  • 在日志中,您可以看到他们如何调用ScriptResource.axd以及键上的问题。并检查ip发出的呼叫-是否相同

    一些参考资料


    还有一点,我认为不需要在机器人上添加ScriptResource.axd并将其从搜索中删除(我的意思是,这实际上不是问题所在)-但这不是个坏主意。

    我将尝试检查您的答案中提到的内容,并让您知道。谢谢你的回答,我已经实现了上面文章中提到的所有事情。现在错误率降低了,即以前这些错误每天出现100多次,现在它们每天出现10-30次左右。任何其他建议。@Zeeshan Umar您不需要将其减少到零。如果错误来自爬虫,那么你没有什么可做的。我仍然每天收到大约40-50个错误。这个比率太高了。有人能帮我吗。@Zeeshan你能检查一下从哪里来的ip吗?如果它是相同的,那么它是一个爬虫,读取虚假您的页面。