阻止Google执行javascript

阻止Google执行javascript,javascript,seo,bots,Javascript,Seo,Bots,我在我的网站上有一个链接保护,以防止搜索机器人扫描它,这个保护基于javascript href替换页面onload(它最初由“#”编码和前缀,如下所示: <a href="#real_link_crunched_here">...</a> 我知道谷歌现在可以执行javascript,因此可以跟踪“受保护”的链接。 这是防止谷歌机器人(以及其他机器人)执行javascript的正确方法吗?您应该使用robots.txt文件告诉合法机器人不加载哪些URL,或者在不希望

我在我的网站上有一个链接保护,以防止搜索机器人扫描它,这个保护基于javascript href替换页面onload(它最初由“#”编码和前缀,如下所示:

<a href="#real_link_crunched_here">...</a>

我知道谷歌现在可以执行javascript,因此可以跟踪“受保护”的链接。
这是防止谷歌机器人(以及其他机器人)执行javascript的正确方法吗?

您应该使用
robots.txt
文件告诉合法机器人不加载哪些URL,或者在不希望索引的页面的
块中执行


你也可以通过
让谷歌忽略那些链接标签。

你应该使用
robots.txt
文件告诉合法的robots不要加载哪些URL,或者在你不想索引的
页面块中执行


你也可以通过
让谷歌忽略那些链接标签。

如果你想寻找更先进的“防御”方法,我想你已经有了
robots.txt
。如果他们是友好的机器人,他们会在
用户代理
字符串中发现自己,但如果不是,他们可能会称自己为
internet explorer
,忽略你的
robots.txt
。我想你仍然可以进行图灵测试

我想,你仍然可以在你的首页上放一些非常简单的拼图来摆脱它们,但这也可能会疏远一些访问者

以下是不同的机器人用户代理列表,如果您想了解:

如果您正在寻找更先进的“防御”方法,我想您已经准备好了一个
robots.txt
。如果他们是友好的机器人,他们会在
用户代理
字符串中发现自己,但如果不是,他们可能会称自己为
internet explorer
,忽略你的
robots.txt
。我想你仍然可以进行图灵测试

我想,你仍然可以在你的首页上放一些非常简单的拼图来摆脱它们,但这也可能会疏远一些访问者

以下是不同的机器人用户代理列表,如果您想了解:

@epsiloncol没有绝对的方法可以阻止bot执行用户可以在浏览器中执行的操作…执行此操作的唯一方法是通过验证码。您可以绑定到mouseover事件以交换链接,这样可能会更好

我建议在A元素中添加
rel=“nofollow”
属性,至少这样,遵守此类操作的机器人可以做他们需要的事情


您也可以在页面上创建一个表单,并绑定这些操作以更改帖子url,然后将该表单提交到下一个页面。BOT不应该执行HTTP post。但是,任何这样做的BOT都已经忽略了rel=nofollow。

@epsiloncol没有绝对的方法阻止BOT执行用户可以在浏览器中执行的操作。…做这件事的唯一方法是通过验证码。你可以绑定到mouseover事件来交换链接,这样可能会更好

我建议在A元素中添加
rel=“nofollow”
属性,至少这样,遵守此类操作的机器人可以做他们需要的事情


您也可以在页面上创建一个表单,并绑定这些操作以更改帖子url,然后将该表单提交到下一个页面。BOT不应该执行HTTP帖子。但是,任何这样做的BOT都已经忽略了rel=nofollow。

怎么了?怎么了?Robots.txt方法不合适,我不想禁用整个页面,但是只防止链接跟踪。Metatags和rel也是个坏主意,因为并不是所有扫描机器人都遵循这些规则。我需要绝对隐藏扫描时的链接。你永远无法阻止所有机器人。恶意机器人经常伪装成尽可能接近的真实用户,所以你无法阻止它们。Robots.txt方法不适合,我不想禁用整个页面,但只阻止链接跟踪。Metatags和rel也是一个坏主意,因为并非所有扫描机器人都遵循这些规则。我需要绝对隐藏这些链接,以防扫描。你永远无法阻止所有机器人。恶意机器人经常以尽可能接近真实用户的姿态出现,因此你无法阻止它们。机器人可以获得一个顺便说一句,绕过验证码。@ceejayoz,我意识到了这一点……同样,这是唯一接近用户驱动解决方案的东西……而且,机器人无法轻松完成所有类型的验证码。它们并不都是模糊的数字。顺便说一句,机器人可以绕过验证码。@ceejayoz,我意识到了这一点……同样,这是唯一接近用户的东西iven解决方案……此外,机器人无法轻松完成所有类型的验证码。它们并不都是模糊的数字。