SEO-noindex、nofollow和规范标记

SEO-noindex、nofollow和规范标记,seo,canonical-link,nofollow,noindex,Seo,Canonical Link,Nofollow,Noindex,我需要一些关于我的问题的解释 我的标题上的示例已添加 <meta name="robots" content="noindex, nofollow" /> 我应该再次将规范标记添加到标题中吗 <link rel=”canonical” href=”http://www.example.com/product.php?item=big-fish” /> 让我知道:) 更新 我们知道canonical标签目前也受到谷歌、雅虎和live search的支持。noi

我需要一些关于我的问题的解释

我的标题上的示例已添加

<meta name="robots" content="noindex, nofollow" />

我应该再次将规范标记添加到标题中吗

<link rel=”canonical” href=”http://www.example.com/product.php?item=big-fish” />

让我知道:)

更新


我们知道canonical标签目前也受到谷歌、雅虎和live search的支持。noindex和nofollow怎么样?yahoo和live(bing)也支持吗?

没有什么意义吗?无论如何,搜索引擎都不会为你的页面编制索引


虽然我想如果你将来想把它编入索引,那么这将是一个很好的做法,尽管只有当相同的页面内容通过不同的URL被访问时才是这样。

只有当有多种方式来寻址页面时,你才需要“canonical”标记。例如,如果“”和“”都指向同一个页面(即一个是另一个的别名),请使用“canonical”。

因为您告诉爬虫不要索引,也不要跟随,我不明白为什么要使用canonical

只有在不同URL下有相同内容时,才应使用规范。并且在元指令中支持
noindex
nofollow

noindex
告诉搜索引擎不要费心缓存页面以将其包含在搜索结果中

nofollow
告诉他们您不希望页面上的任何链接被跟踪


在同一个页面上添加
canonical
标记不会有什么坏处,但是效果是未知的,除非您与搜索工程师之一交谈

Robots.txt文件中包含的页面告诉搜索引擎不要抓取这些页面。然而,Matt Cutts说,Robots.txt文件中的页面仍然可以累积PageRank,并可以在搜索结果中编制索引

NoIndex标记意味着搜索引擎可以抓取页面并赋予其PageRank,但是搜索引擎不会索引页面,并且不会在搜索结果中显示。同样,带有NoIndex标记的页面可以累积PageRank,因为链接仍然从NoIndex页面向外跟随


带有NoFollow标签的页面告诉搜索引擎,可以对该页面进行爬网,但不要在谷歌索引中显示该页面,也不要跟踪任何传出链接,并且该页面中没有PageRank流。

同时,谷歌员工已回答了这一问题,请检查此处:


基本上可以使用noindex或canonical。

只是为了一劳永逸地澄清一些事情

实施这个

<meta name="robots" content="noindex, nofollow" />

不仅告诉机器人不要索引页面,还阻止它们通过页面上的链接传递PageRank。但这本身并不是问题。问题是这样的页面会变成死角页面,也就是所谓的“悬空页面”或“节点”,这会导致PageRank的稀释,因为会从PR图中去除汁液

也就是说,最佳的元数据将是实现:

<meta name="robots" content="noindex,noarchive,nosnippet,follow" />

如果该页面是重复的,那么最好也实现一个规范标记,链接到要建立索引的页面版本。如果没有,至少转到最相关的页面

单独使用规范标记不会阻止索引。至少不是在所有情况下。例如,如果一个页面有PR5,它有一个指向pr1的相同页面的规范链接,谷歌可以忽略规范标签,并用PR5索引该页面

因此,为了避免任何误解,规范标记不是301重定向。也就是说,带有规范标记的页面仍然可以累积PageRank。这取决于有多少果汁到达那一页

因此,另一个有意义的原因是添加“follow”元机器人指令作为最后一个

根据谷歌网络垃圾邮件团队负责人马特·卡茨(Matt Cutts)的说法,仅仅使用“noindex”或“noindex,noarchive,nosnippet”,而不在末尾添加“follow”指令,可能会导致谷歌机器人陷入混乱,无法跟踪页面上的链接


我希望以上一切都有帮助

总结Eric Enge&Co的书中的SEO艺术,再加上谷歌的文章和论坛,我建议如下。另外,从搜索引擎的角度来看,我们基本上假设您的站点使用规范链接来避免重复页面问题,并且所有其他带有cgi参数的页面URL都被认为是不需要的页面(尽管功能齐全且可供访问者使用)

  • 规范URL页面-产品、信息、文章允许除非规范链接(不需要的页面)之外的所有内容。这样做,我们不会给他们果汁,也不会给他们评级奖金。其他页面也不能从中受益。但我们保持不需要的页面评级较低,搜索结果中有用的页面较高

  • 重复页面-产品,打印搜索引擎读取页面代码,在一开始就识别规范链接,将其视为有用页面的等价物,并将其作为不需要的页面从索引中排除。SE robot已经阅读了页面,因此它仍然可以检查链接。因此,我们禁止在其他不需要的页面上使用非规范URL的链接。为了使这个页面更等同于它的规范目标,我们省略了其他禁止的参数(规范标记就足够了)

  • 技术页面-注册、购物篮、订单禁止机器人阅读所有这些页面,甚至无法获取页面代码中的任何标签。但是访问者仍然可以访问这些页面,机器人会在他们的网站上找到你不想要的页面上的链接。因此,我们还需要所有禁止标签来忽略搜索引擎的这个页面,而不是跟踪不需要的页面上的链接

    不允许:robots.txt文件中的目录/产品。*#