Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/242.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/.htaccess/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 索引页面规范版本的正确方法是什么?_Php_.htaccess_Seo_Canonical Link - Fatal编程技术网

Php 索引页面规范版本的正确方法是什么?

Php 索引页面规范版本的正确方法是什么?,php,.htaccess,seo,canonical-link,Php,.htaccess,Seo,Canonical Link,客户端有一个站点,其中URL具有相关产品的参数。例如,产品A的页面索引为: www.website.com/A 但也作为 www.website.com/A?related-to-B 及 等等 所有这些URL的内容都是完全相同的,这会导致重复的内容问题和总索引页面数量,大约是其实际页面数量的10倍 我怎么能告诉谷歌301每一个有索引的页面呢?关联到X回到没有它的页面?该网站是用PHP编写的 我想这是很多人以前通过附属链接遇到的问题,所以我想解决方案应该包括修改HTTP头,添加一个rel=ca

客户端有一个站点,其中URL具有相关产品的参数。例如,产品A的页面索引为:

www.website.com/A
但也作为

www.website.com/A?related-to-B

等等

所有这些URL的内容都是完全相同的,这会导致重复的内容问题和总索引页面数量,大约是其实际页面数量的10倍

我怎么能告诉谷歌301每一个有索引的页面呢?关联到X回到没有它的页面?该网站是用PHP编写的


我想这是很多人以前通过附属链接遇到的问题,所以我想解决方案应该包括修改HTTP头,添加一个rel=canonical将主要起作用,但根据我自己的经验,谷歌有时仍然会索引重复的文件

如果可能的话,从SEO的角度来看,301重定向是一个更好的解决方案

无论哪种方式,都要尝试限制指向重复文件的链接


如果您尝试了标准的解决方案,并且它不起作用,那么您可以考虑通过元机器人= NoWORK或在谷歌WebMealthTo工具参数处理部分中阻止重复的页面。 如果客户端与google Mozilla/5.0兼容,您可以尝试检查客户端的useragent字符串;谷歌机器人/2.1+http://www.google.com/bot.html 然后将其重定向到主文章页面。

www.website.com/A?related-to-C