Magento Robots.txt不允许特定页面不';行不通

Magento Robots.txt不允许特定页面不';行不通,magento,seo,robots.txt,Magento,Seo,Robots.txt,我安装了Magento,我想从Google爬网中排除隐私策略cookie限制模式页面。 在my robots.txt中,我设置了以下代码: Disallow: /enable-cookies/ Disallow: /customer-service/ Disallow: /privacy-policy-cookie-restriction-mode/ 当我用SemRush分析我的网站时,我得到了这个页面的重复内容,而不允许的指令似乎不起作用 有什么建议吗 看看这个谷歌帮助页面: 谷歌不建议阻

我安装了Magento,我想从Google爬网中排除隐私策略cookie限制模式页面。 在my robots.txt中,我设置了以下代码:

Disallow: /enable-cookies/
Disallow: /customer-service/
Disallow: /privacy-policy-cookie-restriction-mode/
当我用SemRush分析我的网站时,我得到了这个页面的重复内容,而不允许的指令似乎不起作用


有什么建议吗

看看这个谷歌帮助页面:

谷歌不建议阻止爬虫对重复内容的访问 在您的网站上,无论是使用robots.txt文件还是其他方法。如果 搜索引擎不能抓取包含重复内容的网页,他们不能 自动检测这些URL是否指向相同的内容和 因此,必须有效地将其视为独立的、独特的 页数


我投票结束这个问题,因为堆栈溢出是一个问答网站。你的问题不是关于编程。也许你应该把它贴上去?