Seo 只允许Googlebot索引所有内容
我想禁止所有机器人爬网和索引一个网站。除了谷歌机器人。我想让谷歌索引索引(/)的网址,但没有别的。最好是在robots.txt中Seo 只允许Googlebot索引所有内容,seo,robots.txt,google-index,Seo,Robots.txt,Google Index,我想禁止所有机器人爬网和索引一个网站。除了谷歌机器人。我想让谷歌索引索引(/)的网址,但没有别的。最好是在robots.txt中 你对如何实现这一目标有什么想法吗?谢谢 您需要使用robot.txt 只需在网站的公用文件夹中创建一个并添加; 用户代理:谷歌机器人 允许:/ 用户代理:* 禁止:/ 这将允许谷歌爬虫索引所有页面,并禁止整个网站的所有其他爬虫 详情请参阅: 我知道这可能被认为是离题,但我仍然认为如果这有帮助的话,我会回答。 正如约翰·康德所建议的,试试站长吧……这个问题似乎离
你对如何实现这一目标有什么想法吗?谢谢 您需要使用robot.txt 只需在网站的公用文件夹中创建一个并添加;
用户代理:谷歌机器人
允许:/ 用户代理:*
禁止:/ 这将允许谷歌爬虫索引所有页面,并禁止整个网站的所有其他爬虫 详情请参阅:
我知道这可能被认为是离题,但我仍然认为如果这有帮助的话,我会回答。
正如约翰·康德所建议的,试试站长吧……这个问题似乎离题了,因为它是关于SEO的,而SEO在堆栈溢出时是离题的。请阅读,以便更好地理解什么时候可以在这里问SEO问题(大多数不是),以及在哪里可以获得帮助。@johncode-Aha。我懂了。谢谢你提供的信息。我去那边问问。谢谢你的答复。我也把这个贴在了。是的,是robots.txt。然而,你发布的解决方案将阻止整个网站的Googlebot,对吗?我只想允许谷歌机器人使用/(索引)。啊,我明白了……希望你能在网站管理员中找到解决方案。所有这些都更新了答案供参考