Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/javascript/474.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Javascript Google和Ajax索引_Javascript_Ajax_Seo_Indexing - Fatal编程技术网

Javascript Google和Ajax索引

Javascript Google和Ajax索引,javascript,ajax,seo,indexing,Javascript,Ajax,Seo,Indexing,既然如此,这对谷歌的搜索引擎优化意味着什么 我们需要做哪些不同的事情,我们可以做哪些改变,使谷歌机器人不会在所有东西中爬行 以前我们没有过这样的奢侈生活,但现在似乎是这样。由于谷歌爬虫,这可能会增加带宽 我们如何防止谷歌(以及未来的任何其他搜索引擎)为我们的ajax代码编制索引?首先,仅仅因为谷歌这样做并不意味着其他任何人这样做。这也并不意味着他们正式为文章中列出的网站以外的任何人做这件事,也不意味着他们做得很好 其次,您可以包含robots.txt文件,该文件将告诉谷歌不要为某些页面编制索引

既然如此,这对谷歌的搜索引擎优化意味着什么

我们需要做哪些不同的事情,我们可以做哪些改变,使谷歌机器人不会在所有东西中爬行

以前我们没有过这样的奢侈生活,但现在似乎是这样。由于谷歌爬虫,这可能会增加带宽


我们如何防止谷歌(以及未来的任何其他搜索引擎)为我们的ajax代码编制索引?

首先,仅仅因为谷歌这样做并不意味着其他任何人这样做。这也并不意味着他们正式为文章中列出的网站以外的任何人做这件事,也不意味着他们做得很好

其次,您可以包含robots.txt文件,该文件将告诉谷歌不要为某些页面编制索引

以下是有关robots.txt文件和谷歌网络爬虫的更多信息的链接:




在执行ajax代码时,您如何知道google机器人是如何工作的?robot.txt文件在执行之前或之后才会生效吗?谷歌必须先查看robots.txt文件,才能知道你是否想为你的网站建立索引。他们尊重那个档案。因此,如果您有一个包含大量ajax的页面,并且您不希望它被命中,那么只需要该文件中的主页。谷歌可能不会为此烦恼。当然,你公开的任何东西都不能保证。但是如果我想让我的主站点成功,只是不想让它调用所有的ajax FN,那么我就完蛋了!我认为如果你有一个网站无法处理偶尔被浏览的问题,那么你现在的状态就很糟糕。但是如上所述,robots.txt文件可以指定某些页面不进行索引。其他的仍将被索引。@Neal-为您添加了一些链接