Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/search/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Search 旧的停车场页面信息与新爬网站点的搜索结果混合在一起_Search_Dns_Google Search_Nameservers_Parking - Fatal编程技术网

Search 旧的停车场页面信息与新爬网站点的搜索结果混合在一起

Search 旧的停车场页面信息与新爬网站点的搜索结果混合在一起,search,dns,google-search,nameservers,parking,Search,Dns,Google Search,Nameservers,Parking,我已将我的域名设置为我的注册人的停车页面。名称服务器已经更改(我正在使用Azure DNS),我已经更新了robots.txt,并提交了一个站点地图。我已经要求谷歌对我的网站进行爬网,现在我们正在谷歌的搜索结果中显示 问题是,对于搜索结果中显示的每个标题链接,停车场页面中的一些信息都会被附加到最后 所以结果链接可能会说 关于我们|示例公司-Example.com-注册商名称 关于我们|示例公司是正确的,但-Example.com-注册人的姓名似乎是来自停车场的旧信息 页面 URL和文本描述很好,

我已将我的域名设置为我的注册人的停车页面。名称服务器已经更改(我正在使用Azure DNS),我已经更新了
robots.txt
,并提交了一个站点地图。我已经要求谷歌对我的网站进行爬网,现在我们正在谷歌的搜索结果中显示

问题是,对于搜索结果中显示的每个标题链接,停车场页面中的一些信息都会被附加到最后

所以结果链接可能会说
关于我们|示例公司-Example.com-注册商名称

关于我们|示例公司
是正确的,但
-Example.com-注册人的姓名
似乎是来自停车场的旧信息 页面

URL和文本描述很好,只是标题链接搞乱了,因为它们再次添加了站点的URL和注册者的名称。我想这个信息在停车页面的标题里

我如何摆脱这些旧的(大概是缓存的)信息?我需要联系谷歌吗?我的登记员?我要再爬一次吗?为什么会这样

因此,结果链接可能会说“关于我们|示例公司-Example.com-nameOfRegistrar”。“关于我们|示例公司”是正确的,但“-Example.com-nameOfRegistrar”似乎是停车页面上的旧信息。URL和文本描述很好,只是标题链接搞乱了,因为它们再次添加了站点的URL和注册者的名称

最好在.htaccess文件中编写
301重定向。仔细检查并了解其工作原理并实施。它应该能很快修复你以前的url错误

使用
301重定向
您将在服务器级别编写指令,这将使它能够重定向到包含您提到的url的页面。因此,即使您的搜索结果指向一个旧url(直到Google修复它),当您的服务器收到一个指向旧url的请求时,它也会将其重定向到您在
.htaccess
文件中提到的新url。另外,在您的
robots.txt
文件中,请确保允许机器人爬网
.htaccess
文件。机器人很容易知道您已将URL移动到较新的URL


此外,如果您想
删除当前站点中不存在的
旧url,那么您可以向Google发出请求,使用此选项删除它们。更不用说,这些链接可能需要几天才能消失

我用谷歌搜索控制台解决了这个问题。我多次要求重新爬网整个网站,但在5到6天之后,没有任何改进,尽管网站显然正在缓慢地爬网。然后,我要求对谷歌上出现的每一个混乱结果进行单独的页面爬行,而不爬行该页面上的其他链接。那是昨天,现在一切似乎都很好,那些页面在谷歌上显示得很好

所以谷歌最终会重新扫描你的整个网站,这只是需要时间。通过提交要爬网的各个页面(无需请求爬网该页面上的其他链接),您可能可以加快修复各个页面混乱结果的速度

我很惊讶爬行过程没有更快,但它很好,因为它不会对我的资源造成太大的影响


至于发生的原因,我不确定,但我怀疑DNS信息没有时间传播。现在没关系。

我使用的是ASP.NET MVC,所以重定向会进入Web.config文件。我确实设置了301重定向到我的规范版本,即https和使用www,从其他3种可能性。不管怎样,我通过让谷歌重新扫描整个网站和各个页面来解决这个问题。花了大约一个星期。