Ruby on rails 谷歌爬网错误-无法访问错误

Ruby on rails 谷歌爬网错误-无法访问错误,ruby-on-rails,jrubyonrails,Ruby On Rails,Jrubyonrails,我的网站已成功通过谷歌网站管理员的验证。我对robot.txt的爬虫访问也是200(成功)。然而,当我检查“爬网错误”时,几乎每个页面都是“不可访问的”,包括域主页本身。只有附件/文件页面(如pdf、xls、jpg等)被抓取时没有错误。这真奇怪 我的网站是由Ruby on Rails创建的,使用MySQL数据库。页面渲染需要很长时间吗?我怀疑谷歌的爬虫会放弃,如果页面需要太长时间才能响应。考虑在公共页面前放置清漆,价格昂贵,不包含任何与用户相关或动态的内容。 URL是www. SuthTooTo

我的网站已成功通过谷歌网站管理员的验证。我对robot.txt的爬虫访问也是200(成功)。然而,当我检查“爬网错误”时,几乎每个页面都是“不可访问的”,包括域主页本身。只有附件/文件页面(如pdf、xls、jpg等)被抓取时没有错误。这真奇怪


我的网站是由Ruby on Rails创建的,使用MySQL数据库。

页面渲染需要很长时间吗?我怀疑谷歌的爬虫会放弃,如果页面需要太长时间才能响应。考虑在公共页面前放置清漆,价格昂贵,不包含任何与用户相关或动态的内容。

URL是www. SuthTooToo.com,还有一件事是,如果我在谷歌上搜索“站点:SuthTooToMo.com”,只显示PDF的结果。没有任何页面被索引。看起来像DNS。我用curl试过,没有反应。我也无法在浏览器中访问它。curl-v*即将连接()到www.supertooling.com端口80(#0)*正在尝试219.148.38.162。。。(无进一步说明)是什么导致DNS堵塞?我是否有办法解决?可能是任何原因,对不起!如果我是你,我会移动主机或名称服务器!报告下来。报告完毕。