Seo 允许对外部Javascript文件进行爬网
我在谷歌控制台中的网站面临问题 我在我的网站的谷歌控制台中发现以下错误 资源:Seo 允许对外部Javascript文件进行爬网,seo,robots.txt,googlebot,x-cart,google-console-developer,Seo,Robots.txt,Googlebot,X Cart,Google Console Developer,我在谷歌控制台中的网站面临问题 我在我的网站的谷歌控制台中发现以下错误 资源: https://api.html5media.info/1.1.5/html5media.min.js Type : Script Status : Googlebot blocked by robots.txt 我的网站在xcart中,我的robots.txt包含 User-agent: Googlebot Disallow: /*printable=Y* Disallow: /*js=* Disal
https://api.html5media.info/1.1.5/html5media.min.js
Type : Script
Status : Googlebot blocked by robots.txt
我的网站在xcart中,我的robots.txt包含
User-agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*js=*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*
User-agent: *
Allow: *.js
Allow: *.css
Allow: *.jpg
Allow: *.gif
Allow: *.png
Disallow: /admin/
Disallow: /catalog/
Disallow: /customer/
Disallow: /files/
Disallow: /include/
....
我试着换衣服
User-Agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*
Allow: .js
但是上面的代码没有运气。
有人有解决办法吗?如何允许google bot使用my robots.txt允许的第三方js?如果.js文件位于您无法控制的第三方站点上,则无法从您的站点取消对其的阻止。给定的robots.txt文件仅控制加载robots.txt文件的域/子域上的文件爬网。要取消阻止此文件,您需要能够更改第三方域上的robots.txt文件。(我假设你不能在这里这么做) 解决这个问题的最简单方法是将js文件复制到您自己的服务器上,并在那里链接到它