Seo 允许对外部Javascript文件进行爬网

Seo 允许对外部Javascript文件进行爬网,seo,robots.txt,googlebot,x-cart,google-console-developer,Seo,Robots.txt,Googlebot,X Cart,Google Console Developer,我在谷歌控制台中的网站面临问题 我在我的网站的谷歌控制台中发现以下错误 资源: https://api.html5media.info/1.1.5/html5media.min.js Type : Script Status : Googlebot blocked by robots.txt 我的网站在xcart中,我的robots.txt包含 User-agent: Googlebot Disallow: /*printable=Y* Disallow: /*js=* Disal

我在谷歌控制台中的网站面临问题

我在我的网站的谷歌控制台中发现以下错误

资源:

https://api.html5media.info/1.1.5/html5media.min.js 

Type : Script   

Status : Googlebot blocked by robots.txt
我的网站在xcart中,我的robots.txt包含

User-agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*js=*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*

User-agent: *
Allow: *.js
Allow: *.css
Allow: *.jpg
Allow: *.gif
Allow: *.png
Disallow: /admin/
Disallow: /catalog/
Disallow: /customer/
Disallow: /files/
Disallow: /include/
....
我试着换衣服

User-Agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*
Allow: .js
但是上面的代码没有运气。
有人有解决办法吗?如何允许google bot使用my robots.txt允许的第三方js?如果.js文件位于您无法控制的第三方站点上,则无法从您的站点取消对其的阻止。给定的robots.txt文件仅控制加载robots.txt文件的域/子域上的文件爬网。要取消阻止此文件,您需要能够更改第三方域上的robots.txt文件。(我假设你不能在这里这么做)

解决这个问题的最简单方法是将js文件复制到您自己的服务器上,并在那里链接到它