Web crawler 多语言网站的robots.txt文件
嗨,我正试图为我的网站生成一个robots.txt文件,但我在处理多语言URL时遇到了一个问题。 例如,我想禁用此URLWeb crawler 多语言网站的robots.txt文件,web-crawler,multilingual,robots.txt,Web Crawler,Multilingual,Robots.txt,嗨,我正试图为我的网站生成一个robots.txt文件,但我在处理多语言URL时遇到了一个问题。 例如,我想禁用此URL http://www.example.com/en/shop http://www.example.com/ar/shop http://www.example.com/fr/shop 那么我必须写作吗 Disallow: /en/shop Disallow: /ar/shop Disallow: /fr/shop 还是这就够了 Disallow: /*/shop 多谢
http://www.example.com/en/shop
http://www.example.com/ar/shop
http://www.example.com/fr/shop
那么我必须写作吗
Disallow: /en/shop
Disallow: /ar/shop
Disallow: /fr/shop
还是这就够了
Disallow: /*/shop
多谢各位