Url rewriting 重写robots.txt的规则
我有一个类似domain.com/view/nextdomain.com的网站,我有尝试访问domain.com/view/nextdomain.com/robots.txt的机器人,我希望所有机器人都能访问domain.com/robots.txt 我不知道为什么这个不行:Url rewriting 重写robots.txt的规则,url-rewriting,robots.txt,Url Rewriting,Robots.txt,我有一个类似domain.com/view/nextdomain.com的网站,我有尝试访问domain.com/view/nextdomain.com/robots.txt的机器人,我希望所有机器人都能访问domain.com/robots.txt 我不知道为什么这个不行: RewriteEngine on RewriteRule ^view/(.*)$/robots.txt robots.txt 您只想访问主域Robots.txt 删除子文件夹robots.txt并将子文件夹dom
RewriteEngine on
RewriteRule ^view/(.*)$/robots.txt robots.txt
您只想访问主域Robots.txt 删除子文件夹robots.txt并将子文件夹domain.com/view/nextdomain.com/robots.txt的所有规则移动到main domain.com/robots.txt 移动规则后,更新这些规则 例如:- domain.com/view/nextdomain.com/robots.txt具有rul
禁止:/admin/
然后更新代码
禁止:domain.com/view/nextdomain.com/admin/
您只想访问main domain Robots.txt
删除子文件夹robots.txt并将子文件夹domain.com/view/nextdomain.com/robots.txt的所有规则移动到main domain.com/robots.txt
移动规则后,更新这些规则
例如:-
domain.com/view/nextdomain.com/robots.txt具有rul
禁止:/admin/
然后更新代码
禁止:domain.com/view/nextdomain.com/admin/