Apache robots.txt如何禁止jpg.php

Apache robots.txt如何禁止jpg.php,apache,robots.txt,Apache,Robots.txt,您好,在看到一个朋友的网站被黑客攻击后,我试图禁止任何具有双扩展名的文件。i、 但是允许一个普通的.jpg正常工作 Disallow: *.* //disallow all extensions Allow: *.jpg //now allow .jpg images Disallow: *.jpg*?* //but not query strings Disallow: *.php$ //now make sure .php files cant be touched Disallow:

您好,在看到一个朋友的网站被黑客攻击后,我试图禁止任何具有双扩展名的文件。i、 但是允许一个普通的.jpg正常工作

Disallow: *.* //disallow all extensions

Allow: *.jpg //now allow .jpg images
Disallow: *.jpg*?* //but not query strings

Disallow: *.php$ //now make sure .php files cant be touched
Disallow: *.*.php$ //double check jpg.php does not work <<--- this or above should work but it does not?
Disallow:*.//Disallow所有扩展
允许:*.jpg//现在允许.jpg图像
不允许:*.jpg*?*//但不允许查询字符串
不允许:*.php$//现在请确保不能触摸.php文件

不允许:**.php$//重复检查jpg.php不起作用您想要的不是robots.txt(计算机/爬行器完全可以阅读和遵循它),而是.htaccess中的一条规则。如果您运行Apache服务器,那么您可以使用htaccess文件来控制希望查看者/用户访问的内容

区别在于,
robots.txt
可供其他人选择,而
.htaccess
则不是

在您的.htaccess中尝试以下操作:

<Files ~ ".*\.[a-z0-9]{1,6}\.[a-z0-9]{1,6}$">
Order deny,allow
Deny from all
</Files>

命令拒绝,允许
全盘否定

这将阻止对任何具有双扩展名的文件的访问,尽管如果您不熟悉它,我建议您在这个优秀的网站上阅读htaccess:

首先,Robots.txt不会阻止黑客进入。机器人不会被迫读取它。它只被漂亮的机器人使用

如果你想让漂亮的机器人远离*.jpg之外的任何东西,你可以使用:

Disallow: *.*
Allow: *.jpg$
请注意结尾的
$
字符


使用htaccess来设置哪些文件可以访问以及如何访问的规则。

好吧,这让我大吃一惊。。。机器人不会被迫阅读,我想我会要求退还我的学位费教授错过了那本书哈哈哈,你拿到了网页设计学位?我很抱歉,但那可能几乎一文不值。我实际上是在1999年做这件事的,当时互联网还没普及,那是数字艺术和多媒体的学士学位