Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/230.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/html/88.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 加上「;“noindex”;在pdf的链接中_Php_Html_Mpdf - Fatal编程技术网

Php 加上「;“noindex”;在pdf的链接中

Php 加上「;“noindex”;在pdf的链接中,php,html,mpdf,Php,Html,Mpdf,我有一个网站,在那里我可以链接到一个php脚本,在那里我可以生成一个带有库的pdf文件,它会显示在浏览器中或下载,具体取决于配置 问题是我不希望它在google中被索引。我已经放置了链接rel=“nofollow”,该链接不再被索引,但我如何索引已经存在的内容 使用rel=“noindex,nofollow”不起作用 只有通过php或一些html标签才能做到这一点。假设你有一个文件,你可以通过向其中添加规则来阻止谷歌索引任何特定的文件。在您的情况下,可能是这样的: User-agent: * d

我有一个网站,在那里我可以链接到一个
php脚本
,在那里我可以生成一个带有库的pdf文件,它会显示在浏览器中或下载,具体取决于配置

问题是我不希望它在
google
中被索引。我已经放置了链接
rel=“nofollow”
,该链接不再被索引,但我如何索引已经存在的内容

使用
rel=“noindex,nofollow”
不起作用

只有通过
php
或一些
html
标签才能做到这一点。假设你有一个文件,你可以通过向其中添加规则来阻止谷歌索引任何特定的文件。在您的情况下,可能是这样的:

User-agent: *
disallow: /path/to/PdfIdontWantIndexed.pdf
从那以后,您所要做的就是确保您已经完成了,并且它应该在不久之后停止索引它

注意:

这也可能是明智的选择,因为如果谷歌已经对其进行了爬网,这样做会更快。

假设你有一个文件,你可以通过向其中添加规则来阻止谷歌为任何特定文件编制索引。在您的情况下,可能是这样的:

User-agent: *
disallow: /path/to/PdfIdontWantIndexed.pdf
从那以后,您所要做的就是确保您已经完成了,并且它应该在不久之后停止索引它

注意:


这样做也可能是明智的,因为如果谷歌已经对它进行了爬网,这样做会更快。

如果你阻止了它的机器人访问资源,谷歌应该如何对某些东西进行索引?;)起初,这似乎违反直觉

删除链接上的
rel=“nofollow”
,并在提供PDF文件的脚本中包含
X-Robots-Tag:none
标题。谷歌将能够进入该资源,它将看到禁止为该特定资源编制索引,并将从索引中删除该记录


当卸载完成后,将@mtr.web提到的
Disallow
规则添加到
robots.txt
文件中,这样robots就不会再耗尽服务器的资源。

如果你阻止谷歌的robot访问资源,谷歌应该如何卸载起初,这似乎违反直觉

删除链接上的
rel=“nofollow”
,并在提供PDF文件的脚本中包含
X-Robots-Tag:none
标题。谷歌将能够进入该资源,它将看到禁止为该特定资源编制索引,并将从索引中删除该记录

卸载完成后,将@mtr.web提到的
Disallow
规则添加到
robots.txt
文件中,这样robots就不会再消耗您的服务器了