将robots.txt添加到我的Django应用程序中是否是被Google列出的方式?
我在linux服务器上有一个网站(Django),但Google根本找不到这个网站。我知道服务器上没有将robots.txt添加到我的Django应用程序中是否是被Google列出的方式?,django,webserver,robots.txt,Django,Webserver,Robots.txt,我在linux服务器上有一个网站(Django),但Google根本找不到这个网站。我知道服务器上没有robots.txt文件。有人能告诉我如何创建一个,里面写什么以及放在哪里吗?那将是一个很大的帮助 robot txt不适用于google查找您的站点。我认为您必须将您的站点注册到google,并添加sitemap.xml 网站管理员工具-爬网URL-> 也可以在robot.txt中看到这一点 向Django项目| fredericiana添加robots.txt的三种方法 -> 什么
robots.txt
文件。有人能告诉我如何创建一个,里面写什么以及放在哪里吗?那将是一个很大的帮助 robot txt不适用于google查找您的站点。我认为您必须将您的站点注册到google,并添加sitemap.xml
- 网站管理员工具-爬网URL->
- 向Django项目| fredericiana添加robots.txt的三种方法 ->
从What is Robots.txt->robot.txt文件用于告诉搜索引擎哪些内容应该或不应该被索引。robot.txt文件不需要通过搜索引擎进行索引 关于被搜索引擎索引,有很多事情需要注意
- 不能保证你会被编入索引
- 索引需要时间,一个月,两个月,6个月
- 要更快地建立索引,请尝试通过博客评论等方式共享站点链接,以增加被发现的机会
- 通过网站提交你的网站,这也会给你提示和提示,使你的网站更好,以及爬行统计
def robots(request):
import os.path
BASE = os.path.dirname(os.path.abspath(__file__))
json_file = open(os.path.join(BASE , 'robots.txt'))
json_file.close()
return HttpResponse(json_file);
在url中
(r'^robots.txt', 'aktel.views.robots'),
非常感谢,伙计。学会了一个新东西!:)。我不是搜索引擎优化大师,但无论如何,我知道的东西很好。关于敏感内容的一点太差了,它会影响其他内容。恶意访问者在攻击新网站时首先会看到的地方之一是
robots.txt
,特别是因为人们试图用它来“保护”敏感信息。@Damien_不信者是的,但许多攻击者通过搜索引擎找到网站。类似于管理面板和…;)我认为robot.txt的使用有一个折衷的地方,回到这里,因为我最终使用了这个答案的一个版本来解决我的问题——你关闭了json_文件,这个变量,而不是robots.txt文件,所以它在关闭的文件异常上抛出了一个i/O错误。如果关闭robots.txt文件,它可以正常工作。