有关Robots文件的编写

发布于 2023-01-26 08:05:24
关注者
15
被浏览
379
1 个回答
翠雨
翠雨 2023-01-26
我也是人,我也会累的呢,别把我对你的在乎,随意践踏。

有关Robots文件的编写

在一个网站里,robots.txt是一个重要的文件,每个网站都应当有一个设置正确的robots.txt。当搜索引擎来抓取你的网站文件之前,它们会先来看看你网站的robots.txt文件的设置,以了解你所允许它抓取的范围,包括哪些文件,哪些目录。那么如何配置您的robots.txt文件呢?让我们看一个例子:# robots.txt file start # Exclude Files From All Robots:User-agent: *Disallow: /security/Disallow: /admin/Disallow: /admin.htm# End robots.txt file有#号的都是注释,方便阅读。User-agent就是搜索引擎的蜘蛛,后面用了*号,表示对所有的蜘蛛有效。Disallow就是表示不允许抓取,后面的目录或者文件,表示禁止抓取的范围。如果你有一些文件,或者目录,比如后台程序,或者一些私人隐秘的内容,不希望公开的话,就用这个Disallow来阻止抓取。编辑好这个文件,然后保存在你的网站的根目录下,那么搜索引擎就会来看的。如果你没有robots.txt文件,在你的网站访问日志文件里,你会看到蜘蛛访问robots.txt文件不成功的纪录。好了,现在就去设置你的robots.txt文件吧。

联系
我们

分享
好友

手机
浏览

手机端访问
扫码手机浏览