建站知识

Build the knowledge

案例572
免费获取策划方案多一份参考,总有益处

建站知识

3分钟带你火速理解robot文件

来源:派臣科技|时间:2019-01-05|浏览:

假设您以理解一下名词含义:搜索引擎,spider(搜索引擎蜘蛛),死链接,权重,网站排名

何为Robots协议?

Robots协议是国际互联网界通行的道德规范,基于以下原则建立:

1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;

2、网站有义务保护其操作者的个人信息和隐私不被侵犯。

何为robot文件?

robots.txt是限制搜索引擎spider(或称为蜘蛛)收录或爬取您网站内容的一种文件。搜索引擎蜘蛛在网站中第一个访问的文件就是robot文件,当然,也能够没有robot文件,不过spider会访问您的网站的所有页面。

robot文件有什么用途?

屏蔽您网站的死链接,限制spider爬取您的网站内容,保护您网站的隐私内容。例如您的后台目录,或者存有您个人信息的页面或目录。

如果您网站的重复页面或死链接过多,搜索引擎蜘蛛会认为您的网站不行,价值较低,就会降低您网站的权重,网站排名就会下滑,如果创立了robot文件并写入了相应的规则,那么搜索引擎蜘蛛就不会爬取您限制的页面,您网站的权重与排名也就不会降低了。

怎样构建robot文件

robot文件也没什么特殊的地方,就是一文本文件(txt)。新建一个文本文件,然后重命名为robots并在此文件中编写相应的规则,最后上传到网站跟目录就行了,留意务必要放置到跟目录且文件名务必要小写,不然就失效了。

怎样编写robot文件规则?

也许您没有太多的时间来理解并懂得robot文件规则,那么您能够生成robot文件规则,当然,您需要务必的英语基本,并理解特定的名词。假设您有时间来进修的话,就往下看下面的规则。

现假设一个robot文件里面规则有:

User-agent: *

Disallow: /admin/

Disallow: /user/

规则解读为:所有的搜索引擎蜘蛛都不允许访问根目录的admin目录与user目录。

当前你可能就明白了,user-agent:后面输入的是欲限制搜索引擎蜘蛛的名称,*为全部限制,baiduspider为限制百度搜索引擎蜘蛛不能够访问。

disallow:后面追加的是欲限制蜘蛛访问的目录名称。

留意,不管你有多少个disallow,只要有一个后面为空或者只有一个/符号的,就是所以目录都能够访问。符号务必是英文符号。

robot文件只是一种规则,并不是强制约束搜索引擎蜘蛛,需要搜索引擎蜘蛛配合才有用,一些spider会不顾您的robot文件,擅自访问您的限制页面。不过,就目前而且,大部分spider是遵守的robots.txt规则的。

留言

返回顶部

君
派臣子站:重庆网站公司重庆网站建设重庆做网站重庆网站设计重庆网站制作重庆建网站重庆建站重庆网页制作重庆网页设计重庆网站开发重庆网站建设公司重庆网页设计公司重庆建站公司重庆建网站公司重庆网站制作公司重庆网页制作公司重庆做网站公司重庆网站设计公司重庆网站开发公司