robots.txt有什么用()-冯金伟博客园

robot.txt的主要功能

有人会问,既然robots文件没有准备好,或者出现了错误,会影响整个网站的收录,为什么还要这个文件呢?

其实robots是给有特殊情况的站长用的,因为有些网站有一些站长不希望被任何搜索引擎收录的页面,所以这个robots文件是有的。

robots.txt文件用法示例:

1.禁止所有搜索引擎访问网站的任何部分。

用户代理:*

不允许:/

2.允许所有机器人访问

用户代理:*

不允许:

(或者可以构建空文件/robots.txt文件)

3.禁止搜索引擎的访问。

用户代理:BadBot

不允许:/

4.允许搜索引擎的访问

用户代理:Baiduspider

不允许:

用户代理:*

不允许:/

5.假设一个网站有三个限制搜索引擎访问的目录。可以这样写:

用户代理:*

不允许:/cgi-bin/

不允许:/tmp/

不允许:/joe/

需要注意的是,每个目录必须单独声明,而不是写成“Disallow: /cgi-bin/ /tmp/”。

User-agent:后面的*(通配符)有特殊含义,代表“任何机器人”,所以不能有“disallow:/tmp/*”或“disallow: *”之类的记录。gif”文件中。

另外,robots.txt主要用于保证网络安全和网站隐私,百度蜘蛛遵循robots.txt协议。通过根目录下创建的纯文本文件robots.txt,网站可以声明哪些页面不想被百度蜘蛛抓取收录。每个网站可以自主控制网站是否愿意被百度蜘蛛收录,或者指定百度蜘蛛只收录指定的内容。百度蜘蛛在访问一个站点时,会先检查该站点的根目录下是否存在robots.txt。如果文件不存在,爬虫将沿着链接爬行。如果是,爬虫将根据文件的内容确定访问范围。

robots具体体现是?

robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,尽管只要放在根域名目录下,未设置系统级目录访问权限的文件爬虫都可以抓取的到,但网站跟搜索引擎间如果没有协议,将使不可预知的大量信息泄露到网上,这不是双方愿意看到的。这种约定说到本质是人与人之间的君子约定。除此外,它还有跟nofollow一样提升SEO效率的功用

怎么样限制bing的使用?

限制bing的使用有两种解决方式:

第一种: 通过bing提供的web master tools工具设置。

注册好,认证完网站后, 可在左侧配置菜单中选择“爬网控件”进行配置。

限制Bing搜索引擎抓取频率,降低服务器负载,设置好时区, 然后拖动时间条进行管理。 非常方便。

第二种,这种方式比较暴力, 直接控制robots.txt文件进行控制。 

可以在robots.txt里面增加crawl-delay 这个参数。

User-agent: bingbot

Crawl-delay: 1

上面的代码代表bingbot限制抓取频率为慢。

如果不设置Crawl-delay就代表由搜索引擎自己决定抓取频率。这个值可以设置1、5、10,分别对应慢、非常慢、极慢。

什么是robots.txt文件?

robots.txt 也就 robots协议,是搜索引擎中访问网站的时候要查看的第一个文件。通过robots.txt文件告诉搜索引擎蜘蛛哪些页面可以抓取,哪些页面不能抓取。