搜索引擎的Robots协议
来源:互联网 发布:蓝牙小车控制app源码 编辑:程序博客网 时间:2024/04/30 07:53
robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。
robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。
对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。
<meta name="googlebot" content="noindex">
如果Google看到某一页上有noindex的元标记,就会将此页从Google的搜索结果中完全丢弃,而不管是否还有其他页链接到此页。
对于百度来说,情况和Google类似,如果有其他网站链接目标网页,也有可能会被百度收录,从百度的说明页面上看,百度并不支持像Google那样通过noindex完全将网页从索引上删除,只支持使用noarchive元标记来禁止百度显示网页快照。具体的语句如下。
<meta name="Baiduspider" content="noarchive">
上面这个标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。
例如,淘宝网目前就通过robots.txt来屏蔽百度爬虫,但百度依旧收录了淘宝网的内容,百度搜索“淘宝网”,第一个结果也是淘宝网首页地址,只是该页面没有网页快照,因此看来,网站只能禁止百度的快照,而无法禁止百度为网页建索引。
- 搜索引擎的Robots协议
- 搜索引擎的Robots协议
- 对搜索引擎很重的robots协议
- robots.txt禁止搜索引擎收录的方法
- robots协议
- Robots协议
- Robots协议
- robots协议
- robots协议
- Robots协议
- robots协议
- Robots协议
- robots协议
- Robots协议
- robots.txt与搜索引擎
- robots协议的作用和抒写方式
- Robots协议乃是互联网垄断的潜规则
- robots.txt 禁止收录协议的写法
- 引爆中国3G的导火线
- NAL详解
- Android 应用程序主框架搭建
- 哪些视图上不能进行DML操作
- 汇编
- 搜索引擎的Robots协议
- DWZ (JUI) 教程 DWZ table 分页排序教程
- [转]让ubuntu下的eclipse支持GBK编码
- 为什么要在Linux平台上学C语言?用Windows学C语言不好吗?
- Google面临的六大战争
- Google+无法取代个人博客
- TotoiseSVN的基本使用方法
- 你若安好
- Windows开发的内功和招式