文件 robots.txt 的新增特性及 REP meta 标签

来源:互联网 发布:nginx配置多个tomcat 编辑:程序博客网 时间:2024/04/30 08:51



原文: New robots.txt feature and REP Meta Tags
发表于: 2007 年 8 月 15 日,星期三,下午 4 时 01 分

我们已经改进了站长中心的分析工具,使之能理解网站地图(sitemap)的声明和相关的 URL。较早的版本并不认识网站地图,且仅仅理解绝对的 URL;其他的任何东西都被报错成“不理解你的语法”。现在改进后的版本会告诉你网站地图的 URL 和范围是否正确。您还可以对相关的 URL 测试并少了许多输入工作。

现在生成的报告也好多了。你可以在一行中知道多个问题的答案(如果有的话)。不像早期版本,一行仅第一个遇到的问题给出答案。同时,我们也在其他用以分析和验证的功能上取得了改进。

假设你负责域名 www.example.com,你希望搜索引擎索引你网站的除/ images 文件夹之外的一切内容。您还想确保你的网站地图被搜索引擎知道,那么你可以使用以下内容作为你的 robots.txt 文件:

disallow images

user-agent: *
Disallow:

sitemap: http://www.example.com/sitemap.xml

你可以访问站长中心,使用 robots.txt 分析工具对你的网站进行测试,用这两个 URL 作测试:

http://www.example.com
/archives

站长工具的较早版本将会报错:
    


改进版会告诉你关于robots.txt文件的更多信息:
    


你可以在 http://www.google.com/webmasters/tools 看到以上信息。

我们还希望确保你听说过新的 unavailable_after 元标签,该标签由 Dan Crow 数周前在谷歌官方博客中宣布。该标签可增加你的站点和谷歌的 googlebot 间的互动。试想,对 www.example.com,有时你有一个临时性的新闻故事,限时公司促销,或一个宣传页,你可以对特定页面指定确切的日期和时间,来阻止被抓取和索引。

让我们假设你的一个促销活动有效期截至 2007 年年底。在 www.example.com/2007promotion.html 的源码开始,你可以使用以下行:

<META NAME="GOOGLEBOT"
CONTENT="unavailable_after: 31-Dec-2007 23:59:59 EST">

另一个令人振奋的消息是新的 X-Robots-Tag 指令。它增加了机器人排除协议(REP)META 标签,该标签为非 HTML 网页提供支持!你终于可以控制对你的录像,电子表格,及其他索引文件类型的索引,就像控制对 HTML 页面的索引一样。还是上面的例子,比方说你的宣传页面是 PDF 格式。在文件 www.example.com/2007 promotion.pdf 中,你可以增加以下行:

X-Robots-Tag: unavailable_after: 31 Dec
2007 23:59:59 EST

请记住,REP META 标签可用于实现针对页面索引控制的 noarchive,nosnippet,及现在的 unavailable_after 标签。这和 robots.txt 不同,robots.txt 是对整个域名进行控制的。我们是应博客们和网站管理员的要求而增加这些特性的,请试用。如果你有其他的建议,也请随时提出。想问一些问题?请在我们的网络管理员帮助组里提问。

http://googlechinablog.com/2007/12/robotstxt-rep-meta.html 

原创粉丝点击