浅谈SEO优化-站点优化(3)

来源:互联网 发布:mac版的easysketch 编辑:程序博客网 时间:2024/05/20 16:09

浅谈SEO优化-站点优化(3)

一.前言

我们新建一个站点,搜索引擎肯定不知道吧。那我们不可能等对方来抓取,那不知道何时何月才能抓取到你的站点,我们要主动出击,去找搜索引擎,那怎么办呢?如何添加我们的网站?而每个搜索引擎都有一个站长平台,那是让我们添加自己网站的。这篇文章是教大家如何主动出击,和搜索引擎大教导。


二.搜索引擎

我们要做哪几个平台呢?国内2017年1月数据。我们主要围绕这5个搜索引擎,百度、360搜索、搜狗、google、必应。

这里写图片描述


搜索引擎 网址 百度 http://zhanzhang.baidu.com/ 360搜索 http://zhanzhang.so.com/ 搜狗 http://zhanzhang.sogou.com google http://www.google.cn/webmasters/ 必应 https://www.bing.com/webmaster

如何提交站长

文件验证: 点击 “下载验证文件”,将文件放在项目的根目录下,然后点击完成验证。百度会搜索你的域名查看有没有哪个文件。
这里写图片描述


HTML标签验证: 把meta头,加载head头里面。点击完成验证。
这里写图片描述


CNAME验证: 打开后台,域名解析添加 下图域名。点击完成验证。
这里写图片描述


三.Robots

robots是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

robots文件

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

这里写图片描述


robots生成工具:
站长工具:http://tool.chinaz.com/robots/
Robots生成器:http://robots.51240.com
nodejs自动化生产:https://www.npmjs.com/package/robots


四.sitemap

对于网站中希望搜索引擎抓取的网页url,站长可以将其制作成标准的Sitemap(站点地图)文件。

如何使用:
把sitemap.xml放到根目录,然后在站长工具,提交文件就可以了。

Sitemap例子:

"><!-- XML文件需以utf-8编码--> <urlset> <!--必填--> <url> <!--必填,定义某一个链接的入口,每一条数据必须要用<url>和</url>来标示 --> <loc>http://www.xxxxxx.html/000000.html</loc> <!--必填,URL长度限制在256字节内--> <lastmod>2012-12-01</lastmod> <!--更新时间标签,非必填,用来表示最后更新时间--> <changefreq>daily</changefreq> <!--更新频率标签,非必填,用来告知引擎页面的更新频率 --> <priority>0.8</priority> <!--优先权标签,优先权值0.0-1.0,用来告知引擎该条url的优先级--> </url> <url> <loc>http://www.xxxxxx.html/000001.html</loc> <lastmod>2012-12-01</lastmod> <changefreq>daily</changefreq> <priority>0.8</priority> </url> </urlset> 

sitemap生成工具:
webpack sitemap生成工具:https://www.npmjs.com/package/sitemap-webpack-plugin
小爬虫生成器:http://www.sitemap-xml.org

原创粉丝点击