robots协议在优化中起着怎样的作用

什么是robots协议?robots协议可以说是各种网络爬虫程序与网站之间的一种约定,从中我们可以知道robots可以将一些内容不开放给网络爬虫抓取,这个在搜索引擎优化中有着大用途,它可以将网站的很多重复页面、隐私页面隐藏起来。robots协议在遵守其约束的行为中能对SEO帮助很大的,以下是整理的资料分享给大家。

1.robots能规范网站的URL网站有两种甚至3种以上地址的时候,该协议就能禁止蜘蛛爬去你不想展示的几种URL,而使网站解决站内重复问题集中权重。网站有时候为了数据分析会在url接受后添加一些参数以区分来路,这样也是能用该协议解决的。
 

2.控制蜘蛛抓取,以减轻服务器负担,对于内容数量比较大的网站 蜘蛛抓取对于服务器资源的消耗是十分大的,网站推广计划中也有很多的用处。

3.和nofollow配合控制蜘蛛对网站的充分抓取。

4.鉴于网站不想通过搜索引擎展示给用户的一些内容,也可以使用 robots.txt解决。

5.robots.txt支持添加网站地址以促进网站抓取和收录,robots.txt的写法是否正确可以使用google网站管理员工具后台测试

也许有人说这样看robots协议一点作用也没有了,也曾讨论过robots是否涉及法律,协议的存在有其一定的约束力,但对于流氓行径连法律都不能完全阻止更别说协议了。

「点点赞赏,手留余香」

赞赏

  • 无言珍爱
  • 工藤斯比
  • 黑熊君
  • kapoon
  • _风焰骨
  • 5人赞过
5
5
0
评论 0 请文明上网,理性发言

相关文章