当前位置:首页 » 好文分享 » 详情

网站robots文件对SEO的重要性

一、robots文件是做什么的

robots文件是一种协议,所有的搜索引擎蜘蛛进入网站的时候第一个访问的就是这个文件,具体的作用就是用来自由设置哪些文件可以抓取,哪些不能抓取。

二、robots文件设置的格式:

User-agent:定义搜索引擎的类型;

Crawl-delay:定义抓取延迟

Disallow:定义禁止搜索引擎收录的地址

Allow:定义允许搜索引擎收录的地址

三、为什么robots对网站优化非常重要:

1.网站优化切忌的就是重复页面,但是不少人没有重视,现在的主流网站程序都很容易自动产生一些没用的页面,比如缓存页面,搜索页面,等等,这些页面内容往往和主体内容相重复,而且没有什么用,如果被蜘蛛抓到,那么对网站排名会有非常严重的负面影响。

2.搜索引擎喜欢原创内容,而这一方面并不是单单是指文章的原创度,另一方面网站模板的原创度也是非常重要的评分点,所以如果自己网站的模板不是原创,最好要屏蔽css目录和模板目录。

3.利用robots文件可以用来屏蔽一些没有用的页面,比如隐私页面,后台登陆页面,图片目录等内容。

4.增强蜘蛛网站的爬取效率,帮助搜索引擎理解哪些才是自己网站最重要的内容,不再浪费到其它的那些无用的页面上。
打赏
X
打赏方式:
  • 支付宝
  • 微信
  • QQ红包

打开支付宝扫一扫
日期:2018年06月05日 22:31:16 星期二   分类:好文分享   浏览(30215)
本文地址:https://www.blogs.hk/post-1597.html   [百度已收录]
声明:本页信息由网友自行发布或来源于网络,真实性、合法性由发布人负责,请仔细甄别!本站只为传递信息,我们不做任何双方证明,也不承担任何法律责任。文章内容若侵犯你的权益,请联系本站删除!

留言咨询

自动获取QQ

昵称

邮箱

网址

      Copyright © 2024 博客之家 版权所有  
      關於本站免責聲明sitemap新站登錄