网站robots协议的用法(robots怎么用)
是网站与之间不成文的协议,虽然没有明文去规定,但双方都会遵守这个协议。通过robots.txt文件我们可以限制搜擎蜘蛛的抓取轨迹,对来说有着比较重要的意义,然后还是有很多人并未引起重视,而且很多人也不会使用,下面我们一起来介绍一下吧。
robots.txt文件的使用
每个网站在每个阶段都有一个体量(内容量级,流量等),这是搜索引擎对这个网站的认知,根据这个体量,搜索引擎每天会派出一定数量的蜘蛛对网站进行爬行,所以每个网站的蜘蛛数量,在每个阶段都是有限的。
但很多时候我们网站也会存在一些垃圾页面,或是网站有一些无排名意义的文件,而这些文件蜘蛛照样都会进行爬行,这就会造成蜘蛛资源的浪费。这个时候robots.txt文件就派上了用场,我们通过robots.txt文件对蜘蛛程序进行限制,让蜘蛛只固定爬行某些文件,从而将有限的蜘蛛资源利用起来。
假设我们不想网站被搜索引擎收录,我们可以将所有搜索引擎进行屏蔽。可以这样写
User-agent:
Disallow: /
如果我们不想某个搜索引擎蜘蛛访问,我们可以这样写,如不允许百度蜘蛛访问
User-agent:baiduspider
Disallow: /
如果不想蜘蛛访问网站的某些文件我们可以这样写,如下
不允许访问图片
User-agent:
Disallow: .jpg$
不允许访问css文件
User-agent:
Disallow: .css$
不允许访问123目录
User-agent:
Disallow: /123/
不允许访问123形式的文件(包括目录)
User-agent:
Disallow: /123
让蜘蛛抓取
User-agent:
Allow: http://.xxx./sitemap.xml
robots.txt文件我们写好后,将robots.txt文件放入网站的根目录,通常搜索引擎蜘蛛会第一时间先抓取这个文件,根据文件的说明,再去抓取其它内容。
网站seo
- 洛扎企业官网搭建公司:提升品牌形象与网络实
- 北京百度快照排名怎么把网站排名在百度首页
- 湖南seo网站排名关键词优化如何提升销售额和销
- 打造企业形象的利器:金塔企业官网搭建公司
- 提升平舆百度快照排名的全面指南
- 浙江企业网站优化怎样做网站排名
- 云南整站优化:提升网站价值的关键
- 西藏新手做seo怎么做发展潜力如何
- 提升扬州网站排名优化的有效策略
- 中山建站公司有哪些:全面解析与推荐
- 长寿百度关键词SEO:提升你的网站排名技巧
- 寻找优质服务的秘诀:库车会SEO的网站建设公司
- 兴义企业网站优化:提升网站可见性的策略与方
- 威海优化关键词排名推广:提升您网站流量的有
- 松原建站公司:助力企业数字化转型的最佳选择
- 罗甸企业官网搭建公司:助力企业数字化转型