谈关于Robots.txt的6个要点
从事的工作人员必须要了解Robots.txt ,这是一个合格的seoer必须了解的知识。那么,到底robots有什么需要了解的呢?
,作为一名合格的seo工作人员,必须要了解,Robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎访问网站的时候要查看的个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的,以及什么文件是不允许被蜘蛛程序抓取的。
通常情况下,当蜘蛛来到你的网站以后,就是要看根目录下是否存在robots.txt这个文件,如果存在,则蜘蛛遵循robots.txt的协议;如果不存在,则蜘蛛会默认爬取网站的所有文件。
了解了这些,想必大家都了解到robots的重要性了,那么到底robot的写法有哪些要点呢?今天烟台腋臭之家就谈一下自己的一些看法
1. robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写.
2. 常用命令
User-agent: 定义搜索引擎的类型
Disallow: 定义禁止搜索引擎收录的地址
Allow: 定义允许搜索引擎收录的地址
Sitemap:定义搜索引擎爬取的网站地图的地址
3. 对于User-agent的写法,有些需要注意的方面
User-agent:
这里的代表的所有的搜索引擎种类,是一个通配符。如果要对特定的蜘蛛程序进行限制,则需要改变写法。利于对google蜘蛛添加特定的指令,则需要写成 User-agent: Googlebot ;写成这样的的定义类型,下面再写针对其的特殊协议,如Allow和Disallow等。
4. Disallow和Allow分别代表禁止抓取和允许抓取,在后边写上相应的地址就可以。如Disallow: /tmp/ ,这样就是要禁止抓取tmp目录了。
而对于要特别限制针对某种类型文件的写法,则需要了解一下$ 这个符号了。$ 代表的是匹配网址的结束字符,如 /.jpg$ ,这样的形式就是表示后缀名为jpg的所有文件了。这样再加上Disallow和Allow命令就可以限制抓取了。
5. Sitemap的写法
Sitemap的写法必须采用绝对地址,即Sitemap:http://.xx./map.xml ;写成这样的形式才能被蜘蛛读取,如果写成相对地址的形式,则会提示语法错误。
,还需要注意的一点,就是Sitemap的网站地图必须要在网站的根目录下才有效。
6. 目前用Robots.txt来限制搜索引擎蜘蛛抓取站点内容的办法只是一种规则,需要搜索引擎蜘蛛的配合才行,并不是每个蜘蛛都全部遵守Robots.txt的。
以上6点就是烟台腋臭之家关于Robots.txt的一些看法,相信会对一些seo新手有一定的帮助吧。
网站seo
- 洛扎企业官网搭建公司:提升品牌形象与网络实
- 北京百度快照排名怎么把网站排名在百度首页
- 湖南seo网站排名关键词优化如何提升销售额和销
- 打造企业形象的利器:金塔企业官网搭建公司
- 提升平舆百度快照排名的全面指南
- 浙江企业网站优化怎样做网站排名
- 云南整站优化:提升网站价值的关键
- 西藏新手做seo怎么做发展潜力如何
- 提升扬州网站排名优化的有效策略
- 中山建站公司有哪些:全面解析与推荐
- 长寿百度关键词SEO:提升你的网站排名技巧
- 寻找优质服务的秘诀:库车会SEO的网站建设公司
- 兴义企业网站优化:提升网站可见性的策略与方
- 威海优化关键词排名推广:提升您网站流量的有
- 松原建站公司:助力企业数字化转型的最佳选择
- 罗甸企业官网搭建公司:助力企业数字化转型