网站robots协议及robots.txt 文件写法

网站建设 2022-07-27 09:12www.1681989.com免费网站
Robots之所以称之为协议就是因为它不是 “命令” 而是跟搜索引擎爬虫间的单方面协议。因而 robots 中的设置并不意味着100%的生效,但那些知名君子如 Google Yahoo Bg Baidu 等搜索引擎都支持,所谓小人们不管也罢。 Robots 协议有什么作用呢? robots协议 […]



Robots之所以称之为协议就是因为它不是 “命令” 而是跟搜索引擎爬虫间的单方面协议。因而 robots 中的设置并不意味着100%的生效,但那些知名君子如 Google Yahoo Bg Baidu 等搜索引擎都支持,所谓小人们不管也罢。

Robots 协议有什么作用呢?

robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。

让我们来了解下 Robots 都有哪些写法

User-agent: 这里的 代表的所有的搜索引擎种类,是一个通配符
Disallow: /adm/ 这里定义是禁止爬寻adm目录下面的目录
Disallow: /cgi-b/.htm 禁止访问/cgi-b/目录下的所有以”.htm“为后缀的URL(包含子目录)。
Disallow: /? 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow: /ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-b/ 这里定义是允许爬寻cgi-b目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
Sitemap: 网站地图 告诉爬虫这个页面是网站地图
robots.txt文件应该放置在网站根目录下。

当搜索引擎的爬虫们进入网站时会检查该网站中是否存在 robots.txt 这个文件,如果爬虫找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。


Copyright © 2016-2025 www.1681989.com 推火网 版权所有 Power by