发表日期:2019-09-10文章编辑:admin浏览次数:0
网站SEO优化可以算是一门较为复杂的技术,至少在进行SEO优化的时候,有很多东西都是你需要关注的,接下来成都网站优化公司小编为你带来robots.txt文件写法的重要性:
用户点进网站第一眼看到的基本上都是我们的网站首页,也就是一个html+css制作的框架里边包含的文字以及图片,但是搜索引擎spider并不是如此,搜索引擎进入我们的网站首要查看的就是robots.txt文件,如果网站存在robots.txt文件,搜索引擎机器人就会按照文件中的内容来确认访问范围,但若是robotx.txt文件不存在的话,所有的页面以及链接就都将被爬取。
但是一个网站上通常都会存在很多的非必要性抓取信息,以及不重要的栏目,使用robots.txt屏蔽这些链接能够很好的集中网页权重避免权重流失,对于一些电商平台来说,也能够屏蔽一些付费页面,防止用户通过百度搜索快照查看,起到保存自己利益的好处。
robots.txt的制作方式
robots.txt是SEO名词,所以做好一个网站的robots.txt文件的书写,对于网站优化是非常重要的。
写法:
User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片。
相信很多人看了以上的书写方式心里都是很清晰明了的了,Disallow: 的作用的禁止搜索引擎爬取相应的文件夹、链接,Allow:则是允许搜索引擎抓取对应的目录链接,希望大家看了以上的文章能够写好robots.txt促进网站排名哦~