网站robots文件怎么优化(网站robots生成)

SEO百科 02-03 浏览 59

你真的知道网站robots文件的书写方式以及含义是什么吗?

很对站长朋友在对网站开始进行优化之前,会忽略非常重要的一点,就是网站上的robots文件,robots文件的作用是告诉搜索引擎蜘蛛,这个网站上什么内容是可以抓取的,哪些内容是禁止抓取的。当robots文件制作完成之后,放在网站ftp的跟目录之下,就搞定了。那么,robots文件里写的各种内容,都是代表了什么样的含义呢?下面我们就来了解一下吧!

User-agent禁止访问抓取系列:

User-agent: *

这里的*好是通配符,意指所有的搜索引擎都可以抓取,包括百度、搜狗、360等等

Disallow: /

意思是禁止蜘蛛抓取该网站的任何目录

Disallow:/123

意思是禁止蜘蛛抓取该网站的123以及123层级之下的所有内容

Disallow:/123/

意思是禁止蜘蛛抓取123层级之下的所有内容,但是可以抓取123页面的内容

Disallow:/*.png

意思是禁止蜘蛛抓取网站上所有png格式的图片,想要禁止抓取其它格式也是这样书写,比如想要禁止抓取网站jpg格式的图片,书写方式为Disallow:/*.jpg

Disallow:/123/*.png

禁止蜘蛛访问123层次下的png图片,其他格式也是同样的书写方式

Disallow:/*?*

禁止蜘蛛抓取网站上所有的动态url页面

Disallow:/123/*?*

禁止蜘蛛抓取网站上123目录下的所有动态页面,不影响抓取网站123目录中的其它内容

Allow允许抓取访问系列:

Allow的意思是允许蜘蛛访问抓取的意思,在写robots文件的时候一定要注意一件事,就是在书写的时候,一定要将allow放在disallow前面,才能不受disallow的影响,其它的写法参考disallow的书写方式,这里就不凑字数了。

有一点注意事项,大家在使用的时候一定要注意,robots.txt文件名称一定要小写的,不要大写。有了完整的robots文件,搜索引擎在抓取的时候才会更加的方便,利于对网站的提升。

网站robots文件怎么优化(网站robots生成)


带你学习网站robots.txt文件的用法

网站robots文件怎么优化(网站robots生成)

网络营销培训老师提醒站长同学们如果网站中有不希望搜索引擎收录的内容,可以使用robots.txt文件,它的语法可以禁止或允许URL抓取,则遵守robots.txt协议的就会按你的设置处理,不仅节省带宽和服务器资源,还可以用它这个方法来消除复制网页等。

主流搜索引擎都遵守 robots 文件指令,robots.txt 禁止爬取的文件搜索引擎将不访问、不爬取。但要注意的是,被 robots 文件禁止爬取的 URL 还是可能出现在搜索结果中。只要有导入链接指向这个 URL,搜索引擎就知道这个 URL 的存在。虽然不会抓取页面内容,但是可能以下面几种形式显示在搜索结果中:

1、只显示 URL,没有标题、描述,谷歌常这样处理。

2、显示开放目录或雅虎等重要目录收录的标题和描述。

3、导入链接的锚文字显示为标题和描述,百度常这样处理。

要想使 URL 完全不出现在搜索结果中,需要使用页面上的 meta robots 标签。

robots.txt的生效时间

搜索引擎机器人基本会一到两天检查一次robots.txt文件有没有更新。如果更改了规则,禁止了已收录的内容,那么只是以后不再检索了,原来收录的内容可能要最多要数月时间才能删除。

书写 robots 文件时需要注意以下细节:

1、一定不要写绝对路径,就是不要带网站域名,用/代替即可。

2、注意 robots 文件中的所有符号都是在英文状态下写的,比如 Disallow: /admin/ 中的:是英文状态下的。

3、注意空格,例如 Disallow: /admin/ 中:后面紧跟着一个空格。

4、注意大小写,例如 Disallow: /admin/ 中 Disallow 的D是大写的。

5、robots 是有生效时间的,是由百度决定的,几天或者两个月以内,所以一定不要随便屏蔽整站。

6、还有一点要弄清楚,Disallow: /help 的意思是禁止蜘蛛访问 /help.html、/helpabc.html、/help/index.html 等所有带 help 的文件及文件夹;Disallow:/help/ 则是禁止蜘蛛访问 /help/index.html 这种形式的路径,允许访问 /help.html、/helpabc.html。

网站robots文件怎么优化(网站robots生成)

标签:

本文版权声明本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站客服,一经查实,本站将立刻删除。

热门推荐