网站优化中robots.txt文件的运用常识(robots.txt使用技巧)
首先简单说明下的概念,它是网站与搜索引擎之间的协议。网站通过robots文件告诉搜索引擎蜘蛛,网站内部哪些内容是允许抓取,哪些内容是不允许抓取。蜘蛛抓取网站内容之前会首先抓取网站里的这个文件,依据此文件来判断哪些内容是需要抓取,哪些内容是不需要抓取。所以该文件对于网站而言作用很多,对于而言更是如此。
林云看过各个行业许多的企业网站,发现不是没有robots文件,就是写的乱。如果没有写,蜘蛛就会抓取网站所有的文件,不利于优化,更不利于保护需要保护的数据,比如用户信息;写的乱,不允许抓取的内容,却被抓取,允许抓取的内容,反而没被抓取,严重影响网站内容收录,以及对网站重要内容的保护。林云将通过以下三个方面带大家系统的了解一下robots.txt文件的常识和使用技巧。
robots.txt文件都是放在网站根目录下面,我们只要在域名后面输入robots.txt,然后按确认键,就会弹出robots文件内容,robots.txt文件展示,如若不然网站就是没有配置robots.txt文件。
1、网站所有文件都可以被抓取,不去设置robots.txt文件,默认让搜索引擎抓取整个的网站文件,这样不更利于优化。现实不是这样的,蜘蛛每次来抓取网站先会抓取robots.txt文件,如果文件不存在,蜘蛛就会认为是死链,就在网站日志记录为死链,严重影响蜘蛛友好度。
2、在robots.txt文件中设置所有的文件都允许搜索引擎蜘蛛抓取,让搜索引擎能够收录更多页面。其实搜索引擎蜘蛛对于网站程序脚本、css样式、js文件等,很难被搜索引擎收录,就算收录了,也只会浪费服务器资源,这种对网站保护性很差,对蜘蛛体验不友好。
3、在robots.txt文件中设置不抓取整个网站内容,不让抓取意味着整个网站都不会被搜索引擎收录,不被收录的话,关键词难以获得排名,在好的营销内容,也难以被用户看到。
我们网站都是由许多文件组成,比如我们常见的有后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等,有些文件是不需要搜索引擎去收录的,直接屏蔽蜘蛛抓取,让蜘蛛更好的爬行需要被抓取的内容,减轻蜘蛛负担,提高抓取效率,切记网站里不要空着,不去设置。
总而言之,我们不管是运营网站还是建设网站,对于robots.txt文件的使用和理解一定要透彻,该文件对于网站,以及SEO优化都有很大的帮助,不仅能提高蜘蛛抓取效率,还能保护网站内部需要保护的信息。所以在网站上线前,一定要检查robots.txt文件,如果没有及时添加,如果规则写错了,及时调整过来,以免影响网站的收录和重要页面的抓取。
原创文章:《网站优化中robots.txt文件的运用常识(robots.txt使用技巧)》,作者:林云SEO,如若转载,请注明原文及出处:https://www.tang-seo.com/493.html
这些内容是采集的,我们尊重原作者的所有版权.站内发布该内容仅供大家学习,请勿商用.如果有疑问请联系手机:[15736771259]
暂无评论
发表评论