利用Robots.txt优化你的WordPress站点

  • A+
所属分类:WordPress

利用Robots.txt优化你的WordPress站点

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识。

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。

但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-content/
  4. Disallow: /wp-includes/
  5. Disallow: /*/comment-page-*
  6. Disallow: /*?replytocom=*
  7. Disallow: /category/*/page/
  8. Disallow: /tag/*/page/
  9. Disallow: /*/trackback
  10. Disallow: /feed
  11. Disallow: /*/feed
  12. Disallow: /comments/feed
  13. Disallow: /?s=*
  14. Disallow: /*/?s=*\
  15. Disallow: /*?*
  16. Disallow: /attachment/

使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。

下面分别解释一下各项的作用:

1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/

用于告诉搜索引擎不要抓取后台程序文件页面。

2、Disallow: /*/comment-page-*和Disallow: /*?replytocom=*

禁止搜索引擎抓取评论分页等相关链接。

3、Disallow: /category/*/page/和Disallow: /tag/*/page/

禁止搜索引擎抓取收录分类和标签的分页。

4、Disallow: /*/trackback

禁止搜索引擎抓取收录trackback等垃圾信息

5、Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

6、Disallow: /?s=*和Disallow: /*/?s=*\

禁止搜索引擎抓取站内搜索结果

7、Disallow: /*?*

禁止搜索抓取动态页面

8、Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

上面只是些基本的写法,当然还有很多,不过够用了。

 

weinxin
我的微信
分享交流WordPress经验与技巧,关注前端设计与网站制作。仅用于功能演示。
Begin主题购买
Begin主题购买

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:75   其中:访客  67   博主  2

    • avatar 热腾吧 2

      我的还没写robots文件。明天要写上了

        • avatar 我爱动感单车网 7

          @热腾吧 :razz: 想当初因为自己对WordPress程序不熟悉,为了尽可能拟写好这个robots.txt文本文件,那可是查找了很多资料和不断思索才最终搞定。感兴趣的朋友可以去参考下我的博客是怎么写的,大家多多交流、共同进步。

        • avatar 009 5

          建议文章标题参考之前的主题看看

          • avatar 三月福利吧 2

            不错,正愁这个呢!!!!

            • avatar 枯叶蚁 1

              用上了,谢谢

              • avatar 龙之游 1

                用上了,谢谢http://www.lzyhll.com

                • avatar Noob工厂手表 0

                  感谢知更鸟无私的分享,对于我来说太有用了!

                  • avatar 嘻嘻不要 1

                    robots金典教程,大家圈起来,考试要考

                    • avatar 五牛 1

                      呵呵,简单实用的!谢谢博主!

                      • avatar 驴行路上乐悠悠 4

                        刚试了一下发现我的robots.txt这个文件里多了个:Allow: /wp-admin/admin-ajax.php,这个ms是搞错了吧,抓取后台的文件了?

                        • avatar 逆袭风暴 0

                          受教了,刚好用上,谢谢分享。

                          • avatar 唯美图片网 0

                            用上了,总结的不错,再写一个sitemap就更好了!
                            www.weimeitupian.com

                            • avatar 猎乐网 0

                              很好,不过要注意的是,百度的可以用utf8编码 谷歌的会报错, 谷歌要保存成ANSI编码的

                              • avatar Bravo 0

                                我想问下您的代码高亮是用的是那个插件???谢谢!

                                • avatar 还有谁 0

                                  呵呵哈哈哈机甲

                                  • avatar 淘宝优惠券查询系统 2

                                    屏蔽了各种蜘蛛还是乱抓取。。。

                                    • avatar 玩游戏赚钱 0

                                      谢谢博主啊,我直接拿来用了!在你博客学到好多东西,感谢!