广州SEO中Robots.txt的详细用法介绍

  1、什么是Robots?熟练掌握Robots的基础语法对广州SEO非常有帮助。


  Robots是指网站与搜索引擎之间的协议,下列三小点是需要自己记住的:


  1.Robots是存放在网站根目录


  2.Robots也是百度蜘蛛靠前先抓取的


  3.robots.txt文件名是不可修改的


  4.Robots.txt是放在网站根目录


  2、robots形式及定义:


  User-agent:Baiduspider(定义所有的百度蜘蛛


  定义那些文件可以抓取,那些文件不可以抓取


  Googlebot:谷歌机器人


  :定义所有的蜘蛛


  MSNBot:msn机器


  Baiduspider:百度蜘蛛


  Baiduspider-image:百度图片


  Allow:允许


  小结:网站优化必须要有robots,robots格式区分大小的,区分大小写格式为:Disallow首字母必须是大写的,在本地新建记事本编辑时需要注意的是:输入法中文要切换成英文,例如:

oukh46-17e4

  同时需要注意的是:在编辑时Disallow:/要空一格如下图所示


  *:定义所有的蜘蛛通配符


  生效时间是多少,是由百度决定的,有可能是1个月或者2个月


  /:通配符拒绝百度蜘蛛访问访问网站根目录的文件,就是全部的意思


  附注:放行也是需要生效时间的


  $:结束符


  附注:同时也需要注意的是,网站动态的路径也要用robots进行屏蔽,在这个前提需要做的是,要了解每个文件下的数据是用来做什么用的,代表什么意思,自己下面也知道如何运用robots进行操作。


  研究中心之robots的制作和特殊符号含义


  备注:


  Disallow:/data(一个是文件夹、一个是目录)禁止以data开头的文件或文件夹/data.html/dataaaa.html/data/aaa.html根目录下的文件是不能访问的


  Disallow:/data/(拒绝目录的)禁止文件夹/data/aaa.html能访问


  2、为你在基础操作的网站加上


  User-agent:*(定义所有的蜘蛛


  Disallow:/plus/ad_js.php(拒绝目录/plus/能访问


未经允许不得转载:三好SEO研究院

评论 0

cache
Processed in 0.003208 Second.