深圳网站设计建设-电商代运运营公司-网站排名SEO优化-实战营网络

如何有效的屏蔽百度蜘蛛

廉江SEO 来源:www.shizhanying.net

  许多时刻,咱们皆没有会来把百度蜘蛛来屏障失落,然则也有需求来屏障一些没必要要的抓与,好比一些年夜型的网站流派网,有登录页里或许是注册页里,另有一些没有念让百度蜘蛛抓与文件皆能够应用robots协定去实现,那么重庆SEO便解说哈屏障百度蜘蛛的详细要领。

  1、robots协定

  robots协定信任人人皆没有生疏,起首既然要用到robots协定,那么咱们便要先建立一个记事本,把记事本重定名为robots,而后咱们写下robots协定详细以下:

  User-agent: BadBot

  Disallow: /

  而后生存后经由过程FTP东西上传到网站根目次便可。

  两、robots Meta标签

  robots Meta标签也能够屏障百度蜘蛛抓与,这类要领取robots相似,然则照样局部搜寻引擎没有支撑,robots Meta用去对某多少个页里零丁设置时运用。其代码是写正在“<head></head>”之间,以下所示:

  <head>

  <meta name=”robots” content=”index,follow” />

  </head>

  3、.htaccess屏障

  若是道运用robots协定无奈悉数屏障您的网站,那么您能够正在您的网站根目次下找到.htaccess屏障代码以下:

  要领1:

  RewriteEngine on

  RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]

  RewriteRule .* – [F]

  要领2:

  SetEnvIfNoCase User-Agent “^Baiduspider” bad_bot

  <Limit GET POST>

  Order Allow,Deny

  Allow from all

  Deny from env=bad_bot

  </Limit>

  总结:百度蜘蛛屏障要领有很多,以上要领可参考,重庆SEO以为照样以robots协定较好,以是其余要领实时能够用,然则也没有提议来做,由于一步警惕搞错了,便会致使贫苦一直!

更多相关推荐