您的位置:域名
长期出售10000个以上各种各样的老域名,适合做seo排名。

robots七个写法技巧

分类: 建站教程 发布: zhushican 浏览: 日期: 2014-06-05

 我们进行广州seo优化的时候,首先一点是需要对网站的内容进行一些修改,一些不必要蜘蛛抓取的东西需要通过robots文件来进行一些禁止收录工作,这里列举一些robots的写法以供参考。
首先因为robots文件的操作需要知道一些蜘蛛的名字这里列举一下。
百度的蜘蛛:baiduspider
Google的蜘蛛: Googlebot
腾讯Soso:Sosospider
Yahoo的蜘蛛:Yahoo Slurp
Msn的蜘蛛:Msnbot
Altavista的蜘蛛:Scooter
Lycos的蜘蛛: Lycos_Spider_(T-Rex)
一,只充许某个搜索引擎蜘蛛抓取目录文件,设置代码如下:
User-agent: 搜索引擎蜘蛛名字
Disallow:
二,允许所有搜索引擎蜘蛛抓取所以目录文件,如果文件无内容,也表示允许所有的蜘蛛访问,设置代码如下:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
三,禁止某个搜索引擎蜘蛛抓取目录文件,设置代码如下:
User-agent: Msnbot
Disallow: /
例如想禁止MSN的蜘蛛抓取就设为,Msnbot代表MSN的蜘蛛,如果想禁止其他搜索引擎就更换蜘蛛名字即可,其他蜘蛛名字如下:
四,禁止某个目录被某个搜索引擎蜘蛛抓取,设置代码如下:
User-agent: 搜索引擎蜘蛛名字
Disallow: /目录名字/              说明(这里设定禁止蜘蛛抓取的目录名称)
例如,想禁目Msn蜘蛛抓取admin文件夹,可以设代码如下:
User-agent: Msnbot
Disallow: /admin/
五,禁止某个目录被搜索引擎蜘蛛抓取,设置代码如下:
User-agent: *
Disallow: /目录名字1/
Disallow: /目录名字2/                                                                Disallow: /目录名字3/
把目录名字改为你想要禁止的目录即可禁止搜索引擎蜘蛛抓取,目录名字未写表示可以被搜索引擎抓取。
六,设定某种类型文件禁止被某个搜索引擎蜘蛛抓取,设置代码如下:
User-agent: *
Disallow: /*.htm   说明(其中“.htm”,表示禁止搜索引擎蜘蛛抓取所有“htm”为后缀的文件)
七,允许所有搜索引擎蜘蛛访问以某个扩展名为后缀的网页地址被抓取,设置代码如下:
User-agent: *
Allow: .htm$  说明(其中“.htm”,表示充许搜索引擎蜘蛛抓取所有“htm”为后缀的文件)
一些页面的错误或者状态如果错误的话,或者一些栏目板块需要禁止蜘蛛抓取的话都需要用到rosots文件来进行操作,这里广州seo优化提到的以上几点写法都可以进行一些简单的操作,如果需要更多的方法请继续查询。

分页:«1»

Powered By qqq114.cn

赣ICP备19001169号-1 Copyright 【10000个好做seo优化的域名】. Some Rights Reserved.