分享

Knowledge Sharing

58好网站说说应该怎么写robot.txt?

2019-03-10     浏览:165次     作者:成都晨宇网络科技公司

    robots.txt是一个纯文本文件,当网络蜘蛛来抓取网站的时候,首先就是访问这个网站的robot.txt文件。所以网站管理者都会在robots.txt文件中声明该网站中不想被robots访问的部分,或者只允许指定的搜索引擎收录指定的内容。很明显robot.txt对我们做seo来说是很重要的。

    下面来看看应该怎么写robot.txt?

    1、user-agent和Disallow是robot里面的俩个重要的函数。

    2、robot.txt的编写及范本:

    例如:

    允许所有的robot访问

    User-agent:*

    Disallow:

    或者也可以建一个空文件“/robots.txt”file

    禁止所有搜索引擎访问网站的任何部分

    User-agent:*

    Disallow:/

    禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)

    User-agent:*

    Disallow:/01/

    Disallow:/02/

    Disallow:/03/

    禁止某个搜索引擎的访问(下例中的BadBot)

    User-agent:BadBot

    Disallow:/

    只允许某个搜索引擎的访问(下例中的Crawler)

    User-agent:Crawler

    Disallow:

    User-agent:*

    Disallow:/

    3、各大搜索引擎的蜘蛛名称

    百度蜘蛛:baiduspider

    google蜘蛛:googlebot

    yahoo蜘蛛:slurp

    alexa蜘蛛:ia_archiver

    msn蜘蛛:msnbot

    xaltavista蜘蛛:lycos_spider_(t-rex)

    lycos蜘蛛:lycos_spider_(t-rex)

    alltheweb蜘蛛:fast-webcrawler/

    inktomi蜘蛛:slurp

    4、其中的属性说明如下:

    设定为all:文件将被检索,且页面上的链接可以被查询;

    设定为none:文件将不被检索,且页面上的链接不可以被查询;

    设定为index:文件将被检索;

    设定为follow:页面上的链接可以被查询;

    设定为noindex:文件将不被检索,但页面上的链接可以被查询;

    设定为nofollow:文件将不被检索,页面上的链接可以被查询。

    以上就是成都58好网站教我们怎么来写robot.txt,希望能帮到大家!!!


注:成都晨宇网络科技公司自由网络,专业提供网站推广服务,有需要咨询欢迎联系我们在线客服。

网站建设流程

先建设网站,后付款。无预付款
  • 1 、沟通网站建设功能、价格、周期
  • 2 、设计网页效果图
  • 3网站设计效果图确定、沟通、修改
  • 4 、网站开发程序(前台网页和后台管理)
  • 5 、客户浏览确认网站制作完成 95% 以上,付款50%
  • 6 、申请域名空间、备案、修改网站细节
  • 7 、网站上线运行,无任何问题付余款

扫一扫咨询