怎样用robots屏蔽二级域名的收录

  [复制链接]
查看: 41|回复: 1
  • 慵懒
    2018-4-28 09:37
  • 发表于 2018-3-22 10:21:00 | 显示全部楼层 |阅读模式

    马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

    您需要 登录 才可以下载或查看,没有帐号?立即注册

    x

    这个问题很可笑。用robots禁止搜索引擎收录某个二级域名是行不通的,我们并没有在官方看到可靠的依据。但这往往是我们很多人易犯的一个误区。

        在对robots的定义中就明确指出,当我们不希望搜索引擎收录网站的部分,请建立robots文件(Disallow:/aaa/)。

        在我们遇到的问题中,最多的是当我们购买了一个虚拟主机,空间自带了一个二级域名地址,而这个地址在搜索引擎上已经收录,我们想禁止掉它的继续收录。最直接的办法就是站内开放的链接上要统一url规范,不要给不想收录的二级域名任何的入口,然后持续的更新一些信息,搜索引擎会逐渐自然把二级域名剔除。

        当然我们有条件也可以在代码中写,判定访问的是二级域名的时候跳转到应用的主域名上;我们也可以直接把二级域名做301重定向到主域名上,在此搜想SEO专家提醒您,如果是搜索引擎已经将二级域名识别为主域名持续收录,做此之前一定要把站内所有的链接地址改为主域名,不要再有任何二级域名入口,如果信息收录过多,我们并不建议大家采用此方式。

        当然,还有一招,直接去百度提交删除申请,邮箱为:webmaster@baidu.com

        如果对于二级域名与主域名不是同一目录的情况,这就非常简单,我们都知道的“直接在robots里书写禁止二级域名对应的目录”即可!

        禁止某个二级域名的搜索引擎收录针对不同的情况,当然还有其它一些方法,举一反三、活学活用。对于二级域名与主域名为同一目录的情况下,搜想SEO专家一定要提醒大家的是,我们切不可为了屏蔽二级域名,直接在二级域名的指向的目录里书写了robots禁止收录文件。我们很多人却会犯这样的“傻”。


    发表于 2018-9-13 10:35:20 | 显示全部楼层
    前排顶,很好!
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

     
     
    技术支持
    在线客服
    售后交流群瑞恩社区™售后</font><br><span>交流
    工作时间:
    8:00-18:00
    客服热线:
    15368564009
    微信扫一扫
    返回顶部 关注微信 下载APP 返回列表