搜外网>搜外问答>问答页面

不想让二级域名收录该肿么办好?

不想让二级域名收录该肿么办好?

二级域名是给内部人员用的,刚一搜索发现全被收录了……

郁闷的是二级域名是用广州云旅系统(不开放)做的,我没法控制ftp

有什么办法让引擎不收录二级域名吗?

追加问题
    13 人参与回答

Robots文件里禁止掉

曾庆平
曾庆平 · SEO实战家(10年SEO经验操作百万uv多个)曾为土巴兔推广经理以及犀牛之星创始人。

1、网站一级域名内容包括首页不给二级域名入口链接,形成孤岛,自然就不会收录。

2、运用Robots禁用百度抓取二级域名、

写个抓取规则限制一下就好

化大阳光
化大阳光 · 北京化大阳光科技有限责任公司

Robots文件里禁止掉就好

风和日丽
风和日丽 · 本人要成为一个网络营销+品牌策划+平面3D设计+视频直播带货+大数据分析+网站开发+新媒体运营的工程狮!

最直接的办法就是提交二级域名申诉,让百度直接封杀。

沧海笑软件开发
沧海笑软件 · 互联网爱好者、金融投资爱好者,欢迎来撩~

感谢大家的回答,但是还是不行,因为二级域名是用的别人的系统,我们没有FTP的,是内部的一个下单系统。

有些同学没太看懂我的问题。

Brilliant
Brill · 服务器租用与托管相关

或者你直接不解析二级域名嘛,反正你不希望收录,那二级域名要不要都没得必要

来扯bie吗
来扯bie · 建筑人才招聘就上筑聘网

写一个蜘蛛协议就好了呀  禁止抓取你要屏蔽的内容

PE管道
PE管道 · HDPE塑料管 http://www.zsgyzs.com

提交个Robots.txt文件代码编辑一下,屏蔽百度蜘蛛,禁止收录

Robots文件里禁止掉就好

legbs.com
legbs · 乐购巴士--桂林人本地装修建材网上商城

把蜘蛛屏蔽了就可以了,参考淘宝

直接在二级域名根目录下上传Robots文件,里面这样写: 

User-agent: *

Disallow:/

也许
也许 · 优选网

Robots.txt文件里面设置限制就可以了,我的站就是这个

SEO培训招生中
189