18 人参与回答
最佳回答
Skyblue°
Skybl · Sheep吉他网→→→→→→→→→点 击 回 形 针→→→→→→→→→→→那边→→→→→→→→对!就是这→→→→

User-agent: *

Disallow: /

上面是所有蜘蛛

下面是网站根目录

Disallow

是禁止

写上面的两个到Robots.txt中放根目录就OK了


大青山 · 深圳翻译公司-SEO还在潜修

按照上面大家说的写个文件放根目录就行了

美团运营服 · 千百味外卖运营

禁止部分啊    全部禁止了做什网站

拉卡拉
拉卡拉 · POS机办理 / 代理请联系招商经理13147099258(微信同号)

坚持就是胜利啊兄弟~

新网站在调试期间,不要上线,等弄好了,再上线也可以呢

114naliyou
114na · 仿真植物

新网站先不上线不就好了,等调试好了在上线

不建议禁止,娃娃推解释过,可以看一下

Trd
Trd · 来来来,这有好东西→→→→→→→→→点 击 回 形 针→→→→→→→→→→→那边→→→→→→→→对!就是这→→→→→

User-agent: *

Disallow: /

就这样,冒号后面要加一个英文状态下的空格

新建一个txt文件,命名为Robots.txt,里面写个:Disallow: /

然后把这个文件放到你网站根目录,去百度搜索资源平台的robots栏目下“检测并更新”即可,保险起见可以测一下还能不能抓得到

王金亮
王金亮 · 个人站长 SEO优化 搜索排名 90后魔漂一枚~15870837476(同微信)互相交流

Robots里面针对所有搜索引擎写一个禁止抓取的规则

新建一个txt文件,命令为robots.txt

把下面的规则写进去,上传到网站的根目录就可以了

User-agent: *

Disallow: /

百度下规则!!

五金制品
五金制品 · 铝合金外壳加工

向优秀的同学学习

去搜索每个蜘蛛然后禁止了

搜外公民 · ❀ → 看这里 → → → → → → 5118 优惠码 6C1516 ← ← ← ← ← ← 看这里 ← ❀

User-agent: *

Disallow: /

建议本地调试,或者解析个二级域名进行调试,感觉百度反应迟钝,会不会等你接触robot限制了百度白天反应不过来

这个得找一个大佬

加载更多
SEO培训招生中
147