搜外网>搜外问答>问答页面

robots文件里已经禁止了,但是蜘蛛还是去抓,而且还是404

<p>比如这个templets文件夹我已经禁止了,但是查看网站日志,发现蜘蛛还是去抓了,而且还是提示404</p><p>这是咋回事?</p><p>难道说robots文件没用吗?</p><p><br></p>

追加问题
    3 人参与回答
多特蒙德吧
多特蒙德吧 · 多特蒙德吧,多特蒙德足球俱乐部,不一样的多特大黄蜂!

应该抓一段时间就不会再爬了

渣渣杨
渣渣杨 · 二营长建站优化wanhao_ya

还是看蜘蛛心情

我叫猫先生
我叫猫先生 · 谷歌海外推推广

Robots文件不是绝对禁止不抓取和抓取的,它只是告诉搜索引擎你不想抓取的目录,关键还是看它自己要不要抓取。

SEO培训招生中
189