网站有大量404 页面 已经提交了百度死链 看着百度反馈成功了,robots 文件是否还有屏蔽的必要,现在看蜘蛛每天还在爬 404 页面,到底要不要做robots 屏蔽呢,屏蔽的话 对蜘蛛有没有影响。如果屏蔽的话,几千的404 也会导致robots 文件过大,对纸质爬虫是不是有很大影响呢
Robots 没有必要在禁止
Robots 每个网站应该都有想要屏蔽的文件 比如网站模板 后台什么的,, 死链提交百度后 就会消失 一般蜘蛛爬行几次后 确定404 就不爬了吧
反馈成功之后蜘蛛要去抓取404判断是不是死链接然后进行删除,后续应该不会在继续抓了,Robots不用额外在禁止了吧
要知道蜘蛛在你网站爬行了大量404是对搜索引擎很不友好的,即使是大量的Robots会影响蜘蛛抓取,也比让蜘蛛抓取404来的强
让更多人参与回答