搜外网>搜外问答>问答页面

看百度蜘蛛老是抓到404页面,百度站长上提交了死链,那robots中还要不要做禁止抓取代码?

看百度蜘蛛老是抓到404页面,百度站长上提交了死链,那robots中还要不要做禁止抓取代码?就是想提高网站的蜘蛛来不浪费资源。。

追加问题
    6 人参与回答

可以不用再添加Robots

不用再添加Robots禁止抓取代码

小马?
小马? · 网站制作,小程序制作,APP开发(大家互相点击刷一下点击量,留言必回点,好人一生平安)

提交了死链不用再添加Robots禁止抓取代码。后面逐步会正常的

利美医疗
利美医疗 · 四川利美医疗是一家集一次性口罩、口罩辅料、清洁防护用品的研发、设计、生产、销售为一体的高新技术企业!

提交了死链不用再添加Robots禁止抓取代码。后面逐步会正常的

不需要添加Robots

推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo

1、蜘蛛抓404,是从日志看到的,那么你的页面真的有哪些URL吗,如果没有这种非真蜘蛛;
2、死链提交是提交已收录的页面,返回码是404的页面,做死链提交删除;
3、Robots不屏蔽死链,屏蔽了蜘蛛无法抓取识别返回码404,也不会删除,这个是针对真的死链。