搜外网>搜外问答>问答页面

网站死链接太多蜘蛛爬取重复页面咋办?

网站是改版造成的死链接,死链接太多了没有处理好,每次蜘蛛来爬取网站都是爬取重复的页面,反复重复被爬取已经收录量大大降低,我应该怎么做好?求指点感谢!

追加问题
    5 人参与回答
哇丶哈
哇丶哈 · 易牛云朗沃2006年成立,是成都本土的专业IT教育培训机构开设 Java Web前端 UI设计 Python课
我的微信:sec_vip 等 1 人赞同该回答

有死链,整理成出来提交给百度删除就好了

我的微信:sec_vip 等 1 人赞同该回答

百度反馈里有这个入口提交的

推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
我的微信:sec_vip 等 1 人赞同该回答

1、网站改版造成的死链,死链返回码是404,蜘蛛抓取后,后期也会主动删除不存在的快照页面;
2、Site域名如果量不大,可以整理收集死链做死链提交删除;
3、正常持续做好站内外优化,提升域名信任度,文章内容更新,提交推送新的URL给百度站长,引蜘蛛抓取爬行发现新的页面。

12365信息网
12365 · 12365信息网-生活帮助知识库
我的微信:sec_vip 等 1 人赞同该回答

可以站长平台提交反馈

河南振豫律师事务所
河南振豫律 · 7年前端 seo、振豫律师事务所
我的微信:sec_vip 等 1 人赞同该回答

可以利用Robots.txt文件定义的语句来巧妙屏蔽网站中的死链接和重复页面。搜一下有很具体的例子。