网站蜘蛛反复爬取页面都是重复的,怎么更有效的不让蜘蛛爬取页面重复?有时候爬取重复的页面多数都是没有多大用的,我怎么才能禁止蜘蛛引导蜘蛛爬取页面正常?有什么可以解决的办法?
设置Robots文件,同时也可以在抓取频次比较高的页面添加未抓取页面的链接入口,引导蜘蛛抓取
提交应该会好些吧
引导蜘蛛抓取其他页面,发外链也好,主动推送也可以
做好内页的推送提交啊,不要只知道推送首页。多发内页的外链啥的,持续优化慢慢堆积,只能靠堆积啊兄弟
做好推送提交,引蜘蛛,持续优化
做好推送提交,引蜘蛛
做好推送提交,持续优化
你控制不了蜘蛛的,只能持续优化
1、对于新站前期可能只重复抓首页,内页不抓取,持续运营提升信任度; 2、蜘蛛不抓取的页面,可以抓取诊断无异常,做好推送提交,引蜘蛛(蜘蛛池、收录宝、推送给百度站长),有机会被抓取。
让更多人参与回答