5 人参与回答
总体来说,百度spider会根据站点规模、历史上网站每天新产出的链接数量、已抓取网页的综合质量打分等等,来综合计算抓取流量,同时兼顾站长在抓取频次工具里设置的、网站可承受的最大抓取值。
了解了本质原因,我们再来分析造成暴增的几种可能性:
spider发现站内JS代码较多,调用大量资源针对JS代码进行解析抓取;
百度其他部门(如商业、图片等)的spider在抓取,但流量没有控制好;
已抓取的链接,打分不够好,垃圾过多,导致spider重新抓取;
站点被攻击,有人仿冒百度爬虫(参考:《如何识别Baiduspider》)。
如果想减少蜘蛛抓取频次,减小服务器压力。可以通过百度站长平台抓取频次工具,进行相关设置。