蜘蛛爬取页面重复怎么解决问题?
网站蜘蛛每天来爬取,怎么保证蜘蛛不要继续爬取重复的页面,每次被蜘蛛爬取页面重复了,导致收录量也下降,有什么好的办法可以禁止蜘蛛让蜘蛛爬取正常吗?
3 人参与回答
重复搜集,是指物理上存在的一个网页,在没有更新的前提下,被搜集程序重复访问。造成重复搜集的原因,一方面是搜集程序没有清楚记录已经访问过的URL,另一方面是由于域名与IP多重对应关系造成的。分情况解决 一、 记录未访问、已访问URL和网页内容摘要信息二、 域名与IP的对应问题
我最近也是遇到这个问题