3 人参与回答
用户190820 · 专业SEO优化,SEM,网站诊断、方案编写,需要滴滴,QQ:509006647

蜘蛛重复抓取页面是正常的,蜘蛛抓取页面的依据是看页面内容是否发生了变化,如果每次抓取页面都有变化,那么抓取就会更加频繁。如果多次抓取后发现页面都没有变化,就会减少抓取。
如果你想避免蜘蛛重复抓取一个页面,可以隐藏链接入口,再在Robots文件上限制抓取。

给你内链 连过去

用户133463 · IP防水防尘测试设备 SEO 淋雨试验箱 咨询:18924062676

我也遇到这个问题,可能别的页面没有用户搜索吧