如何避免蜘蛛黑洞?
进来学习一下
避免了黑洞的形成
匿名用户
百度官方的推荐方式还可以巧用 Robots 避免蜘蛛黑洞,robots.txt 的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对 Baiduspider 优先展示高质量页面、屏蔽了低质量页面,为 Baiduspider 提供了更友好的网站结构,避免了黑洞的形成。
让更多人参与回答