网站有几个页面由于重复度太高不想让搜索引擎收录和访问,有什么有效的办法,除了robots和nofollow,还有其他好的办法吗
Robots里写一下规则,把不想蜘蛛抓取的页面屏蔽了
直接Robots就行了 或者删了
直接Robots就行了
嗯,进来给大佬学习下
1、一般禁止访问抓取和收录的操作只有Robots封禁蜘蛛,Nofollow只是不传递权重,还是有可能收录; 2、重复页面不想收录,不robots,那就这些页面被删除,返回码404的,即使被收录也可以死链提交删除。
判断形式跳转
让更多人参与回答