搜外网>搜外问答>问答页面

如何禁止搜索引擎访问/收录某个页面

网站有几个页面由于重复度太高不想让搜索引擎收录和访问,有什么有效的办法,除了robots和nofollow,还有其他好的办法吗

追加问题
    6 人参与回答
一只猫
一只猫 · 家庭教育吧

Robots里写一下规则,把不想蜘蛛抓取的页面屏蔽了

直接Robots就行了 或者删了

程东
程东 · 免费注册公司就找云算账

嗯,进来给大佬学习下

推推蛙
推推蛙 · 擅长SEOSEM网站诊断、方案编写、优化运维。微信:tuituiwaseo

1、一般禁止访问抓取和收录的操作只有Robots封禁蜘蛛,Nofollow只是不传递权重,还是有可能收录;
2、重复页面不想收录,不robots,那就这些页面被删除,返回码404的,即使被收录也可以死链提交删除。

哟AI
哟AI · 右边点进去看看,一片漆黑---->

判断形式跳转

SEO培训招生中
167