10 人参与回答
烟火
烟火 · 南极下载站
权重蜘蛛-池出租 等 1 人赞同该回答

Robots.txt里面加入

梦梦
梦梦 · 泰海科技12年服务经验,专注于服务器租用
权重蜘蛛-池出租 等 1 人赞同该回答

页面加入Robots文件里就可以

权重蜘蛛-池出租 等 1 人赞同该回答

Robots.txt里面加入不想要蜘蛛抓取的页面就行了

权重蜘蛛-池出租 等 1 人赞同该回答

屏蔽咯

合发齿轮官方微信
合发齿轮官 · 精密齿轮
权重蜘蛛-池出租 等 1 人赞同该回答

重复的页面直接屏蔽

权重蜘蛛-池出租 等 1 人赞同该回答

把重复的页面屏蔽了吧

权重蜘蛛-池出租 等 1 人赞同该回答

Robots里屏蔽掉重复页面就好了

钢板卷管
钢板卷管 · 专注钢管行业SEO服务

页面加入Robots文件里就可以


屏蔽掉不想被抓取的页面

SEO培训招生中
189