10 人参与回答
用户171137 · 南极下载站
用户196011 等 1 人赞同该回答

Robots.txt里面加入

用户118646 · 泰海科技12年服务经验,专注于服务器租用
用户196011 等 1 人赞同该回答

页面加入Robots文件里就可以

用户196011 等 1 人赞同该回答

Robots.txt里面加入不想要蜘蛛抓取的页面就行了

用户196011 等 1 人赞同该回答

屏蔽咯

用户153443 · 精密齿轮
用户196011 等 1 人赞同该回答

重复的页面直接屏蔽

用户196011 等 1 人赞同该回答

把重复的页面屏蔽了吧

用户196011 等 1 人赞同该回答

Robots里屏蔽掉重复页面就好了

用户171553 · 专注钢管行业SEO服务

页面加入Robots文件里就可以


屏蔽掉不想被抓取的页面