16 人参与回答
推推蛙
推推蛙 · 擅长SEOSEM网站诊断、方案编写、优化运维。5118网站优惠折扣码:9ADB8B
画龟的孩子 等 1 人赞同该回答

1、是否能成功,可以先设置下,去百度站长Robots哪里测试,看是否封禁;

2、index?后面这种一般是站点被黑生成的大量页面;

3、你可以尝试操作下,看是否可操作,屏蔽操作不用特意写域名,屏蔽文件夹、屏蔽有规则的页面等;

4、如果你的这些页面是被黑页面,如果操作屏蔽抓取也不可行,建议还是提交死链,等待删除,蜘蛛抓取这些页面,返回码404,也是不会收录,也会主动去删除这些页面。

思思
思思 · 劳务派遣,劳务外包,人事代理,QQ2448907263

进来学习下

金泰福
金泰福 · 西安金泰福进口越野车、商务车、房车等!

好吧,不是很懂。学习学习了。

Professional十三少
Profe · 国内前十AA类评级期货公司为您[免费提供]综合类期货交易知识

我也学习一下

Planck
Planc · 寻线仪,网络测试仪,巡线仪

进来学习下

Disallow: /*

前面不用加域名

just
just · 零代码开发

你这个写法是可以的,但是如果是想直接禁止所有的动态页面可以这样写:

User-agent: *

Disallow: /*?*

遇见
遇见 · 铝镁锰金属屋面

百度站长工具后台,有Robots规则测试工具

知识丰富学到了

应该单独写吧,站长工具Robots写法,填进去就行了。

爱你
爱你 · 个人擅长百度贴吧霸屏+百度文库外链+seo优化

看楼上回答

A 0湖北楚胜汽车.谢非
A 0湖北 · 环卫洒水车、垃圾车、压缩式垃圾车、扫路车、清扫车等专用车销售

有点问题

蚂蚁机械
蚂蚁机械 · 蚂蚁机械_全自动真空吸料机_上料机【生产厂家】

错了Disallow: /*?

加载更多
SEO培训招生中
148