16 人参与回答
推推蛙
用户144761 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
用户156223 等 1 人赞同该回答

1、是否能成功,可以先设置下,去百度站长Robots哪里测试,看是否封禁;

2、index?后面这种一般是站点被黑生成的大量页面;

3、你可以尝试操作下,看是否可操作,屏蔽操作不用特意写域名,屏蔽文件夹、屏蔽有规则的页面等;

4、如果你的这些页面是被黑页面,如果操作屏蔽抓取也不可行,建议还是提交死链,等待删除,蜘蛛抓取这些页面,返回码404,也是不会收录,也会主动去删除这些页面。

Disallow: /*

前面不用加域名

just
用户180087 · 零代码开发

你这个写法是可以的,但是如果是想直接禁止所有的动态页面可以这样写:

User-agent: *

Disallow: /*?*

遇见
用户138950 · 铝镁锰板

百度站长工具后台,有Robots规则测试工具

单独写把

应该单独写吧,站长工具Robots写法,填进去就行了。

爱你
用户159604 · 个人擅长百度贴吧霸屏+百度文库外链+seo优化

看楼上回答

A 0湖北楚胜汽车.谢非
用户157263 · 环卫洒水车、垃圾车、压缩式垃圾车、扫路车、清扫车等专用车销售

有点问题

冷却塔
用户33988 · 冷却塔

错了Disallow: /*?

呆萌好物@呆萌价
用户151247 · 帮语优惠券

User-agent: *
Disallow: /?

禁止所有搜索引擎抓取网站全部动态链接
如果只要禁止百度,在第一行:
后面修改为Baiduspider

如果要禁止干净可以再增加一项,然后修改为baiduspider

Robots 区别大小写字母