16 人参与回答
推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
罗凌峰 等 1 人赞同该回答

1、是否能成功,可以先设置下,去百度站长Robots哪里测试,看是否封禁;

2、index?后面这种一般是站点被黑生成的大量页面;

3、你可以尝试操作下,看是否可操作,屏蔽操作不用特意写域名,屏蔽文件夹、屏蔽有规则的页面等;

4、如果你的这些页面是被黑页面,如果操作屏蔽抓取也不可行,建议还是提交死链,等待删除,蜘蛛抓取这些页面,返回码404,也是不会收录,也会主动去删除这些页面。

Disallow: /*

前面不用加域名

just
just · 零代码开发

你这个写法是可以的,但是如果是想直接禁止所有的动态页面可以这样写:

User-agent: *

Disallow: /*?*

遇见
遇见 · 铝镁锰板

百度站长工具后台,有Robots规则测试工具

单独写把

应该单独写吧,站长工具Robots写法,填进去就行了。

爱你
爱你 · 个人擅长百度贴吧霸屏+百度文库外链+seo优化

看楼上回答

A 0湖北楚胜汽车.谢非
A 0湖北 · 环卫洒水车、垃圾车、压缩式垃圾车、扫路车、清扫车等专用车销售

有点问题

冷却塔
冷却塔 · 冷却塔

错了Disallow: /*?

呆萌好物@呆萌价
呆萌好物@ · 帮语优惠券

User-agent: *
Disallow: /?

禁止所有搜索引擎抓取网站全部动态链接
如果只要禁止百度,在第一行:
后面修改为Baiduspider

如果要禁止干净可以再增加一项,然后修改为baiduspider

Robots 区别大小写字母

加载更多