robots屏蔽问题 悬赏1元 已结束
问下兄弟们像下面的链接 有没有比后面这个更简单点的写法 Disallow: /author-1.html
xxxxx/author-1.html
xxxxx/author-1_1.html
xxxxx/author-1_2.html
xxxxx/author-1_3.html
xxxxx/author-1_4.html
xxxxx/author-1_5.html
10 人参与回答
最佳回答
1、可以加*来代替所有的数值,看是否可屏蔽,如果屏蔽不了只能一个个屏蔽;
2、Disallow: /author-1_*.html
用户230942 等 1 人赞同该回答
可以使用通配符来实现对多个链接的屏蔽,如以下写法:User-agent: *
Disallow: /author-*.html
这个写法可以屏蔽所有以"author-"开头,以".html"结尾的链接,比如""、""等等。这样就不需要对每个链接都进行单独的屏蔽设置,可以提高效率和便捷性。
需要注意的是,在使用通配符时,应该尽量精确地进行匹配,避免误屏蔽其他合法的链接。同时,应该根据实际情况进行调整和优化,确保屏蔽规则的准确性和完整性。
直接放到一个文件夹里、然后屏蔽这个文件夹就行
同意大家的说法
推推蛙的回答是正确的。
楼上说得非常好
同意大家的说法
同意大家的说法
Disallow: /xxxxx 这样就行了