如何用robots屏蔽百度图片蜘蛛?屏蔽Baiduspider-image根本就没用啊 悬赏1元 已结束

原本的robots规则是这样的:


User-agent: Baiduspider
Disallow: /UserFile/
Disallow: /Userfiles/
Disallow: /Userfiles/ProductInfo/
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$

是对Baiduspider-image进行屏蔽的,屏蔽了抓取图片文件夹和抓取所有格式的图片。然并卵,根本没用。baiduspider-image该怎么抓取还是怎么抓取,反馈给站长平台,他告诉我要去手动更新下,我真是醉了。。。我等它生效等了5-6天,压根没卵用!


然后修改成这样:


User-agent: *
Disallow: /UserFile/
Disallow: /Userfiles/
Disallow: /Userfiles/ProductInfo/

User-agent: Baiduspider-image
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


请问,修改成这样,百度会生效吗?我只想屏蔽百度图片蜘蛛,百度的网页蜘蛛还是可以抓取图片的。如果我进行了这样的屏蔽,baiduspider还能够抓取到图片中的alt标签吗?

追加问题
    3 人参与回答
柳海
柳海 · 80后,SEO/SEM爱好者,V信:hai-world

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片。

刘振勇
刘振勇 · wsjpg纹身图案

你设置错了,正确的的应该是:
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
1元
获得赏金
小小爬虫
小小爬虫 · 孜孜不倦的网络爬虫,SEo、SEm丨终极追逐、践行与学习者!

百度蜘蛛需要有一段时间的缓冲期, 不是设定以后就生效的。   如果规则是对的,就耐心的等待一个更新周期。