在.htaccess屏蔽假冒百度蜘蛛IP没有用是什么原因?
order allow,deny
deny from 8.134.69.168
deny from 8.134.67.34
deny from 8.134.54.243
deny from 8.134.107.251
deny from 8.134.52.55
deny from 8.134.65.20
deny from 8.134.93.35
deny from 122.114.60.34
deny from 8.210.102.240
deny from 122.114.60.22
deny from 42.194.242.213
allow from all
写法就是这样,前天屏蔽的,结果今天来看网站日志,这些IP依然存在,丝毫没有改变,说没生效吧,我把本机IP写上去又访问不了网站了,到底是什么原因呢?这些假冒百度蜘蛛的IP要怎么干掉?
4 人参与回答
我的微信:sec_vip 等 1 人赞同该回答
Robots.txt设置啊,你是不是搞错了
我的微信:sec_vip 等 1 人赞同该回答
禁不禁都可以,没什么影响
我的微信:sec_vip 等 1 人赞同该回答
在Robots.txt设置不就好了
我的微信:sec_vip 等 1 人赞同该回答
蜘蛛是爬取又不是打开网页访问,你要禁止蜘蛛在Robots.txt里设置啊