搜外网>搜外问答>问答页面

在.htaccess屏蔽假冒百度蜘蛛IP没有用是什么原因?

order allow,deny
deny from 8.134.69.168
deny from 8.134.67.34
deny from 8.134.54.243
deny from 8.134.107.251
deny from 8.134.52.55
deny from 8.134.65.20
deny from 8.134.93.35
deny from 122.114.60.34
deny from 8.210.102.240
deny from 122.114.60.22
deny from 42.194.242.213
allow from all


写法就是这样,前天屏蔽的,结果今天来看网站日志,这些IP依然存在,丝毫没有改变,说没生效吧,我把本机IP写上去又访问不了网站了,到底是什么原因呢?这些假冒百度蜘蛛的IP要怎么干掉?

追加问题
    4 人参与回答
三九问答
三九问答 · 专业的有问必答平台
我的微信:sec_vip 等 1 人赞同该回答

Robots.txt设置啊,你是不是搞错了

我的微信:sec_vip 等 1 人赞同该回答

禁不禁都可以,没什么影响

尚博思连锁管理系统
尚博思连锁 · 专业做美发、美容、养生、按摩、推拿、美甲行业收银系统
我的微信:sec_vip 等 1 人赞同该回答

Robots.txt设置不就好了

£小黎明
£小黎明 · SEO小白 →(大哥大嫂过年好——-▄█▀█●—-—帮小弟点一下回形针,感激不尽——-—▄█▀█●———☛☛☛☛☛
我的微信:sec_vip 等 1 人赞同该回答

蜘蛛是爬取又不是打开网页访问,你要禁止蜘蛛在Robots.txt里设置啊

SEO培训招生中
189