搜外网>搜外问答>问答页面

在robots中写了Disallow后,依旧被爬是什么原因呢?

<p>我半年前在robots中就写入了Disallow: /a</p><p>但是今天我看2019年7月24日 日志中,依旧有很多/a下的地址被爬了,而且还返回404,这是怎么回事?</p><p>如图:</p><p><br></p>

追加问题
    4 人参与回答

百度是遵守这个协议的,但是蜘蛛只是在抓你网站的时候遇到网址不顺着往下抓,在站外遇到这个链接还是会爬的

飞小度就是我
飞小度就是 · 仓储货架源头厂家,支持定制,免费设计方案

不是你的问题,这个协议是君子协议,你可以高速各大搜索引擎不要去抓取,但是它如果非要爬行抓取谁也没办法的

万物皆有灵
万物皆有灵 · 同步带轮

检查下是你写错了还是蜘蛛不遵守规则了

唯爱シ念流年
唯爱シ念流 · 买网店,上猫元素!买卖网店便捷、安全、交易放心的电商综合性服务平台

我的有时候也出现这个问题