4 人参与回答
天行健咨询
天行健咨询 · 精益生产管理与六西格玛管理咨询,培训机构

一般情况下,Robots.txt变更之后,仍然显示封禁的状态可能是这个文件存在一定的缓存,但对于SEO运营而言很多SEO小伙伴并不清楚怎么更新页面缓存。
特别是一些虚拟主机,因此我们统一建议大家简单粗暴,停止关机,重启服务器。
在查看是否得到解决。
如果有CDN服务的,一定要在CDN更新这个文件。
反馈给百度搜索资源平台
如果上面那个方法你已经使用过了,还是存在这个问题,那么我们建议你等几天,看看百度搜索资源平台是否更新,如果实在还没有解决,直接反馈给官方。

海阔天空
海阔天空 · 315防伪标签办理中心-全国315产品防伪查询中心

这种情况应该百度后台咨询一下

百度上找一下,就有答案了

是不是Robots.txt文件里禁止百度蜘蛛抓取了