一般情况下,Robots.txt变更之后,仍然显示封禁的状态可能是这个文件存在一定的缓存,但对于SEO运营而言很多SEO小伙伴并不清楚怎么更新页面缓存。 特别是一些虚拟主机,因此我们统一建议大家简单粗暴,停止关机,重启服务器。 在查看是否得到解决。 如果有CDN服务的,一定要在CDN更新这个文件。 反馈给百度搜索资源平台 如果上面那个方法你已经使用过了,还是存在这个问题,那么我们建议你等几天,看看百度搜索资源平台是否更新,如果实在还没有解决,直接反馈给官方。
这种情况应该百度后台咨询一下
百度上找一下,就有答案了
是不是Robots.txt文件里禁止百度蜘蛛抓取了
让更多人参与回答