robots.txt协议拿掉之后,百度site之后的结果还是限制被robots.txt禁止抓取

247 次浏览

网站改版的时候加了robots.txt协议,禁止所有蜘蛛住区,但是现在放开之后,百度site之后的结果还是限制被robots.txt禁止抓取。是什么原因?

网络营销培训视频课程学习http://www.jiangcaikj.com

追加问题
    8 人参与回答
有我更美
有我更美 · 优选网:www.uguu.com
润羽优选 等 1 人赞同该回答

其实也没有了,只是百度还没有完全反应过来,需要时间的,我网站就是一样,优选网   https://www.uguu.com/

大唐营销老胡
大唐营销老 · SEO顾问服务 QQ交流:2371482842

百度没反应过来,过段时间再观察试试

玫莉蔻
玫莉蔻 · 玫莉蔻品牌微商城(17055885656)是专注女性玫瑰护肤化妆品平台;玫莉蔻诚邀你的加盟,一起创造属于女性的梦想事

需要时间吧,或者可以去提交一下

🐔 吧,渣渣百度蜘蛛,不遵守的,都屏蔽了天天抓,抓尼玛一个月了

感觉没有什么用 www.sud88.com

Clin
Clin · 个人网站菜鸟级站长,来搜外学习。

在百度站长的后台,Robots文件里,测试抓取就知道了。抓取成功那就证明没问题。就是百度后台对你网站展现的更新比较慢而已。

http://www.jiuyao66.com

纽格尔
纽格尔 · 行星减速机,交换权重相当同行业友链+QQ893910412记得备注→→→→→→→→→→→→→→→→→→→→→→→→→

等时间吧,这个百度要反应一下

信念
信念 · smt贴片加工

等几天就行了。 深圳smt贴片加工 www.rapidpcba.com    收录243  同行业的换链接呀。

 

回复问答禁止带推广链接,了解合理带链接的方法