30 人参与回答

蜘蛛需要反应时间

百度需要一定的反应时间

应该是有延迟,在等几天看看

可能是有延迟吧 晚点再看看 一般禁止之后就不会再去抓了

用户201383 · 气象站-气象监测传感器-农业观测站设备-全自动气象站

估计需要等一段时间才可以禁止

用户172288 · 法律快车,权重6,友情链接QQ:1399332818

等几天看看生效没

用户194940 · 客套企业名录,内置1亿+企业名录线索库,轻松开拓企业客户。

可能是有延迟吧 晚点再看看 一般禁止之后就不会再去抓了

用户157170 · AA1718网络游戏交易平台,提供国内外手游交易、游戏装备交易、网络游戏帐号交易、担保游戏币交易、担保游戏金币交易

索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件Robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

不行就反馈 有很多也是不让干的也干了

百度就是这样 根本就不遵守协议

用户137963 · 专业的ERP定制开发、小程序开发、软件外包、软件开发服务商, 定制化开发服务, 擅长小程序开发,微商城开发,PHP项

生效也是需要时间的,过几天再看看

用户159126 · 专业的有问必答平台

设置后有生效时间的,别急,等等看

用户172122 · 素材网,网站模板,网站素材,视频教程,sucaipro。com

坚持更新内容,新站有个过程的。急不来。

用户112001 · 器物有魂

没啥用 这个不是100%管用的

用户193513 · 人工智能视觉识别_AI场景化方案服务商

Robots文件相当于网站告诉搜索引擎,那些是不爬取的,但是这种是单方面的。遵不遵循你的协议是不一定的。而且robots文件生效也是要时间的。

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。
Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠“/”这两种表示是不同的URL,也不能用"Disallow: *.gif"这样的通配符。
其他的影响搜索引擎的行为的方法包括使用robots元数据:

这个协议也不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面

用户202556 · 专业一体化污水处理设备、溶气气浮机源头厂家!

可能蜘蛛需要反应时间吧..

用户183845 · 星雅图顶墙定制,集成墙面,集成吊顶原材料厂家(不含施工)

Robots禁止了百度抓取 就不要管了 他生效需要时间

生效需要时间,过几天你在看看

用户210283 · JAY资源网-免费源码分享

在加Nofollow标签,等待

robotx禁止抓取了,可以多了解了解

试试加加Nofollow标签看看吧

用户179092 · 上海沈泉泵阀公司

生效需要时间,若是等了很久百度还是这么流氓的话,那就去反馈下

不会啊,这不可能啊

robotx禁止抓取了,可以多了解了解

用户144761 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo

1、Robots已封禁,真的蜘蛛是不会去抓取爬行;
2、大量蜘蛛去抓取,那么真实的百度站长抓取频次如何,也是大量的抓取频次吗,可以对比参考下。
ps:已封禁屏蔽,正常优化即可

Robots禁止了百度抓取,不排除通过其他渠道仍然可以访问

用户118646 · 泰海科技12年服务经验,专注于服务器租用

百度所有的操作都需要一定的时间才能生效

用户148171 · 浙达精益,专注致力于磁致伸缩位移传感器

Robots并非是百分百禁止抓取的哦,

用户188605 · 网站权6,友情链接QQ:2544424184

Robots只能屏蔽掉自动到本网站进行爬取的蜘蛛,如果你的某个页面在站外其他地方有留下外链的话,蜘蛛还是通过外链访问某个页面。并且百度并不一定能百分百遵守这个robots协议,还是会存在一些误差,导致蜘蛛依然来爬取。

用户195267 · 奈斯导航为广大网民精心筛选、整理国内外各类优秀的网站大全,各位站长可以免费提交收录。==》

生效需要时间,建议你可以到百度统计,百度站长平台等主动更新Robots