搜外网>搜外问答>问答页面

robots.txt 禁止了百度抓取指定连接没有作用,怎么处理?

<p>robots.txt 禁止了百度抓取指定连接没,但是每天还还是有大量的蜘蛛来抓取。各位大佬你们一般怎么处理的?<br></p>

追加问题
    30 人参与回答

蜘蛛需要反应时间

百度需要一定的反应时间

应该是有延迟,在等几天看看

可能是有延迟吧 晚点再看看 一般禁止之后就不会再去抓了

十六夜
十六夜 · 气象站-气象监测传感器-农业观测站设备-全自动气象站

估计需要等一段时间才可以禁止

MDL
MDL · 法律快车,权重6,友情链接QQ:1399332818

等几天看看生效没

企业名录大全
企业名录大 · 客套企业名录,内置1亿+企业名录线索库,轻松开拓企业客户。

可能是有延迟吧 晚点再看看 一般禁止之后就不会再去抓了

深圳博纳网络
深圳博纳网 · AA1718网络游戏交易平台,提供国内外手游交易、游戏装备交易、网络游戏帐号交易、担保游戏币交易、担保游戏金币交易

索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件Robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

不行就反馈 有很多也是不让干的也干了

百度就是这样 根本就不遵守协议

小鱼
小鱼 · 专业的ERP定制开发、小程序开发、软件外包、软件开发服务商, 定制化开发服务, 擅长小程序开发,微商城开发,PHP项

生效也是需要时间的,过几天再看看

三九问答
三九问答 · 专业的有问必答平台

设置后有生效时间的,别急,等等看

素材网
素材网 · 素材网,网站模板,网站素材,视频教程,sucaipro。com

坚持更新内容,新站有个过程的。急不来。

阿尔帕西诺
阿尔帕西诺 · 器物有魂

没啥用 这个不是100%管用的

边缘计算
边缘计算 · 人工智能视觉识别_AI场景化方案服务商

Robots文件相当于网站告诉搜索引擎,那些是不爬取的,但是这种是单方面的。遵不遵循你的协议是不一定的。而且robots文件生效也是要时间的。

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。
Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠“/”这两种表示是不同的URL,也不能用"Disallow: *.gif"这样的通配符。
其他的影响搜索引擎的行为的方法包括使用robots元数据:

这个协议也不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面

加载更多