robots.txt 禁止了百度抓取指定连接没有作用,怎么处理?
<p>robots.txt 禁止了百度抓取指定连接没,但是每天还还是有大量的蜘蛛来抓取。各位大佬你们一般怎么处理的?<br></p>
蜘蛛需要反应时间
百度需要一定的反应时间
应该是有延迟,在等几天看看
可能是有延迟吧 晚点再看看 一般禁止之后就不会再去抓了
不行就反馈 有很多也是不让干的也干了
百度就是这样 根本就不遵守协议
Robots文件相当于网站告诉搜索引擎,那些是不爬取的,但是这种是单方面的。遵不遵循你的协议是不一定的。而且robots文件生效也是要时间的。
搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。
Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠“/”这两种表示是不同的URL,也不能用"Disallow: *.gif"这样的通配符。
其他的影响搜索引擎的行为的方法包括使用robots元数据:
这个协议也不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面