Robots

中文称:爬虫协议。简单说,robots.txt文件用于告诉搜索引擎哪些页面不被开放、禁止抓取。大多数搜索引擎公司都会自觉遵守该协议内容,一方面可以保护用户隐私数据,另一方面也可以通过此协议控制爬虫抓取范围,从事减少网站带宽。
相关话题
用户2
话题优秀回答者
1325 问题
558 浏览

网站后台文件需要限制蜘蛛抓取吗 Robots

每天查看日志发现抓取了很多后台文件,有的文件还是死链  需要限制吗?有的文件也添加到robots文件里的,但还是能抓取是什么缘故呢?……

526 浏览

robots 如何屏蔽大量死链 Robots

同一个目录中有大量死链,但不能屏蔽这个目录,里面还有内容,robots如何做到屏蔽。可以做个死链合集死链.txt,采用用Disallow: /死链.txt,去屏蔽死链.txt文件里面的死链吗。如果不行,有其他方法吗。……