Robots

中文称:爬虫协议。简单说,robots.txt文件用于告诉搜索引擎哪些页面不被开放、禁止抓取。大多数搜索引擎公司都会自觉遵守该协议内容,一方面可以保护用户隐私数据,另一方面也可以通过此协议控制爬虫抓取范围,从事减少网站带宽。
相关话题
用户2
话题优秀回答者
1325 问题
834 浏览

robots的链接太多怎么办? Robots

robots的链接太多,不能直接限制目录,要限制链接吗?robots文件内容过多,会影响百度抓取吗?……

823 浏览

paper写作网站的robots文件怎么写? Robots

在使用谷歌页面分析工具的时候显示我的paper写作网站有robots错误,我去查看文件才看到没有这个文件。想问问大家这个robots文件应该写哪些内容呢?……

822 浏览

蜘蛛一直抓取之前未改版前的链接,造成一大堆死链,要如何处理 数据库 Robots WordPress 代码

<p>网站改版快一年了,之前是用WordPress建站,后面代码给改了,是去年3月份改版的,到现在已经快一年了,从站点日志里面看到蜘蛛一直在抓取旧站链接,也有整理过一大堆死链提交了,也在robots里面禁止蜘蛛爬行,但是蜘蛛还是……

821 浏览

百度蜘蛛长时间不来网站怎么处理? Robots 引蜘蛛 百度蜘蛛

我也检查了robots.txt没有任何问题,没有屏蔽蜘蛛怎么蜘蛛完全不来网站了,长时间未来网站特别担心,是什么原因为什么蜘蛛不来访问网站,一个星期一次蜘蛛的痕迹都没有,究竟怎么回事为什么蜘蛛不来了,有什么办法可以引蜘蛛?……

820 浏览

关于robots的骚操作带来一个血的教训 Robots 百度知道

前几日发现很多国外的垃圾蜘蛛,还有bing msn等等这些蜘蛛来我网站特别的多,所以就想着把垃圾蜘蛛给屏蔽掉,User-agent:AhrefsbotDisallow: /但他娘的一时不慎,把这行复制在了robots文件的最后面,放上去后忘……

819 浏览

sitemap.xml抓取失败,怎么解决,求帮助 Robots Site DNS

<p>其他的一切正常,robots 也没做什么限制,抓取测试pc和手机都是正常的,但是一直<span>就这个网站的sitemap.xml抓取失败,dns解析ip那里是我以前一个服务器,这个很早就没有用这ip了,这个情……

816 浏览

新站抓取频次太低 收录慢怎么破 Robots Site Sitemap 文章

<p>这个星期接手了一个上线有两个月的新站优化工作 期间不断的提交链接 抓取诊断 更新sitemap文件 发外链 更新文章(不过是每天一篇 高度原创)但是到现在才收录了一个首页 抓取频次5个以内 这样下去 要优化到啥时候啊 新站……

814 浏览

屏蔽蜘蛛后百度站长平台仍然能正常抓取????? Robots 站长平台

前段时间进行了网站迁移,可是我忽视了一个事情我之前是有两个网站解析到一个域名上面,因为怕一些事情就吧这个网站下面的Robots给屏蔽了,这次网站迁移没有配置这个 ,我就一直好奇,为啥我的蜘蛛一直是0。也查了很多东西都不知道,然后百度站长平台……

812 浏览

想问下取消禁止抓取需要多久生效 Robots 网站日志

<p>我之前网站没弄好的时候在robots.txt加了Disallow:/禁止搜索引擎抓取。网站做好之后就取消了。但是现在都过去一个月了为什么还没收录啊。是不是取消得过一段时间才能生效。网站都做好一个多月了。百度一次也没来抓取。……

811 浏览

网站有大量404 页面 已经提交了百度死链 看着百度反馈成功了,robots 文件是否还有屏蔽的必要 Robots 404

网站有大量404 页面 已经提交了百度死链 看着百度反馈成功了,robots 文件是否还有屏蔽的必要,现在看蜘蛛每天还在爬 404 页面,到底要不要做robots 屏蔽呢,屏蔽的话 对蜘蛛有没有影响。如果屏蔽的话,几千的404 也会导致ro……

811 浏览

百度抓取失败 Robots

百度站长抓取诊断,首页和目录抓取成功,内容页抓取失败,robots.txt没问题,有知道什么原因吗?……

806 浏览

复制内容如何让搜索引擎快速收录呢? Robots 淘宝 Site 索引

像淘宝,天猫都是用robots.txt协议禁止搜索引擎抓取收录。这样的话我把淘宝天猫的产品及产品介绍详情复制出来,放到自己网站上。测试过是收录的,就是收录量太少,我用的Wordpress程序做网站,而且基本的seo也会去做,sitemap也……