Robots

中文称:爬虫协议。简单说,robots.txt文件用于告诉搜索引擎哪些页面不被开放、禁止抓取。大多数搜索引擎公司都会自觉遵守该协议内容,一方面可以保护用户隐私数据,另一方面也可以通过此协议控制爬虫抓取范围,从事减少网站带宽。
相关话题
用户2
话题优秀回答者
1325 问题
1047 浏览

网站关键词排名优化的几个阶段 Robots 搜狗 竞价 排名

SEO关键词优化能让网站在搜索引擎上有更好的排名。让更多的用户都能快速的查找到自己的网站关键词。为了让更多的人了解详情,下文浅析关键词SEO优化的三个阶段第一阶段:网站分析阶段我们要学会总结和分析,分析文章不收录的原因,分析网站外链无效的原……

1044 浏览

robots.txt的问题 Robots

robots想禁止admin.xxx.com这种域名的话,是不是:Disallow:admin.xxx.com就好了百科上说是这个,但不太懂什么意思:Disallow: /admin/ 后台管理文件想把robots.txt这块加上去,但后台……

1041 浏览

robots的写法问题 Robots

我网站的导航分类结构是:www.xxx.com/abc  这样的,那么我robots应该写作:Disallow: /abc 还是 Disallow: /abc/  ?……

1025 浏览

这样的日志分析有问题吗?? Robots PHP JS 404

<p>用好格拉日志分析   这里是这样显示的     404的都是图片    这样的日志分析结果有哪些问题呢  谢谢大家指正</p><p>要不要将JS     PNG  JPG     PHP   这些都……

1023 浏览

网站改版,蜘蛛为什么还会抓取一些不存在的目录和链接。 Robots 网站日志 网站改版

网站改版了一个多月,并且换了新的服务器。最近看网站日志,发现百度蜘蛛还会抓取一些之前的目录和链接,像之前的目录在新的服务器上已经完全没了入口,之前的链接基本全部提交了死链,甚至robots也做过一些限制。但是还能看到蜘蛛抓取这些,这种问题来……

1022 浏览

网站建二级域名与主域名指向同一个程序,主域名会被分掉权重吗 Robots 二级域名 竞价

如题,为了区分竞价来的线索和自然流量线索,我想将网站建一个二级域名,新建的二级域名与主域名都指向同一个网站,然后在robots中设置disallow禁止蜘蛛抓取这个二级域名,这个新建出来的二级域名会影响主域名的权重吗?……

1016 浏览

百度蜘蛛是怎样判断网站质量好坏的呢? Robots 淘宝 PV 视频

百度蜘蛛是如何判断网站的好坏呢?下面和超级排名系统小编一起往下看。一、高质量内容。我想“原创”这个词语估计已经深深的扎根于广大站长的心里,那这里为什么我不说“原创”而说“高质量”?在小编看来,很多站长肤浅的认为,只要是网站打开速度快,原创内……

1014 浏览

购买的老域名建站,有之前的url抓取,要怎么处理? Robots 404页面 404 索引

买了一个老域名建站,这个域名以前发过很多外链,但是发的基本都是栏目页和内容页的外链,现在通过网站日志发现蜘蛛通过这些以前发的外链爬到网站,但是这些栏目页和内容页都不存在了,所以导致蜘蛛每次爬过来都是404页面。这种情况要不要向搜索引擎提交下……

1013 浏览

请问蜘蛛大量抓取js和css文件,用robots屏蔽会不会对网站造成影响 Robots JS

rt,最近检查蜘蛛日志,发现js和css文件的抓取词数已经是主力目录的接近五倍了,请问我这里如果屏蔽掉这些文件抓取的话,会不会影响到蜘蛛对页面样式的读取,如果不屏蔽的话,后续会不会影响收录,多谢各位大神。……

1012 浏览

大神帮忙看看robots写的对不对 Robots

页面url为:http://www.xinshouyou.com/attache/xiazai9652/我的robots写法为:Disallow: /*/xiazai*/但是蜘蛛依然还在爬取收录此类型的URL,有大神帮忙看看么……

1011 浏览

使用光年日志分析系统理解与疑问 推荐热议 Robots Site 代码 索引

1,在概要分析中;访问次数指的是分析日志文件数据内时间段 引擎蜘蛛访问网站的次数吗?总抓取量则是该时间段引擎蜘蛛爬取网站页面链接的数量?那么,我在robots.txt设置了sitemap.txt 文件代码,sitemap.txt 文件里提交……