Robots

Robots

中文称:爬虫协议。简单说,robots.txt文件用于告诉搜索引擎哪些页面不被开放、禁止抓取。大多数搜索引擎公司都会自觉遵守该协议内容,一方面可以保护用户隐私数据,另一方面也可以通过此协议控制爬虫抓取范围,从事减少网站带宽。
相关话题
夫唯
话题优秀回答者
1314 问题
2192 浏览

怎样才知道网站被收录的页面是哪些页面呢? Robots Site

如果用site去百度查的话,一个一个页面去翻比较麻烦,主要是想知道哪些栏目收录比较多,哪些栏目收录比较少,这样能查的话,这样的话就知道哪些栏目页质量不行,就直接在robots里禁止收录这个栏目。  ……

2165 浏览

网站改版之后不收录 Robots 网站日志 伪原创 404

网站改版之后除了首页的快照跟新是当天的,其他的文章页,内页基本不怎么收录,内容是伪原创,质量度不错。网站日志总是报一些老服务器的404错误(已经在robots禁掉了还是会报),这个究竟是什么问题,大佬帮忙看看“www.danceland.c……

2126 浏览

网站多余html页面应该怎么屏蔽? 推荐热议 Robots Site 404 内容

<p>网站根目录有多个html页面,都是以前旧版网站的内容,现在这些页面都没什么用了,但是百度上有收录,担心权重被分散,需要搞301跳转吗?还是需要在robots写一条规则<span>Disallow: /*.htm……

2125 浏览

国庆后百度各种问题,大家遇到了么? Robots 网站排名 抓取频次 排名

1.网站排名收录蹭蹭的掉2.移动专区天级提交,一直提示“未能抓取成功,请检查网站服务器是否正常.”3.搜索资源平台:每周200次抓取诊断功能用不了4.搜索资源平台:抓取频次不更新5.搜索资源平台:robots检测功能无效。。。。。。。。。。……

2073 浏览

网站上线6个多月了,大部分关键词有排名了,现在主要是怎么排到前面几个页面去? Robots Site 索引量 WordPress

网站做的还行,我自认为还可以,企业网站中做的还行的吧,自己PS的,写的代码,系统是wordpress。上线半年了,终于在这个月有关键词排名了。域名都是新的,没买旧的,一切都是从头做起。网站关键词竞争真的挺大的,面对的是全国对手,虽然公司业务……

2060 浏览

网站有毒吗,竟然没人换友链??? Robots 站群 二级域名 老网站

我的网站,www.21tb.com    老网站了,只不过没怎么做优化,现在想优化起来,却发现没人愿意交换友链....弄了2500个二级域名,但都做了robots,不存在站群惩罚啊。想请教大神,网站还有哪些地方需要规避降权的地方。……

2054 浏览

时隔一个多月,终于好起来了。 推荐热议 Robots 网站日志 Site 文章

网站一个多月前改版,改版前site有100多条收录,当时没在站长平台提交改版规则,网站改版后site只能查到首页,坚持每天定时定量更新,在第二个星期,site出来的全部是改版前链接,全部都是死链,只放出来30多个,然后马上去站长工具提交死链……

2001 浏览

robots.txt怎么屏蔽临时域名?写法应该怎么写? Robots 百度快照 301跳转

我的网站临时域名被百度收录了,搜录的临时域名只有网站首页1个页面。而且权重和点击要比主域名靠前很多。我已经做了301跳转2个月了,现在百度快照左边的链接显示还是临时域名的链接。所以我想在robots中把临时域名屏蔽掉,这样过一段时间百度不收……

1973 浏览

交换友情链接必须知道的8个注意事项 Robots Nofollow JS 排名

  交换友情链接在网站运营中是必不可少的。搜索引擎蜘蛛对网站的友链也很看重。但很多网站运营新手在交换友链时却不知道该注意什么。小编认为,交换友链时如果不知道应注意什么,随意交换,那么很可能会影响到网站的收录情况,甚至可能会导致网站降权或被K……

1964 浏览

同一网站绑定两个域名,一个做seo,一个做sem Robots SEM

网站准备做sem,必须使用代理商提供域名,且不能做301。这种情况下,我打算让网站绑定两个域名,一个我们自己的域名,一个代理商域名。自己域名正常做优化,代理商域名用robots屏蔽掉,这样操作可以吗?会影响到seo吗?……

1916 浏览

网站重新改版,收录慢,我们来骂骂百度好不好 Robots JS 熊掌号 内容

www.58fmjs.com才接手的网站,10天了吧,把以前收录的20几个页面用robots屏蔽了(内容不在一个服务器),重新建站加填充内页,基本上是完善了,熊掌号也弄了,每天也用api推送,就是不收录,好嗨哟,感觉人生已经到达了巅峰。……

1900 浏览

robots用法怎么禁止抓取一个链接 Robots

一个外链xxx转换成内链https://www.某某某.com/go/zw想要禁止抓取这个内链在robots.txt里写Disallow: /https://www.某某某.com/go/zw写法正确吗?……