Robots

Robots

中文称:爬虫协议。简单说,robots.txt文件用于告诉搜索引擎哪些页面不被开放、禁止抓取。大多数搜索引擎公司都会自觉遵守该协议内容,一方面可以保护用户隐私数据,另一方面也可以通过此协议控制爬虫抓取范围,从事减少网站带宽。
相关话题
夫唯
话题优秀回答者
1314 问题
1056 浏览

蜘蛛只抓取robots.txt Robots

为什么我网站的蜘蛛只抓取robots.txt和内页。。。不抓取首页.... 有大佬遇过这问题吗。。。没……

1313 浏览

2个域名同时绑定到一个网站,请问如何屏蔽搜索引擎 Robots

2个域名同时绑定到一个网站,我想让搜索引擎只收录其中一个,请问怎么写robots实际情况是:A域名被微信屏蔽了,所以重新加了一个B名,但是我在外宣传都是A域名,seo也做的A域名,A域名在微信暂时还没申诉成功。所以我2个域名都能单独访问,但……

1649 浏览

请问有没有大神知道如何用Robots文件禁止百度蜘蛛抓取异常链接? Robots 抓取异常 404

<p>是这样的一个情况,我每次提交404死链的时候,我都会发现有一个异常链接,而这个链接是跟在我的域名后面的,我不知道为什么递交了好几次404死链,删除了,要不了了解就又有了,我查询过那个域名是一个养鱼的网站,于是我被百度反馈,……

4012 浏览

多个sitemap如何写在robots.txt里 Robots Site

网站内页7000+,制作sitemap后生成了多个文件:sitemap.xml、sitemap1.xml、sitemap2.xml....这种情况下怎么写到robots.txt里呢?赴美生子 https://www.mifubaobao.c……

1887 浏览

seo新手入职半个月,我靠实力当上了主管 Robots 排名 代码 文章

<p>我们团队只有4个编辑人员,我是其中一个,没有专门负责seo的,按老板的话就是大家虽然都是编辑,但是编辑就是做优化,所以大家都是干优化的事,没有主管,每天发完10篇文章就完事了,由于我也不太懂seo,看到一篇文章说在robo……

793 浏览

robots.txt 这样配置是不是错的 Robots

我的网站www.daimjia.cn[?]前几天添加了robots.txt文件, 因为我自己不懂写,然后在一个在线配置robots的网站生成了一个,我的目的是想把谷歌的蜘蛛禁了。。但是这几天所有的蜘蛛几乎都不来了,能帮我看下是不是这个配置的……

863 浏览

robots写法怎么写对? Robots

请问大佬们,网站的robots要怎么写对?还有 查看网站的robots文件如何查看?高手指教了。

1553 浏览

老铁们 ,你们的网站后台是如何禁止蜘蛛抓取的? Robots Site

最近发现我的网站后台的登录页面也让蜘蛛抓取了!一直想屏蔽掉但是没有合适的办法:写进robots.txt吧 ,稍微懂点的同行就能直接看到网站后台!      不写吧,时间长了就被蜘蛛抓取了,只要一site就出来了!老铁们,给个建议,你们有什么……