搜外网>搜外问答>问答页面

做SEO优化的过程中为什么那么注重robots.txt?

SEO优化的过程中为什么那么注重robots.txt?

追加问题
    15 人参与回答
公司注册郭小贺 等 1 人赞同该回答

文件是一个纯文本文件,可以告诉蜘蛛哪些页面可以爬取(收录),哪些页面不能爬取。SEO优化蜘蛛在爬去网站页面之前,会先去访问网站根目录下面的一个文件,就是Robots.txt。

有些东西收录了 还不是没什么用  直接告诉蜘蛛哪些页面不重要 你可以不用来了   就是这个意思 

三郎
三郎 · 南京车位涂鸦

只是优化的一部分,不存在重不重视的问题。

因为Robots可以告诉蜘蛛哪些页面不要抓取,哪些页面可以抓取。

E+
E+ · 亚克力展示制品

文件是一个纯文本文件

孙稳兵
孙稳兵 · 智慧消防,智慧用电厂家

什么后台啊  啥的就不要让百度收录

告诉蜘蛛该干啥 不该干啥

香港服务器租用
香港服务器 · 磐石云天海外服务器 香港服务器租用 美国服务器租用 香港站群服务器租用

可以告知蜘蛛引擎去抓取哪些内容  比较快捷 

Robots告诉搜索引擎,哪些爬取,哪些不爬取。一方面你的网站上有些是不需要爬取的,另一方面,来网站爬取的蜘蛛是非常有限而且很贵的,所以不要浪费在不需要爬取的地方

BLIZZARD
BLIZZ · 篮球架、硅PU篮球场、网球场等体育场馆集成供应商

那么哪些页面是不需要蜘蛛爬行的呢?我感觉我的网站全需要爬行的

公司注册郭小贺
公司注册郭 · 公司注册 代理记账 资质审批 国企挂靠 北京车牌 保定花店 I3Z-4OII-99I3

这么专业的术语 我这个小白都不知道什么意思

它可以避免很多不必要的页面给展示出来

SEO培训招生中
189