做SEO优化的过程中为什么那么注重robots.txt?
匿名用户
文件是一个纯文本文件,可以告诉蜘蛛哪些页面可以爬取(收录),哪些页面不能爬取。SEO优化蜘蛛在爬去网站页面之前,会先去访问网站根目录下面的一个文件,就是Robots.txt。
有些东西收录了 还不是没什么用 直接告诉蜘蛛哪些页面不重要 你可以不用来了 就是这个意思
只是优化的一部分,不存在重不重视的问题。
因为Robots可以告诉蜘蛛哪些页面不要抓取,哪些页面可以抓取。
文件是一个纯文本文件
什么后台啊 啥的就不要让百度收录了
告诉蜘蛛该干啥 不该干啥
可以告知蜘蛛引擎去抓取哪些内容 比较快捷
Robots告诉搜索引擎,哪些爬取,哪些不爬取。一方面你的网站上有些是不需要爬取的,另一方面,来网站爬取的蜘蛛是非常有限而且很贵的,所以不要浪费在不需要爬取的地方
那么哪些页面是不需要蜘蛛爬行的呢?我感觉我的网站全需要爬行的
这么专业的术语 我这个小白都不知道什么意思
它可以避免很多不必要的页面给展示出来
让更多人参与回答