搜外网>搜外问答>问答页面

robots.txt必须要做吗? 悬赏3元 已结束

网站之前做过robots.txt,但是后来不知什么原因被技术删掉了,现在从百度里面检测显示的是404。请问没有robots.txt行不行?百度官方说:如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。那么不建立可以吗?会有什么影响吗?

追加问题
    31 人参与回答
最佳回答
用户35508 · 超级蜘蛛池-超级蜘蛛工具-SEO批量查询工具-蜘蛛池出租平台
用户196011 等 1 人赞同该回答

Robots.txt纯文本文件,网站管理员可以在这里声明该网站不想robots访问的部分,所以robots优化直接影响着搜索引擎对网站的收录情况;

②robots.txt必须放置在一个站点的根目录下,并且文件名必须全部小写:;

超级蜘蛛池之robots的优化

③就算你的网站全部内容都可以被搜索引擎收录,那也要写个空的robots.txt;因为有的服务器的设置会使没有robots.txt的时候返回200状态码和相应的错误信息;

用户127110用户196011 等 2 人赞同该回答

没有什么特殊要求外,没必要做

用户90441 · 网站诊断、建站、快速排名
用户127110用户196011 等 2 人赞同该回答

加上Robots 可以屏蔽一些目录  也可以提高安全等级  屏蔽一些没有必要的目录参与排名

用户107998 · 新媒体运营
用户196011 等 1 人赞同该回答

没有也没太有事,可有可无!

用户196011 等 1 人赞同该回答

弄一个好点

用户196011 等 1 人赞同该回答

这个无所谓的,如果会做就加上,不会就不加,没啥影响

用户196011 等 1 人赞同该回答

这个建议是弄一个

用户196011 等 1 人赞同该回答

没有也没太有事   有只不过告诉哪些可以抓哪些不能抓   有的时候仍然抓   

用户196011 等 1 人赞同该回答

最好做

用户196011 等 1 人赞同该回答

看需求要不要了,不会导致404

用户174744 · SEO萌新Q2728588123
用户196011 等 1 人赞同该回答

我觉得还是做一个比较好

用户196011 等 1 人赞同该回答

Robots肯定是有作用的,但是针对你的网站需不需要去做就根据自身情况来定啦,一般大型网站都是必须的

用户142098 · seo小学生
用户196011 等 1 人赞同该回答

没有说必需做,只是做了会更好而已,而且也不是说做了蜘蛛就真的不爬你disallow的路径

用户175934 等 1 人赞同该回答

Robots文件就是给蜘蛛指路的,告诉它抓哪里的页面,不抓哪里的页面,如果网站不大,没有不想被抓取的页面,也可以不做

写一个好

用户176765 · 百科创建 百科修改 问答营销 新闻营销 软文营销

最好做一下

用户142261 · 新手历程

建议做

用户149592 · 从业三年半的seo技术人员,QQ号:766363590(可交流)

加上Robots 可以屏蔽一些目录  也可以提高安全等级  屏蔽一些没有必要的目录参与排名

用户171553 · 专注钢管行业SEO服务

没有的话也行,有的话最好了!


用户148897 · 给别人做个利于seo优化的网站,关键词分析和布局,小杨

Robots必须要做的,它好比给蜘蛛带路,哪些可以抓,哪些不可以,不让它乱窜

  1. 1.没有Robots.txt,蜘蛛爬行的时候会返回一条404.所以说有robots.txt一定比没好,哪怕robots.txt是空的。
  2. 可以屏蔽很多不必要抓取的东西,既节省蜘蛛爬行时间,提升效率,又规范蜘蛛的爬取内容。
  3. 可以放Sitemap,有个地方可以做全站链接,还是好的。

建议还是做吧。

没有的话也行,有的话最好了!

用户426 · 网络营销2008年起,擅长整站优化及整合营销!

Robots.txt这个文件是可以不做的,有的网站如果目录比较多的话,会给网站带来一定的影响。做为网站来说,我们的整个网站内有许多的目录,比如网站的后台目录、数据库目录等,一些没有必要在前台显示的,有时候,如果没有Robots.txt的限制的话,这些页面有的时候也会被搜索引擎爬取到,并且有的页面可能会被收录。写robots.txt的目的是告诉搜索引擎你的网站哪些目标是让收录爬取的,那些是不让搜索引擎爬取的,也就是给搜索引擎一个规范,按照我们写的规范去进行爬取。如果你网站内,网站的内容与程序的内容不在一起并且想让整个网站都收录的话,是可以不写robots.txt文件的。如果有一些数据不想让爬取,那就需要写一下。

用户105642 · 国外纪录片资源分享,点右边

大部分网站都不加的

用户131557 · 一个做网络营销的闲人

Robots可以让网站更安全一些,也可以节省比较多的蜘蛛资源,一般如果不设置会有很多爬取JS/PHP等文件的记录,而且百度会收录你的会员登录端口链接、你自己的后台登录端口链接等,所以建议还是做一个比较好

用户144761 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo

1、建立Robots主要是为了屏蔽蜘蛛抓取不想被抓取的文件,节省蜘蛛的爬行时间;

2、如果你的站点蜘蛛一般抓取的都是网页,而非抓取其他页面,那么设置不设置没有太大的关系;

3、只要你蜘蛛抓取正常快速,不影响你的收录就ok;

4、大多数网站使用robots是模板中的默认的。

如果你有要禁止抓取的东西还是做一下比较好

用户176052 · 办理防爆认证 防爆合格证 防爆CCC认证 CSA认证

没有也是可以的,有更好

其实个人感觉没有多大作用,我反正是没有做

用户171429 · 捏呀捏超轻粘土厂家

不加Robots也是可以的,只是加上了以后会可以禁掉一些不需要搜索引擎抓取的东西,微乎作用

加载更多