Robots问题?这样写有没有问题?【听说标题长的问题回答的人就特别的多??】 悬赏5元 已结束

帝国的CMS默认的Robots

11


但是我看了一下,网站的源码,CSS和一些JS都在放D目录当中!

11

22


这样的话,也有收录,排名不够好!这个有没有影响?是否需要调整,怎么调整?

追加问题
    18 人参与回答
1元
获得赏金
亮健好
亮健好 · 亮健好药网-网上买药的正规网站!药品网,药房网请选亮健医药网!
xxy徐 等 1 人赞同该回答

本身蜘蛛不会抓取你的CSS和JS文件,没有关系

3元
获得赏金
yy 等 1 人赞同该回答

不用调整,这样就行了,因为即使你这样设置了,百度该抓取还是能正常抓取的所以正常优化就行了,站内站外做好就行了

山东环保设 · 混凝土砂石分离厂家,专业生产滚筒式、振动式、螺旋式、锥型、第四代、第五代砂石分离机,搅拌站专用15725380845

没毛病,,你看看我的砂石分离机网站就明白了

峰哥
峰哥 · 略懂SEO、略懂PHP、略懂Python的站长。v:xiaobu_lv_

没有影响,并不需要调整。

这东西写不写没啥关系

现在好像都不设置Robots

萤火虫吧
萤火虫吧 · 手机APP软件开发、人工智能、区块链。

没啥毛病

百度蜘蛛爬去CSS和JS包括后台,但百度蜘蛛是被设置过的它不抓取这些内容

陈昌辉
陈昌辉 · 河马英语

小站的话,不写都不要紧的。我以前写的,后来都删掉了

写不写无所谓的

H
Hit&R · 五年seo技术,喜欢建站、研究排名优化技术,欢迎互撩!

现在的百度蜘蛛精着呢,就算你写了disallow它还是回去爬取,事实上小站的话,写不写问题不大,不会有什么影响的。

橄榄绿叶 · 行星减速机,交换权重相当同行业友链+QQ893910412记得备注→→→→→→→→→→→→→→→→→→→→→→→→→

1、Robots的功能是为了节省蜘蛛的抓取时间;

2、一般企业站,用模板默认的即可,只要robots没有拒绝抓取网站内容页就ok;

3、一般情况下这个操作没啥影响,你要是想让蜘蛛抓取css,那就把拒绝d这个取消即可;

4、robots的重点是千万不要disallow你想收录和爬行的页面。

正解

推推蛙
推推蛙 · 推推蛙擅长SEO网站优化、竞价账户调整、网站建设、全网优化、新媒体营销、品牌策划

1、Robots的功能是为了节省蜘蛛的抓取时间;

2、一般企业站,用模板默认的即可,只要robots没有拒绝抓取网站内容页就ok;

3、一般情况下这个操作没啥影响,你要是想让蜘蛛抓取css,那就把拒绝d这个取消即可;

4、robots的重点是千万不要disallow你想收录和爬行的页面。

行星减速机 · 行星减速机品牌厂家

不需要调整的

1元
获得赏金
崔家大院
崔家大院 · 网站诊断、建站、快速排名 qq:787808565

用默认的就行

加载更多