14 人参与回答

就这种吧应该的

Robots这个最好是要有的,是用来告诉搜索引擎哪些可以抓取

十六夜
十六夜 · 气象站-气象监测传感器-农业观测站设备-全自动气象站

你这个屏蔽的是不是太多了啊,正常来说没这么多啊

Robots就是你网站给蜘蛛定的规矩,告诉蜘蛛哪些页面能抓,哪些页面不能抓。disallow后面才是禁止的,比如一些你不希望蜘蛛爬取的页面,可以用这个规则告诉蜘蛛别去抓。

正常的,可以正常抓取不影响

这个是正常的,没有问题

PE管厂家
PE管厂家 · pe管生产厂家18956729555,专业生产pe给水管、钢丝网骨架复合管、mpp电力管、燃气管、ppr管

Robots txt是个文件,文件里可以禁止蜘蛛访问,也可以不禁止访问。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
如果没有这个文件,默认蜘蛛是可以直接访问的!

杭州继保
杭州继保 · 微机保护行业

肯定要有的啊

天天文库
天天文库 · 百科文档知识平台-天天文库

你添加在哪里,那么那个页面蜘蛛就抓不了

没有的话,等于什么都可以抓取

肯定要有的啊

MDL
MDL · 法律快车,权重6,友情链接QQ:1399332818

Robots只是个文件,主要看内容是什么

晴天33i
晴天33i · 新项目-24小时托管脚本游戏等,找我免费体验

Robots是一个文件,文件里的内容才是关键

推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo

1、网站Robots可以disallow屏蔽不想被蜘蛛抓取爬行的页面;

2、网站里面可以存在robots文件,不建议整站封禁屏蔽,不想被抓取收录的可考虑封禁。