<p></p>
就这种吧应该的
Robots这个最好是要有的,是用来告诉搜索引擎哪些可以抓取
你这个屏蔽的是不是太多了啊,正常来说没这么多啊
Robots就是你网站给蜘蛛定的规矩,告诉蜘蛛哪些页面能抓,哪些页面不能抓。disallow后面才是禁止的,比如一些你不希望蜘蛛爬取的页面,可以用这个规则告诉蜘蛛别去抓。
正常的,可以正常抓取不影响
这个是正常的,没有问题
Robots txt是个文件,文件里可以禁止蜘蛛访问,也可以不禁止访问。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。 如果没有这个文件,默认蜘蛛是可以直接访问的!
肯定要有的啊
你添加在哪里,那么那个页面蜘蛛就抓不了
没有的话,等于什么都可以抓取
Robots只是个文件,主要看内容是什么
Robots是一个文件,文件里的内容才是关键
1、网站Robots可以disallow屏蔽不想被蜘蛛抓取爬行的页面;
2、网站里面可以存在robots文件,不建议整站封禁屏蔽,不想被抓取收录的可考虑封禁。
让更多人参与回答