网站robots文件常规怎么设置? 推荐热议 悬赏3元 已结束
直接允许全部吗?
还是说有什么特殊目录需要限制?
# robots.txt generated at https://meimeifa.com/robots/
User-agent: *
Disallow:
31 人参与回答
其实也可以不用写
我的网站就没有写呢,
根据自己的要求进行设置就可以了
看你想要给蜘蛛抓取哪些页面,不给抓取哪些页面,不给抓取屏蔽掉就行了
如果都允许的话,不写就行了。
百度一搜,各种教程都出来了
其实不设置也没啥,设置也是把后台文件屏蔽一下
我一般都不管这个
一般不设置网站也爬的蛮好的
不会设置,就全常规就行了
如果不需要屏蔽什么,常规的就行
关于网站rebots.txt写法,网上很多啊
常规即可
常规的就行,
常规的就行,不想被抓取的可以屏蔽
问你们技术
常规的话就不用管即可
把你的FTP没必要的文件路径都屏蔽了就好,或者是百度抓取的链接 你觉得没啥意义 也可以直接在这里面屏蔽