如何自动https并且robots文件能被抓取?
请问如果能实现让http协议的xxx.com www.xxx.com 以及https协议的xxx.com 自动跳转到https带有www的域名,并且还能够让robots文件有效被蜘蛛抓取到。
本人尝试过通过url重写 和config文件 301重定向规则来强制https 但是做不到让https://xxx.com 自动跳转https://www.xxx.com 并且robots文件失效 无法被抓取到 还通过用新建空站来绑定两个http 和 https://xxx.com来跳转到https://www.xxx.com 但是同样robots文件还是无法被抓取到 研究了很长时间也没有做到 不知哪位大神可否知道??
想要实现的案例: 百度 无论是通过http://baidu.com 还是http://www.baidu.com 或者是https://baidu.com 都能自动的跳转到https://www.zbaidu.com 并且网站的robots文件还能够被抓取到