搜外网>搜外问答>问答页面

如何自动https并且robots文件能被抓取?

请问如果能实现让http协议的xxx.com www.xxx.com 以及https协议的xxx.com 自动跳转到https带有www的域名,并且还能够让robots文件有效被蜘蛛抓取到。
本人尝试过通过url重写 和config文件 301重定向规则来强制https 但是做不到让https://xxx.com 自动跳转https://www.xxx.com 并且robots文件失效 无法被抓取到 还通过用新建空站来绑定两个http 和 https://xxx.com来跳转到https://www.xxx.com 但是同样robots文件还是无法被抓取到 研究了很长时间也没有做到 不知哪位大神可否知道??
想要实现的案例: 百度 无论是通过http://baidu.com 还是http://www.baidu.com 或者是https://baidu.com 都能自动的跳转到https://www.zbaidu.com 并且网站的robots文件还能够被抓取到

追加问题
    3 人参与回答
追梦
追梦 · 2010年自学SEO,操作过很多案例。大家一起交流学习进步!

找空间商解决啊 这种问题

八点半
八点半 · 阿鹏博客

找空间上进行服务

闯王破坡主
闯王破坡主 · 自由站长 自学seo 欢迎交流 企鹅 10400042

同样被这个问题困扰过,占座等大神,我当初301到后就没管过,过了一段时候后,取消解析了,再也没有解析过不带WWW的,至于Robots根目录有了就行蜘蛛进来会遵守的,你可以用尖叫青蛙测试下,站长平台我就没提交成功过。

SEO培训招生中
190