3 人参与回答
最佳回答
用户4701 · 网站建设/仿站、美团点评运营、云服务器、DIY小程序、网站优化(SEO)、竞价托管(SEM)、网络推广。☛☞

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在Robots.txt,如果放到其他目录下,搜索引擎是无法识别到的。


如果服务公司无法解决,说明技术不怎么样,建议及早转出去或者另找公司托管。

必须要加到网站根目录

用户164358 · 吃喝

直接叫他们解决掉呀。