搜外网>搜外问答>问答页面

关于robots代码问题

<p>想要禁止蜘蛛抓取/user下的所有页面 </p><p>不知道这样写是否正确呢</p><p>但是提交给百度总是提示请求失败</p><p></p>

追加问题
    1 人参与回答
zamgu.com
zamgu · 栈谷统计-实时网站流量统计分析,实时抓取网络蜘蛛爬虫

最好不要禁止蜘蛛爬取。推荐用栈谷统计实时抓取蜘蛛,看下蜘蛛访问量对服务器的压力,再做决定。

SEO培训招生中
189