SEO
如果robots文件把网站所有页面都做禁止抓取,那百度蜘蛛是不是就不会爬我这个网站了? - 搜外SEO问答
搜外网
>
搜外问答
>
问答页面
如果robots文件把网站所有页面都做禁止抓取,那百度蜘蛛是不是就不会爬我这个网站了?
微信
追加问题
交换友情链接,就用搜外友链,方便!
3 人参与回答
用户240377
·
液体流量计,液体/气体检定装置厂家196-9378-6536(同微)
正常来说,确实是这样的。
用户206886
直接
User-agent: *
Disallow: /
这样就禁止所有搜
索引
擎蜘蛛爬取你网站所有内容了
用户242681
是的
收录宝
k/711
j/177
44539
iaoda
om/16
om/17
om/20
om/14
om/15
om/44
om/19
om/43
om/23
om/18
om/46
om/42
om/24
om/28
-2/37
-4/57
蜘蛛池
相关问题
百度蜘蛛只抓取网站首页 不抓内页是什么原因?
(1 个回答)
复制内容如何让搜索引擎快速收录呢?
(0 个回答)
百度蜘蛛不来网站怎么提高浏览量?
(2 个回答)
网站大量IP同时访问导致网站打不开,有好的解决办法吗
(2 个回答)
如何利用百度蜘蛛的来路IP来判断网站的权重?
(1 个回答)
百度蜘蛛抓取量为什么越来越少?
(4 个回答)
百度蜘蛛一天来你网站多少次才算不错?
(8 个回答)
百度蜘蛛长时间都没有来网站有哪些引导?
(3 个回答)
×
悬赏问题
让更多人参与回答
给问题设置一定金额,将更容易获得关注与回答。
1元
路过一下
3元
意思一下
5元
了解一下
8元
支持一下
18元
有钱任性
88元
我是土豪
选择支付方式
微信支付
支付宝
余额支付
确认支付 →
×
追问
追问