SEO
我的网站之前虽然被收录几百页面,但现在已经做了robots.txt限制,为什么还被收录? - 搜外SEO问答
搜外网
>
搜外问答
>
问答页面
我的网站之前虽然被收录几百页面,但现在已经做了robots.txt限制,为什么还被收录?
微信
追加问题
交换友情链接,就用搜外友链,方便!
4 人参与回答
用户162081
你还想着不被收录....
用户190276
·
专注网站建设、网络营销推广、SEO优化,QQ97539994
第一你刚刚说已经收录了后才做的
Robots
文件限制,所以嘛,以前收录的一时半会儿不会删掉的。
用户171475
·
SEO优化诊断方案 VX:276029701
Robots
生效也是需要一定的时间的
用户171504
百度蜘蛛
耍流氓呗
收录宝
om/ta
om/ta
om/ta
/2152
om/ta
om/ta
sijia
ianta
wu/38
uliuc
13111
.7qsf
199cq
xf-cq
gm-cq
sf-cq
uu-cq
9j-cq
jj-cq
sf-cq
蜘蛛池
deepseek网页版
相关问题
复制内容如何让搜索引擎快速收录呢?
(0 个回答)
网站大量IP同时访问导致网站打不开,有好的解决办法吗
(2 个回答)
看了下网站日志,百度老去抓取404页面,需要在robots文件里面屏蔽吗?
(3 个回答)
关于网站只收录新闻栏目页问题及robots屏蔽后台问题
(7 个回答)
看了下网站日志,百度老去抓取404页面,需要在robots文件里面屏蔽吗?
(1 个回答)
url被删除返回404后还用robots屏蔽吗?
(2 个回答)
404需要在robots文件中屏蔽吗?
(1 个回答)
网站的robots协议在哪里看?
(4 个回答)
×
悬赏问题
让更多人参与回答
给问题设置一定金额,将更容易获得关注与回答。
1元
路过一下
3元
意思一下
5元
了解一下
8元
支持一下
18元
有钱任性
88元
我是土豪
选择支付方式
微信支付
支付宝
余额支付
确认支付 →
×
追问
追问