SEO
聚集100万网络营销实战家
建网站
换友链
我的网站之前虽然被收录几百页面,但现在已经做了robots.txt限制,为什么还被收录? - 搜外SEO问答
搜外网
>
搜外问答
>
问答页面
我的网站之前虽然被收录几百页面,但现在已经做了robots.txt限制,为什么还被收录?
微信
追加问题
交换友情链接,就用搜外友链,方便!
4 人参与回答
推选号
你还想着不被收录....
因为有你
·
专注网站建设、网络营销推广、SEO优化,QQ97539994
第一你刚刚说已经收录了后才做的
Robots
文件限制,所以嘛,以前收录的一时半会儿不会删掉的。
爱吃者
·
SEO优化诊断方案 VX:276029701
Robots
生效也是需要一定的时间的
坤知Seo
百度蜘蛛
耍流氓呗
相关问题
复制内容如何让搜索引擎快速收录呢?
(0 个回答)
网站大量IP同时访问导致网站打不开,有好的解决办法吗
(2 个回答)
看了下网站日志,百度老去抓取404页面,需要在robots文件里面屏蔽吗?
(3 个回答)
关于网站只收录新闻栏目页问题及robots屏蔽后台问题
(7 个回答)
看了下网站日志,百度老去抓取404页面,需要在robots文件里面屏蔽吗?
(1 个回答)
url被删除返回404后还用robots屏蔽吗?
(2 个回答)
404需要在robots文件中屏蔽吗?
(1 个回答)
网站的robots协议在哪里看?
(4 个回答)
收录宝
30657
29063
27388
25794
×
悬赏问题
让更多人参与回答
给问题设置一定金额,将更容易获得关注与回答。
1元
路过一下
3元
意思一下
5元
了解一下
8元
支持一下
18元
有钱任性
88元
我是土豪
选择支付方式
微信支付
支付宝
余额支付
确认支付 →
×
追问
追问