搜外网>搜外问答>问答页面

我的网站之前虽然被收录几百页面,但现在已经做了robots.txt限制,为什么还被收录?

追加问题
    4 人参与回答

你还想着不被收录....

因为有你
因为有你 · 专注网站建设、网络营销推广、SEO优化,QQ97539994

第一你刚刚说已经收录了后才做的Robots文件限制,所以嘛,以前收录的一时半会儿不会删掉的。

爱吃者
爱吃者 · SEO优化诊断方案 VX:276029701

Robots生效也是需要一定的时间的

百度蜘蛛耍流氓呗

SEO培训招生中
188