关于robots的骚操作带来一个血的教训!
前几日发现很多国外的垃圾蜘蛛,还有bing msn等等这些蜘蛛来我网站特别的多,所以就想着把垃圾蜘蛛给屏蔽掉,
User-agent:Ahrefsbot
Disallow: /
但他娘的一时不慎,把这行复制在了robots文件的最后面,放上去后忘记跟踪检查,直到无收录、降权,才发现这样写是屏蔽了所有网站的蜘蛛!欲哭无泪,只能怪自己太无知,太粗心
顺便求问大神,该如何才能尽快的恢复。
14 人参与回答
这个操作毁网站还是可以的。
去申诉一下吧这个问题
就当是涨经验了,正常现象,谁又没有荒唐过呢..
去百度平台投诉反馈一下
遇事不觉,可问百度
试试去百度平台多提交下试试
把文件删除,反馈一下
你这确实是骚操作
取消掉 其他交给时间
你这确实是骚操作
工作粗心大意了,如果是某个目录 可以考虑换URL路径。
试试去百度平台多提交下试试,改下首页标题
我这么说吧,我之前也有过你这种操作了,然后那个网站一直没恢复