14 人参与回答
需要坚持哈
可以通过一下方式如下:
一、检查、修改Robots协议
robots.txt是放在服务器下,用来告诉搜索引擎哪些页面或栏目下是不能被抓取和收录的文件。如果被人恶意或不小心修改了robots协议,搜索引擎蜘蛛不能正常抓取某些页面,可能会导致网站收录量下降。
二、检测网站是否被黑
如果被人恶意黑掉了服务器,在网站程序中植入了其他恶意代码或其他文件,做了快照劫持等不正当操作,网站出现大量非法内容的页面,用不了几天,网站的收录量就会直线下降。
三、进行抓取测试与日志分析
SEOer可以通过在百度后台进行抓取测试,查看模拟百度蜘蛛抓取是否正常,同时可以利用一些软件来进行日志分析,比如在线工具loghao和光年软件的使用都非常简单方便,查看日志是否正常。
四、向百度搜索资源平台反馈
如果网站收录量骤降,那么可以去百度搜索资源平台反馈下,如果是些许降幅,那还是不要反馈的好,先看看情况再说。
五、检查近期是否进行了网站改版
如果网站近期进行了网站改版,尤其是变更了网站的URL,还没有做任何301跳转,以及并未在百度后台添加网站改版规则,这种情况下,收录量骤降也就变得很正常了。针对这种情况,就去提交规则与做301跳转设置吧。
六、检查是否大量采集或低质原创
如果网站近期、甚至一直以来,基本无原创内容,全部都是恶意采集的内容,原创比例很低的话,可能就是飓风算法的原因了。
七、检测外链是否存在大量低质情况
如果外部链接存在大量低质情况,比如购买过多单向锚文本链接,可能会导致网站的降权,也可能导致收录的下降。外链只做高平台的有效外链,一些低权重平台就不要做了,也没啥大的作用,反而对网站的影响不好。