看了下网站日志,百度老去抓取404页面,需要在robots文件里面屏蔽吗?今天流量直接无征兆滑铁卢了,救命
如果是已经收录的页面被删掉或者其他操作变成的404 可以恢复下原路径 或是去百度站长工具提交死链 。此外404页面也是可以在Robots文件添加的禁止访问的。
让更多人参与回答