<p>网站日志查询蜘蛛记录解读 图中这些404记录 我的空间怎么找不到这些文件夹 有人知道这是怎么回事吗?需不需要按照404页面提交处理?</p><p><br></p>
1、如果自身站内无这种不影响,返回码404,百度是不会抓取收录;
2、老域名、改版站都可能遇到这种问题;
3、这些页面不收录不影响,做好新的URL提交;
4、也可以将这些不存在且不影响你自身网站URL可Robots disallow封禁这些栏目URL,如果这些栏目下有的页面还需要,不能封禁;
ps:明确是自己URL不规范导致还是老域名、网站改版导致
我的网站也有这种,我都用Robots屏蔽了
学习学习
不会这个哦
如果是简单的查看,您可以在记事本中搜索baiduspider ,如果想精确分析,可借助一些专用的分析软件。分析下哪些时间段百度蜘蛛来的最频繁,那么我们就在这个时间段更新我们的网站内容,很容易被百度收录的。
通过分析蜘蛛来访纪录,可以了解本站的大体情况,而不用再为百度不放出内页或者不收录的问题而苦恼了。
蜘蛛来访正常,可以确切的说,搜索引擎对你的站很友好的,坚持更新自己的网站,会有不错的收录的。
注:有些共享IP空间可能不支持日志功能,对于独立ip虚拟主机则提供每天的日志下载,而实在没有可以日志功能的空间可以参考使用蜘蛛爬行插件的一些方法进行分析。
死链先收集再提交给百度啊
仅供参考
太多404拉
宝塔里有插件啊
你在文件找不到.要是自己确定的话.那就直接在提交到引擎站长里并在文件首页做好silian.txt文件.自然就会没毛病了。
<p>我也遇到过,我是老域名,之前网站的路径就是这样的,在Robots里屏蔽掉就好了</p><p><br></p>
让更多人参与回答