推推蛙
话题优秀回答者
1954 问题
929 浏览

网站404怎么处理404页面? 404页面 404

网站404是以前改版留下的,到现在还没有清除,有很多404,有时候打开有的页面链接就是显示404,这些404怎么处理清除掉?我想清理干净,不希望有404存在!……

694 浏览

网站404什么情况导致怎么处理解决? 404

最近网站有大量404链接页面,是我通过工具查询到的,看到这些404我惊讶了,这是什么时候出现的我之前也没有发现,404对网站很不友好吧,要如何处理解决?不希望有404存在,能彻底清除掉吗?……

665 浏览

网站一直不收录www网页怎么办? 404页面 备案 404 文章

网站已经做301重定向,是8月份做的,当时因为网站要备案,但是百度站长后台闭站也一直不成功,直接备案后网站数据全都没有了。备案完成后就做了301,404页面,而且网站一直都有正常更新文章。截止到11月底,网站只收录几个页面,但也都是不带ww……

846 浏览

蛙哥进来,有问题请教 404

我去认真查了网站,网站上线5个月只收录22条,去站长哪里查的信息是这样的。 服务器错误:爬虫发起抓取,httpcode返回码是5XX, 访问被拒绝:爬虫发起抓取,httpcode返回码是403 找不到页面:爬虫发起抓取,ht……

657 浏览

12365网站目录提交百度的死链不处理吗? 404

12365网站目录     https://www.12365.sh.cn/12365网站目录提交百度的死链不处理使用说明1. 死链提交工具是网站向百度提交死链的数据推送工具,被推送死链将被百度搜索屏蔽。网站存在大量死链,将影响网站的站点评……

593 浏览

织梦数据备份还原问题,有没有大佬帮忙解答下 PHP 404

网站用的是织梦后台,今天想要去掉域名后面的/a目录,然后就执行了SQL语句:UPDATE dede_arctype SET typedir=REPLACE(typedir,'a/','')然后问题就来了,执行之后首页能打开,但是打开其他栏目……

541 浏览

大量死链如何处理最好? Robots 404 排名 文章

网站需要删除几个栏目,删除后估计有几十万死链,怎么处理不影响新文章收录和其他栏目页面排名。 1.百度死链工具经过测试不靠谱,提交一个月后还是天天抓死链。此路不通 2.robots屏蔽经过测试也不行,只是蜘蛛不再抓取已删除栏目,但是收录的快照……

694 浏览

百度自动能清理已经收录的404页面吗? 404页面 404

我的网站,因为改版,换了程序,以前被百度收录的页面,基本上成立404页面了,但是这些页面百度有的已经收录了,这些404页面,百度会自己清理吗?如果清理,大约需要多长时间才能清理掉?……

854 浏览

首页被大量重复收录怎么办 Robots 404 代码

<p><br></p><p><br></p><p>首页被大量重复收录,就是因为防火墙还是什么原因导致首页网址后面出现大量随机代码的后缀,但都是首页,目前查询……

1333 浏览

这种情况的404需要提交吗?还是会自动消失? 404页面 Site 404

网站已经做好了。把新做好的网站数据解析到了老域名的旗下。    当然收录是以后的事情现在的一个问题就是,我site域名后还是会出现原来网站的信息,那这种情况我是需要在百度提交404?还是自动会消失的呢?如果是提交404又涉及到另一个问题,那……

849 浏览

我这种链接到底是什么死链还是真的有? 快照劫持 PHP 404

我这种链接到底是什么死链还是真的有?https://www.luolitaquan.com/xcx/index.php?qmw7ww4se1.txt这样的能打开,我网站已经加了404死链了但是这样的能打开的乱七八糟的链接txt不是文本吗?咋……

2083 浏览

我曾经让微博当天就可以收录 微博 404 文章

当我不清楚这是什么原理,之前的那段时间只要内容分享到微博就能被收录,不管事原创还是复制来的,甚至连老文章也能收录 https://card.weibo.com/article/m/show/id/2309404473357050445995……

815 浏览

网站存在404怎么处理404页面? 404页面 404

我的站之前修改改版过,造成大量链接错误链接,我想清除不知道怎么清除干净,网站有错误链接,我可以设置404页面,设置404页面就是对用户一个提示友好提示,请问怎么设置对?……

1071 浏览

条头爬虫一直抓取旧的、过期的内容,对新内容视而不见 站长平台 Site Sitemap 404

自从在头条站长平台上提交了网站后,条头爬虫一直抓取旧的、过期的、改版前的内容。我对改版前的内容返回了404或410,重新提交了sitemap,这些操作仍然无法阻止条头爬虫疯狂地、执着地只抓取旧的、过期的、改版前的内容。这个行为已经持续了一个……