网站被挂恶意代码后百度收录了10万条页面, 悬赏28元 已结束

网站被挂恶意代码后百度收录了10万条页面,






然后点开这些链接就是错误页






有哪位能指教下 怎么处理吗?谢谢,,这应该算是内容死链,那么具体怎么做呢,有哪位能按照步骤教一下吗 我去百度提交一直不行出现不是404页面,那如果是内容死链怎么处理呢?




追加问题
分享到微信 收藏
    16 人参与回答
最佳回答
姜东常州
姜东常州 · 常州SEO,我在常州。擅长CMS站布局,将SEO工作流程化...
何佳鑫 等 1 人赞同该回答

以下为干货分享,请点赞,后期会写到专栏。

(需要用到的工具有“:爱站SEO工具包,建议vip版本的,以及火车头工具。)

1、网站404必做,看到你的页面已经打不开了,那么就不需要再删除页面了,下面讲怎么删除快照的问题。

2、用爱站的Site真实网址找出这些垃圾页面
(注意site 全部页面,“无限制”)






查出所有收录后,导出execl表格去除没有问题的的页面,排序即可(多说一句,你的标题seo没做好,且被黑页面也没有你说的10万条那么多)






3、导出链接后,我们已经可以确定哪些是有问题的,第二个要做的是提交+快照更新
将链接加入到火车头中,分享个写好的规则给你 http://pan.baidu.com/s/1nvHGmbn (百度快照地址抓取)
ps:很多人以为找到了打不开的地址就可以投诉了,实际不是,你要提交和投诉的必须是百度原始快照地址,不是网址

下载火车头工具,导入我分享的规则:
火车头写法,依然用表格进行批量:






4、查询后会导出就是详细的百度快照了,然后投诉,一次性可以投诉提交12条 http://help.baidu.com/webmaster/add
暂时没有找到可以用工具批量提交的,之前反馈给爱站,但是没反应,不知道这里有没有爱站的工作人员

注意提出重复项,减少工作量





ps:另外快照提交投诉建议3次以上,一次全部成功率较低,大概80%,3次以上99%左右

5、这个是快照提交,最省事省力的,实际上提交收入和404页面也有作用,但是非常慢,所以其他的就不说了。

6、页面被黑、服务器被黑的安全问题,就看其他人的吧,安装各种插件,就这样了。
郝开心
郝开心 · QQ:80150348
乘风何佳鑫 等 2 人赞同该回答

这个啊! 我们公司的网站出现和你一模一样的问题了,告诉你我的解决办法把! 先删除被黑页面、或者直接恢复到未被黑时的数据。 然后在百度站长工具的链接分析板块去,导出站内死链 整合成txt文档,提交到百度站长工具的死链提交板块。 如果死链有规律的话,你也可以用规则去屏蔽,速度会更快。 接下来就是等待了。。 还有最好找出黑客是如何入侵你的网站的,否则,你清理了后,直接被再次挂垃圾页面。 你会感到绝望的。 如果你是windows的服务器,推荐你使用文件之眼,查看对方修改了那些文档,具体是什么时候修改的。 然后,你反推即可。 网站目录最好都分配好权限,图片文件夹去除脚本运行权限! 就这么多了。有点乱,见谅!

李严肃
李严肃 · 承接网站攻击,无排名上首页,见效付款,猎黑快排QQ1158471290

最近被挂马的真不少,你网站现在也是被用来做寄生虫排名的webshell

京坤
京坤 · SEO爱好者

像这种被挂的垃圾链接百度方面不是说会过滤掉吗,,到底能不能?

王威健
王威健 · 3年SEO经历 欢迎多交流 学习阶段

后台页面不要让百度抓取

無常一生
無常一生 · 提供网站建设、网站推广、营销策划、微商城、三级分销、拓客商城、多网合一商城、APP开发,ERP定制等服务。

先处理链接再清木马,

海瑞
海瑞 · 新手一枚 努力向上

我的网站也是,然后再站长平台提交死链规则,从3000多删到了800多,然后剩下的就删不掉了,郁闷

众智建筑 · 建筑行业优化,有木有同行交流下

360安全里边找下网站的漏洞,补丁打上,然后清理木马,然后在百度里边重新提交,多提交几次

施明明
施明明 · 资深的SEO/SEM工作者和管理者

。。。我也是 被挂了16W多的外链。。。进去看 根本不是

李密田
李密田 · 他们都叫我“大师兄”,微信 libeiso

1、Robots.txt屏蔽掉,不让蜘蛛继续爬;
2、删除掉;
3、去百度站长平台提交死链;
6、做好安全,比如权限方面的问题。
大致就是这样。

陶然
陶然 · 乐村淘 SEO主管 SEO经验2009年起

上面的很对,先要做的就是连接,找到规则用Robots屏蔽掉,这样是最快的。余下的就只能使用手动的方式来逐一的提交了。404页面要做好,不要简单的使用跳转到首页。

李先生
李先生 · 微信公众号:银凌网络

提交死链,删除快照后,也记得加强一下网站的安全工作,我之前用的DEDE,也被挂了寄生虫,不过还好发现的早,是动态的PHP文件生成的,删除寄生虫文件,文件名加入安全狗这类防护工具的黑名单,Robots.txt屏蔽之后,再也没出现过。你用的DZ的,可能也有这种php文件,细心找一下吧。

我经历过,网站快照被黑,然后FTP目录生成了50W数据,我是这样解决的

1.删除被黑的目录
2.死链提交,规则提交
3.Robots.txt禁用抓取

-----------
然后等待生效

施峰
施峰 · 正方护栏

我也是这个

可乐先生
可乐先生 · 7年网站运营经验 QQ群:71378882

死链提交是最快的

千万别Robots屏蔽,屏蔽后百度就不知道是不是死链了~~~~~