下图是别人攻击网站日志:
下图是头条蜘蛛抓取日志:
下图是我的网站设置的404页面:
上面的问题别人是通过什么技术实现的?难道是发现了头条蜘蛛的漏洞吗?
有大神知道要怎么处理这样的问题?不要头条抓取不存在的链接~~在此先谢过了!
先检查下是不是被黑了,返回码是404,被这种攻击也没事,网站能访问就行,不是被黑就行,先去自查下
1、先检查下,这些URL返回码是什么,是404,那么没问题; 2、同时也要看下自己是否被黑,这种URL,就是被黑后产生的垃圾页面,去ftp哪里,看看有没有新增的文件夹和JS文件; 3、持续关注下网站安全,定期Site域名,看是否有被黑页面存在,如被黑及时处理即可。
直接禁用 Robots设定一下
先检查下,这些URL返回码是什么
设置禁用一下看看
楼上推推娃说得对
应该是有工具借助头条蜘蛛的ua,扫描你的网站。我是这么理解的
能不能禁一下
Robots里面禁用试下! User-agent: Bytespider Disallow: .xlsl$
让更多人参与回答