<p>求解答,我的www.cdljzc.com站点,为何百度蜘蛛总是来看抓取我的robots文件喃,其他页面也不抓取,就盯着robots文件来,一天来抓取几十次,但我也没有robots文件,返回404,,其他页面也不爬,怎么解决喃</p>
这个不是百度蜘蛛
seo好难啊。。。
这不是百度蜘蛛。。。采集器伪装的。。。。
那就添加个Robots文件
这个没什么问题啊,百度来到页面第一个都是抓取这个文件的
不一定是百度蜘蛛吧
这个压根不是百度蜘蛛呀,阿里云的ip
那个ip也不像百度蜘蛛的ip
把这个无效链接做个死链提交给百度
这个可能是因为你的代码写错了,如果是新站,抓取这个没什么事
看看大神是怎么说的吧
让更多人参与回答