网站robots误封百度,修正后,多久可以正常抓取展现? Robots 搜索结果
之前robots.txt出现了问题(封禁),导致搜索结果页展现封禁信息,重新更新了robots.txt等待了有30天了都没重新展现回来。……
之前robots.txt出现了问题(封禁),导致搜索结果页展现封禁信息,重新更新了robots.txt等待了有30天了都没重新展现回来。……
<p>求解答,我的www.cdljzc.com站点,为何百度蜘蛛总是来看抓取我的robots文件喃,其他页面也不抓取,就盯着robots文件来,一天来抓取几十次,但我也没有robots文件,返回404,,其他页面也不爬,怎么解决……
<p>各位大佬帮看下日志分析出来的这种类似伪百度蜘蛛ip到底是什么,每个小时都来8,9次类似的ip,访问首页和robots文件,如果我robots设置他禁止爬取可以如图2这样设置嘛</p><p></……
<p>大佬们帮我看下是不是只有绿标是真百度蜘蛛,红标都是假的冒充百度蜘蛛?这种蜘蛛怎么禁止访问啊,每天来爬取很多次,不知道干嘛的,可以设置robots.txt文件禁止访问嘛?比如这样设置:</p><p>U……
网站日志有大量UA是baiduspider的IP,访问了大量不存在的页面,产生了大量的404,而且访问的页面在robots都已经屏蔽,但还是有大量访问的,这种情况如何解决,有什么影响吗?……
站首页收录总是隔段时间就消失一回,并没有做改动,也符合搜索算法内容,robots.txt检查没问题,服务器稳定,全站排名稳定,友情链接没问题,只有首页隔段时间就不收录了。。请问,这样是什么原因呢?……
<p>开始以为是robots问题所以把权限都开了,还特意写上允许SITEMAP文件抓取,但是奇怪的是用推送工具推送只能推送首页如图<br>还有一个问题就是sitemap更新不正常等了几天了还是这样的情况,更新过也没有……
<p>今天百度资源平台官方直播了一节公开课,现在过来和大家分享一下,看看大家有没有能用的上的:</p><p>课程主要是和大家说说网站抓取和收录的一个原理,看完以后,可以说做收录基本上不是什么大问题了。&l……
User-agent: * Disallow: /data/Disallow: /dede/Disallow: /images/Disallow: /include/Disallow: /plus/Disallow: /special/Di……
<p></p><p></p>
百度是不是可以不遵守robots.我的网站同一个网页收录了很多不同的url链接,然后2月初设置了robots和伪静态。但是上周五一些老的url依然被收录和存在。这样会不会导致我的网站被降权?……
<p>新站有没有降权一说,蜘蛛抓取上百次首页,为什么不抓取内页呢?<b>请求大神帮我看看我的网站哪里有问题,自我感觉站内优化已经做到位了,站外优化也在坚持。</b></p><p>内……
网站属于代码自建,很多东西都不完善
<p></p>
<p><a href="http://www.ccjiaheccgs.cn/robots.txt" target="_blank" data-url="www.ccjiah……
<p>每天来一下,就抓下主页,抓几下robots,就收录了主页,内页没收,每天就对着robots一顿抓,是协议写的有问</p><p>题吗,大佬帮忙给看看</p>……
www.tengyitieyi.com robots要不要禁止css和js?发现蜘蛛频繁爬这些文件
网站设置了robots禁止抓取,为什么还能抓取到?
www.mixmt.cn
<p>我的抓取频率一直很低,也不收录,一看日志文件,百度蜘蛛怎么都是抓取robots文件,代表我的robots文件写错了吗,求解答</p><p><br></p>……
我这网站一天蜘蛛走680多个页面,其中有180多个是robots.txt,这正常吗????
<p>网站:wiki.fpc-pcba.com 可以正常访问 </p><p>百度站长 抓取诊断可以正常抓取 抓取频次为0</p><p>但是Robots检测显示服务器配置有……
百度蜘蛛一直爬一些没用的链接 在robots.txt里面禁止蜘蛛爬行了 还是一直爬 要多久才生效……
如题,robots协议中的冒号用中文冒号还是英文冒号这个有区别吗?百度能否识别?
如果我不想当前页面被任何搜索引擎收录,以及追踪此网页上的链接,不想让百度保留网页的快照。是不是应该在当前页面的Head加入:<meta name="robots" content="noarchive,nofollow"这么写对吗?……
内容生成URL结构包含日期目录:/20150513/id.html,目录不能访问,报403,网站无入口,但是日志中发现蜘蛛大量抓取日期目录,这种情况要如何处理,无法使用robots,只能不断提交死链?谢谢!220.181.108.94 - ……
这是301没完成 还是长期这么玩?哪位大侠解释下这什么路子
<p></p>
网站有大量404 页面 已经提交了百度死链 看着百度反馈成功了,robots 文件是否还有屏蔽的必要,现在看蜘蛛每天还在爬 404 页面,到底要不要做robots 屏蔽呢,屏蔽的话 对蜘蛛有没有影响。如果屏蔽的话,几千的404 也会导致ro……
这个检测失败,然后抓取是正常的,另外在其它网站Robots这里检测也是正常。检测失败提示:您的服务器配置有误百度暂时无法连接您的服务器,请检查服务器的设置,确保您网站的服务器能被正常访问。错误码:500……
像淘宝,天猫都是用robots.txt协议禁止搜索引擎抓取收录。这样的话我把淘宝天猫的产品及产品介绍详情复制出来,放到自己网站上。测试过是收录的,就是收录量太少,我用的Wordpress程序做网站,而且基本的seo也会去做,sitemap也……
<p>江苏安邦云昇智能科技有限公司 <a href="http://www.anbangyun.cn/" target="_blank" data-url="www.……
<p>网站改版的时候把<span>robots设置限制抓取的指令,本来是想改版完成后再取消,结果取消个多月了,百度还是不来抓取,怎么办?</span></p><p></p&g……
网站http://www.wangyushi.net 上线50天了,内容每天正常更新,到现在已经有70篇内容了,也交换了一些友情链接,但不知道为什么一直没收录,在百度站长平台提交了sitemap.xml文件,抓取诊断也都正常,而且速度也还不……
<p>网站:www.anbangyun.cn</p><p>给我们做网站的技术说是因为我们对新网站的推广太狠了,所以导致网站被屏蔽了。需要收费200元解决这个问题。请问是这样的嘛?</p><……
网站内容更换,删除大量文章页面使用robots屏蔽共同栏目页,这些页面还需要去资源平台提交死链吗?……
为了处理死链接,我提交后死链,发现死链百度处理了,为了不让蜘蛛继续爬虫死链接,我都加到了robots 文件,现在该文件大小为 140KB, 是不是影响百度蜘蛛抓取 呢,……
①是该做个Sitemap.xml中包含其它Sitemap(Sitemap1.xml,Sitemap2.xml,Sitemap3.xml.....);只把Sitemap.xml放进robots?②还是分别把Sitemap1.xml,Sitem……