<p><span>百度站长后台验证robots 显示错误500,</span>多点几次 检测并更新也不行,<span>我网站可以打开,这是怎么回事额?请问要怎么解决?</span></p><p><span><br></span></p>
暂时没有遇到过,提交反馈一下
从SEO的角度,Robots.txt文件是一定要设置的,原因:1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。3、一些没有关键词的页面,屏蔽掉更好。4、一般情况下,站内的搜索结果页面屏蔽掉更好。
不知道呢没遇到过
让更多人参与回答