搜外网>搜外问答>问答页面

网站RObot问题,百度站长查询说有跳转,怎么解决 推荐热议 悬赏3元 已结束

<p><br>如上图</p><p>这是RObot文件内容,让建站方屏蔽后台管理的文件,这是有问题吗</p><p>User-agent: *<br><br>Disallow: /.js$<br>Disallow: /.css$<br><br>Disallow: /bin/<br><br>Disallow: /backend.php/<br><br>Disallow: /runtime/<br>Disallow: /thinkphp/<br><br>Disallow: /application/<br>Disallow: /extend/<br><br>Disallow: /vendor/<br><br>Disallow: /addons/<br><br>Sitemap: https://www.nicerf。Cn/sitemap.xml</a><br></p><p><br></p><p>最后我将文件改成了以下:</p><p>User-agent: *<br><br>Disallow: /.js$<br>Disallow: /.css$<br>Disallow: /bin/<br>Disallow: /vendor/<br>Sitemap: <a href="https://www.nicerf。Cn/sitemap.xml" target="_blank" data-url="www.nicerf。Cn" class="show-5118-data" rel="nofollow">https://www.nicerf。Cn/sitemap.xml<br></p><p><br></p><p><br></p><p>可我百度抓取诊断显示如下有跳转是不是有问题,<b>我在爱站工具包想重新生成sitemap.xml文件提示说是网站没内链,这是不是说爱站的爬虫也抓不到我的网站内页?这是我新改的robots文件还没生效还是问题没在这?或者说要彻底删除这个文件</b></p><p><br><br></p>

追加问题
    14 人参与回答
推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
罗凌峰 等 1 人赞同该回答

1、你确认下,你验证是https,还是http,如果是http那正常,http做了集权肯定返回码301;
2、针对上述情况,只需要重新验证绑定https即可;
3、自己去检索判断下,URL返回码问题,URL是http的还是https。

重工机械小刘 等 1 人赞同该回答

你自己去看下你的页面的返回码是否有问题

愚小妖
愚小妖 · 网站建设,专业SEO优化,可咨询。

Robots无关,是你的网站代码问题,上下滑动时URL会变动!

Flying
Flyin · IT培训,考试认证,专业,让您更出色!

不要听百度站长的,有时候百度反馈的会误导人

华趣免费图床
华趣免费图 · 右边点进去看免费图床

有没有搞CDN

水羊
水羊 · 普奇研究院是专业从事漏水检测仪,测漏水查漏水精准定位,漏水探测仪

百度反馈的会误导人

不要听百度站长的,有时候百度反馈的会误导人

IMG
IMG · 品牌运营互联网推广大拿,有问题追问,一般GPT回答不对的会手动回复。

首先,你的 Robots.txt 文件主要是用于控制搜索引擎蜘蛛爬取你的网站时的行为。对于你提到的问题,以下是一些建议:

1. Robots.txt 文件优化:

你改进的 Robots.txt 文件看起来已经合理,但还可以优化。你可以使用 $ 符号来匹配 URL 结尾,以确保只匹配以这些结尾的 URL。同时,你可能想要考虑使用通配符来更精确地指定文件和目录,例如:

```plaintext
User-agent: *

Disallow: /.JS$
Disallow: /
.css$
Disallow: /bin/
Disallow: /vendor/
Sitemap: ```

这样的规则可以更清晰地表示你希望阻止搜索引擎爬取的内容。

2. 跳转问题:

百度站长工具显示有跳转可能与 Robots.txt 文件不直接相关。如果你的网站中存在重定向问题,可能需要检查以下几点:
  • 站点配置: 确保站点的域名配置正确,没有不必要的重定向。
  • 服务器配置: 检查服务器是否有配置重定向规则,确保这些规则没有问题。
  • 链接跳转: 在网站中检查是否有不必要的链接跳转。

3. 文件:

你的 文件已经包含在 Robots.txt 中,确保这个文件是有效的,并且其中包含了你希望搜索引擎爬取的所有重要页面。你可以手动访问 文件,确保其中的链接都是正确的。

4. Robots.txt 文件生效时间:

Robots.txt 文件一旦修改,不是立即生效的,搜索引擎需要时间来重新索引网站。你可以在百度站长工具中提交 文件,这有助于搜索引擎更快地发现你的网站变化。

5. 爱站工具包问题:

爱站工具包提示网站没内链可能是由于其爬虫在处理你的网站时遇到了问题。确保你的网站在技术层面上是正常的,尽管 Robots.txt 文件中的规则会影响蜘蛛的行为,但不应该完全阻止内链的发现。

最后,如果问题持续存在,建议定期检查搜索引擎工具中的错误和警告,确保你的网站在技术和内容上都符合搜索引擎的标准。如有需要,你也可以向搜索引擎提交重新索引请求。
qwoeyhoii333
qwoey · 奈斯导航为广大网民精心筛选、整理国内外各类优秀的网站大全,各位站长可以免费提交收录。==》

看你第二个图里面的左栏,有个【HTTPS认证】,你通过后,就不会有跳转提示了。

不要听百度站长的,有时候百度反馈的会误导人

丫丫
丫丫 · 唵嘛咪叭咪吽

Robots无关,是你的网站代码问题,上下滑动时URL会变动!