5 人参与回答

百度的主要功能你都忘了。

Robots.txt文件用法举例:

  1. 允许所有的robot访问

User-agent: * Allow: / 或者 User-agent: * Disallow:
  1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *

Disallow: /
  1. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

Disallow: /
  1. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider

Disallow:
  1. 禁止spider访问特定目录

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/
蜻蜓(butterpig.top)
蜻蜓(bu · 各类便捷智能的在线图片处理工具

不会就百度,主要是用于告诉蜘蛛那些页面可以抓取,那些不能抓取 也可以不管这个文件

华杰东方 品质家装
华杰东方 · 央联美食——预制菜 打造“中国健康新餐饮、智慧新生活”

不会就百度,主要是用于告诉蜘蛛那些页面可以抓取,那些不能抓取

初见_
初见_ · 域名解析、dns解析、dns劫持、doss防御

禁止抓取一些你不想要被百度收录的内容就可以了。