5 人参与回答
冷却塔
冷却塔 · 冷却塔
收录之家 等 1 人赞同该回答

进来看一下。

收录之家 等 1 人赞同该回答

你可以在根目录下加上一句话禁止百度搜索引擎抓取:Disallow: baidu

收录之家 等 1 人赞同该回答

Robots 里加 Disallow: baidu

收录之家 等 1 人赞同该回答

根目录下写一个Robots.txt文件。
索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。