写的都不错哦
Robots.txt也不是百分百可以禁止抓取
同意大家的观点
要禁止所有搜索引擎抓取网站中的一个页面,可以在该页面的根目录下创建一个名为“Robots.txt”的文件,并在其中添加以下内容:
User-agent: * Disallow: /pagename
其中,“pagename”应替换为要禁止搜索引擎抓取的页面的实际文件名。这样,所有搜索引擎的爬虫程序都将不会访问该页面,因为它们遵循了robots.txt中的指令。
代码:Disallow: /bin/
让更多人参与回答