可以通过在网站的Robots.txt文件中添加Disallow指令来限制蜘蛛不爬取指定的链接。具体方法如下: 打开网站根目录下的robots.txt文件; 在文件中添加Disallow指令,后跟要禁止蜘蛛爬取的链接; 例如,要禁止蜘蛛爬取【页面链接】这个页面,可以在robots.txt文件中添加如下代码: User-agent: * Disallow: 【页面链接】 这样,当蜘蛛访问【页面链接】时,就会被禁止爬取该页面。注意,该方法只能限制遵循robots协议的蜘蛛爬取,对于不遵循该协议的蜘蛛无效。
不想爬页面就给指定页面添加noindex协议,不想爬页面指定链接就noopen Nofollow noopen三连
修改Robots.txt,User-agent: * Disallow: / 斜杠放上你不想给爬的页面。不过这只是君子协议而已,不管用
让更多人参与回答