www.a.com 跟 aaa.a.com 解析到同一个程序跟内容 那我在robots.txt中如何写 禁止aaa.a.com的蜘蛛抓取呢?
来蹭蹭水,挂个外链
楼上回答正解
User-agent: * Disallow:
路过看看
不是很清楚
User-agent: *Disallow: /
在二级域名下这样写 但是一般还是要被抓取 这就是百度 你也无奈
在二级域名的根目录Robots文件中设置
User-agent: * Disallow: /
不好禁止 因为禁止了百度还是一样会抓取的
让更多人参与回答