robot里边如何屏蔽外部的链接?

701 次浏览

比如当前robots是www.feijiu.net/robots.txt

Disallow: www.jupai.net/*   这样能实现吗

追加问题
    3 人参与回答
最佳回答

Robots文件是屏蔽你站内的目录和链接的,如果能屏蔽外部链接,那我写个robots屏蔽所有对手的网站,那岂不是上天了

郑雄伟
郑雄伟 · 专注B2B网站、行业门户、企业网站的SEO优化

毕竟大规模死链问题真的是太恶心了。


另外网站结构是这样的      

根目录web/   

          二级域名www/

         二级域名erji/

想要屏蔽www下边的内容该如何写?在web下传Robots.txt,然后  Disallow: /www/   和在www下传robots.txt 然后 Disallow: /  这两种都行吗?

@HalleLuka  @余小小

robot是无法屏蔽外部的链接的,主要屏蔽的是你的网站里的文件

回复问答禁止带推广链接,了解合理带链接的方法