搜外网>搜外问答>问答页面

robots.txt 文件如何禁止搜索引擎访问某个子目录下某个页面之外的其他所有页面?

robots.txt 文件如何禁止搜索引擎访问某个子目录下某个页面之外的其他所有页面?

追加问题
    1 人参与回答
Viky
Viky · 八年多的SEO老司机

再加个Alow:/文件路径  就可以了,这就相当于白名单

SEO培训招生中
189