搜外网>搜外问答>问答页面

robots.txt 文件如何禁止某个搜索引擎访问

robots.txt 文件如何禁止某个搜索引擎访问 

追加问题
    5 人参与回答

 就不详细写了

User-agent:搜索引擎蜘蛛 
Disallow:/

各大搜索引擎蜘蛛名字可以去百度一下  就不详细写了

为了自己
为了自己 · 帮忙么网,网站主要是为了分享站长的个人的生活经验,网上创业,人生感悟,解决生活中遇到的小问题,分享个人的一些生活经验

三楼说,一楼回答的很对

楼上回答完美

仅禁止Baiduspider访问


User-agent:Baiduspider


Disallow:

仅允许Baiduspider访问您的网站


User-agent:Baiduspider


Disallow:

SEO培训招生中
189