4 人参与回答

这个不知道啥意思啊

互零网络
互零网络 · 擅长技术研发,互零网络:APP开发、小程序开发、网站建设

User-agent: *

Disallow: /

允许所有搜索引擎爬取网站所有内容

User-agent: *

Disallow:

只禁止百度抓取你网站的内容

User-agent: Baiduspider

Disallow: /

只允许百度抓取你网站的内容

User-agent: Baiduspider

Disallow:

User-agent: *

disallow: /

闪赚客
闪赚客 · 致力于分享手机赚钱软件丨手机赚钱项目

建立Robots.txt 文件,上传至网站根目录

屏蔽所bai有搜du索引擎爬取zhi网站的语法:

User-agent: *

Disallow: /

允许所有搜索引擎爬取网站所有内容

User-agent: *

Disallow:

只禁止百度抓取你网站的内容

User-agent: Baiduspider

Disallow: /

只允许百度抓取你网站的内容

User-agent: Baiduspider

Disallow:

User-agent: *

disallow: /

初见_
初见_ · 域名解析、dns解析、dns劫持、doss防御

没看懂你的问题, Robots.txt文件不是只要加在根目录,把你要屏蔽的东西加在文件里面就可以了吗?


SEO培训招生中
189