7 人参与回答
小凡-包子加盟
小凡-包子 · 9188创业网是以餐饮行业为主打的创业平台,网站致力于为大众提供优质的创业加盟好项目,助您完成创业梦。9188餐饮加

这个  

User-agent: *

Disallow: /

注册一个txt文本  改名字 改成Robots.txt    然后里面内容复制上面两行代码 

这个意思是禁止所有爬取网站

谭云财
谭云财 · 专注于武汉seo优化诊断和全网营销!QQ:1252569006

Robots.txt里面做好Disallow设置。

网站排名:xiaozeseo.com
网站排名: · 包网站排名,点右侧链接

建立一个Robots.txt就行了啊

五金制品
五金制品 · 铝合金外壳加工

进来学习学习

用户名
用户名 · 一个养美短猫的SEO小伙,5118优惠推荐码 XTF829

楼上回答学到了,我只知道Robots.txt文件协议(君子协议) 也不能完全依靠它。

Robots.txt 文件是作为禁止搜索引擎抓取的最常用的手段和方法,但是该方法并不能完全阻止搜索引擎的收录的索引,那么我们此时就可以使用网页 meta 标签来实现完全的禁止搜索引擎收录索引。