User-agent: *
Disallow: /
上面是所有蜘蛛
下面是网站根目录
Disallow
是禁止
写上面的两个到Robots.txt中放根目录就OK了
按照上面大家说的写个文件放根目录就行了
禁止部分啊 全部禁止了做什网站
坚持就是胜利啊兄弟~
新网站在调试期间,不要上线,等弄好了,再上线也可以呢
新网站先不上线不就好了,等调试好了在上线
不建议禁止,娃娃推解释过,可以看一下
就这样,冒号后面要加一个英文状态下的空格
新建一个txt文件,命名为Robots.txt,里面写个:Disallow: /
然后把这个文件放到你网站根目录,去百度搜索资源平台的robots栏目下“检测并更新”即可,保险起见可以测一下还能不能抓得到
Robots里面针对所有搜索引擎写一个禁止抓取的规则
新建一个txt文件,命令为robots.txt
把下面的规则写进去,上传到网站的根目录就可以了
百度下规则!!
向优秀的同学学习
去搜索每个蜘蛛然后禁止了
建议本地调试,或者解析个二级域名进行调试,感觉百度反应迟钝,会不会等你接触robot限制了百度白天反应不过来
这个得找一个大佬
直接禁止全部就可以
禁止部分啊
你不发外链,就不会抓取
让更多人参与回答