Robots.txt 我写对了吗? 悬赏1元 已结束
<p>最近用wordpress做了个网站 ,发现搜索引擎乱抓站内URL 莫名其妙不知道什么原因,多次处理无果,于是乎想用robots.txt文件来限制掉,搜索引擎抓取所有东西,只让搜索引擎抓取 首页 目录及文章页面</p><p><br></p><p>robots文件可设置成这样子吗?<br></p><p><br></p>
16 人参与回答
最佳回答
加载更多
linux系统默认根目录是【/】这样会把整站屏蔽,不清楚你网站啥程序建的,所以不好判定但是不标准是真的了
不要这样写,会导致整站被禁止的,可采取宽抓严禁的方法