# robots.txt generated at https://www.hyhrc.com/ User-agent: *Disallow: /*?*,Robots检查也是正确的,百度site:www.hyhrc.com还是出现那些郁闷后面带?的,有没有老师帮看看哪里设置的不对?
1、Robots已封禁,robots里面有检测工具,检测下带?号的是否还能被抓取,如果被封禁那么没问题; 2、为何Site还有?的页面,这是因为这是之前被搜索引擎抓取索引的,已经被索引和放出,返回码是200正常码,这种存在也正常; 3、想要彻底被删除,就是这些?返回码是404,做死链提交删除会删除。
不是设置了就会立刻生效,需要时间的。 可能需要一两周以上,或者你可以到百度后台反馈。
写法好像没错啊
让更多人参与回答