搜外网>搜外问答>问答页面

为什么用Robots写了禁止域名后面带?的,百度还是能查到?有没有老师帮看看哪里设置的不对?

# robots.txt generated at https://www.hyhrc.com/ User-agent: *Disallow: /*?*,Robots检查也是正确的,百度site:www.hyhrc.com还是出现那些郁闷后面带?的,有没有老师帮看看哪里设置的不对?

追加问题
    3 人参与回答
推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
汇英人才 等 1 人赞同该回答

1、Robots已封禁,robots里面有检测工具,检测下带?号的是否还能被抓取,如果被封禁那么没问题;
2、为何Site还有?的页面,这是因为这是之前被搜索引擎抓取索引的,已经被索引和放出,返回码是200正常码,这种存在也正常;
3、想要彻底被删除,就是这些?返回码是404,做死链提交删除会删除。

qwoeyhoii333
qwoey · 奈斯导航为广大网民精心筛选、整理国内外各类优秀的网站大全,各位站长可以免费提交收录。==》

不是设置了就会立刻生效,需要时间的。
可能需要一两周以上,或者你可以到百度后台反馈。

唯美奢品
唯美奢品 · 做最好的品质,做最好的服务

写法好像没错啊