请问这种情况该如何设置robots文件? 悬赏3元 已结束
这个网站,比如 http://www.qiuxue88.com/pages_13/[?]是关于我们栏目,但是还存在另外一个url多了一个问号www.qiuxue88.com/?pages_13/[?][?]
也就是 www.qiuxue88.com/pages_13/[?] ---关于我们
www.qiuxue88.com/?pages_13/[?][?] -----指向首页
并且有很多类似的页面,现在就是怕被百度判定为作弊,该如何设置robots文件呢?
我的想法是: User-agent *
Disallow: /* ?* 这样写,请问对不对呢?如果不对,该如何正确书写呢?