<pre>Disallow:http://www.szmaguan.com/?*</pre><p>这样写robots可以吗?</p><p><br></p>
应该是被黑了
1、?xxx这种如果是被黑产生的,想要快速删除,还需要找程序写规则,返回码404,做死链提交删除快一些; 2、Robots是不让蜘蛛抓取爬行,是否生效这个也不能确定; 3、?xxx大量页面返回码是200码,这些页面不会主动得被删除掉。
怎么会这样呢 是不是被黑了
让更多人参与回答