<p><br></p>
<p><br></p><p> 这个去掉就可以了</p>
找到Robots文件 删除禁止代码 你把搜索引擎禁止抓取了
你去fTP里面看看这个 ribots的文件~把里面的指令给删掉就可以了
你怕不是把全站多禁止蜘蛛爬取了把
修改robot就好了
你的 ribots设置出现问题了啊,改了就行了
一楼正解
一楼回答正确disallow:/ 删掉即可
去掉文件中的指令就好了
找到Robots文件,删除禁止抓取指令
这样子不是一个都没收录
网站robost文件禁止搜索引擎抓取了,去ftp下载下来改一下就可以了
顶下,虽然看不懂
你的Robots.txt disallow所有了,所以不能抓取,可以照抄我这个
一楼回答完成正确。
网站根目录修改Robots.txt的抓取权限,把你希望被抓取的页面设置为允许抓爬 允许抓爬示例:User-agent: Baiduspider
allow:/
让更多人参与回答