17 人参与回答
最佳回答
用户90441 · 网站诊断、建站、快速排名

<p><br></p><p> 这个去掉就可以了</p>

用户3414 · 雄关漫道真如铁 而今迈步从头越
用户141611 等 1 人赞同该回答

找到Robots文件 删除禁止代码 你把搜索引擎禁止抓取了

用户1023 · 资深的SEO/SEM工作者和管理者
用户141611 等 1 人赞同该回答

你去fTP里面看看这个 ribots的文件~把里面的指令给删掉就可以了

你怕不是把全站多禁止蜘蛛爬取了把   

修改robot就好了

你的 ribots设置出现问题了啊,改了就行了

一楼正解

一楼回答正确disallow:/ 删掉即可

用户135948 · 网站文章编写,2年,常年优化

去掉文件中的指令就好了

找到Robots文件,删除禁止抓取指令

这样子不是一个都没收录

网站robost文件禁止搜索引擎抓取了,去ftp下载下来改一下就可以了

用户141329 · 鹰眼大数据研发的智能营销笔记本旨在帮助中小企业开拓客户渠道,一键营销找V哦 zhicun360

顶下,虽然看不懂

用户143289 · 乐行川藏网是一家专业提供精品川藏线拼车包车自驾游旅游的服务商,从出发到终点,为您的川藏线旅游提供全方位专业服务!川藏

你的Robots.txt  disallow所有了,所以不能抓取,可以照抄我这个 

用户128309 · ✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈✈㊣伸出发财的小手帮我点一下=。=

一楼回答完成正确。

网站根目录修改Robots.txt的抓取权限,把你希望被抓取的页面设置为允许抓爬   允许抓爬示例:User-agent: Baiduspider

allow:/