搜外网>搜外问答>问答页面

由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取)

我的robots是如下设置的,但是为什么我的网站首页一直是:由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取)??其他页面没问题。一开始我以为是百度更新需要时间,但是现在是四五天过去了,还是这样子。有没有大神看看?

User-agent: * 

Disallow: /plus/ad_js.php

Disallow: /plus/advancedsearch.php

Disallow: /plus/car.php

Disallow: /plus/carbuyaction.php

Disallow: /plus/shops_buyaction.php

Disallow: /plus/erraddsave.php

Disallow: /plus/posttocar.php

Disallow: /plus/disdls.php

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

Disallow: /include

Disallow: /templets

Sitemap:http://www.smg3d.com/sitemap.xml

Sitemap:http://www.smg3d.com/sitemap.html

追加问题
    2 人参与回答
最佳回答
阿木SEO
阿木SEO · 网站建设、SEO优化(7天上首页)、SEO诊断、企业SEO内训。业务QQ:617684447
阿超 等 1 人赞同该回答

Site了一下,Robots恢复正常,没有再提示由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取)

橙子
橙子 · 苗木种植知识,seo优化技术,入行时间1年

那这个文件给删了也行