搜外网>搜外问答>问答页面

robots.txt可以设置只抓取html文件么?

像这样:

User-agent: *

Disallow: /*?*

Disallow: /*.php$

Disallow: /*.js$

Disallow: /*.css$

Disallow: /include

Disallow: /templets

追加问题
    7 人参与回答
最佳回答
Viky
Viky · 八年多的SEO老司机

<p>实现不了,你得把你除了你自己创建的栏目之外所有的安装后的文件写上这样才可以</p><p>其实你压根没那个必要,PHPJS、txt(有攻击)这样的文件直接在服务器防火墙设置更好点,设置好后把Robots放到白名单</p><p>你这么做也只是为了节省带宽,你只要把不必要的搜索引擎屏蔽就行,剩下的就是后台栏目那几个重要的屏蔽</p><p>屏蔽完以后每天对网站日志分析,把每天访问的一些垃圾ip在防火墙屏蔽下</p><p>上述所有的内容做好后,你如果再想只留html文件,那会再进行设置</p><p><br></p><p>这是我设置好后的情况,每天都还有一些假蜘蛛访问</p>

ζCóngFlyぺ
ζCóng · seo优化,电脑方面

路过,没弄过特例,一般Robots都正常书写的,没弄那么多特别的

沃森游乐设备
沃森游乐设 · 充气城堡,充气滑梯,移动水上乐园等儿童游乐设备实力生产厂家。

可以啊

可以的

花粥
花粥 · 新手小编,欢迎指教!

这样会影响收录么??

万能的

可以的

SEO培训招生中
189