搜外网>搜外问答>问答页面

robots我这样写对吗,我网站有个链接404 悬赏1元 已结束

User-agent: *
Disallow: /zb_system/script/c_html_js_add.js
Sitemap: https://www.sxgjgcf.com/sitemap.xml

第二种

User-agent: *
Disallow:
Disallow: /zb_system/script/c_html_js_add.js
Sitemap: https://www.sxgjgcf.com/sitemap.xml

第一种写发对还是第二种写法对

http://www.sxgjgcf.com/zb_system/script/c_html_js_add.js[?]这个链接404我这样禁止抓取对吗

追加问题
    12 人参与回答
最佳回答
用户144761 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
用户204937 等 1 人赞同该回答

1、如果是不存在JS,不用屏蔽,蜘蛛不会抓取不存在的东西,这种js也不会被收录;

2、你这么写Robots规则也是正确的,如果压根就没这个js,这也是无实际意义;

3、如果是已收录的页面404,做404死链提交删除即可。

用户179092 · 上海沈泉泵阀公司
用户204937 等 1 人赞同该回答

虽然会写,但是还真的没注意到这个

用户162203 · seo学习群:690388174
用户204937 等 1 人赞同该回答

肯定第一个啊 !

用户204937 等 1 人赞同该回答

从原理出发第一种正确

用户204937 等 1 人赞同该回答

如果是不存在JS,不用屏蔽

用户204937 等 1 人赞同该回答

第一种类型是对的

用户204937 等 1 人赞同该回答

第一种,不需要带绝对地址的,从根目录出发就行

用户204937 等 1 人赞同该回答

这个写的是对的

用户204937 等 1 人赞同该回答

来看小青蛙学习了,今天又是学到了新知识的一天

用户139178 · 聚乙烯醇缩丁醛-天元化工网-小小站长,兢兢业业!
用户204937 等 1 人赞同该回答

第二个为什么多个disallow,没有必要吧

用户204937 等 1 人赞同该回答

不懂啊 这个啊

用户204937 等 1 人赞同该回答

不是很清楚啊啊这个