robots 如何屏蔽大量死链
同一个目录中有大量死链,但不能屏蔽这个目录,里面还有内容,robots如何做到屏蔽。
可以做个死链合集死链.txt,采用用Disallow: /死链.txt,去屏蔽死链.txt文件里面的死链吗。
如果不行,有其他方法吗。
0 人参与回答
该问题还没有收到回答 :(
同一个目录中有大量死链,但不能屏蔽这个目录,里面还有内容,robots如何做到屏蔽。
可以做个死链合集死链.txt,采用用Disallow: /死链.txt,去屏蔽死链.txt文件里面的死链吗。
如果不行,有其他方法吗。