搜外网>搜外问答>问答页面

请问如何用Robots文件禁止百度蜘蛛抓取特定类型的链接? 悬赏3元 已结束

请问如何用Robots文件禁止百度蜘蛛抓取包含有“guestbook-sid-[?]

 ”  的网址   完整网址是这样的:https://www.xxxx.com/shop/guestbook-sid-24447.html[?]

追加问题
    15 人参与回答
推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
木土罗凌峰 等 2 人赞同该回答

1、静态的URL只能一个一个的屏蔽掉;

2、如果这些页面要被屏蔽掉,可以去掉生成这些URL的留言版块,从根源取消这些URL;

QQ截图20201224202742

木土 等 1 人赞同该回答

禁止百度蜘蛛抓取本站所有链接:

User-agent: Baizhispider

Disallow: /

User-agent: daozhuanspider

Disallow: /

单个链接shu的话可以直接写dao出。内容最好是写链接的目录形式。

直接把连接加进去。。。

香港谷歌SEO
香港谷歌S · Shuke.→谷歌SEO服务咨询微信:15877060841

有时候百度还是照样抓取的

阳光心健心理设备厂家
阳光心健心 · 安徽阳光心健科技发展有限公司是一家专业心理咨询室设备产品生产厂家,主要从事音乐放松椅,心理沙盘,箱庭,宣泄人,vr音

代码

User-agent: *

Disallow: /shop/*guestbook-sid*.html

解释:

User-agent:

用于指定某个搜索引擎蜘蛛,如果使用通配符*代表所有的搜索引擎蜘蛛,如:

User-agent: Baiduspider指的是指定百度蜘蛛

User-agent: Googlebot 指的是指定谷歌蜘蛛。

Disallow: /

代表着禁止抓取网站的某些内容,如“/”后面没有任何参数代表禁止抓取网站所有内容。

Disallow: /admin/ 禁止抓取admin目录下的所有内容;

Disallow: /cgi-bin/*.htm 禁止抓取/cgi-bin目录下的所有以.htm结尾的文件;

Disallow: /*?* 禁止抓取网站中所有包含问号 (?) 的网址;

Disallow:/ab/ 禁止抓取ab文件夹下面的文件;

海阔天空
海阔天空 · 315防伪标签办理中心-全国315产品防伪查询中心

这个应该禁止动态把,也可以静态写进去的

原来写了屏蔽还可以去站长工具里抓取诊断一下,之前一直没想到这个验证方法

迷%离
迷%离 · 网站客服系统、在线聊天软件、智能客服系统

就按照你的想法设置下,在百度站长上检测下,看看呗!

你禁止动态就可以了,动态不太友好

禁止他爬存页面的文件夹

人见人爱
人见人爱 · 期货公司排名,期货知识,免费期货开户流程

静态网站 可以直接写进去 不抓这个页面

ゞ...
ゞ... · B2B免费信息发布网》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

就这样看看

Disallow: /guestbook-*

这个禁止不了,该来抓取还是一样来的

冷却塔
冷却塔 · 冷却塔

禁止动态就可以了

SEO培训招生中
189