11 人参与回答
亮健好
亮健好 · 亮健好药网-网上买药的正规网站!药品网,药房网请选亮健医药网!
xxy徐老星星权重蜘蛛-池出租 等 3 人赞同该回答

Robots,使用disallow和通用符屏蔽一下

乐逍遥权重蜘蛛-池出租 等 2 人赞同该回答

写一个Robots,禁止抓取第二个页面

天行健咨询
天行健咨询 · 精益生产管理与六西格玛管理咨询,培训机构
权重蜘蛛-池出租 等 1 人赞同该回答

重复URL做好301重定向到一个URL上

Robots禁止蜘蛛抓取

动态链接会产生大量重复URL,尽量使用静属态链接或者伪静态

删除重复的页面,删除后需要向百度提交死链

杭州继保
杭州继保 · 微机保护行业
权重蜘蛛-池出租 等 1 人赞同该回答

进来学习一下

权重蜘蛛-池出租 等 1 人赞同该回答

我也遇到了这个问题。我的方式是这样的,建立404,如果你还没有。用精确搜索看看百度对于两者的收录情况,如果都收录,或者第二个被收录,服务器端删除第二个,然后提交死链。如果第二个没被收录,直接服务器端delete。如果第二个被收录,第一个没被收录,提交死链之后引导蜘蛛爬你第一个页面。楼上说的robot.txt,是针对文明蜘蛛的做法,至于某些引擎的蜘蛛文明不文明,听话不听话,我还没有判断。

沙罗曼蛇?
沙罗曼蛇? · 一只野生的SEOer,seo交流学习,换友链,分享seo资源,QQ:2392240337 VX:XGY970126
权重蜘蛛-池出租 等 1 人赞同该回答

不用纠结了,这就是两个不同的URL,页面也是两个不同的页面,搜索引擎对他们会有不同的看法,不会认为他们是同一个页面的。这是内容页,想优化他就个它多带几个链接过来吧。

推推蛙
推推蛙 · 擅长SEOSEM爱采购诊断、方案编写、优化运维。微信:tuituiwaseo
权重蜘蛛-池出租 等 1 人赞同该回答

1、如果这个preview/下全是简单页面,你不想被百度收录,可以Robots disallow这个文件夹,不让蜘蛛爬行;

2、你要是都想保留,只能是选择disallow。

Sam
Sam · 激光切割机
权重蜘蛛-池出租 等 1 人赞同该回答

1、URL跟优化没什么关系,是静态的就行

2、希望哪页就对哪页做具体优化

3、或者合并成一个页面  搞那么复杂做什么  而且预览页面你也没办法做优化

把两个内容的标题处理一下就行了

链接不一样,内容是一样的,如果想做出区别,标题上可以稍微改动下

你是想说你一个页面有两个网址?