23 人参与回答
微痕
用户5138 · 学会思考
用户74158用户115592 等 2 人赞同该回答

<p><br></p><p><br></p><p>1、你网站被收录的URL:<a href=" target="_blank" class="show-5118-data" data-url=" rel="Nofollow">>  其它同样内容的URL: 并没有被收录。</p><p>2、你开通的城市只有一个:扬州(yz)</p><p>3、然后你的快照显示收录的页面为<a href=" target="_blank" class="show-5118-data" data-url=" rel="nofollow">>……</p><p>你的城市总站依然是扬州(yz),然后这一篇文章被收录后,百度快照显示的以收录yz开头的页面就可以理解了,不知道这样说,你是否明白?</p>

崔家大院
用户90441 · 网站诊断、建站、快速排名
用户108165 等 1 人赞同该回答

你可以看下百度快照,看看是不是什么时间收录的,然后在后台在看看你的分站是不是调用者一篇文章或者也发布了。在这就是投诉一下快照是不是可以恢复

萧秋水
用户125364 · 怀念seo 福州网站建设

亲用的程序是哪个程序 问下

主域名是一模一样的内容,为什么不收录带3w的而是收录yz的内容,是因为百度蜘蛛先抓取了yz这个网址,所以就先放出来了。 就打个比方你选择某一个城市 就会只在某一个城市显示 

江湖程序的事情

你选择全国 所有城市都会显示

你选择某一个城市 就会只在某一个城市显示 

好好研究研究程序!

我也是做区域装修网站的 能加微信交流吗?? a201712280076

杨南强
用户1064 · 曾二师兄团队SEO主管

原因:程序方面存在问题,发布一篇文章时,自动生产多个地区的URL链接。

造成问题:多篇内容重复。

处理方向:

1、程序方面调整,必须URL和内容11对应,不可多URL对应。

2、301规范化处理,将地区性2级域名重复内容进行跳转
3、Robots.txt文件屏蔽,2级域名相关内容。

在你主站即使WWW下看那个链接依然是yz.开头,这说明是程序的事,不是百度的问题。不登陆你网站后台谁也说不清是什么原因,可能是代码问题,可能是操作问题。

看了源码,虽然在www主站,但是程序本身判定选取的地址是扬州的,所以相应的很多链接都指定yz开头了。

截图信息有点少,我觉得你那个后台显示总站的作用只有一个,就是每个城市都可以展示这篇文章, 但是以当前城市的域名位地址,也就是说如果开设了分城市反而会多出一篇一模一样文章,实际上我试了下,把yz换成www依然可以访问那篇文章。程序代码应该也是不会將某篇文章以WWW开头的,不然假设在城市分站访问某篇文章访问着就又回到www主站了,不符合用户的习惯你说呢?

<p></p><p>回复的人已经答案告诉你了,不懂代码,就好好看看别人怎么说的,还硬要装逼,你这种人也是醉了。<br></p>

你好,从你现在截图的内容来看,你是从网站的后台发布了新内容后,结果选择的是总站却收录的是分站对不对?

如果是这样的话,关键问题还是程序那边的问题,让程序员或者是网络公司的技术部帮你调整一下就可以了。

你选择的总站,然后内容发布到了分站,当然会收录分站。建议你把总站内容也和分站内容也都打开,然后看下,是不是同一文章,显示的地址栏不同。也可能是程序做了调用。

程序和seo是密切相关的,所以要把网站测试好,在做SEO.

到后台 把分城市的 江苏 跟扬州 取消掉。不设立城市分站,直接把扬州的词设置到总的站点上面就好了

太阳花
用户91652 ·

人家做城市分站了

罗晓文
用户12993 · SEO

从首页点进了你的那个文章页,直接跳转二级域名了,程序有问题,大量重复页面必然会导致降权,从程序方面找找原因吧。

刘振勇
用户45901 · wsjpg纹身图案

因为你的是一个二级域名,和主域名是一模一样的内容,为什么不收录带3w的而是收录yz的内容,是因为百度蜘蛛先抓取了yz这个网址,所以就先放出来了。就打个比方,百度收录了你这个网址,,你把yz换成www,也就是,这两个网址是一模一样的,所以百度先抓取了哪个网址就先收录哪个页面。当然对于其他的页面,以后有可能是收录的的页面,也有可能是收录的的页面,也有可能是这类的页面。

不知道你是什么查询收录的,Site:的话那么就是这个域名下的所有收录页面,查询地区的话可以site:这样

栗国杰
用户55415 · 从事seo行业五年了

很明显是程序问题

这两篇文章内容一模一样, 这样对搜索引擎超级不友好。能收录其中一个就不错了。 , ,主域名和二级域名,文章内容重复性过多,不知是程序没设计好,还是怎样的问题,建议修改。

卅
用户65148 · 权重5网站目录,蜘蛛多,欢迎s我提交

待发布整理

常州优化
用户58312 · 「常州SEOer-吴健康」擅长单词优化-整站优化-多年钻研企业站点SEO

可以设置Robots.txt禁止抓取啊

你可以再观察一下

这个后台具体设置不知道,但是你可以把yz换成www看能不能访问

如果能的话,是不是www给的入口不如yz的

施先生
用户1023 · 资深的SEO/SEM工作者和管理者

你分站也在你的页面内的,如果分站效果好权重好,那么又在你总站内。被收录就很正常了。或者总站和分站共用一个服务器,那么抓取的时候自然也会被抓到。

沧海一哭
用户5665 · 这一行,我干了13年了。。。。

这个后台具体设置不晓得,你可以把yz换成www看能不能访问

如果能的话,是不是www给的入口不如yz的