robots是搜索引擎蜘蛛访问网站时第一个查看的文件,robots文件的主要功能是告诉搜素引擎蜘蛛在服务器中什么文件是可以查看的什么文件是不能查看的,这个对于网站来说是非常重要的。
Sitemap文件,我们一般叫做网站地图,sitemap是将网站中的所有页面链接聚合在一个页面中,方便蜘蛛爬行抓取整个网站的内容,提高网站的收录。
2、收集长尾关键词
一个网站需要大量的流量做支撑,而主关键词带来的流量每天也就几十个、几百个IP,而且优化起来还有一定的难度,想要获得更多的流量,就必须要做好长尾关键词的排名,我们在新网站上线之前可以好好的整理一些长尾关键词,以后再更新文章的时候可以用作文章的标题或者作出专门的专题页面来进行优化。
3、准备好新站上线的文章
其实,新网站想要快速收录是有秘诀的。我们都知道搜索引擎蜘蛛的食物就是网站的内容。如果,你的网站每天定时定点定量的更新网站的内容,蜘蛛便会每天定时定点的来抓取你的网站,那么网站的收录还不上去吗, 网站收录上去了,排名还不上去?所以,新站上线之前必须要准备好大量的网站。
4、确定网站的整体目标和布局
如果一个网站的定位精准的话,相信对于这个网站的发展会有很大的帮助。所以,我们在网站上线之前就应该考虑好建立这个网站的目的,怎样操作才能达到这个目标,怎么才能提高转化率等等问题。
一、Robots协议
为什么第一点需要注意的是robots,如果在网站还没有上线的时候就被各大搜索引擎抓取到就会影响到日后网站上线的优化难度,因为网站还是测试阶段不管是内容方面还是网页的title都是随意进行设置的。
有很多站长都反应过这个问题,网站还没有正式上线就被搜索引擎给收录了,而且首页的标题都是随意写了几个字符。
为了避免让搜索引擎的蜘蛛抓到测试中的网站内容,崔鹏瀚SEO建议启用二级域名进行测试,然后将二级域名进行屏蔽,这样一来不仅可以解决被抓取到几率而网站上线后也不会影响到主域名的抓取。
二、用户需求分析
用户需求网站还没有上线的时候就应该做一些分析,而新站的定位正是满足这些用户而建立的,而不是只换个了模板啥也没有做。浏览现有排名的站点根据他们现提供的内容或服务进行分析与评判,觉得做的好地方或者功能复制过来在现有的基础上加工一下变成自己的东西。
三、网站导航设置
网站导航是新站规划时最为重要的一步,传统导航就是;首页–公司简–产品中心–关于我们等这样毫无意义的导航分布,导航是每一个网站都有的功能如果能花点心思进行优化会对日后的用户体验有很多的帮助,可以阅读SEO优化重点是站内还是站外
四、首页标题撰写
新站未上线前需要定位好网站首页的标题,因为新站权重点建议先写1-2个关键词就可以了,选用竞争不是很大的关键词即可。
五、URL结构优化
网站的URL结构关系的SEO优化工作,所以需要提前合理规划,一般URL结构都选择树形结构,扁平化的结构也是以但URL路劲不能过长层次也不能深,过深会对搜索引擎抓取页面遇到困难,需要尽量简化让搜索引擎能够轻易抓到能识别URL所表达的内容。
六、内容填充与来源
需要准备网站上线后的内容来源,是通过人工编辑还是借助书籍或其他工具这些都需要提前规划好,尤其是新站上线不能一次填充大量的内容来,需要循序渐进的来填充即使某些页面内容少点都没有太大的关系,但是不能留空白每个栏目增加3-5篇文章或产品即可上线。
楼上们说的很到位
先按照楼上的来
楼主很优秀
你先要给网站设定核心关键词,没有关键词没法优化的,还有你的网站放入的空间或服务器一定要有较大的存储空间,不然后期网站会打开速度慢,对优化很有影响,上线后要对网站的整体情况进行监控和优化,我现在优化的东经易网现在关键词什么的都设置号了,也在优化中。