网站静态页面生成及网站数据采集的攻防

作者: 竞在志者
发布时间:2018-06-21 14:06
浏览:241

本着互联网共享主义精神,特写此文献给建站新手,授人以鱼,不如授人以渔,本文所讲的只是方法和原理,希望大家看完此文,能够从中得到些帮助和启发。  本文从一个ASP程序员的角度用大量实例祥细介绍了动态网站如何生成静态页面原理,又从一个采集程序开发者的角度去祥细介绍了网站数据采集的原理及功防策略。  关于网站生成静态页面,为了让本文读者容易理解,文内列举了目前常用的多种生成静态页面的方法,其中用了很多的实例代码进行说明。  关于网站数据采集攻防,作者本身是一个采集程序的开发者,同时作者也收集研究了多种采集程序,列举了目前国内比较流行的几种防采集策略,并对每种策略作了简单客观的分析评价,希望能给广大站长们提供一些帮助。此章节也把作者原创的防采集方法奉献给大家,目地是为了让大家了解,防采集,不防搜索引擎,是可行的,有效的。  声明:希望各位朋友转载时,不要把原有作者版权去掉,谢谢合作。  由于本人写作水平有限,写的不好的地方,还请大家多多包涵,如要批评或意见,请加我QQ。  目前很多人都开始注重动态页面生成HTML页了,但选择哪种生成HTML的方法和防采集却不防搜索引擎的问题却经常困扰大家。解决此问题则是本文产生的原因。  首先祥细说一下常用的几种生成HTML的方法:  生成HTML方法主要步骤只有两个:  一、获取要生成的html文件的内容  二、将获取的html文件内容保存为html文件  我在这里主要说明的只是第一步:如何获取要生成的html文件的内容:  目前常用获取html文件的内容的方法有几下几种:  1、str="<html标记>内容</html标记>"  str=str&" 内容 数据库读取内容........."  这种方法与是在脚本内写要生成的html内容,不太方便预览生成页面的内容,无法可视化布局页面,更改html模板时会更加复杂。  用这种方法的人很多,但我感觉这种方法是最不方便的。  2、制作单独的HTML模板页,动态的内容用特定的字符作为标记(如:有人用$title$标记为网页标题),用ADODB.Stream或者Scripting.FileSystemObject将其模板内容载入,然后再用替换方法把原先定好的标记替换为动态内容(如:Replace(载入的模板内容,"$title$",rs("title" ) ) )。

目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:  一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问  弊端:  1、此方法只适用于动态页面,如:asp\jsp\php等...静态页面无法判断某个IP一定时间访问本站页面的次数  2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件  采集对策:只能放慢采集速度,或者不采  建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。  评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。  二、用javascript加密内容页面  弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容  采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。  建议:目前没有好的改良建议  评论:建议指望搜索引擎带流量的站长不要使用此方法。  三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“  弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集  采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。  建议:目前没有好的改良建议  评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。  四、只允许用户登陆后才可以浏览  弊端:此方法会严重影响搜索引擎蜘蛛对其收录  采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》  建议:目前没有好的改良建议  评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。  五、用javascript、vbscript脚本做分页  弊端:影响搜索引擎对其收录  采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。  建议:目前没有好的改良建议  评论:感觉懂点脚本语言的人都能找出其分页规则  六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER")  弊端:影响搜索引擎对其收录  采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策  建议:目前没有好的改良建议  评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。  从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧,精彩的地方马上呈献给大家。  下面就是我的防采集策略,防采集而又不防搜索引擎  从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。  一、分页文件名规则防采集对策  大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。  实现方法:  我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。  我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分  如果I代表分页的页码,那么我们不要这样加密  page_name=Md5(I,16)&".htm"  最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&"任意一个或几个字母",16)&".htm"  因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力****MD5,不过不太现实。  二、页面代码规则防采集对策  如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。  所以我们要的这一步做到防采集,就要使代码无规则。  实现方法:  使对方需要提取的标记随机化  1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。  2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。  做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。  还有些简单的思路提供给大家:  1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示  2、把一页数据,分为N个页面显示,也是加大采集难度的方法  3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。  如:  大多网站都是 首页----内容索引分页----内容页  如果改成:  首页----内容索引分页----内容页入口----内容页  注:内容页入口最好能加上自动转入内容页的代码  其实,只要做好防采集的第一步(加密分页文件名规则),防采集的效果就已经不错了,还是建议两条反采集方法同时使用,给采集者增加采集难度,使得他们知难页退。  至此,全文完,欢迎大家在此讨论与此相关技术,谢谢!

文章来源http://www.bjkeywordseo.com

管理文章: