广告联盟网

 找回密码
 注册
查看: 840|回复: 6
打印 上一主题 下一主题

网站的反采集技术

[复制链接]
跳转到指定楼层
1#
发表于 2006-8-16 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
前一段时间同几个朋友聊起内容采集的事情,因为我从未涉足这个领域,就自以为可以找到一个方法来反采集,经过一段时间的研究,似乎是有办法做到的,不是说完全阻止采集,而是让采集的成本变高,或者让采集后的内容无法使用,或者说采集后的内容要花很多人工来分析,过滤。

下面的方法,转自别人的文章,作者:翟振恺(小琦),我摘录了反采集的部分内容。

一、分页文件名规则防采集对策

大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。
实现方法:
我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。

我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分
如果I代表分页的页码,那么我们不要这样加密
page_name=Md5(I,16)&".htm"

最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&"任意一个或几个字母",16)&".htm"

因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力破解MD5,不过不太现实。

二、页面代码规则防采集对策

如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。
所以我们要的这一步做到防采集,就要使代码无规则。
实现方法:
使对方需要提取的标记随机化
1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table 布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。
2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。

做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这批人就是因为懒,才会采集别人网站数据嘛再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。
(采集程序一般是通用的,只有有限的几个参数可以设定)

还有些简单的思路提供给大家:
1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示
2、把一页数据,分为N个页面显示,也是加大采集难度的方法
3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。
如:
大多网站都是 首页----内容索引分页----内容页
如果改成:
首页----内容索引分页----内容页入口----内容页
注:内容页入口最好能加上自动转入内容页的代码

其实,只要做好防采集的第一步(加密分页文件名规则),防采集的效果就已经不错了,还是建议两条反采集方法同时使用,给采集者增加采集难度,使得他们知难页而退。


这些方法同我最初的想法有些不谋而合,所以就懒得再写一遍了。
2#
发表于 2006-8-17 | 只看该作者
越难采集就越难管理,在给别人麻烦的时候也会给自己更多的麻烦,我很乐观,喜欢采就去采吧。
3#
 楼主| 发表于 2006-8-17 | 只看该作者
反采集,只是闲来无聊时念头,并无行动。

Form提交是一个不错的思路。
对于采集的套路,还不熟,只看过创立的。正在学习其它采集工具。
哪个工具有正则表达式,讲来听听。

至于人工拷贝,则是不怕的,因为没有人会人工拷贝几千个页面,不要说上万个页面了。所以不再考虑范围之内。
4#
发表于 2006-8-17 | 只看该作者
原帖由 hao7 于 2006-8-17 21:59 发表反采集怎么会做到?除非用全部用html编写静态页。
把网站内容某些关键词加网站链接还不错,偷走了我的内容,也带走我的链接吧。
过滤所有A标记。
5#
发表于 2006-8-17 | 只看该作者
原帖由 BingQ 于 2006-8-17 16:19 发表form提交意味着搜索引擎无法抓取,防止采集分页同时也阻止了搜索引擎收录分页

人工拷贝比你想像的强大多了以0.1RMB/条的价格随便雇些打工的大学生(其实民工农民都做的来的-_-)就可以了 2000块买2W条数据是很划的 ...
原来我的站,我的工资1000都不到。
6#
 楼主| 发表于 2006-8-17 | 只看该作者
原帖由 BingQ 于 2006-8-17 00:19 发表form提交意味着搜索引擎无法抓取,防止采集分页同时也阻止了搜索引擎收录分页

人工拷贝比你想像的强大多了以0.1RMB/条的价格随便雇些打工的大学生(其实民工农民都做的来的-_-)就可以了 2000块买2W条数据是很划的来的,对一些专业网站来说.

正则嘛没哪个网站系统或程序用不到正则的,比如验证一个字段是否为URL 或 EMAIL只是一个非常普遍的应用
想请教一下,给出一个采集程序,用到正则表达式来过滤干扰代码的,我也好学习以下。

的确用Form就是这样,会造成收录的问题。

的确没有想到,国内的人工拷贝到如此发达的程度,佩服,佩服。
7#
发表于 2006-8-18 | 只看该作者
人工成本很低啊,雇两个打字员,一个月才一千块钱,一天八小时偷你文章,你怎么防?呵呵。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|广告联盟网  

GMT, 2024-9-25 , Processed in 0.060276 second(s), 19 queries .

Powered by Discuz! X3.2

© 2005-2021 www.ggads.com GGADS 广告联盟网

快速回复 返回顶部 返回列表