行业动态

防御吧作为15年知名老牌域名服务商,CNNIC和CANN双认证域名注册商,已经
持续为500多万个域名提供服务,包括智能DNS/自由转移/隐私保护等服务!
爬虫与反爬虫技术
2022-11-25 13:36:09 【

互联网的快速发展离不开爬虫的贡献,百度爬虫、搜狗爬虫、360爬虫、UC爬虫...各式各样的爬虫背后同时也隐藏着一些阻碍互联网发展的爬虫...什么是爬虫?爬虫是如何爬取到数据的?不想让爬虫爬取我的网站,该怎么办?本文将对这些问题做一个深入浅出的介绍。



1、爬虫与反爬虫的概念

互联网站点的流量一部分由人类正常访问行为产生,而高达30%-60%的流量则是由网络爬虫产生的,其中一部分包含友好网络爬虫,如搜索引擎的爬虫、广告程序、第三方合作伙伴程序、Robots协议友好程序等;而并非所有的网络爬虫都是友好的,爬虫流量中仍有约20%~30%的流量来自恶意网络爬虫。从网站业务安全的角度,例如文学博客、招聘网站、论坛网站、电商等网站均以文本为商品作为盈利点,而恶意爬虫则可以通过爬取核心文本从中谋取利益;竞品公司还可以通过利用恶意爬虫爬取商品价格和详情或者注册用户信息后进行同类产品线和价格的研究,通过推出过低价格等手段来破坏市场秩序;对于带宽有限的中小型网站,高频、大规模的恶意爬虫可能会降低网页加载速度,影响真实用户的访问体验,增加网站带宽负担。


由于恶意爬虫带来的不利影响,因此出现了爬虫防御技术-即反爬虫技术,反爬虫技术可分为被动防御机制与主动防御机制。


被动防御机制:主要是根据检测结果展开的,如利用HTTP请求头User-Agent来判断、拦截爬虫请求,或对访问频率过高的IP地址进行封禁。被动防御存在部分缺陷:被动防御检测流程和机制单一,无法应对复杂多变的恶意爬虫,检测误判率高,容易造成误封、漏封。


主动防御机制:是主流的爬虫防御发展方向,通过对网页底层代码的持续动态变换,增加服务器行为的“不可预测性”,大幅提升攻击难度,从而实现了从客户端到服务器端的全方位“主动防护”。


2、网络爬虫技术基本工作流程和基础架构

与正常人类访问者使用浏览器访问网页的工作原理相同,网络爬虫也是根据HTTP协议来获取网页信息的,其流程主要包括如下步骤:


1)对待抓取的URL进行域名解析;


2)根据HTTP协议,发送HTTP请求来获取网页内容。


网络爬虫的基础架构如图1所示。具体而言,网络爬虫首先通过种子URL延伸得到待抓取URL队列,接着网络爬虫从待抓取URL列表中逐个进行读取,读取URL的过程中,会将URL进行DNS解析,得到网站服务器的IP地址以及相对路径,接着再把这个地址交给网页下载器(负责下载网页内容的一个模块)。


对于下载到本地的网页,即网页的源代码,一方面要将这个网页存储到网页库中,另一方面要从下载的网页中再次提取URL地址,新提取出来的URL地址会先在已抓取的URL列表中进行比对,检查该网页是否已被抓取,如果网页没有被抓取过,就将新的URL地址放入到待抓取的URL列表的末尾,等待被抓取,直至待抓取队列为空的时候,网络爬虫就算完成了抓取的全过程,最后对网页库中已下载的网页进行分析与索引后得到收录结果。其中所谓种子URL即为最开始选定的URL地址,网站首页、频道页等丰富性内容较多的页面往往会被作为种子URL。



3、基于自定义cookie的爬虫检测策略

目前的爬虫检测技术主要分为以下四类:一是基于日志分析的检测技术,二是基于访问模式的检测技术,三是基于访问行为的检测技术,四是基于图灵测试的检测技术。


基于日志分析的检测技术是通过对比用户和爬虫名单库的爬虫的User-Agent关键词、IP地址等信息来检测爬虫。

基于访问模式的检测技术通过寻找人类用户与爬虫的不同流量特征,如查询数量、时间间隔模式、搜索操作频率等来检测爬虫。

基于访问行为的检测技术大多使用机器学习模型如神经网络、决策树等通过访问者的点击时间、图片加载情况以及访问停留时长等有利特征来对访问进行分类,从而判断访问是否来自爬虫。

基于图灵测试的检测技术通过让访问者回答一些问题来分析其是否为爬虫,常见的图灵测试系统有验证码测试。

除了上述四类方法,蜜罐技术(隐藏链接)也常被使用,通过在网页中隐藏一些人眼不能发现但爬虫访问能够访问但链接来识别爬虫。


基于自定义cookie的检测技术是一种基于日志分析的主动抵御爬虫的策略,该策略是通过在网站的接口中增加了一些加密参数来实现的,浏览器通过执行返回的JS代码得到具有时效性以及机密性的结果,并将结果添加到cookie中,再次发起请求时携带,正常人类访问者和恶意爬虫的访问过程如图2所示。




具体而言,向客户端返回JS代码,并通过客户端执行JS代码的结果来主动抵御爬虫。cookie的生成过程可以融合客户端浏览器的特性,该特性检测只有在真实的浏览器和真实用户访问行为的情况下才能完成,而无法在一些浏览器内核模拟器上或者一些伪造了请求头User-Agent的情况下得到。比如,服务器返回的检测脚本用于检测浏览器是否存在某个bug,针对实际的浏览器而言,该浏览器本身是存在该bug的,但爬虫程序中伪造的浏览器运行该检测脚本生成对应cookie时,则不会得到正确的cookie,因此可断定访问用户为爬虫。再如,cookie生成脚本中融合浏览器是否具有网页翻译的功能,针对实际的浏览器而言,该浏览器本身是具有网页翻译功能的,但客户端的浏览器运行该检测脚本时,执行网页翻译功能失败,因此也可断定访问用户为爬虫。


针对以自定义cookie为基础的爬虫检测技术,浏览器可以通过执行JS代码获取到后端认可的结果,同理,攻击者也可以通过拦截JS代码并对其分析,从而达到同样的目的。因此返回的JS代码需要具备反拦截以及不易逆向的特点,此时将java script-obfuscator混淆技术结合到基于自定义cookie的检测技术中,保证代码安全。此处的java script-obfuscator混淆技术通常包含JS代码压缩、混淆与加密技术。


4、JS代码压缩、混淆与加密

JS代码压缩是去除JS代码中的不必要的空格、换行等内容,使源码压缩为几行内容,降低代码可读性,同时也可以提高网站的加载速度。


JS代码混淆是一种较为理想、实用的代码保护方案,通过使用变量混淆、字符串混淆、反格式化、控制流平坦化、无用代码注入、对象键名替换、禁用控制台输出、调试保护、域名锁定等手段,在不影响代码原有功能的基础上,使代码变得难以阅读和分析,达到最终保护的目的。JS代码加密是通过某种手段将JS代码进行加密,转成人无法阅读或者解析的代码或将代码完全抽象化加密。


常见的JS代码加密技术有JSfuck、AAEncode、JJEncode、eva l加密。JSfuck、AAEncode、JJEncode加密技术利用各自的符号库对JS代码进行编码,eva l加密往往也都是以eva l(p,a,c,k,e,r)或者是eva l(function(p,a,c,k,e,d)作为代码开头。以上四种加密方式加密特征明显,易于解码,利用浏览器的开发者工具均可以完全还原,与此同时eva l加密技术压栈很严重,可能出现内存溢出情况,所以只适合核心功能加密。特别的,JJEncode有浏览器依赖,代码不能在某种浏览器上运行。另外还有更强大的加密技术,可以直接将JS代码用C/C++实现,浏览器调用其编译后形成的文件来执行相应的功能,如Emscripten、WebAssembly。


变量混淆是将带有含义的变量名、方法名、常量名随机变为无意义的类乱码字符串,降低代码可读性,如转成单个字符或十六进制字符串。


字符串混淆是将字符串阵列化集中放置、并可进行MD5或Base64加密存储,使代码中不出现明文字符串,这样可以避免使用全局搜索字符串的方式定位到入口点。


JS代码格式化的原因是由于保存到本地的JS文件被压缩且不利于观察,格式化即美化,反格式化即如果对JS代码进行格式化,则无法执行,导致浏览器假死。控制流平坦化通过打乱函数原有代码执行流程及函数调用关系,在逻辑处理块前统一加上驱动逻辑块,使代码逻变得混乱无序,简单来讲就是将代码块之间的关系打断,由一个分发器来控制代码块的跳转,如图3和图4所示。



无用代码注入是随机在代码中插入不会被执行到的无用代码,进一步使代码看起来更加混乱。禁用控制台输出是通过置空控制台方法(console.log, console.debug, console.info, console.error, console.exception, console.trace, console.warn)的方式实现的。调试保护是基于调试器特性,对当前运行环境进行检验,加入一些强制调试debugger语句,使其在调试模式下难以顺利执行JS代码。域名锁定是使JS代码只能在指定域名下执行。


5、java script-obfuscator混淆

在前端开发中,作为JS混淆主流的实现,java script-obfuscator库和terser库提供了一些代码混淆功能,也都有对应的Webpack 和Rollup打包工具的插件,从而方便实现页面的混淆,最终输出压缩和混淆后的JS代码,使得JS代码可读性大大降低,java script-obfuscator的混淆选项如图5所示。



java script-obfuscator混淆有众多的参数,但java script-obfuscator混淆后代码的抽象语法树依次包含以下结构:大数组-->数组移位-->解密函数-->控制流平坦化后的核心代码-->无限debugger自执行函数+死代码注入。整体ob的强度几乎完全取决于这四段的代码强度,其中包含加密前的逻辑。


常用混淆工具有YUI Compressor、Google Closure Compiler、UglifyJS、JScrambler以及java script-obfuscator系工具(obfuscator.io、soJSon v5.0 v6.0、JShaman)。


6、总结

爬虫贡献了互联网50%的流量,它对于互联网的繁荣功不可没,但该技术同时也因“用途”而充满争议,爬虫与反爬虫一直处于互相博弈的状态。此消彼长,在这一过程中反爬虫渐渐发展为具备智能交互、数据采集、实时计算、模型分析以及决策判断等能力综合性安全系统,而不再是一个简易工具。相信随着监管越来越严格,爬虫技术的使用边界也将更加明晰,互联网环境也将越来越清澈。


】【打印关闭】 【返回顶部
分享到QQ空间
分享到: 
上一篇怎么保证缓存与数据库的双写一致.. 下一篇服务器安全检测

立足首都,辐射全球,防御吧专注云防御及云计算服务15年!

联系我们

服务热线:010-56157787 ,010-56159998
企业QQ:4000043998
技术支持:010-56159998
E-Mail:800@fangyuba.com
Copyright ? 2003-2016 fangyuba. 防御吧(完美解决防御与加速) 版权所有 增值许可:京B2-20140042号
售前咨询
公司总机:4000043998 01056155355
24小时电话:010-56159998
投诉电话:18910191973
值班售后/技术支持
售后服务/财务
备案专员
紧急电话:18610088800