网络爬虫基本原理

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

网络爬虫基本原理

网络爬虫根据需求的不同分为不同种类:

1. 一种是爬取网页链接,通过url链接得到这个html页面中指定的链接,把这

些链接存储起来,再依次以这些链接为源,再次爬取链接指向html页面中的链接……如此层层递归下去,常用的方法是广度优先或者深度优先,根据爬取层次需求不同而选择不同的方法达到最优效果,爬虫的效率优化是一个关键。搜索引擎的第一个步骤就是通过爬虫得到需要索引的链接或数据,存放于数据库,然后对这些数据建立索引,然后定义查询语句,解析查询语句并利用检索器对数据库里的数据进行检索。

2. 一种是爬取数据信息,如文本信息、图片信息等,有时需要做数据分析,通

过某种手段来获取数据样本以供后续分析,常用的方法是爬虫获取指定数据样本或利用现有的公共数据库。本文的微博爬虫和新闻数据爬取都属于第二种类,根据自定义搜索关键字爬取微博信息数据。

3. 对于网络爬虫原理,其实并不复杂。基本思路是:由关键字指定的url把所

有相关的html页面全抓下来(html即为字符串),然后解析html文本(通常是正则表达式或者现成工具包如jsoup),提取微博文本信息,然后把文本信息存储起来。

重点在于对html页面源码结构的分析,不同的html需要不同的解析方法;还有就是长时间爬取可能对IP有影响,有时需要获取代理IP,甚至需要伪装浏览器爬取。(主要是针对像新浪等这些具有反扒功能的网站,新闻网站一般不会有这样的情况)。

对于微博,通常情况下是必须登录才能看到微博信息数据(比如腾讯微博),但是有的微博有搜索机制,在非登录的情况下可以直接通过搜索话题来查找相关信息(如新浪微博、网易微博)。考虑到某些反爬虫机制,如果一个账号总是爬取信息可能会有些影响(比如被封号),所以本文采用的爬虫都是非登录、直接进入微博搜索页面爬取。这里关键是初始url地址。

网络爬虫是搜索引擎抓取系统的重要组成部分。爬虫的主要目的是是将互联网上的网页下载到本地形成一个活互联网内容的镜像备份。这篇博客主要对爬虫及抓取系统进行一个简单的概述。

一、网络爬虫的基本结构及工作流程

通用的网络爬虫的框架如图所示:

网络爬虫框架图

网络爬虫的基本工作流程如下:

1.首先选取一部分精心挑选的种子URL;

2.将这些URL放入待抓取URL队列

3. 从待抓取URL队列中取出待抓取URL,解析DNS,并且得到主机的ip,并将URL 对应的网页下载下来,存储进已下载网页库中。此外,将这些URL放进已抓取URL 队列。

4. 分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进行下一个循环。

二、从爬虫角度对互联网进行划分

可将互联网所有页面分为五个部分:

1. 已下载未过期网页

2. 已下载已过期网页:抓取到的网页实际上是互联网内容的一个镜像与备

份,互联网是动态变化的,一部分互联网上的内容已经发生了变化,这时,这部分抓取到的网页就已经过期了。

3. 待下载网页:也就是带抓取URL队列中的那些页面

4. 克制网页:还没抓取下来,也没有在待抓取URL队列中,但是可以通过

对已抓取页面或者待抓取URL对应页面进行分析获取到的URL,认为是可知网页

5. 还有一部分网页,爬虫是无法抓取下载的,称为不可知网页

三、抓取策略

在爬虫系统中,待抓取URL队列是很重要的一部分。待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面,这也是所谓的抓取策略问题。下面重点介绍几种常见的抓取策略

1. 深度优先遍历策略

深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。

遍历的路径:A-F-G E-H-I B C D

1. 宽度优先遍历策略

宽度优先遍历策略的基本思路是将新下载网页中发现的链接直接插入待抓取URL队列的末尾,也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页,以上图为例:遍历路径为:A-B-C-D-E-F G H I

2. 反向链接数策略

反向链接数是指一个网页被其他网页链接指向的数量,反向链接数表示的是一个网页的内容受到其他人的推荐的程度。因此,很多时候搜索引擎的抓取系统会使用这个指标来评价网页的重要程度,从而决定不同网页的抓取先后顺序。

在真实的网络环境中,由于广告链接、作弊链接的存在,反向链接数不能完全可靠,因此搜索引擎往往考虑一些可靠的反向链接数

4.Partial PageRank策略

Partial PageRank算法借鉴了PageRank算法的思想:对于已经下载的网页,连同待爬取URL队列中的URL,形成网页集合,计算每个页面的PageRank值,计算完之后,将待抓取URL队列中的URL按照PageRank值的大小排列,并按照该顺序爬取页面。

如果每次抓取一个页面,就重新计算PageRank值,一种折中方案是:没抓取K个页面后,重新计算一次PageRank值。但是这种情况还会有一个问题:对于已经下载下来的页面中分析出的链接,也就是我们之前提到的未知网页那一部分,暂时是没有PageRank值的。为了解决这个问题,会给这些页面一个临时的pageRank值:将这个网页所以入链传递进来的PageRank值进行汇总,这样就形成了该未知页面的PageRank值,从而参与排序。下面举例说明:

5.OPIC策略

该算法实际上也是对页面进行一个重要性打分。在算法开始前,给所以页面一个相同的初始现今,当瞎子了某个页面P之后,将P的现今分摊给所有从P中分析出的链接,并且将P的现金清空。对于带抓取的URL,队列中的所有页面按照现金数进行排序。

1. 大站优先策略

对于待抓取URL队列中的所有网页,根据所属的网站进行分类,对于待下载页面数多的网站,优先下载。这个策略也因此叫做大站优先策略。

四.更新策略

互联网是实时变化的,具有很强的动态性,网页更新写了主要决定于何时更新之前已经下载过的页面。

1. 历史参考策略

根据页面以往的历史更新数据,预测该页面未来何时会发生变化,一般是通过泊松分布进行建模预测

2. 用户体验策略

尽管搜索引擎针对于某个查询条件能够返回数量巨大的结果,但是用户往往只关注前几页的结果。因此抓取系统可以优先更新那些现实在现实查询结果前几页中的网页,而后再更新那些后面的网页,这种更新策略也是需要历史信息的。用户体验策略暴力网页的多个历史版本,并且根据过去每次内容变化对搜索质量的影响,得出一个平均值,用这个平局值作为决定何时重新抓取的依据。

3. 聚类抽样策略

相关文档
最新文档