基于信任指数的对抗web垃圾页面方案研究
《基于博弈论的Web服务信任评估模型》范文
《基于博弈论的Web服务信任评估模型》篇一一、引言在现今的信息技术领域中,Web服务的广泛应用催生了对其可靠性与安全性的更高要求。
而如何确保Web服务的信任性是确保服务质量与数据安全的重要前提。
博弈论作为现代数学领域的一种研究工具,具有模拟并解析冲突问题中的策略决策特点。
本文提出了基于博弈论的Web服务信任评估模型,以此构建并维护网络环境的信任体系。
二、背景及现状分析近年来,Web服务作为信息技术服务的主要手段,为个人及企业用户提供了诸多便利。
然而,Web服务在开放网络环境中运行时面临着如信息不对称、欺骗攻击、服务中断等风险,这些风险严重影响了Web服务的信任度。
目前,虽然已有一些信任评估模型被提出,但这些模型往往忽视了服务提供者与服务消费者之间的博弈关系,无法全面、有效地进行信任评估。
因此,如何从博弈论的视角建立Web服务信任评估模型,已成为研究领域的热点。
三、博弈论的引入与理论分析博弈论,即对策论,是一种研究决策主体在冲突环境下如何进行策略选择的数学理论。
在Web服务环境中,服务提供者与服务消费者之间存在明显的博弈关系。
例如,服务提供者希望最大化其收益,而服务消费者则希望以最小的成本获得最优的服务质量。
此时,如何构建一个既考虑到服务提供者利益又保护消费者权益的信任评估模型显得尤为重要。
四、基于博弈论的Web服务信任评估模型构建针对上述问题,本文提出了一种基于博弈论的Web服务信任评估模型。
该模型主要由以下四个部分组成:1. 模型基本构成:首先定义了博弈的参与者、信息结构、策略集和效用函数等基本元素。
在这个模型中,服务提供者和服务消费者作为主要的博弈参与者进行交互。
2. 信任值的量化评估:通过对历史交易数据的分析,利用博弈论中的合作与竞争关系,对服务提供者的行为进行量化评估,形成信任值。
3. 动态调整策略:根据服务消费者的反馈和信任值的变化,动态调整对服务提供者的信任度评估策略。
4. 反馈与优化:通过收集用户反馈和交易数据,不断优化模型参数和策略,提高模型的准确性和有效性。
深信服Web业务安全解决方案
深信服Web 业务安全解决方案目录一、Web 安全的挑战 (3)二、Web 安全的问题 (3)1)开发时期遗留问题 (3)2)系统底层漏洞问题 (3)3)运维管理中的问题 (3)4)破坏手段多样问题 (3)三、NGAF 解决之道 (3)基于安全事件周期的设计 (4)基于黑客攻击手段的安全防护 (4)提供云端安全服务 (4)四、价值体现 (4)五、方案优势 (5)1)Web 业务三维立体防护: (5)2)更高性价比: (5)3)提升安全运维效率: (5)六、部分成功案例 (5)一、Web 安全的挑战随着互联网技术的高速发展,绝大部分客户都已经将自身业务迁移到互联网上开展,而这当中又主要是以 Web 服务为载体进行相关业务的开展,Web 成为当前互联网应用最为广泛的业务。
而针对 Web 业务的安全问题也越来越多。
如 2016 年 4 月底的 Struts2 S2-032 让网站的安全问题又引发了业界普遍的关注,很多网站纷纷中招,被黑客入侵造成了严重损失。
从历史Struts2 漏洞爆发数据看,此前每次漏洞公布都深度影响到了政府、金融等行业。
网站作为主要的对外门户,已经成为黑客发起攻击的首要目标,网站一旦遭遇攻击,将有可能导致严重的后果:网站被篡改,直接影响对公众树立的社会形象;网站业务被攻击导致瘫痪,影响效率和经济利益;网站敏感数据被窃取,影响单位信誉;网站被攻陷后成为跳板,渗透到内部网络,造成更大面积的破坏;被第三方监管机构,漏洞报告平台通报,带来负面影响;二、Web 安全的问题针对 Web 的攻击往往隐藏在正常访问业务行为中,导致传统防火墙、入侵防御系统无法发现和阻止这些攻击。
Web 业务系统面临的安全问题是不是单方面的,概括起来主要有以下四个方面:1)开发时期遗留问题由于 Web 应用程序的编写人员,在编程的过程中没有考虑到安全的因素,使得黑客能够利用这些漏洞发起对网站的攻击,比如 SQL 注入、跨站脚本攻击等。
基于信任的Web信息采集的研究与实现的开题报告
基于信任的Web信息采集的研究与实现的开题报告一、选题意义随着互联网的高速发展,Web上充满了各种各样的信息。
信息的正确性和可信度一直都是Web信息采集领域中重要的问题。
由于大量的信息可能在各种情况下被重复组合和去除,Web上的信息采集就变得越来越复杂和困难。
要准确地采集和处理信息的需要不仅仅是一定的技术功底,同时也需要高度信任和安全的环境。
基于以上问题,我们选题进行基于信任的Web信息采集的研究和实现,以此提高采集信息的准确性和可信度,同时对于网络社区和经济活动的发展也有一定的推动与完善作用。
二、研究内容本文研究主要针对基于信任的Web信息采集,具体内容包括:1. Web信息采集的概念、意义和现状通过调研和分析Web信息采集领域中各项技术,探究Web信息采集的概念、意义和现状,及其对社会和经济活动发展带来的影响。
2. 基于信任的Web信息采集技术的设计与实现在现有的Web信息采集技术的基础之上,通过分析、设计和实现一种基于信任的Web信息采集技术,提高数据的准确性和可信度,使得数据更加具有实用价值。
3. 基于信任的Web信息采集技术的评估与验证通过实验证明基于信任的Web信息采集技术的有效性和可行性,从而提高信息采集的质量,为信息的正确和可信性提供保障。
三、研究方法本文采用“文献调研、实证研究、定性分析、定量分析”等研究方法,进行了基于信任的Web信息采集的研究和实现。
具体方法如下:1. 阅读相关文献,调研Web信息采集技术的现状和发展动态。
2. 进行实证研究,通过开发基于信任的Web信息采集技术,对信息采集中的问题进行解决和优化。
3. 进行定性和定量的分析,提取和讨论影响Web信息采集的主要因素和关键技术。
四、预期结果通过本文的研究,预期得到以下结果:1. 提出一种基于信任的Web信息采集技术,并完成相应的实验验证,验证技术的有效性和可行性。
2. 对现有的Web信息采集技术进行调研和分析,了解当前信息采集领域发展的现状和态势。
WEB安全防护解决方案
WEB安全防护解决方案一、概述随着互联网的快速发展,WEB应用程序的使用越来越广泛,但同时也面临着越来越严峻的安全威胁。
为了保护WEB应用程序的安全性,我们需要采取一系列的防护措施。
本文将介绍一种综合的WEB安全防护解决方案,以确保WEB应用程序的安全性。
二、解决方案1. 防火墙防火墙是WEB安全的第一道防线,可以对网络流量进行监控和过滤,阻止恶意攻击和非法访问。
我们建议使用硬件防火墙和软件防火墙相结合的方式,确保对网络流量的全面监控和防护。
2. 漏洞扫描定期进行漏洞扫描是保证WEB应用程序安全的重要措施。
通过使用专业的漏洞扫描工具,可以发现WEB应用程序中存在的漏洞,并及时采取措施进行修复。
同时,还应定期更新和升级WEB应用程序的软件版本,以修复已知的安全漏洞。
3. 跨站脚本(XSS)防护XSS攻击是最常见的WEB安全威胁之一。
为了防止XSS攻击,我们建议在WEB应用程序中使用输入验证和输出编码的机制,过滤恶意脚本和HTML标签。
此外,还可以使用内容安全策略(CSP)来限制页面中可执行的脚本和资源。
4. 跨站请求伪造(CSRF)防护CSRF攻击是另一种常见的WEB安全威胁。
为了防止CSRF攻击,我们建议在WEB应用程序中使用随机生成的令牌(token)来验证每个请求的合法性。
令牌应该与用户的会话相关,并在每次请求中进行验证。
5. SQL注入防护SQL注入攻击是一种利用WEB应用程序对用户输入的处理不当,从而导致数据库被非法访问的攻击方式。
为了防止SQL注入攻击,我们建议使用参数化查询或预编译语句来处理用户输入,并对输入进行严格的验证和过滤。
6. 文件上传安全WEB应用程序中的文件上传功能往往容易被攻击者利用来上传恶意文件。
为了保证文件上传的安全性,我们建议对上传的文件进行严格的类型和大小限制,并对上传的文件进行病毒扫描和安全性检查。
7. 强化访问控制访问控制是WEB应用程序安全的重要组成部分。
Web服务环境下基于信任的访问控制研究的开题报告
Web服务环境下基于信任的访问控制研究的开题报告一、研究背景随着互联网技术的发展和普及,Web服务已成为当前互联网数据交换的主要方式之一。
然而,在Web服务环境下,安全问题一直是亟待解决的重大问题之一。
其中,访问控制是Web服务中最关键的安全控制之一。
访问控制旨在确保系统确保访问者的身份、权限等信息,以保证系统的安全性、完整性和可靠性。
但是,传统的访问控制系统缺乏灵活性,无法适应Web服务中多种安全策略和访问场景的需求,因此需要一种基于信任的访问控制方法来满足Web服务的安全需求。
二、研究内容1. Web服务安全性原理和安全特性分析:研究Web服务安全性原理和安全特性,明确访问控制在Web服务安全框架中的定位和作用,为提出基于信任的访问控制方法提供基础和方向。
2. 基于信任的访问控制模型研究:综合现有访问控制模型的优点,并在模型中引入信任机制,提高访问控制系统的安全性和灵活性。
同时,结合Web服务应用场景,设计相应的访问控制策略。
3. 基于XACML的实现:使用XACML实现基于信任的访问控制模型,对访问控制策略进行管理,精确控制Web服务的安全性,防止未授权访问和数据泄露等安全问题。
三、研究意义基于信任的访问控制具备更高的安全性和灵活性,在Web服务安全领域中具有重要的应用和推广价值。
该研究不仅可以帮助企业和机构提高Web服务的安全性,减少安全威胁,还可以为云计算、物联网、大数据等领域的安全控制提供借鉴和参考。
四、研究方法本文采用文献资料法、案例调研法、模型设计法等多种研究方法,通过对已有基于信任的访问控制方法的分析和比较,提出基于信任的访问控制模型,结合XACML技术实现该模型,并进行性能与安全评估。
五、预期结果将提出设计一种具有信任机制的Web服务访问控制模型,并实现基于该模型的安全策略。
同时,对本研究所采用的模型的可靠性和安全性进行评估和验证,以衡量该模型的实际效果和应用价值。
通过实验验证,证明该模型能够在保证Web服务安全性的前提下,提供更好的安全保障和更强的灵活性。
推荐-Web服务中的信任问题研究 47页 精品
主要缺陷:很少考虑如何有效识别恶意行为
惩罚机制
利用反馈信息识别恶意行为
2021/1/11
12
利用反馈信息识别恶意行为
当前主要借助数据挖掘技术,例如
利用聚类技术检测和过滤掉一些异常的反馈信息 通过挖掘出实体间相似行为特征,进而识别协同作
2021/1/11
3
什么是信任?
信任是一个非常主观的概念 信任是一种社会行为 信任是一种心理状态 过分相信或过度缺乏信任都
可能会造成一定的经济损失
信任管理需要成本 聪明的人,懂得用平和以及
宽大的胸怀去接纳别人,这 就是信任
……
2021/1/11
4
信任的决定因素
决定者因素 (DecisionMaker Factors)
8
主要衡量途径
基于安全凭证的方法
例子:基于PKI(public key infrastructure)的 CA(certificate authority)机制
优点:能够保证所提供数据的真实性和完整性 缺点:不能保证数据自身的质量
基于反馈信息的方法
利用积累的交易反馈信息预测实体的未来行为 优点:可以借鉴其他实体的交易经历进行信任判断
弊行为
主要缺陷:
虚假反馈信息的干扰 被评估者拥有的反馈信息量也常常不均衡
识别准确度受到影响
2021/1/11
13
我的解决方案:ServTrust模型
模型设计 安全机制 体系结构 信任评估
2021/1/11
14
模型设计
信任评估模型(Trust evaluation model)是指建 立和管理信任关系的协同框架,用如下六元组
《基于博弈论的Web服务信任评估模型》范文
《基于博弈论的Web服务信任评估模型》篇一一、引言随着互联网的迅猛发展,Web服务在各行业中扮演着日益重要的角色。
然而,由于网络环境的复杂性和不确定性,Web服务的信任问题成为了一个亟待解决的难题。
为了解决这一问题,本文提出了一种基于博弈论的Web服务信任评估模型。
该模型通过引入博弈论的思想,对Web服务的信任关系进行建模和分析,旨在为服务提供者和消费者提供一种可靠、有效的信任评估方法。
二、相关概念及背景1. Web服务信任评估:Web服务信任评估是衡量服务提供者与消费者之间信任程度的一种方法,它涉及对服务质量的评估、服务可靠性的分析以及服务信誉的判断等方面。
2. 博弈论:博弈论是一种研究决策主体在特定条件下的行为决策及策略选择的理论。
通过建立博弈模型,可以对各决策主体的利益关系、决策行为以及最终结果进行分析。
三、基于博弈论的Web服务信任评估模型构建1. 模型框架本模型主要包括以下几个部分:服务提供者与消费者的信任关系建模、信任度量的博弈过程、信任评估算法以及信任反馈机制。
2. 信任关系建模在模型中,我们将服务提供者与消费者之间的信任关系视为一种博弈关系。
通过分析双方的利益关系、决策行为以及可能的结果,建立信任关系的博弈模型。
3. 信任度量的博弈过程在博弈过程中,我们考虑了服务提供者的服务质量、可靠性以及信誉等因素,以及消费者的需求、期望和评价等因素。
通过分析这些因素在博弈过程中的相互作用,实现对服务信任度的度量。
4. 信任评估算法根据信任度量的博弈过程,我们设计了一种基于多因素加权的信任评估算法。
该算法综合考虑了服务提供者的历史表现、当前表现以及消费者对服务的评价等因素,对服务信任度进行评估。
5. 信任反馈机制为了实现动态的信任评估,我们引入了信任反馈机制。
通过收集和分析消费者的反馈信息,对服务提供者的信誉进行实时更新,以便更好地反映服务提供者的实际表现。
四、模型应用及效果分析1. 模型应用本模型可广泛应用于各种Web服务场景,如云计算、物联网、电子商务等。
《基于博弈论的Web服务信任评估模型》范文
《基于博弈论的Web服务信任评估模型》篇一一、引言随着互联网技术的迅猛发展,Web服务已成为信息时代的主要服务模式。
然而,由于网络环境的复杂性和不确定性,Web服务的信任问题逐渐凸显。
如何准确评估Web服务的信任度,成为了亟待解决的问题。
本文提出了一种基于博弈论的Web服务信任评估模型,旨在为服务提供者和消费者提供可靠的信任评估依据。
二、博弈论与Web服务信任博弈论是一种研究决策主体在相互影响下如何进行决策的数学理论。
在Web服务环境中,博弈论可以用来描述服务提供者和服务消费者之间的互动关系,以及他们在信任建立和维持过程中的策略选择。
本文提出的信任评估模型以博弈论为基础,通过分析服务提供者和服务消费者之间的博弈行为,构建了一个动态的信任评估机制。
该机制能够根据双方的交互历史和当前情境,动态调整信任评估结果,从而更准确地反映Web服务的信任状况。
三、模型构建1. 模型假设在构建模型之前,我们做出以下假设:(1)服务提供者和消费者都是理性的,他们会根据自身利益进行决策。
(2)服务提供者和消费者之间的交互具有重复性,即他们之间可能进行多次交易。
(3)信任评估受到多种因素的影响,包括服务质量、历史交互记录、第三方评价等。
2. 模型框架基于上述假设,我们构建了一个基于博弈论的Web服务信任评估模型框架。
该模型包括以下几个部分:(1)信任评估指标体系:包括服务质量、历史交互记录、第三方评价等指标,用于全面反映Web服务的信任状况。
(2)博弈分析模块:通过对服务提供者和服务消费者之间的博弈行为进行分析,了解双方的策略选择和决策过程。
(3)动态信任计算模块:根据双方的交互历史和当前情境,动态计算Web服务的信任度,并实时更新信任评估结果。
(4)信任反馈机制:将信任评估结果反馈给服务提供者和消费者,帮助他们更好地了解Web服务的信任状况,并据此做出决策。
四、结论本文提出的基于博弈论的Web服务信任评估模型,能够准确反映Web服务的信任状况,为服务提供者和消费者提供可靠的信任评估依据。
WEB安全防护解决方案
WEB安全防护解决方案一、背景介绍随着互联网的快速发展,网络安全问题日益突出,WEB应用程序成为黑客攻击的主要目标之一。
为了保护WEB应用程序的安全,提高系统的可靠性和稳定性,开发一个全面有效的WEB安全防护解决方案显得尤为重要。
二、问题分析1. SQL注入攻击:黑客通过在用户输入的数据中插入恶意的SQL代码,从而获取或篡改数据库中的数据。
2. 跨站脚本攻击(XSS):黑客通过在网页中插入恶意脚本,获取用户的敏感信息或进行其他恶意操作。
3. 跨站请求伪造(CSRF)攻击:黑客通过伪造合法用户的请求,进行未经授权的操作。
4. 文件上传漏洞:黑客通过上传恶意文件,执行恶意代码,从而获取服务器的控制权。
5. 会话劫持:黑客通过窃取用户的会话信息,冒充合法用户进行操作。
三、解决方案1. 输入验证和过滤:对用户输入的数据进行严格的验证和过滤,防止恶意代码的注入。
可以使用正则表达式、过滤器等技术进行实现。
2. 参数化查询:使用参数化查询方式,将用户输入的数据与SQL语句分离,避免SQL注入攻击。
3. 输出过滤和编码:对输出到网页的数据进行过滤和编码,防止XSS攻击。
可以使用HTML编码、URL编码等技术进行实现。
4. 防御CSRF攻击:在用户发起请求时,生成一个随机的token,并将其嵌入到请求中。
服务器在接收到请求时,验证token的合法性,以防止CSRF攻击。
5. 文件上传控制:对上传的文件进行严格的类型和大小限制,并对上传的文件进行病毒扫描和文件内容检查,以防止文件上传漏洞。
6. 强化会话管理:使用HTTPS协议传输敏感信息,使用安全的会话管理机制,如使用随机生成的会话ID、设置会话超时时间等,以防止会话劫持。
四、实施步骤1. 安全漏洞评估:对WEB应用程序进行全面的安全漏洞评估,发现潜在的安全风险。
2. 设计安全策略:根据评估结果,制定相应的安全策略,明确解决方案的具体实施措施。
3. 实施安全措施:根据安全策略,对WEB应用程序进行相应的安全措施的实施,如输入验证和过滤、参数化查询、输出过滤和编码等。
信任网络中多维信任序列挖掘与安全防御研究的开题报告
信任网络中多维信任序列挖掘与安全防御研究的开题报告一、选题的背景和意义随着互联网的快速发展和不断普及,人们之间的社交交流也逐渐从线下转移到了线上,同时各种类型的网络攻击也不断涌现,例如钓鱼、恶意软件、网络诈骗等。
在这样一个庞大的互联网世界中,对于用户的信任和信誉问题显得尤为重要,因为信任和信誉的建立可以有效地提升社交关系的质量和价值,增强用户对于网络环境的安全感,降低网络攻击的风险。
但是,为了实现对于用户信任和信誉的有效管理和维护,在信任网络中需要对于用户的多维信任序列进行挖掘和分析,从而实现对于用户信任和信誉的有效评估和管理。
同时,在网络安全防御方面,对于信任网络中的异常行为和恶意行为进行监测和预防,可以有效地提升网络的安全性和稳定性,为用户提供更加安全的网络环境。
因此,本文旨在针对信任网络中多维信任序列挖掘和安全防御问题进行研究,并寻找有效的解决方案,以提升信任网络的安全性和用户的信任度。
二、研究的内容和方法(一)研究内容1. 对于信任网络中多维信任序列的挖掘和分析方法进行研究,探索有效的信任度评估算法和信誉分析模型。
2. 针对信任网络中的异常行为和恶意行为进行监测和分析,对于网络攻击进行有效的预测和防御。
3. 探索基于机器学习和数据挖掘技术的信誉管理和网络安全防御技术,提升信任网络的安全性和稳定性。
(二)研究方法1. 基于数据挖掘和机器学习技术,对于信任网络中的多维信任序列进行挖掘和分析,实现对于用户信任和信誉的有效评估和管理。
2. 集成基于深度学习和模型预测的异常行为检测算法,实现对于信任网络中的异常行为和恶意行为的实时监测和预防。
3. 构建基于分布式计算的信誉管理和网络安全防御平台,以提升信任网络的安全性和稳定性。
三、预期成果和意义(一)预期成果1. 实现对于信任网络中的多维信任序列的挖掘和分析,提供一种有效的评估和管理用户信任和信誉的算法和模型。
2. 集成基于深度学习和模型预测的异常行为检测算法,提供一种有效的预测和防御信任网络中异常行为和恶意行为的方法。
主题相似度与链接权重相结合的垃圾网页排序检测
主题相似度与链接权重相结合的垃圾网页排序检测韦莎;朱焱【摘要】针对因Web中存在由正常网页指向垃圾网页的链接,导致排序算法(Anti-TrustRank等)检测性能降低的问题,提出了一种主题相似度和链接权重相结合,共同调节网页非信任值传播的排序算法,即主题链接非信任排序(TLDR).首先,运用隐含狄利克雷分配(LDA)模型得到所有网页的主题分布,并计算相互链接网页间的主题相似度;其次,根据Web图计算链接权重,并与主题相似度结合,得到主题链接权重矩阵;然后,利用主题链接权重调节非信任值传播,改进Anti-TrustRank和加权非信任值排序(WATR)算法,使网页得到更合理的非信任值;最后,将所有网页的非信任值进行排序,通过划分阔值检测出垃圾网页.在数据集WEBSPAM-UK2007上进行的实验结果表明,与Anti-TrustRank和WATR相比,TLDR的SpamFactor分别提高了45%和23.7%,F1-measure(阈值取600)分别提高了3.4个百分点和0.5个百分点,spam比例(前三个桶)分别提高了15个百分点和10个百分点.因此,主题与链接权重相结合的TLDR算法能有效提高垃圾网页检测性能.【期刊名称】《计算机应用》【年(卷),期】2016(036)003【总页数】5页(P735-739)【关键词】垃圾网页检测;链接作弊;排序算法;主题相似度;非信任值传播【作者】韦莎;朱焱【作者单位】西南交通大学信息科学与技术学院,成都610031;西南交通大学信息科学与技术学院,成都610031【正文语种】中文【中图分类】TP181随着互联网的飞速发展,网络信息数据不断膨胀。
搜索引擎已成为人们获取信息的重要途径。
然而,网页作弊者利用各种手段欺骗搜索引擎以获得高于其应得的排名,从而获取商业利益,这种行为称为Web spam。
研究发现,2011年垃圾网页比例已达到20%[1]。
随着Web 2.0的发展,用户能方便地在互联网上添加内容,使得作弊者能更方便地通过添加内容进行网页作弊[2]。
外文翻译--网站设计中消费者的信任与不信任问题的研究(节选)
外文翻译--网站设计中消费者的信任与不信任问题的研究(节选)中文3050字,1400单词,8600英文字符出处:Ou C X, Sia C L. Consumer trust and distrust: An issue of website design[J]. International Journal of Human-Computer Studies, 2010, 68(12):913-934.外文文献Consumer trust and distrust: An issue of website designCarol XiaojuanOu,Choon Ling SiaAbstractResearchers have long speculated about the distinction between trust and distrust, yet the majority of studies on trust have treated them as essentially the same construct on opposite ends of a continuum. In order to resolve this ambiguity, we propose a theoretical framework to investigate the antecedents and influences of trust and distrust in the online shopping context, relying on the literature of website design and consumer trust, ambivalence theories, as well as emerging studies on distrust in the work place. Our findings indicate that trust and distrust are two separate concepts by reason of their distinct cognitions, different antecedents and different influences on consequent outcomes. In particular, the results show that specific website design attributes have distinct effects on shaping consumers' trust and distrust. These findings suggest new ways in which website attributes can be fine-tuned by website designers and managers. Keywords: Consumer trust; Distrust; Website design; Functional perception (FP); Motivating perception (MP)1.IntroductionConsumer trust in the virtual environment has been extensively investigated in the past decade. However, little attention has been paid to trust's counterpart, distrust. The lack of investigation is largely due to a commonly held assumption that trust and distrust are two sides of the same coin. Consequently, evidence of high trust has typically been regarded as equivalent to low distrust, and the antecedents and outcomes of trust have been treated as the converse of those of distrust. Recently, however, challenges to this assumption have emerged. Some scholars suggest that distrust is a qualitatively different construct from trust (Lewicki et al., 1998; McKnight et al., 2004). Consistently, neuroscience theories and functional neuron-imaging tools (Dimoka, et al., 2007) suggest that trust and distrust are connected to different cognitive parts of the brain: trust is associated with the caudate nucleus and the medial prefrontal cortex, while distrust is associated with the amygdala and the right insular cortex. These studies have suggested the possibility of the simultaneous coexistence of trust and distrust. In terms of their influences, distrust may have a more negative impact on consumers' consumption decisions than what could be attributed to a simple degradation of trust. If distrust is distinct and has a significant effect, research that ignores distrust might yield a biased estimation of consumer behavior due to this important missing variable. Howeverscholarly knowledge about how distrust is formed and how its consequences differ from those of trust is scarce.In the context of website design and online purchasing behavior, the extant literature focuses on the effect of website design on trust building, but little research to date has modeled the impact of website design on the formation of distrust and itssubsequent effect on consumers' buying intention. This might have also biased the estimation of the role of website design in consumer behavior. For online consumers, it is easy to switch from one website to another. The complexity of the virtual world and online transactions with unseen and unknown e-vendors requires consumer trust, but also precipitates distrust.If indeed distrust and trust can be treated separately, an investigation into how they form and co-exist in online consumers' perception and behavior requires both theoretical and practical studies. Trust is regarded as a positive-valent belief that compels involved parties, such as online consumers in this research context, to take actions (such as buying) even with the exposure of risk; while distrust is a negativevalent belief that leads to protective actions to reduce risk (Luhmann, 1979). The combination of trust and distrust has the potential to simplify the process of consumer decisions and keep their perceptions functional. T o motivate consumers to make online purchases, vendors need to carefully fine-tune their website attributes by nurturing trust and minimizing distrust, where a change in one may not lead to a corresponding change in the other. Consequently, determining whether trust and distrust are opposite ends of a continuum as is popularly viewed in many prior studies, or are actually two distinct constructs, has significant implications for website design and management. If they are found to be the same construct, then managing the same website attributes would be sufficient to simultaneously raise trust and lower distrust in a website. If however, they are different constructs, then different sets of website attributes may need to be managed in order to elevate trust, and to impede distrust.Nevertheless, to the best of our knowledge, no research simultaneously links and empirically tests trust, distrust and the effects of website design in a single model. Grounded on ambivalence theories, especially Oliver's (1997) three-factor framework, this study attempts to empirically test the distinction between trust and distrust, considering that they are induced by different website-design factors and have asymmetrical effects on buying intention in the online shopping context.Following the introduction, we first explain ambivalence theories in order to understand the nature of the relationship between trust and distrust. Then we include various website-design factors as antecedents, and buying intention as the outcome in the framework of trust and distrust in Section 3. The methodology and data analysis are described in Sections 4 and 5,respectively. We discuss the results in Section 6 and conclude this study in the final section.2.Deliberating trust and distrustNormatively, scholars generally consider trust to be ??good'' or ??positive,'' while distrust is ??bad'' or ??negative.'' In an organizational study, Lewicki et al.'s (1998) trust and distrust framework describes how trust in the work place could be characterized by hope, faith, assurance, confidence, and initiative, whereas distrust could be characterized by fear, skepticism, cynicism, wariness, and watchfulness. In an influential study investigating online consumers' trust, scholars suggest ??negatively worded trust items tend to factor separately into distrust, which is conceptually separate from trusty we used all positively worded [trust] items'' (McKnight et al., 2002, p. 341). Thus the deliberation of trust and distrust can be traced back toambivalence theories on examining positive-valent and negative-valent attitudinal reactions.Ambivalence research theorizes that, even in the same relationship, individuals experience different encounters with different intentions, and these lead to different outcomes; therefore a relation often contains simultaneously positive and negative evaluative processes in individuals (Cacioppo and Berntson, 1994). Interestingly, even though physical constraints may restrict behavioral manifestations to bivalent actions (for example, approach–withdrawal as the behavioral manifestation of trust–distrust behavior), psychological evaluation could encompass both positive and negative processes (Cacioppo and Berntson, 1994; Petty et al., 1997). Thus ambivalence theories emphasize that the positive-valent and negative-valent attitudinal reactions should not be oversimplified into a single choice (Watson and Tellegen, 1985). More specifically, the twofactor theory in the work place (Herzberg et al., 1967), together with the generic three-factor framework about product evaluation (Oliver, 1997), provides an explicit direction to investigate the factors contributing to positive-valent and negative-valent attitudes.Herzberg et al.'s (1967) study clearly indicates that the factors contributing to employees' positive and negative job attitudes are distinct. They label the factors involved in an unhealthy psychological work environment as hygiene factors, for they act to prevent the development of employees' negative feelings at work (Herzberg et al., 1967). Herzberg and his colleagues argue that when these factors deteriorate to a level below which the employee considers acceptable, bad feelings ensue. In later related studies, scholars (Agustin and Singh, 2005;Oliver, 1997) have extended the concept of hygiene perception to the consumption context, specifying that a hygiene factor is related to a consumer's perception of a product's functionality.In contrast to hygiene perception, Herzberg et al. (1967) suggest that motivation is the other source of attitudes toward work, and motivatingfactors are those ??job factors [that] reward the needs of the individual to reach his aspirations'' (p. 114) and thus formulate an employee's positive feeli ngs toward work. They claim, ??these effects on the individual can be conceptualized as an actuating approach rather than avoidance behavior. Since it is in the approach sense that the term motivation is most commonly used, we designate the job factors as the motivators'' (Herzberg et al., 1967, p. 114). Grounded on the concept of motivating perception, later research (Oliver, 1997; Agustin and Singh, 2005) suggests that this ??motivation'' taps the development of social bonds and relationships in marketing exchanges. More specifically, Oliver (1997) classifies the product attributes (i.e., product characteristics) into three categories: essential attributes, bivalent attributes, and psychological-extra attributes. Essential attributes are those fundamental but unprocessed attributes only capable of causing ill feelings when flawed. Bivalent attributes are those upward and downward translatable attributes that can influence both ill feelings and good feelings, providing intermediate amounts of both. Psychological-extra attributes are a means of fulfilling consumer needs beyond those at the functional level, which can be termed enthusiasms. Oliver's (1997) study clearly shows they have different impacts on consumers' evaluation of a product.译文:网站设计中消费者的信任与不信任问题的研究摘要研究人员对信任和不信任之间的区别已经开展了很久的探讨,然而,大多数有关信任的研究都将两者视为构成同一种事物的两个互相对立的极端。
基于用户可信度的Web服务推荐方法
基于用户可信度的Web服务推荐方法曹继承;朱小柯;荆晓远;吴飞【期刊名称】《计算机技术与发展》【年(卷),期】2018(028)007【摘要】协同过滤是推荐系统中广泛使用的一种推荐技术,但是目前多数基于协同过滤的Web服务推荐算法默认用户反馈数据是可信的,没有考虑到用户反馈数据中会出现的一些范围异常数据和恶意评价数据.如果没有对含有这些干扰数据的用户进行处理,最终的预测结果会受到严重的影响.在分析了用户反馈的服务质量(QoS)数据的基础上,提出了一种基于用户可信度的Web服务推荐方法.计算用户的可信度并根据可信度对用户进行聚类,选取可信度高的类别中的数据进行协同过滤完成推荐,排除了范围异常数据以及恶意评价数据的干扰,避免了对预测结果的影响,最后使用平均绝对误差和均方根误差评判预测结果.实验结果表明,该方法能有效提高QoS预测的准确率和Web服务的推荐质量.【总页数】5页(P117-120,124)【作者】曹继承;朱小柯;荆晓远;吴飞【作者单位】南京邮电大学计算机学院,江苏南京 210003;武汉大学计算机学院软件工程国家重点实验室,湖北武汉 430072;武汉大学计算机学院软件工程国家重点实验室,湖北武汉 430072;南京邮电大学自动化学院,江苏南京 210003;南京邮电大学自动化学院,江苏南京 210003【正文语种】中文【中图分类】TP301【相关文献】1.基于用户情境和质量偏好的Web服务推荐方法 [J], 吴青林;周天宏2.基于用户经验反馈的Web Services可信度评测体系构建 [J], 吴建斌;吕刚3.基于改进协同过滤的个性化Web服务推荐方法研究 [J], 徐堃;朱小柯;荆晓远4.基于混杂社会网络的个性化Web服务推荐方法 [J], 杨洁;朱咸军;周献中;柳毅5.云环境下基于用户行为的用户身份可信度评估方法 [J], 姜洪超;黄星辉因版权原因,仅展示原文概要,查看原文内容请购买。
浏览器中拦截Web攻击的研究
浏览器中拦截Web攻击的研究王丽;钱文祥【摘要】The browser is an important entrance of the Internet .Its vulnerability directly affects users ’ data and property safety .Three kinds of common attack methods via web browser were presented and analyzed , i.e.Cross Site Scripting attack , Cross Site Request Forgery attack and Click -jacking attack .According to the attacker's attack mode , three corresponding methods of defending attacks were proposed so as to strengthen safety of the browser .The self-made browser was achieved by using the WebBrower control .Webpage script prefiltering and other related module were installed and loaded , the defense function was realized .Through related experiments , the systems using the proposed method can block attacks .The method effectively improves the browser safety and reduces the risk of network .%浏览器是互联网的重要入口,其脆弱性直接影响到用户数据和财产的安全。
WEB安全防护解决方案
WEB安全防护解决方案一、背景介绍随着互联网的飞速发展,网络安全问题日益突出,特别是WEB应用程序的安全性问题成为互联网领域的重点关注对象。
WEB应用程序的安全漏洞可能导致数据泄露、非法访问、拒绝服务等安全事件的发生,对企业和个人的信息安全造成威胁。
因此,建立一套完善的WEB安全防护解决方案势在必行。
二、需求分析1. 防止SQL注入攻击:SQL注入是最常见的WEB应用程序攻击方式之一,攻击者通过在用户输入中插入恶意的SQL代码,从而获取数据库中的敏感信息。
因此,我们需要一套有效的防止SQL注入攻击的解决方案。
2. 防止跨站脚本攻击(XSS):XSS攻击是指攻击者在WEB页面中注入恶意脚本代码,通过用户浏览器执行该脚本,从而获取用户的敏感信息。
为了防止XSS攻击,我们需要一套可靠的防护机制。
3. 防止跨站请求伪造(CSRF)攻击:CSRF攻击是指攻击者通过伪造用户的身份,发送恶意请求,从而实施非法操作。
为了防止CSRF攻击,我们需要一套有效的防护措施。
4. 防止文件上传漏洞:文件上传漏洞是指攻击者通过在WEB应用程序中上传恶意文件,从而执行任意代码或者获取服务器权限。
为了防止文件上传漏洞,我们需要一套安全的文件上传机制。
三、解决方案1. 使用参数化查询:参数化查询是一种防止SQL注入攻击的有效方法。
在编写SQL语句时,将用户输入的数据作为参数传递给数据库,而不是将用户输入的数据直接拼接到SQL语句中。
2. 输入过滤和输出编码:在用户输入数据时,对用户输入进行过滤,去除可能存在的恶意代码。
在输出数据时,对特殊字符进行编码,防止恶意代码的执行。
3. 使用验证码:在用户进行敏感操作时,如登录、注册、修改密码等,引入验证码机制,防止自动化程序进行恶意操作。
4. 使用安全的文件上传机制:限制上传文件的类型和大小,对上传的文件进行严格的检查和过滤,确保上传的文件不包含恶意代码。
5. 使用防火墙和入侵检测系统:部署防火墙和入侵检测系统,实时监控网络流量和WEB应用程序的安全状况,及时发现并阻止潜在的攻击行为。
WEB安全防护解决方案
WEB安全防护解决方案一、背景介绍在当今信息化时代,互联网的普及和发展使得WEB应用程序成为人们日常生活和工作中不可或缺的一部分。
然而,随着互联网的快速发展,网络安全问题也日益突出。
恶意攻击者利用漏洞、攻击技术和恶意软件等手段,对WEB应用程序进行攻击,造成数据泄露、服务中断、用户信息被盗等严重后果。
因此,建立一套完善的WEB安全防护解决方案,对于保护WEB应用程序的安全性和稳定性具有重要意义。
二、需求分析针对WEB安全防护的需求,我们提出以下几点要求:1. 防护网络层攻击:提供有效的防火墙和入侵检测系统,阻止网络层攻击,如DDoS攻击、SYN Flood攻击等。
2. 防护应用层攻击:针对WEB应用层的攻击,如SQL注入、跨站脚本攻击(XSS)、跨站请求伪造(CSRF)等,提供有效的防护机制。
3. 强化身份认证和访问控制:提供多层次的身份认证和访问控制机制,确保只有授权用户才能访问WEB应用程序。
4. 加密通信传输:采用SSL/TLS协议对数据进行加密传输,防止数据被窃取或篡改。
5. 实时监控和日志记录:实时监控WEB应用程序的运行状态,及时发现异常行为并采取相应措施。
同时,记录日志以便后期分析和溯源。
三、解决方案基于以上需求分析,我们提出以下WEB安全防护解决方案:1. 网络层防护:部署防火墙和入侵检测系统,对网络流量进行实时监控和分析,及时发现并阻止DDoS攻击、SYN Flood攻击等网络层攻击。
2. 应用层防护:采用Web应用防火墙(WAF)技术,对WEB应用程序进行深度检测和过滤,防止SQL注入、XSS、CSRF等应用层攻击。
3. 身份认证和访问控制:引入多因素身份认证机制,如用户名密码、手机验证码、指纹识别等,确保只有授权用户才能访问WEB应用程序。
同时,设置严格的访问控制策略,对不同用户进行权限控制。
4. 加密通信传输:采用SSL/TLS协议对数据进行加密传输,保护数据的机密性和完整性。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
基于信任指数的对抗web垃圾页面方案研究*洪辉李石君张科欧伟杰(武汉大学计算机学院 湖北武汉 430072)(luckhh12@)摘要:本文首先提出链接分析法中存在的垃圾页面问题并将其形式化描述出来;再从两个角度分别介绍了挑选种子页面集的思想;然后在改进现有PageRank算法的基础上提出了垃圾页面检测算法;同时给出了几个表征检测算法效率的性能指标,最后简要阐述了基于信任指数的对抗web垃圾页面方案。
关键字:搜索引擎,页面等级,信任指数中图分类号:TP302.1文献标识码:ATHE RESEARCH ON THE TRUST-BASED SCHEME OFCOMBATING WEB SPAMHong Hui, Li Shijun, Zhang Ke, Ou Weijie(School of Computer, Wuhan University ,Wuhan HBE 430072,China) Abstract:This paper firstly brings forward the problem of web spams in the link-analysis method and formalizes it, secondly introduces some ideas of choosing the best seed sets of web pages from two angles respectively, thirdly raises the spam detection algorithm based on the former PageRank algorithm, and presents some performance standard parameters to assess the efficiency of the improved algorithm, and briefly set forth the trust-based scheme of combating web spams in the end of our thesis.Key words:search engine , PageRank , trust exponent1 引言随着Internet技术的迅速发展,网上各种信息呈指数式增长,人们需要的有用信息仅是其中非常小的一部分,这使得高效能搜索引擎的研究设计工作显得十分必要。
以前,搜索引擎一般采用的是平面搜索方式,即单纯的关键字搜索;目前,很多引擎采用层次搜索方式,比如权威搜索引擎Google使用页面等级(PageRank)来特征标识web页面,进而按照页面等级对页面排序,这样等级越大,被检索的可能性就越高,在搜索结果中也越靠前。
然而,某些web页面(比如垃圾页面,它可定义为那些滥用超链接来企图误导搜索引擎的页面集合)采用了多种方法来提高自身的页面等级以增大被检索的可能性,最典型的方式如下:1>一种是在信息本身上作处理。
某不法网站在其页面中包含大量与自身无关的信息(甚至可能是权威信息),但它又极有可能利用一定的web技术将其隐藏,使得搜索者通过搜索结果中的超链接到达并非自己想要的页面。
2>另一种是在链接上作处理。
某些网站可能会在自己的一些页面中任意加入导向同一页面(或同一页面集)的超链接,以此来提高部分页面的等级。
虽然采用人工识别垃圾页面的方法可以达到很高的正确率,但是当页面数目庞大时开销显得过大。
本文提出的方案并不对所有页面进行鉴别,而是适当地挑选出一小部分页面作为种子页面集,并识别出其中的优质页面和垃圾页面,然后利用页面之间的超链接结构特征,进而识别出其它的优质页面。
本文首先形式化描述出垃圾页面问题;再介绍了如何挑选种子页面集;然后在改进原有PageRank方法的基础上提出了垃圾页面检测算法;同时给出了几个表征检测算法效率的性能指标,最后简要阐述了基于信任指数的对抗web垃圾页面方案。
2 形式化描述2.1 站点模型*本文得到国家自然科学基金(No.60273072)和国家高技术研究发展计划(863) (No. 2002AA423450)资助。
作者简介:洪辉(1984-),男,武汉大学计算机学院本科生;李石君,男,博士,副教授。
研究方向:数据库技术、Web信息技术;张科,男(汉族),武汉大学计算机学院本科生;欧伟杰,男,硕士生。
一个由众多web页面组成的站点,其结构特征可以用有向图G=<V,E>来标识,其中顶点集V用来表示页面,边集E用来表示页面之间的链接。
可以采用一个二值函数good(Page p)来表示页面A是优质页面还是垃圾页面:1 若p为优质页面good(p)0 否则当有链接从页面A导向页面B时,称此链接为B的入链接,A的出链接;某页面p入链接的数目称作该页面的入度,记作Indegree(p),简写为Id(p),无入链接的页面称作非被导向页面;某页面q出链接的数目称作该页面的出度,记作Outdegree(q),简写为Od(q),无出链接的页面称作非导向页面;注:为叙述问题方便,遇到一页面到另一页面有多链接的情况,作不重复计算链接处理,因为本文只关注两页面间有无链接,并且不考虑自链接的情况。
2.2 PageRankLawrence Page和Sergey Brin描述了PageRank算法:Pr(A)=d*[Pr(V1)/Od(V1)+ Pr(V2)/Od(V2)+ …+Pr(Vn)/Od(Vn)]+(1-d)/nz Pr(A):页面A的PageRank值z Pr(Vi):链接到A的页面Vi的PageRank值z Od(Vi):页面Vi出链接数目z d:阻尼因子,0<d<1可见,A的PageRank值由两部分组成:动态部分来自于链接到A的页面(即与入链接相关);静态部分则是一个常量(为避免link sink和link leak现象)。
其矩阵表示形式可写为:pr = d·T·pr+(1− d) ·1n ·1/n(其中pr为n个页面PageRank值构成的n×1矩阵,T为n×n的变换矩阵,1n为PageRank值全1的n×1矩阵。
)在页面数量不大的情况下,可以通过求解由上式列出的齐次线形方程组来得到各页面的PageRank值,但实际中站点的页面数目是庞大的,所以通过迭代方法来近似求其值(先赋予每个页面初始PageRank值,再采用迭代方法计算直至结果收敛。
实践证明在100次迭代以内每个页面的PageRank值都能达到稳定状态,即该方法的收敛性已经得到有力保证)。
PageRank有效利用了页面之间链接结构特性。
若页面V1链接到页面V2,则说明V2得到V1的支持,V2在一定程度上可以定义为重要的页面。
PageRank值高的页面指向的页面更为重要,这基于假设:一般认为,权威页面的出链接指向更有价值的页面,否则它指向无价值页面的开销是不值得的。
2.3 变换矩阵T1和T2站点模型G=<V,E>中,p,q为任意两页面,则变换矩阵T1定义如下:1/Od(q) 若(q,p)∈ET1(p,q)=0 否则变换矩阵T2定义如下:1/Id(q) 若(p,q)∈ET2(p,q)=0 否则2.4信任指数trust信任指数定义为页面p为优质页面的概率。
形式化表示为:事件A= { good(p)==1}trust(p)=P(A)3 挑选种子页面集3.1 入链接思想如果页面p入链接数目比较多,也即有相当多的页面支持页面p,那么p很有可能是理想的种子页面。
显然,这种页面可以用入链接算法(也即PageRank算法,因为PageRank算法中Pr(p)值的动态部分是由链接到p的页面贡献的)找出。
算法描述为(简洁起见,其中算法某部分计算仅以矩阵形式示意):页面p的信任指数的动态部分是由指向p的优质页面贡献的,而垃圾页面对它的贡献很小。
正基于以上事实,选择出链接多的页面作为种子页面也是可行的。
这类页面可以通过出链接算法找出(与入链接算法本质的区别就是变换矩阵为T2,而非T1),其算法描述Outlink()与入链接算法Inlink()相似,在此省略。
4 检测算法算法描述为:5 性能指标5.1查全率5.2查准率查全率=优质页面中信任指数(trust)大于某阙值的页面数目优质页面数目(N)优质页面中信任指数(trust)大于某阙值的页面数目查准率=信任指数大于某阙值的页面数目6 方案综述本文首先通过鉴别专家从样本中挑选出一个种子页面集,并区分出种子集中的优质页面和垃圾页面,然后通过页面之间的超链接寻找其他可能的优质页面。
本方案的核心是种子集的选取以及垃圾页面检测算法的研究。
结束语如今Internet上网页总量以每天100万的数目增长,人们寻找有用信息越来越依赖性能出色的搜索引擎,但垃圾页面利用链接结构特征对搜索引擎的误导严重影响了页面PageRank 值的准确性和搜索结果的正确性。
本文基于对链接结构的深入分析,给出了垃圾页面检测算法,修正了页面PageRank值,提出了信任指数,有效地削减了垃圾页面的等级,降低了它的不利影响,提高了搜索结果的正确性。
本文仅从链接结构方面讨论了对抗垃圾页面的方案,在页面基数庞大时,可改进现有的或研究新的选种算法及页面排序算法,以提高时空效率;另一方面,有可能一些页面虽然标识不同但内容一致,产生了大量雷同页面,或者返回了主题不同的页面等等,所以还可以将页面内容加入考虑之列,把结构和内容结合起来进一步提高判断的准确度,这些问题都值得我们深入研究。
参考文献[1] Zolt´an Gy¨ongyi , Hector Garcia-Molina , Jan Pedersen . Combating Web Spam with TrustRank . In International Conf. on Very Large Data Bases (VLDB 2004).[2] Z. Gy¨ongyi and H. Garcia-Molina. Seed selection in TrustRank. Tech. rep., Stanford University, 2004.[3] S. Kamvar, T. Haveliwala, C. Manning, and G. Golub.Extrapolation methods for accelerating PageRank computations. In Proceedings of the Twelfth International Conference on World Wide Web, 2003.[4] A. Langville and C. Meyer. Deeper inside PageRank. Tech. rep., North Carolina State University, 2003.[5] Borodin A, Roberts G, Rosenthal J, Tsaparas P. Finding authorities and hubs from link structures on the World Wide Web. In: Shen VY, Saito N, Lyu MR, Zurko ME, eds. Proceedings of the 10th ACM-WWW International Conference. Hong Kong: ACM Press,2001. 415~429. [6] Aggarwal C, Al-Garawi F, Yu P. Intelligent crawling on the World Wide Web with arbitrary predicates. In: Michael RL, ed. Proceedings of the Tenth International World Wide Web Conference. Hong Kong: ACM Press, 2001. 96~105.[7]Najork M, Wiener J. Breadth-First search crawling yields high-quality pages. In: Shen VY, Saito N, Lyu MR, Zurko ME, eds. Proceedings of the 10th International World Wide Web Conference. Hong Kong: ACM Press, 2001. 295~308[8] Diligenti M. Focused crawling using context graphs. In: Amr A, et al., eds. Proceedings of the 26th International Conference on Very Large Data Bases. Cairo: Morgan Kaufmann Publishers, 2000. 527~534.[9] Bar-Yossef Z. Approximating aggregate queries about Web pages via random walks. In: Amr A, et al., eds. Proceedings of the 26th International Conference on Very Large Data Bases. Cairo: Morgan Kaufmann Publishers, 2000. 535~544.[10] Modha D, Spangler W. Clustering hypertext with application to web searching. In: Proceedings of the 11th ACM Conference on Hypertext and Hypermedia. San Antonio: ACMPress, 2000. 143~152.[11] Chakrabarti S, Dom B, Kumar S, Raghavan P, Rajagopalan S, Tomkins A, Gibson D, Kleinberg S. Mining the Web’s link structure.IEEE Computer,1999,32(8):60~67.[12] T. Haveliwala. Efficient computation of PageRank. Tech. rep., Stanford University, 1999.[13] J. M. Kleinberg. Authoritative sources in a hyperlinked environment. Journal of the ACM,46(5):604–632, 1999.[14] Chakrabarti S, Dom B, Gibson D, Kleinberg J, Raghavan P, Rajagopalan S. Automatic resource compilation by analyzing hyperlink structure and associated text. In: Thistlewaite P, et al., eds. Proceedings of the 7th ACM-WWW International Conference. Brisbane:ACM Press, 1998. 65~74.[15] L. Page, S. Brin, R. Motwani, and T. Winograd. The PageRank citation ranking: Bringing order to the web. Tech. rep., Stanford University, 1998.[16] Croft B, Turtle H. A retrieval model for incorporating hypertext links. In: Proceedings of the 1st ACM Conference on Hypertext and Hypermedia. Pittsburgh: ACM Press, 1989. 213~224.第一作者:洪辉;张科指导老师:李石君通信地址:武汉大学计算机学院02级计科2班洪辉(收)邮编:430079。