云存储环境下数据完整性验证技术研究

合集下载

基于RMHT云存储数据完整性审计方案研究

基于RMHT云存储数据完整性审计方案研究

基于RMHT云存储数据完整性审计方案研究在云存储环境中,用户将数据远程存储在云服务器上而不保留数据备份。

在这种情况下如何保证存储数据的完整性成为重要研究问题,其中动态数据的审计在实际应用中更为重要,因此需要一种高效率的动态审计方案。

当用户进行数据更新时,云存储服务器利用文件Hash 建立MHT结构,生成数据完整性审计证据发送给用户,用户以此验证存储数据是否被正确更新,现有基于MHT的完整性审计方案每次只能更新一个文件块,面对用户更新文件较大时无法并发更新,这使得整个审计效率较低。

在面对无序文件时插入位置不同会导致验证证据量不同,选择合适插入位置能够减少证据量和MHT更新计算量,此外由于插入和删除过程中需要用户指定文件块编号,而采用顺序编号在每次插入和删除后都会导致大量文件顺序编号更新。

基于这些问题本文工作如下:面对多个文件块插入同一位置情况提出多块文件插入RMHT 更新算法。

该算法通过将多个文件块聚合成为RMHT子树,再将子树插入到指定位置,能够在一次MHT更新中完成多个文件块插入,而一般RMHT算法则需要每个文件块依次插入。

在面对连续多个文件块删除时提出多块文件删除RMHT更新算法,该算法判断某个父节点下所有叶子节点是否都需要被删除从而实现一次删除多个文件块。

本文提出的删除插入算法实现了特定场合下的MHT并发更新和数据完整性审计,能够有效减少RMHT更新时所需的辅助信息量AAI。

仿真实现算法,以更新所需AAI数量为标准,更新文件块数目和文件块总数为变量分别进行实验,仿真结果表明本文提出的算法RMHT插入和删除时所需AAI数量较少,且减少了后续更新RMHT所需AAI数量,方案效率更高。

面对无序数据块情况,提出了最优插入位置查找算法。

由于MHT在更新过程中往往会出现左右子树结构不一致,此时将数据块插入到深度较低的子树中可以减少验证过程中所需要的证据量。

由于数据块的无序性不适宜采用顺序编号,本文提出了固定编号算法,利用数据块对应节点位于MHT结构中的位置确定其编号值,改进删除和插入算法使其不影响其他节点编号。

数据完整性验证

数据完整性验证

证据检测算法
由顾客或可信第三方TPA运营,对服务器返回旳证据P进行判断。 输入参数为公钥pk,挑战祈求chal及P。返回验证成功或失败。
更新执行算法
由服务器运营,将文件F作为输入,相应标签Φ及数据祈求操作 Update,输出一种更新文件F′和更新标签集合Φ′,及相相应地更新证 据Vupdate。
数据持有性证明PDP机制
既有旳PDP机制涉及:基于MAC认证码旳PDP机制、基于 RSA署名旳PDP机制、基于BLS署名旳PDP机制、支持动态操作 旳PDP机制、支持多副本旳PDP机制及保护隐私旳PDP机制等。
密钥生成算法
由顾客在本地执行。k为安全参数,返回一种匹配旳公钥、私钥对(pk,sk)。
数据块标签生成算法
由顾客执行,为每个文件生成同态署名标签集合Φ,作为认证旳元数据。 该算法输入参数涉及私钥sk和数据运营,生成完整性证据P。输入参数涉及公钥pk、文件F、 挑战祈求chal和认证元数据集合Φ。返回该次祈求旳完整性证据P。
Challenge 阶段
Challenge阶段:验证祈求阶段。顾客或TPA作为验证者, 周期性旳发起完整性验证。从文件F分块索引集合[1,n]中随 机挑取c个块索引{s1,s2,…,sc},而且为每一种索引si选用 一种随机数vi,将两者组合一起生成挑战祈求chal发送给服务器。
服务器作为证明者,根据存储在其服务器上旳数据文件{F, Φ},调用证据生成算法生成完整性证据P,返回给验证者.验 证者接受证据后,执行证据检测算法验证证据是否正确。
云存储中数据完整性证明
计算机学报
数据完整性证明
必要性: 1、服务提供商不可信 2、各类安全攻击 分类: 数据完整性验证机制根据是否对数据文件采用了容错预处理分 为数据持有性证明PDP机制和数据可恢复证明POR机制 。

云存储服务的数据安全技术研究

云存储服务的数据安全技术研究

云存储服务的数据安全技术研究一、引言随着信息技术的发展和普及,越来越多的企业和个人选择采用云存储服务来存储数据。

与传统的本地存储相比,云存储服务具有便捷、高效、节约资源等优点,因此得到了越来越广泛的应用。

然而,在享受云存储服务的便利性和高性价比的同时,我们也面临着一系列的隐私和安全问题,如数据泄漏、篡改、丢失等。

因此,在云存储服务的数据安全技术方面进行深入研究显得尤为重要和必要。

二、云存储服务数据安全技术概述云存储服务的数据安全技术包括数据加密技术、身份验证技术、数据完整性保护技术、访问控制技术、物理安全技术等多个方面。

其中,数据加密技术是云存储服务的核心技术之一,它能够保证云存储中的数据不被非授权用户访问、篡改和窃取。

目前,广泛应用的加密算法有对称密钥加密算法和非对称密钥加密算法。

在实际操作中,可以将两者结合起来使用,提高数据的加密强度和安全性。

三、云存储服务数据加密技术应用1. 数据加密技术的实现方法在实现数据加密技术方面,通常采用的方法有数据加密前端和数据加密后端两种。

前者称为客户端加密技术,后者称为服务器端加密技术。

客户端加密技术需要用户在上传数据之前进行加密处理,将加密后的数据上传到云存储服务器。

服务器端加密技术是指云存储服务提供商在数据上传到服务器之后立即进行加密处理。

相比而言,客户端加密技术更能够保护数据的安全性,但也比较繁琐。

而服务器端加密技术则更便捷,但是存在一定的安全隐患。

2. 加密算法选择在实际应用中,如何选择合适的加密算法也是关键的。

在选择加密算法时,需要考虑算法的加密强度、加密速度和加密密钥体积等多个方面。

除此之外,还需要考虑算法的安全性容易被攻击的风险,以及业务性能和管理的成本。

四、云存储服务数据完整性保护技术在云存储服务中,数据完整性保护技术是指对云存储中的数据进行完整性验证的技术。

数据完整性验证通常包括两个过程:数据完整性检查和数据完整性校验。

在数据完整性检查时,云存储服务会比对原始数据与存储的数据是否相符。

云存储系统中的数据可靠性与可用性研究

云存储系统中的数据可靠性与可用性研究

云存储系统中的数据可靠性与可用性研究近年来,随着云计算技术的快速发展,云存储系统逐渐成为了个人和企业存储数据的主要选择。

云存储系统的数据可靠性和可用性成为了人们关注的焦点。

本文将探讨云存储系统中数据可靠性与可用性的研究。

数据可靠性是指在任何时候,数据应保持完整、准确、一致,不会丢失或损坏。

云存储系统的数据可靠性主要包括持久性、完整性、可恢复性等方面。

首先,持久性是云存储系统中数据可靠性的重要指标之一。

持久性表示在数据存储过程中,数据不会因为硬件故障、网络中断或其他异常情况而丢失。

为了保证持久性,云存储系统采用了多副本备份、冗余存储等技术来确保数据的安全性。

此外,云存储系统还采用了数据分布和数据冗余机制来提高数据的可靠性。

其次,完整性是云存储系统中另一个重要的数据可靠性指标。

完整性意味着数据在存储、传输和操作过程中没有被修改或损坏。

为了保证数据完整性,云存储系统通过使用校验和、哈希算法等技术来检测和修复数据错误。

此外,定期的数据备份和快照功能也可以用于恢复数据的完整性。

另外,可恢复性是云存储系统中数据可靠性的另一个关键方面。

可恢复性指的是在数据损坏或丢失后,能够快速恢复数据的能力。

为了提高可恢复性,云存储系统使用了冗余备份和快速恢复技术。

通过将数据分布在不同的位置和节点上,一旦发生故障,系统能够自动选择备份数据进行恢复,从而确保数据的可靠性和连续性。

除了数据可靠性,云存储系统的可用性也是一个重要的考量因素。

可用性是指用户能够随时访问和使用数据的能力。

为了提高云存储系统的可用性,系统需要具备高度的可扩展性和容错能力。

一方面,系统需要能够根据用户需求自动调整存储容量,确保用户随时能够使用足够的存储空间。

另一方面,系统需要提供冗余和备份机制,一旦出现故障或中断,能够快速切换到备份节点,保证用户的连续访问。

为了确保数据的可靠性和可用性,云存储系统还需考虑以下几个方面:首先,要设计高效的数据备份策略。

数据备份是确保数据可恢复性的关键。

云服务中数据完整性验证技术综述

云服务中数据完整性验证技术综述

云服务中数据完整性验证技术综述
云服务数据完整性验证技术是指专用于验证,保护和管理使用云服务存储或传输的数据完整性的技术。

它是提高数据抗击攻击和确保数据一致性的有效工具。

目前,在以太网技术的发展中,云服务数据完整性验证技术得到了广泛的应用。

通常,云服务数据完整性验证技术是通过利用数据校验、签名校验和数据加密等方法来实现的。

数据校验技术可以检测发送的数据的变化和损坏,并根据所定义的规则通过一系列算法来检测数据的一致性。

签名校验技术使用公钥加密算法和散列函数,能够验证数据是否被篡改或伪造。

数据加密技术可以对云服务传输的数据进行加密,阻止攻击者恶意篡改或者窃取数据。

额外的,随着新一代网络技术出现,新的云服务数据完整性验证技术也逐渐出现。

例如,基于社交网络的数据完整性验证技术可以利用社交网络的特性来加强保护数据完整性,对于不可预测的攻击技术特别有效。

认知网络技术也被用于检测网络中的攻击行为,并有效的确定攻击的来源和影响程度。

总体而言,云服务数据完整性验证技术已经广泛应用于现代网络中,可以提高数据完整性和有效性,保护传输和存储的数据。

同时,新的网络技术也在不断推动着云服务数据完整性验证技术的发展,提供了更多强大的安全性保障。

云存储安全使用中的数据备份与完整性验证方法(Ⅲ)

云存储安全使用中的数据备份与完整性验证方法(Ⅲ)

云存储安全使用中的数据备份与完整性验证方法云存储已经成为了我们日常生活和工作中不可或缺的一部分。

在这个数字化时代,我们的个人和机构的数据越来越多,越来越重要。

因此,数据备份和完整性验证成了云存储安全使用中的重中之重。

本文将从数据备份和完整性验证两个方面来探讨云存储的安全使用方法。

数据备份方法首先,我们来看一下数据备份的方法。

云存储的备份可以分为本地备份和远程备份两种。

本地备份是指将数据存储在本地设备,比如外部硬盘或者本地服务器上。

而远程备份则是将数据存储在云端服务器上,这是云存储的优势所在。

对于个人用户来说,本地备份通常是比较简单和经济的选择。

他们可以通过将数据复制到外部硬盘或者使用备份软件进行定期备份来保护数据。

但是本地备份存在风险,比如硬盘损坏或者丢失的风险。

因此,远程备份成了更加安全可靠的选择。

对于企业用户来说,远程备份是必不可少的。

他们通常会选择专业的云存储服务提供商,将数据存储在云端服务器上。

这样一来,即使出现了本地服务器故障或者数据丢失的情况,他们的数据仍然可以通过云端进行恢复。

完整性验证方法除了备份,数据的完整性验证也是云存储安全使用中必不可少的环节。

数据完整性验证是指确保数据在存储或传输过程中没有被修改或损坏。

在云存储中,完整性验证可以通过数据校验和数据加密来实现。

数据校验是一种常用的数据完整性验证方法。

它包括校验和、哈希函数和循环冗余校验等技术。

通过这些技术,用户可以在数据传输或存储的过程中验证数据的完整性,确保数据没有被篡改或损坏。

另外,数据加密也是保障数据完整性的重要手段。

通过加密技术,用户可以将数据转化为密文,只有经过授权的用户才能解密和访问数据。

这样一来,即使数据被窃取,黑客也无法对数据进行篡改。

结语在云存储安全使用中,数据备份和完整性验证是两个不可或缺的环节。

通过合理选择备份方法和做好数据完整性验证,用户可以有效保护自己的数据安全,避免数据丢失或被篡改的风险。

云存储的发展给我们带来了便利,但也需要我们充分重视数据安全,采取相应的措施来保护我们的数据。

基于RASL的云存储数据完整性验证算法

基于RASL的云存储数据完整性验证算法

基于RASL的云存储数据完整性验证算法唐明;张娇蓉【期刊名称】《现代计算机(专业版)》【年(卷),期】2015(000)007【摘要】随着信息技术的发展,网络化存储将逐渐成为未来存储领域的热点. 而目前的云存储服务也将是网络存储发展的必然趋势. 因此如何确保云存储环境下用户数据的完整性成为人们关注的问题. 周锐等人提出基于同态哈希的云数据完整性验证算法中的公开审计方案.通过对该方案的分析,发现该方案容易受到已知证据伪造攻击,并给出具体的攻击方法. 为了防止攻击,利用基于等级的认证跳表技术(RASL)对该方案进行改进,并对本文方案做安全性分析及证明.%With the development of information technology,network storage will gradually become a hot storage areas in the future.The current cloud storage service will be the inevitable trend of development of network storage.Therefore,how to ensure the integrity of user data in cloud storage environments has become an issue of concern.Zhou Rui et al proposed public audit scheme for cloud data integrity verification based on the homomorphichash.Through the analysis of the scheme,the scheme is vulnerable to the known evidence of forgery attack,and gives a specific attack method.In order to prevent attacks, improves the scheme based on RASL,and the proposed scheme is security by formal proofs.【总页数】4页(P5-8)【作者】唐明;张娇蓉【作者单位】西华大学计算机与软件工程学院,成都 610039;西华大学计算机与软件工程学院,成都 610039【正文语种】中文【相关文献】1.基于同态哈希函数的云数据完整性验证算法 [J], 周锐;王晓明2.一种基于双线性对的云数据完整性验证算法 [J], 邓晓鹏;马自堂;高敏霞3.基于双线性对的物联网远程数据完整性验证算法 [J], 李超良;刘琴;王国军4.基于区块链的云存储数据完整性验证方案 [J], 刘峰;赵俊峰5.基于分治表的云存储数据完整性审计方案 [J], 符庆晓因版权原因,仅展示原文概要,查看原文内容请购买。

云存储技术中的数据一致性检查(八)

云存储技术中的数据一致性检查(八)

云存储技术中的数据一致性检查随着互联网和移动互联网的快速发展,云技术已经成为了当今信息技术领域的热门话题。

其中,云存储技术作为云计算的一个重要组成部分,受到了广泛关注。

在云存储技术中,数据一致性检查是一个非常重要的问题,它直接影响着数据的可靠性和安全性。

本文将从云存储技术中的数据一致性检查入手,探讨其相关原理和应用。

一、数据一致性检查的原理在云存储技术中,数据的一致性检查是指在数据传输或存储过程中,确保数据的完整性和一致性。

数据的一致性检查通常包括数据的校验、验证和修复等环节。

其中,数据校验是指通过特定的校验算法对数据进行校验和计算,以确保数据在传输或存储过程中没有被篡改或损坏。

数据验证则是在数据传输或存储完成后,对数据进行验证,确保其完整性和正确性。

而数据修复则是在发现数据损坏或错误时,通过冗余数据或修复算法进行修复,以恢复数据的完整性和一致性。

二、数据一致性检查的应用数据一致性检查在云存储技术中有着广泛的应用。

首先,在数据传输过程中,数据一致性检查可以确保数据在传输过程中不被篡改或损坏,保证数据的完整性和安全性。

其次,在数据存储过程中,数据一致性检查可以确保数据在存储过程中不被损坏或丢失,保证数据的可靠性和稳定性。

此外,数据一致性检查还可以应用于数据备份和恢复过程中,确保备份数据的完整性和可恢复性。

在云存储技术中,数据一致性检查是保障数据安全和可靠性的重要手段,对于保护用户数据具有重要意义。

三、数据一致性检查的技术数据一致性检查的技术包括了多种校验算法和修复算法。

其中,常用的校验算法包括MD5、SHA-1、CRC等,它们通过对数据进行哈希运算或循环冗余校验,生成校验和以确保数据的完整性。

而在发现数据损坏或错误时,可以通过冗余数据或纠删码等修复算法进行数据修复,以恢复数据的完整性和一致性。

此外,还有一些新型的数据一致性检查技术,如区块链技术等,也在云存储技术中得到了应用。

四、数据一致性检查的挑战和未来发展虽然数据一致性检查在云存储技术中具有重要意义,但是也面临着一些挑战。

物联网环境下的云计算数据完整性验证

物联网环境下的云计算数据完整性验证

物联网环境下的云计算数据完整性验证云计算在物联网环境下的应用越来越广泛,各种传感器设备通过云平台进行数据存储和计算分析。

然而,物联网环境的分布式特性使得数据的完整性验证变得尤为重要。

在这篇文章中,我们将探讨物联网环境下的云计算数据完整性验证的重要性,并介绍几种常见的完整性验证方法。

一、物联网环境下的数据完整性验证的重要性在物联网环境中,传感器节点产生大量的数据,这些数据通过云平台进行存储和处理。

然而,由于物联网的分布式特性和大规模性,数据的完整性可能受到各种攻击和干扰。

例如,恶意攻击者可能对传感器节点进行篡改,导致云平台接收到的数据不真实或不完整。

此外,数据在传输过程中也可能受到嗅探、窃听等风险,进一步影响数据的完整性。

物联网环境下的数据完整性验证就是验证数据在传输和存储过程中是否完整且未被篡改。

确保数据的完整性对于保障物联网应用的安全性和可信度至关重要。

只有确保数据的完整性,才能对基于云计算的物联网应用进行准确的数据分析和决策。

二、数据完整性验证的方法1. 密码学技术密码学技术是一种常见的数据完整性验证方法,通过使用密码学算法对数据进行加密和签名,可以确保数据在传输和存储过程中的完整性。

传感器节点在发送数据之前,使用私钥对数据进行签名,接收方使用公钥验证签名。

如果数据被篡改,签名验证将失败,接收方可以拒绝接受该数据。

2. 哈希算法哈希算法是一种通过将数据生成固定长度的哈希值来验证数据完整性的方法。

传感器节点在发送数据之前,将数据通过哈希算法生成哈希值,并将哈希值一同发送给接收方。

接收方在接收到数据后,再次通过哈希算法生成哈希值,并与发送方发送的哈希值进行比较。

如果哈希值一致,则数据完整,否则数据可能被篡改。

3. 数字证书数字证书是一种用于验证数据完整性和身份认证的方法。

在物联网环境中,可以使用数字证书来验证传感器节点的身份,并确保数据的完整性。

传感器节点在发送数据之前,使用私钥对数据进行签名,并将数字证书一同发送给接收方。

云存储安全使用中的数据完整性验证方法(九)

云存储安全使用中的数据完整性验证方法(九)

云存储安全使用中的数据完整性验证方法随着云计算和云存储技术的快速发展,越来越多的个人和企业选择将数据存储在云端。

云存储的便利性和灵活性让用户享受到了很多好处,但是数据的安全性和完整性也成为了人们关注的焦点。

在云存储中,数据完整性验证是非常重要的一环,它能够确保数据在传输和存储过程中没有被篡改或损坏。

本文将从技术层面探讨云存储安全使用中的数据完整性验证方法。

加密技术保障数据完整性在云存储中,数据的完整性验证首先需要依靠加密技术。

加密可以保护数据在传输和存储过程中不被篡改,同时也可以防止未经授权的访问。

对于云存储中的数据,用户可以选择使用对称加密或非对称加密技术,确保数据在传输和存储过程中的安全性。

对称加密技术使用相同的密钥对数据进行加密和解密,速度快,适合大容量数据的加密。

而非对称加密技术使用公钥和私钥进行加密和解密,虽然速度相对较慢,但是更安全,能够确保数据在传输和存储过程中不被窃取或篡改。

加密技术的应用可以有效保障数据的完整性。

哈希算法验证数据完整性除了加密技术,哈希算法也是验证数据完整性的重要手段。

哈希算法将数据转换为固定长度的哈希值,即摘要,通过对比不同时间点的哈希值来验证数据是否被篡改。

在云存储中,数据的哈希值可以在传输和存储过程中被计算和比对,确保数据的完整性。

常用的哈希算法包括MD5、SHA-1、SHA-256等,其中SHA-256被认为是目前最安全的哈希算法之一,能够有效保障数据的完整性。

通过将数据的哈希值存储在云存储中,并在需要验证数据完整性时进行对比,可以及时发现数据是否被篡改或损坏。

数字签名技术保障数据完整性数字签名技术是一种基于非对称加密技术的数据完整性验证方法。

在云存储中,用户可以使用数字签名技术对数据进行签名,确保数据在传输和存储过程中不被篡改。

数字签名技术包括数据的加密和签名两个过程,通过私钥对数据进行签名,再通过公钥进行验证,确保数据的完整性。

数字签名技术在云存储中的应用非常广泛,它可以帮助用户确保数据在传输和存储过程中不被篡改。

云存储环境中的数据完整性保护与验证研究

云存储环境中的数据完整性保护与验证研究

云存储环境中的数据完整性保护与验证研究在现代信息技术的快速发展中,云计算系统迅速地被广泛地应用在了各种领域之中。

通过将数据和应用程序都存储在云服务器中,用户可以随时随地地获得服务,大大增强了数据的灵活性和可靠性。

而在这样的云存储环境中,如何确保数据的完整性,保护数据不被篡改或损坏,成为了一个非常重要的问题。

首先,数据完整性是指数据在存储和传输过程中,没有被篡改、修改或破坏。

在云存储环境中,数据可能会遭受到各种攻击,如拒绝服务攻击、数据嗅探、数据篡改等,导致数据的完整性受到威胁。

因此,如何保护数据的完整性,已经成为了云存储技术发展的核心之一。

为了确保数据的完整性,目前常用的方法是数据加密和数字签名。

数据加密是将数据通过某种算法转化为一串乱码,只有在具有特定密钥的人才能够还原数据。

这样,攻击者即使获取到了加密数据,也无法还原和使用数据。

数字签名则是在数据中添加签名信息,确保数据未被篡改。

数字签名可以通过非对称加密技术实现,只有拥有签名私钥的人才能够对数据进行签名,验证签名的过程则可由任何人完成。

这样,即使数据被攻击者获取,也可以通过验证数字签名的有效性,保证数据的完整性。

然而,仅仅使用加密和数字签名并不能确保数据的完整性。

因为攻击者依然可以伪造数字签名,篡改数据,并重新计算数字签名,达到欺骗的目的。

因此,为了更全面地保护数据的完整性,在云存储环境中还需要引入验证机制。

验证机制是指在数据传输和存储的过程中,对数据完整性进行验证,以确保数据的正确性和安全性。

常见的一种验证机制是指纹。

指纹是使用哈希函数对数据内容进行转换,产生唯一的指纹数据信息。

哈希函数是将任意长度的消息转换为固定长度的哈希值,该哈希值通常是一个小的数据块,通常是32个字节。

指纹的特点是不可逆,同样的数据总会生成同样的指纹。

因此,在数据传输和存储的过程中,对数据内容进行哈希计算,生成指纹,把指纹存储到云端,用户在获取数据时,可以通过再次计算哈希值,来与云端保存的指纹信息进行对比,验证数据的完整性。

云存储技术中的数据完整性验证(Ⅲ)

云存储技术中的数据完整性验证(Ⅲ)

云存储技术中的数据完整性验证随着信息技术的迅猛发展,云存储技术正成为人们生活和工作中不可或缺的一部分。

云存储技术的出现极大地方便了人们的数据存储和管理,但是也带来了一些安全风险,其中最重要的一个问题就是数据的完整性验证。

本文将就云存储技术中的数据完整性验证进行探讨。

云存储技术的发展云存储技术是指将数据存储在互联网上的服务器上,通过网络进行数据的存取和管理。

这种技术的出现极大地提高了数据的可访问性和可靠性,以及降低了数据存储和管理的成本。

云存储技术的发展可以说是一个信息时代的产物,它极大地方便了人们的生活和工作。

然而,随着云存储技术的普及和应用,数据的安全性和完整性问题也日益凸显。

特别是在云存储中,数据的完整性验证成为了一个尤为重要的问题。

因为数据一旦遭到篡改,不仅会导致信息的失真,还可能带来严重的后果。

数据完整性验证的意义数据完整性验证是指通过各种手段和技术来确保数据在存储和传输过程中不被篡改或损坏。

它的意义在于保护数据的真实性和可靠性,防止数据被篡改或损坏,从而保证数据的安全和可信赖性。

在云存储技术中,数据完整性验证的意义更加突出。

首先,数据完整性验证可以防止数据被篡改。

在云存储中,数据的传输和存储是通过网络和服务器来实现的,这就使得数据容易受到黑客攻击或恶意篡改。

数据完整性验证可以通过各种加密技术和算法来确保数据在传输和存储过程中不会被篡改,保护数据的安全性。

其次,数据完整性验证可以保障数据的可信赖性。

在云存储中,用户将自己的数据存储在云端服务器上,这就意味着用户需要信任云服务提供商来保护自己的数据。

而数据完整性验证可以通过验证数据的真实性和完整性来保障数据的可信赖性,使用户更加放心地使用云存储技术。

数据完整性验证的技术手段数据完整性验证依靠各种技术手段来实现。

其中,最常见的技术手段包括数据加密、数字签名、数据哈希等。

首先,数据加密是保障数据完整性的重要手段之一。

通过对数据进行加密,可以有效地防止数据在传输和存储过程中被篡改。

云计算环境下的大数据安全性研究

云计算环境下的大数据安全性研究

云计算环境下的大数据安全性研究随着云计算技术的迅猛发展,大数据的存储、分析和挖掘已经成为了企业和组织日常工作中重要的一环。

然而,随着数据规模的不断扩大,数据安全性问题也随之浮出水面。

那么,云计算环境下的大数据安全性究竟是怎样的呢?本文将着重探讨大数据在云计算环境下的安全研究。

一、云计算环境下的大数据安全1.数据隐私问题在云计算环境下,用户的数据不仅保存在本地,同时也存储在云端服务器上。

这样,一旦云端服务器遭到黑客攻击或管理员泄露数据,用户的数据隐私就会受到威胁。

因此,如何保护用户的数据隐私是云计算环境下大数据安全的核心问题之一。

2.数据完整性问题数据完整性问题是指数据在传输和存储过程中,是否保持原始状态不被篡改。

在云计算环境下,数据通过网络传输和存储,极易遭到黑客的攻击和篡改。

一旦数据被篡改,不仅会影响数据结果的准确性,同时也会对企业造成严重的经济损失。

3.数据可用性问题数据可用性问题是指数据是否能够被及时地获取和使用,以保证企业日常工作的顺畅进行。

在云计算环境下,由于数据的存储和计算处理都在云端完成,所以数据的可用性问题不容忽视。

如果云端服务器遭到攻击或发生故障,会导致大量数据损失,严重影响企业的正常运营。

二、云计算环境下的大数据安全性研究1.保护数据隐私的技术研究为了保护数据隐私,研究人员提出了一些新的技术方法。

其中,加密技术是保护数据隐私最常用的方式之一。

将敏感数据加密后存储在云端,即使黑客攻击成功,也无法获取明文数据。

此外,数据混淆、数据脱敏等技术也可以有效降低数据泄露的风险。

2.保证数据完整性的技术研究为了保证数据的完整性,研究人员提出了一些新的技术方法。

其中,数字签名技术是保证数据完整性最常用的方式之一。

数字签名可以保证数据的来源和完整性,并且可以证明数据的不可抵赖性。

此外,数据检验和、数据镜像等技术也可以有效提高数据完整性。

3.提高数据可用性的技术研究为了提高数据的可用性,研究人员提出了一些新的技术方法。

PKI技术在云计算环境中的应用

PKI技术在云计算环境中的应用

PKI技术在云计算环境中的应用随着云计算技术的不断发展和普及,信息安全问题也日益受到关注。

在云计算环境中,由于数据的异地存储和共享,数据的安全性和隐私保护面临着更大的挑战。

为了确保数据在云计算环境中的安全性和可信度,公钥基础设施(PKI)技术被广泛应用于云计算环境中。

本文将探讨PKI技术在云计算环境中的应用,并分析其优势和挑战。

一、PKI技术的基本概念公钥基础设施(PKI)是一种用于管理公钥和数字证书的体系结构。

PKI技术包括公钥加密、数字签名、证书颁发机构(CA)等组成部分,用于确保通信的安全性和可信度。

PKI技术的核心是数字证书,数字证书是一个包含公钥和相关信息的文件,用于验证公钥的有效性和真实性。

在PKI技术中,CA是一个重要的角色,CA负责颁发数字证书,并对证书的真实性进行验证。

CA的信任链构成了整个PKI体系的信任链,确保了通信的安全性和可靠性。

1.数据加密和数据完整性验证在云计算环境中,数据的安全性是一个重要的问题。

PKI技术可以用于对云中的数据进行加密和数字签名,确保数据在传输和存储过程中的安全性。

通过PKI技术,可以实现数据的机密性和完整性验证,避免数据被篡改或泄露。

2.身份认证在云计算环境中,用户必须通过身份认证才能获得访问云中资源的权限。

PKI技术可以用于实现用户的身份认证,保证用户的身份信息安全和准确性。

用户通过使用数字证书和私钥进行身份认证,确保用户的身份是合法的。

3.访问控制通过PKI技术,可以实现对云中资源的访问控制。

根据用户的身份和权限,可以通过PKI技术来控制用户对资源的访问权限,确保只有合法的用户可以访问和操作资源。

4.安全传输在云计算环境中,数据的传输是一个关键问题。

通过PKI技术,可以实现数据的安全传输,保证数据在传输过程中不被窃取或篡改。

通过使用公钥加密和数字签名等技术,可以确保数据的机密性和完整性。

5.信任建立在云计算环境中,不同的云服务提供商之间需要建立信任关系,以确保云中数据和服务的安全性和可靠性。

大数据存储中数据完整性验证结果的检测算法

大数据存储中数据完整性验证结果的检测算法

大数据存储中数据完整性验证结果的检测算法徐光伟;白艳珂;燕彩蓉;杨延彬;黄永锋【摘要】Cloud storage is one of the most widely used applications in cloud computing.It makes it convenient for users to access and share the data yet producing data integrity issues such as data corruption and loss.The existing remote data verification algorithms are based on the trusted third party who works as a public verifier to verify the outsourced data integrity.In this case,the verifier has a potential threat to provide false verification results,which cannot ensure the reliability of data verification.Especially,the situation can be even worse while the verifier is in collusion with the cloud storage providers.In this paper,we propose a check algorithm of incredible verification results in data integrity verification (CIVR) to resist the attacks of forgery and deception in incredible verification results.We utilize double verificationproofs,i.e.,integrity verification proof and incredible check proof,to execute the cross check.The integrity verification proof is to verify whether the data are intact.The incredible check proof is to check whether the verification results are correct.Moreover,the algorithm constructs the check tree to ensure the reliability of verification results.Theoretical analysis and simulation results show that the proposed algorithm can guarantee the reliability of verification results and increase the efficiency by improving the valid verification.%云存储作为云计算中最为广泛的应用之一,给用户带来了便利的接入和共享数据的同时,也产生了数据损坏和丢失等方面的数据完整性问题.现有的远程数据完整性验证中都是由可信任的第三方来公开执行数据完整性验证,这使得验证者有提供虚假伪造的验证结果的潜在威胁,从而使得数据完整性验证结果不可靠,尤其是当他与云存储提供者合谋时情况会更糟.提出一种数据验证结果的检测算法以抵御来自不可信验证结果的伪造欺骗攻击,算法中通过建立完整性验证证据和不可信检测证据的双证据模式来执行交叉验证,通过完整性验证证据来检测数据的完整性,利用不可信检测证据判定数据验证结果的正确性,此外,构建检测树来确保验证结果的可靠性.理论分析和模拟结果表明:该算法通过改善有效的验证结果来保证验证结果的可靠性和提高验证效率.【期刊名称】《计算机研究与发展》【年(卷),期】2017(054)011【总页数】10页(P2487-2496)【关键词】数据完整性验证;不可信验证结果;验证结果检测;双证据;检测树【作者】徐光伟;白艳珂;燕彩蓉;杨延彬;黄永锋【作者单位】东华大学计算机科学与技术学院上海 201620;东华大学计算机科学与技术学院上海 201620;东华大学计算机科学与技术学院上海 201620;东华大学计算机科学与技术学院上海 201620;东华大学计算机科学与技术学院上海201620【正文语种】中文【中图分类】TP391云计算是基于互联网相关服务的可动态扩展的虚拟化资源,它通过网络方便地按需接入和较小代价可使得用户获取服务提供者的网络、服务器、存储和应用等资源池中的可配置计算资源[1].云存储作为云计算中最有潜力的一种应用,是通过互联网可动态扩展虚拟化存储的一种方式.云存储在给用户带来方便的同时,也会因为用户失去了对自己数据的绝对控制权,而使得用户数据的可用性和安全性受到威胁.在云存储的服务模式下,拥有可接入网络的用户设备既可以随时随地访问自己存储在云服务器中的数据,又能方便地按照一定规则与其他用户设备之间共享数据.云存储在为用户带来便利的同时,也会因自身的问题如病毒攻击、操作失误和来自网络的恶意攻击等,损坏或丢失用户存储的数据.甚至当数据损失发生时,云存储服务提供者(cloud storage provider, CSP)为维护自身利益和声誉,常隐瞒数据丢失或损坏.非预期的数据丢失或损坏会给数据完整性和可靠性带来灾难性后果[2].为避免云存储中的数据损失,使用户在有限的计算能力下确保大规模数据存储的完整性,Deswarte等人[3]提出一种基于加密的方法来验证远程数据的完整性,此后,远程数据存储的完整性验证成为解决这种问题的关键技术[4].目前很多数据完整性验证算法被提出[5-25],这些算法主要分为可证明的数据持有技术(provable data possession, PDP)和可恢复证明技术(proof of retrievablity, POR)两大类,分别从验证的可公开性、动态数据、无状态验证、无块验证、批量验证、隐私保护、数据机密性、多云多副本验证等方面进行了研究,但这些算法都基于数据验证者(data verifier,DV)会提供可靠的验证结果而忽视了其不可信所带来的问题.这是由于在实际的开放云存储环境中,并不存在绝对可靠的数据验证者,他们也会因自私或恶意而对数据验证结果的准确性和可靠性造成危害.本文提出一种数据验证结果的检测算法以抵御来自不可信验证结果的伪造欺骗攻击,主要贡献有4个方面:1) 生成完整性验证证据来检测数据的完整性;2) 生成不可信检测证据来判定数据验证结果的正确性;3) 通过构建验证结果的检测树来抵御伪造欺骗攻击和验证结果的不可篡改性;4) 利用双证据来执行交叉验证以确保数据完整性验证结果的可靠性.远程数据完整性验证随着云存储应用的不断普及,越来越受到科学界和工业界的关注.自从Ateniese等人[5]和Juels等人[6]分别提出PDP和POR验证方案以来,出现了大量的远程数据完整性验证算法.Ateniese等人[5]首次提出数据持有性证明的PDP模型,并利用RSA同态技术来验证远程存储数据的完整性,方案中采用随机抽样技术进行概率性验证,以减少数据验证过程中的计算量和通信量,但这种方法并不支持远程数据的动态操作.Juels 等人[6]首次探索可恢复证明的 POR模型来确保远程数据存储可持有和可提取.Hovav等人[7]提出一种支持数据恢复的紧凑型POR.Erway等人[8]提出一种基于Rank的跳跃列表结构实现支持全动态(数据插入、删除、增加、修改等)操作的PDP方案,但却不能很好地保护用户数据的隐私.为了提高远程数据验证的效率,Wang等人[9]利用Merkle Hash树构建了一种支持批量验证的方案,并同时支持数据的动态操作和公开校验.后来,Wang等人[10]进一步利用随机掩码、加密盲化技术设计了一种能够保护数据隐私的可公开验证方案,它不仅可以防止恶意攻击者获得用户数据的真实内容,也可以防止将真实内容泄露给第三方验证者.Zhu等人[11]考虑多个云服务提供商在协同存储和共同维护客户数据的情况下,提出一种基于同态验证响应和Hash索引层次的合作PDP方案.Yang等人[12]提出了一种高效和隐私保护的数据审计协议,以支持在没有任何可信的组织者组织的情况下,多数据所有者和多个云存储的数据动态操作和批量审计.Wang等人[13]使用代理重签名技术允许云服务器在个别用户撤销签名时代表仍然存在的用户执行对存储数据的重签名.我们在文献[14]中提出一种概率验证的算法以抵御远程数据存储数据完整性遭受破坏时的欺骗攻击.谭霜等人[25]提出一种基于格的数据完整性验证方法.但上述这些算法都是在假设验证者完全可信的前提下,或者校验者只会窃取用户的隐私数据,并不会对数据验证本身有任何欺骗行为.只是在Armknecht等人[23]的工作中假定验证者在未执行数据验证任务时给出欺骗数据所有者的验证结果,从而提出一种判定数据验证者的验证结果是否可信的检测算法.算法中在用户上传文件之前,验证者也对文件生成一份验证标签.在挑战时,服务器对来自数据所有者和验证者的2个不同标签也生成相应的验证证据,以此来判断验证者的结果是否保持一致.但这种算法需要在数据上传之前,首先需要指定验证者身份(这有明显的合谋攻击之嫌),并且该验证者也需要存储每次验证的日志文件(这将占用验证者的存储空间).数据的完整性是数据所有者进行远程数据存储时最为关注的核心,本文将研究数据存储提供者和数据验证者都不可信时的验证检测算法,以尽可能少的检测计算、存储和传输开销,保证其可靠性和有效性.我们选取现有的数据验证算法中普遍采用的基于第三方的可公开验证模型来描述数据完整性验证的过程和数据流向,如图1所示:验证模型主要包括3个实体,即数据所有者(data owner, DO)、云存储提供者和验证者.CSP为DO提供自由存取的数据存储服务时,也根据协议享受数据验证服务.当应DV的请求对CSP发起数据完整性挑战后,CSP根据DV提供的验证参数进行计算,然后将证据返回给DV,DV比较数据证据和DO提供的数据标签来判定相应的存储数据是否完整或已损坏.数据验证过程由如下5个阶段来描述. 1) KeyGen(·)→(sk,pk).DO利用密钥生成算法产生公私密钥对(其中sk为私钥,pk 为公钥),并对外公布公钥pk信息.2) TagGen(sk,M)→Φ.DO利用自己的私钥sk对数据块集合M中的第i个数据块mi(i∈[1,n])计算其相应的数据标签ti,最后将所有的数据标签信息放入标签集合Φ中,即Φ={ti}.3) ChalGen(M)→Ω.DV接受DO发布的数据验证任务,对其中所包含的待验证数据块mi产生挑战随机数vi,并和其相应的数据块索引组成挑战集合Ω={i,vi},向CSP发起挑战.4) ProofGen(M,Φ,Ω)→P.CSP接受DV的挑战后,根据挑战集合Ω和待验证的数据块集合M、标签集合Φ等计算得到待验证数据块的数据完整性证据集合,并将这些证据返回给DV作为判定依据.5) Verify(Ω,P,pk)→true\false.DV利用DO的公钥pk,Ω,P来判定CSP提供的数据完整性证据,并将判定结果发送给DO.本文做了如下一些假设:1) DV主动承担数据验证任务而不受CSP和DO控制,且DV数量足够多可保证验证任务都能被执行.2) DV的不可信行为表现为返回给DO的验证结果是伪造的.其原因可能是自私或恶意(如自身设备性能和能耗受限等),使得他在无力承担这些数据验证任务而做出伪证.正如引言所述,现有的数据验证主要是针对云存储提供者可能存在的数据损坏欺骗行为.而执行数据验证任务的DV也可能返回虚假伪造的验证结果.此时,由于现有的数据验证模型中没有应对的检测机制,会导致DO在面对验证者的验证结果时只能盲目服从,而丧失了自己作为数据完整性验证的主体作用.此外,如果不可信CSP和DV进行合谋欺骗,那会对DO造成更大的损失.从数据验证模型和对手攻击中可以看出,需要在现有的模型中增加对不可信验证结果的检测,以解决现有算法中的3个问题:1) 识别CSP提供的不可信验证数据;2) 识别DV提供的不可信验证结果;3) 识别不可信CSP和DV的合谋攻击.为便于描述,一些符号定义为:Q是挑战集合;ti是数据块mi的标签;P是完整性验证证据;P′是不可信检测证据;sk是私钥;pk1,pk2是2个公钥;e是群G1,G2到群GT的双线性映射;TP{·}是标签证据;DP{·}是实际数据证据.传统的数据验证方案中,CSP接受DV的挑战后,在ProofGen(·)阶段根据挑战集合Q和待验证的数据块mi组成的数据集合M、标签集合Φ等计算待验证数据块的数据完整性证据集合P,并将其返回给DV作为判定依据.在我们的算法中,增加一个不可信验证结果的检测证据以判别DV的虚假验证结果.定义1. 完整性验证证据. CSP接受DV的挑战后,发送给DV的面向待验证数据所生成的完整性拥有的验证证据,被标记为P.定义2. 不可信检测证据. CSP接受DV的挑战后,发送给DO的面向DV的不可信验证结果的检测证据, 被标记为P′.为此,在ProofGen(·)阶段,CSP除计算完整性验证证据以外,还要增加一个不可信验证结果的检测证据P′,具体过程如下:1) 在KeyGen(·)阶段,在安全参数确定后,通过执行概率性算法多产生一个公钥pk2.2) 在ProofGen(·)阶段,不可信检测证据P′={TP2,DP2}中实际数据证据DP2的计算公式为不可信检测证据P′={TP2,DP2}中标签证据TP2的计算公式为3) CSP发送检测证据P′给DO作为不可信验证结果的检测依据.这些证据的生成算法见4.3节.云存储环境下的数据验证中,通常数据的验证量比较大.此外,验证者的设备能力差异,都制约着所有数据验证任务由一个DV来执行,因此,验证任务可由多个DV采用分布式处理的方式来执行.在此,我们以一个DV所完成的数据验证结果为例,来研究其不可信验证结果的检测方法.为避免检测过程中DV为应对DO的检测而临时篡改数据,我们引入Merkle Hash树技术[26]来建立验证结果的检测树.Merkle Hash树是一棵二叉树,其每个叶子节点对应一个数据块mi的验证结果Ri,每个非叶子节点值为其子节点的Hash值,最后构成检测树由DV发送给DO.为区分不同数据块的验证结果,我们用每个数据块mi的身份标识mi,id和DV的验证结果(true\false)组合而成,即mi→Ri.给定一个k位返回值的Hash函数f:{0,1}→{0,1}k,例如Hash函数MD5和SHA-2.树中的非叶子节点H(Ri‖Ri+1)的值为其左右2个子节点Ri和Ri+1级联后的Hash值,即H(Ri‖Ri+1)=f(Ri+Ri+1),其中的“+”表示级联运算.如图2所示,我们建立了一个由8个被验证数据块组成的检测树,其中的叶子节点R1和R2分别是数据块m1和m2的验证结果,非叶子节点H(R1‖R2)是2个叶子节点R1和R2级联后的Hash值.依次从叶子节点向根节点级联运算,最后得到根节点的Hash值φ=H(R1‖R8) .不可信验证结果的检测原理是:当DV执行完验证任务后,发送每个数据块的验证结果和检测树的根节点值φ给DO.若DO怀疑来自DV的验证结果,他任意抽取一个数据块的验证结果进行检测.为方便描述,任意选取一个数据块mi来研究其检测过程.DO得到DV对数据块mi的验证结果Ri后.他首先利用来自CSP的TP2,DP2,pk2检测验证结果Ri的正确性.如果Ri不正确,那么表明DV提供了虚假的验证结果;如果Ri正确,这也不能证明DV是诚实的,因为可能是在他被要求提供该数据块的验证结果时重新计算所得的.此时,DO利用正确的Ri和相应的各兄弟节点,重新构造一颗从该叶子节点到根节点的树,并获得重构后的根节点值φ′,由于Hash函数是单向函数,通过比较根节点的值φ和φ′是否相等,可以判定叶子节点对应的验证结果是否真实.我们以图2中的叶子节点R4为例叙述其过程.DO收到DV发送的根节点φ值后,随机选择一个叶子节点R4来检测验证结果.DO利用DV提供的R3,H(R1‖R2),H(R1‖R4),H(R5‖R8)值重构从叶子节点R4到根节点的路径(图2中虚线箭头所指路径),并重新计算根节点的值φ′.如果重新计算的φ′与DV原来发送的φ值相等,即φ′=φ,则表示DV的验证结果是真实的,否则是虚假的.本文提出的算法不仅能验证CSP存储的数据完整性,还能检测DV的验证结果的可靠性和有效性.为此,需要在传统的数据验证模型基础上进行必要的完善.在图3中,相对于现有模型,我们增加了步骤④(检测证据的生成和发送)和步骤⑥(验证结果的检测).不可信验证结果的检测流程如图4所示:群G1,G2,GT是具有相同大素数p阶的乘法循环群,g1,g2分别是群G1,G2的生成元,p是模p的剩余类,e:G1×G2→GT是群G1,G2到GT的双线性映射,h:{0,1}*→G1是一个Hash映射.算法的详细描述如下:1) KeyGen(λ)→(sk,pk1,pk2).在给定输入安全参数后,执行一个概率性算法,生成DO的私有密钥sk和公有密钥{pk1,pk2}.随机选择sk∈p作为DO的私有密钥,相应的公钥为pk1=,pk2=,并将{pk1,pk2}公开.2) TagGen(sk,M)→Φ.DO读取经加密重新编码后的文件M和自己的私钥sk,生成文件M中各数据块mi的相应标签ti.为了增加数据处理的安全性,在p中随机选择一个随机数a,并计算u=.DO将已加密的数据文件M按照约定分割成固定大小的n个数据块,然后对每一个数据块mi(i∈[1,n]),计算其相应的数据标签3) ChalGen(M)→Ω.DV选取数据文件M中的c≤n个数据块发起挑战,并产生相应的挑战信息.该算法根据DO的请求,在数据文件M中随机选取c个索引号,组成挑战数据块索引集合Q.并为每一个待验证的数据块索引i在p中任意选取一个随机数vi与之对应,即产生二元组(i,vi)(i∈Q).另在 p中选取一个随机数r,计算挑战标记最后将所有的二元组(i,vi)和挑战标记放在一起组成挑战Ω={(i,vi)i∈Q,R},并向CSP发起数据完整性挑战.4) ProofGen(M,Φ,Ω)→(P1,P2).CSP根据数据文件M和数据文件对应的标签集合Φ,以及来自DV的挑战信息Ω,计算相应的数据完整性证据P1(包括标签证据TP1和数据证据DP1)和验证结果检测证据P2中的数据证据DP2.数据完整性证据P1中的标签证据TP1计算公式为CSP将数据完整性证据P1=(TP1,DP1)发送给DV.同时,CSP按照式(1)和式(2)计算验证结果检测证据P2=(TP2,DP2)并发送给DO.5) VerifyData(Ω,P1,pk1)→(i,true\false).DV接收到CSP发送的数据完整性证据P1后,利用数据完整性验证算法验证数据的完整性,根据挑战信息Ω 和公钥pk1做出数据是否完整的判断,如果数据完整则输出true,否则输出false.其判断公式为此外,DV构建验证结果的检测树,并计算根节点的φ值,与Ri一起发送给DO.6) ResultCheck(Ri,DP2,φ)→Y\N.DO利用CSP发送的验证结果检测证据P2、检测DV发送的验证结果Ri和检测树的φ值,判定验证结果的正确性.DV首先利用CSP发送的验证结果检测证据P2中的TP2和DP2来判定公式DO任意选择一个数据块的验证结果Ri,利用DV发来的该节点在检测树中的所有兄弟节点,重构检测树并计算根节点值φ′.比较φ与φ′的值,若经过VerifyData(·)和ResultCheck(·)的检测,可识别CSP和DV是否提供了可信的验证结果.考虑到数据在分块的基础上还有进一步划分数据段的方式[12],为提高检测证据生成的适应性,我们也提供了这种方式下的生成方法.假设数据块mi被分成s个数据段mij(j∈[1,s]),则不可信检测证据的生成过程如下:DO在p中选取s个随机数,即a1,a2,…,as∈p,并计算uj=∈G1.利用这些参数对所有数据段进行聚合处理,即检测证据的生成过程如下:1) DO计算相应的数据块mi的标签为2) CSP计算所有数据块中的数据段的线性组合相应的完整性证据中数据证据的计算为检测算法是否能够对数据完整性的DV提供的验证结果进行检测,依赖于算法的正确性,即式(6)和式(7)是否成立.式(7)的正确性证明如下.证明.式(6)的正确性证明与式(7)证明相似,此处省略.本文提出的远程数据完整性验证的检测算法,其安全性建立在离散对数的假设之上.我们首先给出安全性定义域假设.计算性Diffie-Hellman问题(简称CDH问题):设a∈将g1,∈G1,h∈G1作为输入,输出ha∈G1.计算性离散对数问题(简称DL问题) 群G是具有素数(p)阶的循环群,g是群G的生成元,即g=G,∀γ∈G,输入γ,输出a∈使得ga=γ.定义3. 离散对数计算假设(简称DL假设).存在一个可以忽略的概率εgt;0,任意敌手利用一个可能的多项式时间算法Θ在群G上求解DL问题的概率满足:求解DL问题的可能性等价于在中随机选择一个元素进行碰撞攻击,即对于元素γ=ga,在中随机选取一个元素a′,使得γ=ga′,由于|G|=|p,所以必须有a=a′,那么明显,其碰撞的概率为P(·)=1p(p为一个足够大的素数),因此满足P(·)lt;ε .也就是说,对于任何一个可能的多项式算法,求解DL问题的概率几乎是可以忽略的,即任意敌手求解DL问题的概率接近于0.那么,在DL假设成立的情况下,在群G 上解决DL问题在计算上是不可能或者困难的.云存储提供者伪造攻击:CSP试图通过DV的数据完整性验证,即满足式(6)的验证,正如在文献[8]中描述的,在计算上是不可行的,CSP无法进行隐藏伪造攻击,本文将不再赘述其分析过程.验证者伪造验证结果攻击:DV试图通过DO对其验证结果的检测,即满足式(7)和式(8)的验证.对于式(7),其中的关键数据DP2,TP2尽管都是由CSP产生的,但根据同态验证的原理,它们是无法伪造的.对于式(8),根据检测树的构建原理,DV一旦提供了φ值后,DO生成φ′值时,他是无法参与伪造的.因此,从上述分析可以看出,DV也无法伪造验证结果进行攻击.此外,DO不必每次亲自检测数据的完整性,否则就丧失了DV执行数据验证的作用.因此,DO对DV的验证结果执行的是随机检测方式,即随机对DV返回的验证结果进行检测.此时,DV在每次验证后提交给DO的每个数据块验证结果可通过检测的概率是1/2.当DO执行多个数据块(如x块)检测后,验证结果能够通过检测的概率是(1/2)x.例如当x≥5时,DV的验证结果能够通过用户验证的概率小于5%.所以DO执行一定数量的数据块完整性验证结果的检测后,就能识别不可信的DV. 验证者与云存储提供者合谋攻击:由于标签ti是由DO提供的,标签ti是无法被DV与CSP伪造.合谋攻击只能通过伪造原始数据来实现,即让成立,其中实验在1台双CPU(主频Xeon E5-2403 1.8 GHz)、8 GB内存的服务器上搭建云存储服务环境,采用2台CPU(主频Intel Core i5-4210M 2.60 GHz)、8 GB内存的笔记本电脑分别作为数据所有者和验证者.检测算法用Java语言编写,利用JPBC函数库实现.为测试我们提出算法的有效性,命名提出的算法为CIVR(check algorithm of incredible verification results),并选择算法W-POR[12]和Fortress[23]作对比分析.实验中测试数据为20次的平均值.1) 验证能力验证能力指的是验证相同数量的数据块时所耗费的计算时间,让每个数据块大小为32 KB,其实验结果如图5所示:从图5可以看出,CIVR的数据验证能力与Fortress相似,但都稍逊于W-POR.其原因在于CIVR和Fortress都需要服务器生成2对验证证据,而W-POR在数据验证过程中只产生1对验证证据,这节省了服务器生成证据的计算开销,也节省了数据验证的时间.但考虑到实际云计算环境中云服务器的强大运算能力,生成证据的时间差别可以由分布式计算来弥补.2) 存储开销存储开销指的是数据验证过程中各验证方所产生的验证数据存储量.3种算法的实验结果如图6所示.可以看出,CIVR和W-POR的存储开销相似,且都近似为Fortress的一半,且它们与实际数据的大小成正比关系,随着数据块数的增加,它们也线性增加.这些算法的存储开销差别主要体现在数据标签的存储量上.由于在Fortress中,云存储提供者除了要保存数据所有者计算的一套标签外,还要保存验证者计算的一套标签,在相同数据块数量和每个标签大小相同时,存储总量增加了1倍.3) 传输开销传输开销指的是数据验证过程中各验证方之间所产生的验证数据传输量.3种算法的实验结果如图7所示.可以看出,CIVR和W-POR的传输开销都比Fortress的小,且CIVR略微高于W-POR.在验证传输开销的构成中,主要有数据块标签的传输量,以及验证时各种验证参数和验证证据的传输量.其中,Fortress需要传输2套标签,所以传输量会比其他2个算法接近高出一倍.此外,由于在CIVR和Fortress在验证时都需要传输2对证据(或标签),因此,它们这部分的传输量都要高于W-POR.但由于批量处理集成后的2对证据(或标签)的传输量非常小,其大小近似于一个数据块的标签大小,所以相对于W-POR的传输量增加是可以忽略的.4) 验证的可靠性验证的可靠性指的是验证者提供的所有验证结果中,可以确保验证结果具有可靠性的数量占接受验证的数据量的比值.让在接受验证的数据块中都存在云存储提供者和验证者的合谋欺骗,在此情况下3种算法的实验结果如图8所示.可以看出,CIVR和Fortress可以达到100%,而W-POR算法为0.这主要是因为CIVR和。

一种云存储数据完整性验证方法

一种云存储数据完整性验证方法
[ ] A r i J u e l s和 H o v a v S h a c h a m 2-3 提 出 了 可 恢 复 方法 并 分 析 了 P 这种方法 性证明 ( P o R) o R 的 影 响,
图 1 传统 P o R 验证过程 r o c e s s F i . 1 T r a d i t i o n a l P o R p g
A n A r o a c h t o V e r i f i n t h e D a t a I n t e r i t o f C l o u d S t o r a e p p y g g y g
, 1, 2 1, 2 Y U Y a n Y U H u i AN G u i s h e n a n u n1 2 , - F - g- g y g , q ( 1. D e a r t m e n t o C o m u t e r S c i e n c e a n d E n i n e e r i n p f p g g,
云计算是近两 年 学 术 和 工 业 界 都 关 注 的 热 点 , 随着云计算的蓬勃 发 展 , 云计算的安全性也成为大 家关注的一个 焦 点 。 云 存 储 是 云 计 算 的 重 要 内 容 , 云存储减少用户存 储 空 间 的 消 耗 , 节省因为存储空 间升级带来的资 源 、 时 间 和 精 力 的 消 耗。 但 是 云 存 它面临一些内在和外在的安全威 储并非无懈可击 ,
: A b s t r a c t C l o u d c o m u t i n h a s b e e n w i d e l a l i e d i n m a n f i e l d s w i t h t h e d e v e l o m e n t o f i n t e r n e t p g y p p y p , , i n w h i c h d a t a i n t e r i t t e c h n i u e s a n i m o r t a n t r o l e .H o w e v e r t h e r e a r e f e w e f f e c t i v e l a t e c h n o l o g y q py g y p , t o a n a l z e a n d v e r i f t h e d a t a i n t e r i t . I n t h i s b c o m b i n i n t h e a d v a n t a e o f P o R a r o a c h e s a e r y y g y y g g p p pp ( ) ( ) , P r o o f o f R e t r i e v a b i l i t a n d MD 5 M e s s a e D i e s t a n e w a r o a c h t o v e r i f i n t h e i n t e r i t o f t h e c l o u d y g g p p y g g y , , s t o r e d d a t a i s r o o s e d i n w h i c h t h e t e c h n o l o i e s s u c h a s d a t a b l o c k, r a n d o m s a m l i n a n d e r i o d i c p p g p g p v e r i f i c a t i o n a r e u s e d . I t i s s h o w n f r o m r e a l i m l e m e n t a t i o n a n d a n a l s i s r e s u l t s t h a t t h e r o o s e d m e t h o d p y p p e f f e c t i v e l v e r i f t h e d a t a i n t e r i t o f c l o u d s t o r e d d a t a a n d i m r o v e t h e s e c u r i t o f c l o u d c o m u t i n . c a n y y g y p y p g : ; ; K e w o r d s c l o u d s t o r a e d a t a i n t e r i t P o R;MD 5 g g y y

云存储平台的数据完整性保护与防篡改技术研究

云存储平台的数据完整性保护与防篡改技术研究

云存储平台的数据完整性保护与防篡改技术研究随着云计算技术的快速发展,云存储平台已成为许多企业和个人首选的数据存储方式。

然而,数据完整性保护和防篡改成为云存储平台的重要挑战。

在云存储平台中,数据经常需要被多个用户或不同存储节点访问和修改,这就给数据的完整性和安全性带来了新的挑战。

为了确保数据安全,研究和开发各种技术来防止数据完整性的丢失和篡改变得至关重要。

一、数据完整性保护技术数据完整性保护是确保数据在存储和传输过程中不受破坏或篡改的重要方法。

下面介绍几种常见的数据完整性保护技术。

1. 哈希技术哈希算法是一种通过将数据转换为固定长度的哈希值来保护数据完整性的技术。

对于相同的输入数据,哈希算法将始终生成相同的哈希值。

常用的哈希算法如MD5、SHA-1、SHA-256等。

在云存储平台中,数据的哈希值可以与存储在云服务器上的哈希值进行比较,以验证数据的完整性。

2. 数字签名数字签名是一种用于验证数据完整性和认证数据来源的技术。

它使用非对称加密算法,通过生成和验证数字签名来确保数据的完整性。

数字签名需要在数据传输前进行计算,并在接收方进行验证。

这种技术可以防止数据在传输过程中被篡改。

3. 冗余校验冗余校验是一种通过添加冗余信息进行数据完整性保护的技术。

它可以通过重复存储数据、添加校验位、奇偶校验等方式来检测和修复数据错误。

冗余校验可以检测到数据的错误或损坏,并通过纠正错误或恢复数据来保护数据的完整性。

以上是云存储平台中常见的数据完整性保护技术。

通过结合使用这些技术,可以提高数据的完整性保护水平,降低数据被篡改或丢失的风险。

二、数据防篡改技术除了数据完整性保护技术,还需要采取有效的措施来防止数据被恶意篡改。

以下是几种常见的数据防篡改技术。

1. 加密技术加密技术是一种将数据转换为不可读格式的技术,以确保数据的安全性和保密性。

通过对数据进行加密,即使数据被篡改,黑客也无法理解和利用数据内容。

因此,加密技术可以作为一种有效的防止数据篡改的方法。

物联网中的数据完整性验证与安全机制研究

物联网中的数据完整性验证与安全机制研究

物联网中的数据完整性验证与安全机制研究随着物联网技术的发展,越来越多的传感器和设备被连接在一起,收集并共享各种类型的数据。

然而,这些大量的数据可能会面临数据完整性和安全性的挑战。

在物联网中,数据完整性验证和安全机制的研究至关重要,以确保数据的可靠性和保护隐私。

数据完整性验证是指确保数据在传输和存储过程中没有被篡改或破坏的机制。

在物联网中,数据传输的过程可能涉及多个节点和通信介质,因此数据完整性的验证是一项复杂且关键的任务。

为了解决数据完整性验证的问题,学术界和工业界提出了许多方法和技术。

首先,数据加密是保障数据完整性的基本手段之一。

通过使用加密算法,可以确保数据在传输和存储过程中不会被非法获取和篡改。

常见的加密算法包括对称加密和非对称加密。

对称加密使用相同的密钥进行加密和解密,而非对称加密使用公钥和私钥进行加密和解密。

这些加密算法可以有效地保护数据的完整性,防止数据在传输过程中被篡改。

除了加密算法,数据完整性验证还可以通过使用数字签名技术实现。

数字签名是一种数字指纹,可以用于验证数据的完整性和真实性。

在数字签名过程中,发送者使用私钥对数据进行加密,然后接收者使用相应的公钥对数据进行解密和验证。

如果数据在传输过程中被篡改,接收者将无法通过验证,从而发现数据的完整性受到了破坏。

除了数据完整性验证,物联网中的安全机制也是至关重要的。

在物联网中,大量的设备和传感器被连接到互联网上,形成了庞大的网络。

这些设备和传感器可能面临各种各样的安全威胁,如未经授权的访问、数据泄漏和恶意攻击。

因此,需要采取一系列的安全机制来保护物联网中的数据和设备。

首先,访问控制是物联网中常用的安全机制之一。

通过访问控制,可以限制对物联网中设备和数据的访问权限。

只有经过授权的用户或设备才能访问特定的设备和数据。

这种方式可以有效地防止未经授权的访问和数据泄漏。

其次,入侵检测系统也是物联网中重要的安全机制之一。

入侵检测系统可以实时监测物联网中设备和传感器的活动,并检测任何可疑的行为。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

云存储环境下数据完整性验证技术研究
随着云计算技术的快速发展,云存储模式的出现为用户数据的存储和访问带来了便捷性,越来越多的用户将数据存储到云服务提供商(Cloud Service Provider,CSP)处,但是用户无法确保存储在云端的数据是完整和可用的,这些数据有可能遭受到CSP或恶意用户的查看或修改,数据存储的安全性受到了严峻的挑战。

为了解决这个问题,本文主要从用户端和云服务器角度研究云存储环境下数据完整性验证技术。

一方面,针对云服务器端保障用户数据完整性、可用性和隐私性等方面的问题,本文提出了基于多副本的数据完整性验证方案和基于地理位置属性的数据完整性验证方案;另一方面,针对用户端的数据安全访问和安全存储等方面的问题,本文提出了基于用户共享数据的完整性验证方案和基于跨用户重复数据删除的完整性验证方案。

论文的主要工作和创新点如下:(1)基于双线性映射的签名机制和多分支认证树特性,提出了一种基于多副本数据完整性验证方案。

该方案通过使用随机掩码技术对密文进行处理确保数据隐私性,采用多分支认证树来提高数据分块的签名效率,能够支持数据动态更新操作。

此外,引入第三方审计者对多副本数据进行批量审计以减少计算开销。

分析表明,该方案具有较好的效率,能够支持数据隐私保护和抗伪造攻击,任意敌手无法通过伪造签名证据通过完整性验证。

(2)基于BLS签名技术和距离边界协议,提出了一种基于地理位置属性的数据完整性验证方案。

该方案采用随机掩码技术对副本数据进行处理以增强了数据隐私性;利用距离边界协议来检测用户数据是否存储在CSP所宣称的地理位置;通过采用基于BLS签名技术,实现签名信息的聚合运算,并支持多副本数据批量审计。

分析表明,
该方案能够抵抗敌手的重放攻击和伪造攻击,确保用户隐私数据的安全。

(3)基于属性门限签名机制,设计了一种支持群用户共享数据的完整性验证方案。

该方案将用户身份信息参数引入到用户属性私钥中,有效防止合谋攻击者利用属性密钥来伪造签名。

利用基于属性的控制策略,能够有效地支持群组用户撤销和共享数据的动态操作。

在随机预言模型下,方案被证明具有不可伪造性和抵抗合谋攻击等特点。

性能分析表明,方案具有较好的效率。

(4)基于消息锁加密机制,设计了一种跨用户端重复数据删除的完整性验证方案。

该方案具有支持隐私保护,抵抗伪造攻击,公开审计和密文重复数据删除等特点。

通过利用数据块标签一致性验证技术,加强了数据完整性验证,并采用不经意伪随机函数协议改进了所有权证明方法,实现了跨用户密文重复数据删除。

实验分析表明,该方案具有较好的效率。

相关文档
最新文档