大数据加密算法综述

合集下载

网络存储技术的数据加密方法(Ⅰ)

网络存储技术的数据加密方法(Ⅰ)

在当今信息技术飞速发展的时代,网络存储技术的重要性日益凸显。

随着大数据时代的到来,人们对数据的安全性和隐私性也提出了更高的要求。

而数据加密技术作为保障数据安全的重要手段之一,在网络存储技术中发挥着不可替代的作用。

一、对称加密算法对称加密算法是一种常见的数据加密方法,它使用同一个密钥对数据进行加密和解密。

常见的对称加密算法包括DES、AES等。

在网络存储技术中,对称加密算法可以有效地保护数据的机密性,但是由于密钥的安全传输和管理问题,对称加密算法在一定程度上存在安全风险。

二、非对称加密算法非对称加密算法是另一种常用的数据加密方法,它使用一对密钥,分别是公钥和私钥。

公钥用于加密数据,私钥用于解密数据。

非对称加密算法的安全性较高,能够有效防止密钥泄露和中间人攻击。

因此,在网络存储技术中广泛应用于数据传输和交换过程中的加密保护。

三、哈希算法哈希算法是一种将任意长度的消息转换为固定长度摘要的算法。

常见的哈希算法包括MD5、SHA-1、SHA-256等。

在网络存储技术中,哈希算法常用于对数据进行完整性校验和数字签名,以保证数据在传输和存储过程中不被篡改。

此外,哈希算法也可用于对密码进行加密存储,提高用户密码的安全性。

四、混合加密算法混合加密算法是对对称加密算法和非对称加密算法的结合运用。

在网络存储技术中,混合加密算法常用于解决对称加密算法密钥管理不便和非对称加密算法加密速度慢的问题。

混合加密算法首先使用非对称加密算法对对称加密算法的密钥进行加密,然后再使用对称加密算法对数据进行加密。

这样不仅保证了数据的安全性,还提高了加密和解密的效率。

五、数据加密技术的发展趋势随着信息技术的不断进步,数据加密技术也在不断发展和完善。

未来,数据加密技术将朝着更加安全、高效和便捷的方向发展。

一方面,随着量子计算技术的逐渐成熟,新型的量子加密算法将成为数据加密技术的重要方向。

另一方面,生物识别技术的发展也将为数据加密技术的应用提供更多可能性,例如指纹、虹膜、声纹等生物特征的加密认证技术将逐渐走向成熟。

大数据平台数据安全防护技术

大数据平台数据安全防护技术

大数据平台数据安全防护技术一、背景介绍随着大数据技术的快速发展,大数据平台已经成为许多企业和组织进行数据分析和决策的重要工具。

然而,大数据平台的数据安全问题也越来越受到关注。

数据泄露、数据篡改、未授权访问等安全威胁对企业的运营和声誉造成为了严重的影响。

因此,构建一个安全可靠的大数据平台数据安全防护技术是至关重要的。

二、数据加密技术1. 数据加密原理数据加密是一种常用的数据安全防护技术。

通过对敏感数据进行加密处理,可以确保数据在传输和存储过程中不被未授权的人员访问和窃取。

常见的数据加密算法包括对称加密算法和非对称加密算法。

2. 对称加密算法对称加密算法使用相同的密钥进行数据的加密和解密。

在大数据平台中,可以使用对称加密算法对数据进行加密,然后在数据传输和存储过程中使用密钥进行解密,确保数据的安全性。

3. 非对称加密算法非对称加密算法使用一对密钥,包括公钥和私钥。

公钥用于加密数据,私钥用于解密数据。

在大数据平台中,可以使用非对称加密算法对敏感数据进行加密,确保数据在传输和存储过程中的安全性。

三、访问控制技术1. 身份认证身份认证是大数据平台数据安全防护的重要环节。

通过身份认证可以确定用户的身份,防止未授权的用户访问数据。

常见的身份认证方式包括用户名密码认证、证书认证、生物特征认证等。

2. 访问控制列表访问控制列表是一种常用的访问控制技术。

通过设置访问控制列表,可以限制用户对数据的访问权限。

惟独具有相应权限的用户才干访问和操作数据。

3. 角色基础访问控制角色基础访问控制是一种基于角色的访问控制技术。

通过将用户分配到不同的角色,可以根据角色对数据进行访问控制。

这种方式可以简化权限管理,提高系统的安全性。

四、数据备份与恢复技术1. 数据备份数据备份是大数据平台数据安全防护的重要措施之一。

通过定期对数据进行备份,可以保证数据在乎外损坏或者丢失时能够及时恢复。

常见的数据备份方式包括全量备份和增量备份。

2. 数据恢复数据恢复是在数据损坏或者丢失后将备份的数据恢复到原始状态的过程。

大数据平台数据安全防护技术

大数据平台数据安全防护技术

大数据平台数据安全防护技术一、引言随着大数据技术的快速发展和广泛应用,大数据平台的数据安全问题日益凸显。

数据安全防护技术成为保障大数据平台信息安全的重要手段。

本文将详细介绍大数据平台数据安全防护技术,包括加密技术、访问控制技术、数据备份与恢复技术以及数据脱敏技术。

二、加密技术1. 对称加密技术对称加密技术是一种使用同一个密钥进行加密和解密的加密算法。

在大数据平台中,对称加密技术可以应用于数据传输过程中的加密保护,确保数据在传输过程中不被窃取或篡改。

2. 非对称加密技术非对称加密技术使用公钥和私钥进行加密和解密。

公钥可以公开,私钥只有数据接收方才能解密。

在大数据平台中,非对称加密技术可以用于保护重要数据的存储,确保只有授权人员能够解密访问。

三、访问控制技术1. 身份认证技术身份认证技术用于验证用户的身份信息,以确保只有合法用户能够访问大数据平台。

常见的身份认证技术包括密码认证、指纹识别、声纹识别等。

2. 权限管理技术权限管理技术用于控制用户在大数据平台上的访问权限。

通过对用户进行分类和赋予不同的权限,可以实现对数据的细粒度访问控制,保护数据的安全性。

四、数据备份与恢复技术数据备份与恢复技术是大数据平台中重要的数据安全防护措施之一。

通过定期备份数据,并建立完善的数据恢复机制,可以有效应对数据丢失、系统崩溃等突发情况。

1. 数据备份策略数据备份策略包括全量备份和增量备份。

全量备份是将所有数据进行备份,而增量备份则只备份发生变化的数据。

合理选择备份策略可以降低备份成本和恢复时间。

2. 数据恢复技术数据恢复技术包括物理恢复和逻辑恢复。

物理恢复是指通过备份数据的物理副本进行恢复,而逻辑恢复则是通过数据库日志等方式进行数据恢复。

根据不同的情况选择适合的恢复技术。

五、数据脱敏技术数据脱敏技术用于保护敏感数据,在保证数据可用性的前提下,对数据进行处理,使其无法直接关联到具体个人或组织。

常用的数据脱敏技术包括数据加密、数据替换、数据隐藏等。

数据加密技术

数据加密技术

数据加密技术随着互联网的普及,以及数字化时代的到来,人们对于信息安全的需求越来越高。

信息安全技术的加密技术是保证数据安全的重要手段之一。

本文将对数据加密技术进行探讨,包括加密技术的基本概念、加密技术的分类、加密技术的应用及发展趋势等方面。

一、加密技术的基本概念加密技术是通过对原始的明文数据进行加密,将其转换成密文,再通过密钥进行解密,还原出明文的技术。

主要目的是保证数据传输及存储时的安全性。

加密技术分为对称加密和非对称加密两种,其中对称加密指发送方和接收方使用相同的密钥进行加密和解密,而非对称加密则需要使用公钥和私钥进行加密和解密。

二、加密技术的分类加密技术按照密钥使用的不同,可以分为对称加密和非对称加密两种。

1.对称加密对称加密采用同一个密钥进行加密和解密,主要有DES、3DES和AES等算法。

其中,DES(Data Encryption Standard)是最早采用的加密算法之一,已不推荐使用。

3DES是DES算法的升级版,对称密钥长度为168位,安全性较强。

AES(Advanced Encryption Standard)是一种加密标准,加密密钥长度可达到256位,安全性更高。

2.非对称加密非对称加密采用两个密钥进行加密和解密,包括公钥和私钥。

公钥可以公开给任何人使用,而私钥只有对应的持有者才能使用。

非对称加密的算法常用的有RSA、ECC等算法。

其中,RSA算法是目前应用最广泛的公钥密码算法之一,安全性较高。

三、加密技术的应用加密技术广泛应用于信息安全领域,通常用于网络通信、电子商务、数据备份等方面。

1.网络通信在网络通信时,加密技术可以保证数据传输时的安全性,以避免数据被截获或者篡改。

2.电子商务在电子商务中,加密技术可以保证用户敏感信息(如银行卡号等)的安全性,以避免信息被窃取或者篡改。

3.数据备份在数据备份中,加密技术可以保证数据备份的安全性,以确保数据备份的完整性和保密性。

四、加密技术的发展趋势在大数据、云计算、物联网等新技术的发展下,加密技术也在不断发展升级。

常见的几种加密算法

常见的几种加密算法

常见的几种加密算法在信息安全领域中,加密算法被广泛应用于保护数据的机密性、完整性和可靠性。

常见的几种加密算法包括对称加密算法、非对称加密算法和哈希算法。

1. 对称加密算法:对称加密算法使用同一个密钥对信息进行加密和解密。

常见的对称加密算法包括DES(Data Encryption Standard)、3DES(Triple Data Encryption Standard)、AES(AdvancedEncryption Standard)等。

对称加密算法速度快且适合加密大数据量,但由于密钥同样需要传输,因此密钥的安全性成为对称加密算法的一个主要问题。

2. 非对称加密算法:非对称加密算法使用一对密钥,即公钥和私钥,分别用于加密和解密。

公钥可以公开,任何人都可以用公钥加密数据,但只有私钥的持有者才能解密数据。

常见的非对称加密算法包括RSA算法、DSA(Digital Signature Algorithm)算法和ECC(Elliptic Curve Cryptography)算法。

非对称加密算法安全性较高,但加密和解密的过程相对较慢,因此通常与对称加密算法结合使用,提高效率。

3. 哈希算法:哈希算法将任意长度的数据映射为固定长度的哈希值,并具有不可逆性和唯一性。

哈希算法常用于验证数据的完整性和真实性,常见的哈希算法有MD5(Message Digest Algorithm 5)、SHA-1(Secure Hash Algorithm 1)和SHA-256等。

哈希算法计算速度较快,但由于将不同长度的数据映射为固定长度的哈希值,可能存在哈希碰撞的问题,即不同的数据产生相同的哈希值。

除了上述几种常见的加密算法,还有一些特殊用途的加密算法,例如同态加密算法、椭圆曲线加密算法等。

同态加密算法可以在不解密的情况下对加密数据进行特定运算,保护数据的隐私性。

椭圆曲线加密算法是一种基于椭圆曲线数学问题的加密算法,具有较高的安全性和性能。

MySQL中的数据加密和身份认证技术

MySQL中的数据加密和身份认证技术

MySQL中的数据加密和身份认证技术1、引言数据安全一直是互联网时代中的一个重要话题。

在大数据时代,MySQL作为最常用的关系型数据库管理系统,其数据安全性尤为重要。

本文将重点探讨MySQL中的数据加密和身份认证技术,以提高数据安全性。

2、数据加密技术数据加密是一种常用的保护数据安全的手段,通过将明文转换成密文,即使数据泄露,也无法轻易获得明文信息。

在MySQL中,可以使用多种加密算法来实现数据加密。

2.1 对称加密算法对称加密算法使用相同的密钥进行加密和解密,加密速度快,适合大规模数据的加密。

MySQL中支持的对称加密算法有AES、DES等。

开启对称加密后,只有拥有密钥的用户才能解密数据,提高了数据的安全性。

2.2 非对称加密算法非对称加密算法使用一对公钥和私钥进行加密和解密,公钥可以公开,私钥只有拥有者才能获得。

MySQL中支持的非对称加密算法有RSA、DSA等。

通过使用非对称加密算法,可以实现用户之间的安全通信,确保数据传输的安全性。

2.3 哈希算法哈希算法是一种通过将数据映射为一个固定长度的字符串,将明文信息转化为不可逆的字符串。

在MySQL中,常用的哈希算法有MD5、SHA-1等。

通过对密码进行哈希处理,可以防止密码泄露导致的安全问题。

3、身份认证技术身份认证是保证数据安全的基础,通过验证用户的身份来确定其是否具有访问数据库的权限。

MySQL提供了多种身份认证技术,以满足不同应用场景的需求。

3.1 密码认证密码认证是最常见的身份认证方式,用户提交登录请求时,需要通过输入正确的用户名和密码来验证其身份。

MySQL支持多种密码认证插件,如原始认证插件、加密认证插件等。

使用强密码、定期修改密码可以提高密码认证的安全性。

3.2 SSL/TLS认证SSL/TLS认证通过使用数字证书对通信双方的身份进行验证,保证数据在传输过程中的安全性。

MySQL中可通过配置SSL证书实现SSL/TLS认证,确保数据传输的机密性和完整性。

大数据安全与隐私保护技术综述

大数据安全与隐私保护技术综述

大数据安全与隐私保护技术综述在当今数字化时代,大数据已成为各行各业的核心资源。

然而,大数据的快速增长和高度共享也带来了潜在的安全和隐私风险。

大数据的安全和隐私保护已成为一个备受关注的领域,需要不断演进和创新的技术来应对这些挑战。

本文将对大数据安全和隐私保护技术进行综述,介绍当前常用的技术和面临的挑战。

第一部分,我们首先来了解大数据安全技术。

为了保护大数据的安全性,常用的技术包括加密、访问控制和安全存储。

加密技术通过对数据进行加密和解密,使其只能被授权用户访问,从而保证数据的机密性。

访问控制技术采用不同的身份验证和授权方式,限制对数据的访问权限,确保数据的完整性和可靠性。

安全存储技术采用数据冗余和备份策略,防止数据遭受破坏或丢失。

第二部分,我们将重点介绍大数据隐私保护技术。

随着大数据的不断积累和共享,个人隐私信息暴露的风险也在增加。

为了保护个人隐私,在大数据中常采用的隐私保护技术包括数据匿名化、差分隐私和隐私保护算法。

数据匿名化通过对原始数据进行替换、泛化或扰动,使得个人敏感信息无法被识别出来。

差分隐私是一种更加严格的隐私保护方式,通过添加噪声或扰动来保护个体的隐私,并提供最大限度的数据实用性。

隐私保护算法利用密码学技术和数据挖掘方法,对敏感数据进行保护和处理,从而达到隐私保护的目的。

第三部分,我们将讨论大数据安全与隐私保护技术面临的挑战。

首先是数据规模和复杂性增加带来的挑战。

随着大数据规模的不断增加,传统的安全和隐私保护技术面临着效率和可扩展性上的挑战。

其次是隐私保护与数据可用性之间的平衡问题。

在保护隐私的同时,如何保持数据的可用性和可挖掘性成为一个难题。

此外,隐私保护技术本身也面临着攻击和破解的风险,技术的安全性需要不断地加强和提升。

最后,我们来看一些未来的发展趋势和展望。

随着技术的不断进步,大数据安全和隐私保护技术也在不断演化。

一方面,新的加密算法、安全存储技术和访问控制策略将被引入,以应对日益复杂的安全威胁。

数据安全加密方案

数据安全加密方案

数据安全加密方案在当今信息化时代,数据安全问题备受关注。

随着大数据、云计算以及物联网的不断发展,保护数据的安全性变得尤为重要。

数据加密成为了一种常见且有效的手段来保护数据免遭未经授权的访问和恶意攻击。

本文将介绍一种数据安全加密方案,以确保数据的保密性和完整性。

一、数据分类和等级划分在进行数据安全加密时,首先需要对数据进行分类和等级划分。

根据数据的重要性和敏感程度,将数据分为不同的等级,如公开信息、内部机密信息和核心商业机密信息。

这样有助于针对不同等级的数据制定不同的加密策略和技术措施。

二、对称加密算法对称加密算法是一种常见且高效的加密方法。

它使用同一个密钥来进行加密和解密操作。

在数据传输过程中,发送方使用密钥将数据加密,接收方使用相同的密钥对密文进行解密。

其中,常用的对称加密算法有DES、AES等。

对称加密算法的优点在于加密解密速度快,适用于大规模数据的加密,但密钥管理可能存在一定的安全风险。

三、非对称加密算法非对称加密算法采用一对密钥,分别为公钥和私钥。

公钥可以公开传输,而私钥则保密保存。

发送方使用公钥进行数据加密,接收方使用私钥进行解密。

非对称加密算法的典型代表是RSA算法。

与对称加密算法相比,非对称加密算法更安全,但加密解密速度较慢。

因此,在实际应用中,通常会将对称加密算法和非对称加密算法结合使用,以兼顾安全性和效率。

四、哈希算法哈希算法是一种单向不可逆的加密算法,它将任意长度的输入数据通过哈希函数转换为固定长度的哈希值。

常用的哈希算法包括MD5、SHA-1、SHA-256等。

哈希算法主要用于验证数据的完整性,可用于检测数据是否被篡改。

在数据存储和传输过程中,可以对数据进行哈希计算,并将计算得到的哈希值与接收方进行比对,以确保数据的完整性。

五、密钥管理和安全存储对称加密算法和非对称加密算法都需要密钥来进行加密和解密操作。

因此,密钥的管理和安全存储至关重要。

密钥管理应包括密钥的生成、分发、更新和注销等过程。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1.数据划分
2.数据块指纹特征计算
3.数据块检索
4.冗余消除数据存储
5.相同数据检测还是采用相似数据检测和差异编码技术
对比传统的存储系统,重复数据删除系统基于内容寻址,而不是基于文件名寻址;尽管减少了写操作,但由于增加了重复数据删除处理过程,较传统存储系统的I/O性能要低;由于每次只写新的数据,重复数据删除系统具有顺序写、随机读的特点。
图4-5共享密钥更新和安全验证
参考文献:
[1]王蒙蒙.基于数据消冗技术的大数据加密算法研究[D][D]ht J, Asaro T, Babineau B. Digital archiving: end-user survey and market forecast 2006–2010[J]. The Enterprise Strategy Group, 2006.
4
重复数据删除技术是基于数据自身的冗余度来检测数据流中的重复数据对象的数据消冗技术。从重复数据删除发生的时间进行分类,可以分为在线和离线。在线是指数据到达存储设备之前进行重复数据删除;离线是指先暂时将所有数据存在缓冲区,等到服务器空闲再进行重复数据删除。
重复数据删除技术的实现过程首先将数据文件分割成一组数据块,为每个数据块计算指纹,然后以指纹为关键字进行Hash查找,匹配则表示该数据块为重复数据块,仅存储数据块索引号,否则则表示该数据块是一个新的唯一块,对数据块进行存储并创建相关元信息。这样,一个物理文件在存储系统就对应一个逻辑表示,由一组FP组成的元数据。当进行读取文件时,先读取逻辑文件,然后根据FP序列,从存储系统中取出相应数据块,还原物理文件副本。重复数据删除的过程主要分为:
[3] Kruus E, Ungureanu C, Dubnicki C. Bimodal Content Defined Chunking for Backup Streams[C]//Fast. 2010: 239-252.
[4] Puthal D, Nepal S, Ranjan R, et al. A dynamic prime number based efficient security mechanism for big sensing data streams[J]. Journal of Computer and System Sciences, 2017, 83(1): 22-42.
在检测相同数据块时,引入Bloom filter技术,利用Bloomfilter算法计算其相似度,进行更细粒度的匹配。算法的具体实现步骤:
1.初始化hash表。
2.将得到的hash函数值与已经存储在hash表中的值进行比较。若匹配到相同的值,则用指向已存储文件的指针代替此文件;若匹配失败,则将文件进行存储。
3.重复步骤1至2,直至所有文件被检测完毕。
4.对完全文件检测技术中没有重复的数据重新归档。
5.将划分好的数据块输入数据流,构造一个m位的Bloom filter数据结构,并将其所有位初始化为0。
6.选取k个相互独立的hash函数,分别将集合中的每个元素映射到1,...,m的范围内。为每个数据块计算hash值作为组成的序列作为特征值。
图4-1基于数据消冗技术的大数据加密算法模型
加密算法步骤:
1.数据预处理
数据预处理时需要删除数据中的重复数据,运用之前提到的数据消冗技术,将重复数据的特征信息存储在hash表中,将得到的hash函数值与已经存储于hash表中的值进行比较,相同则用已存储文件的指针替代。
2.敏感信息加密
发送信息之前,先生成密钥,然后采用ECC加密算法加密预处理阶段存储大数据敏感信息的hash表。
图4-3传感器和数据流管理器之前的身份验证过程和握手
2.握手
在握手环节,数据流管理器(DSM)通过对初始共享密钥(K)进行加密,把它计算出的素数和密钥发送给单个的传感器。在这一步过程中,DSM把所有的参数和结果都发送给传感器,所有的这些传输信息都存储在信任的传感器中。这一过程在上图4-3也有体现。
3.密钥更新
7.按照Hamming距离和余弦相似度公式计算数据对象之间的相似性,若两者有相同,则用指向已存储文件的指针代替该文件;若两者的值不相同,则将文件进行存储,同时更新hash表,将新文件hash值添加进去。
4.1.
结合ECC加密算法和分组密码算法的特点,并综合之前的重复数据删除方案,提出了一种适用于大数据加密的对称密码算法和非对称加密算法相结合的加密方案;其中,ECC用于加密hash表内容,对称加密算法用于加密消冗方案处理后的大数据。方案的基本模型如图4-1所示。
通常情况下,用重复数据删除前的字节数(Bytes In)与处理后的字节数(Bytes Out)之比来衡量数据缩减率(Data Elimination Ratio,DER),如式4-1所示
DER通常由两方面因素决定:1采用的划分策略类型;2平均数据分块大小。尽管式4—1所示的数据缩减率已将分块后数据块之间的重复数据和单个数据块内部的数据压缩考虑在内,但没有考虑元数据开销。但重复数据删除系统中的元数据开销是不容忽视的,研究者提出了数据缩减率的修正公式[3],如式4-2所示:
3.预处理后的明文加密
对经过之前数据消冗技术处理后的大数据明文,采用对称加密算法AES加密,其中,分组密码算法的工作模式采用CTR模式以保证加密速度快。
4.初始化迭代分组密码的分组长度和密钥长度以及值
5.求解内部函数加密
解密步骤:
1.用ECC解密算法解密hash表,恢复hash表的内容。
2.解密预处理后的大数据密文,基于AES内部函数的可逆性,解密即在相反的方向进行反演加密。
4.安全验证
在这个环节,数据流管理器需要对数据进行判定是否修改以及是否来自受信任的节点,由于数据流管理器有共同的初始共享密钥,它可以解密完整的数据块,以找出用于完整性和真实性检查的单个数据块。数据流服务器首先通过随机间隔抽取数据块检查每一个数据块的来源是否受信任,是否完整。随机值的计算就是基于相应的素数。下图描述了其流程:
4
4
基于数据消冗技术的大数据加密算法是一种结合重复数据删除算法的,基于bloomfilter的大数据消冗算法,是由学者王蒙蒙等对大数据通用加密模型以及加密技术原理等研究后针对大数据加密方案中的速度和实时性问题而提出的一种加密算法[1]。
研究发现,目前大数据的中冗余度高达60%以上[2]。,而传统的数据压缩方法在利用数据冗余来提高储存查询效率上,有许多局限,无法处理不同文件之间的数据冗余。而重复数据删除算法,不仅拥有传统方法的优势消除文件内的数据冗余,而且能消除共享数据集内的文件之间的数据冗余[1],这在降低大数据的维数上,提供了一种很好的思路。
其中f为元数据大小的开销,其计算方法如下:
其中,Metadata Size表示元数据大小,Average ChunkSize表示平均Chunk大小。
常用的还有一种基于Bloom filter的数据消冗技术。Bloomfilter是由Howard Bloom在1970年提出的二进制向量数据结构,它具有很好的空间和时间效率,被用来检测一个元素是不是集合中的一个成员。基于Bloomfilter的大数据消冗算法的核心思想是利用Bloom filter的数据结构来表示特征值对文件特征进行降维。
图4-2从传感器到云处理中心的架构
基于动态素数模型的安全认证方案包含四个部分:系统设置、握手、密钥更新和安全验证。
1.系统设置。
首先开始时,在传感器和数据流管理器之间使用一些密钥交换以保证会话密钥的建立过程是安全的。传感器和数据流管理器都掌握一个相同的密钥用于初始身份的验证。其具体的验证过程如下图:
采用在传感器和数据流管理器两端都计算素数来实现密钥的更新,如下图4-4所示:
图4-4 DSM和传感器两端同步计算素数来更新密钥
通过采用短的密钥加速验证过程,然后通过不断频繁的更新密钥来保证其安全性。如果过程中被攻击,则传感器响应就不会与数据管理器同步,传感器就会重新初始化与数据流管理器建立新的连接保持同步。
4.2
Deepak Puthal等于2017年基于求同步素数得到的共享密钥提出了一种动态密钥长度的安全认证框架(DLSeF),然后将基于该框架下,设计了针对大数据流的高效的基于动态素数安全认证方案(DPBSV)[4]。动态更新的密钥长度间隔很短可以防止中间人和其他网络攻击。DLSeF框架的可以在不影响安全的前提下通过减少安全验证的时间显著提高处理流数据的效率。其框架模型如下图:
相关文档
最新文档