第2章信息加密技术基础 共108页
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
N
H(X)
1log 1loN g
(2.5)
i1N N
例题
例,信源有两种状态时,概率空间
[X,P(xi)]Px1(1)x
x2 1P(x1)
其H(X)与P(x)关系如图所示,,当P( x) =1/2时熵有最大值;
当信源输出是确定的,即 P(x1) 1,则 H(X)0,此时表
1. 信 息 熵 基 本 知 识(续)
空格所隐藏的字符属于多余度字符,不 用那些字符也能运载该句子的全部信息, 比如:“我__大________使______机来 ____数__。”就很难猜出完整的句子,在 信息传递的时候,也很难做检错和抗错。 因此,保留一定的多余度(或冗余度)是非常 重要的。
2. 信息量和信息熵基本定义(1)
111111
明日月明 101010
000000
?
明日明日 101101
000111
日明月明 110010
011000
通过这个例子我们看到一个简单的加密过程,原来的诗 通过与密钥的模二运算实现了加密。
2.1.1 信息编码基础知识
第二次世界大战期间,美国为了提高 信息储存和传递的效率,发明了多种新的 编码方法,奠定了现代信息科学技术的基 础。Shannon还于1949年发表了“保密系统 的通信理论”一文,奠定了现代密码学基 础从而对加密过程中信息编码有了明确的 分析。在该文中他从信息论观点,对信息 系统的保密性问题作了全面而深刻的阐述。
H(K)H(ml)
(2.9)
证明:若 H(K)H(ml),则由前一个定理可 得,I(ml;cv)0,所以 I(ml;cv)0的必要条件是
H(K)H(ml)
2.1.2 数论基本术语
• 数论是研究整数性质的一个数学分支, 同时也是加密技术的基础学科之一。首 先介绍一些数论的基本知识.
1. 整 数
个信源,其概率空间 分别为:
[Y,P(yi)]0y.15
y2 0.5
2. 信息量和信息熵基本定义(5)
则信息熵为:
H ( X ) 0 . 9 9 l o g 0 . 9 9 0 . 0 1 l o g 0 . 0 1 0 . 0 8 [ b i t ]
H ( Y ) 0 . 5 l o g 0 . 5 0 . 5 l o g 0 . 5 1 [ b i t ]
同余式的一些基本性质
(1)反身性: aa(mond) ; (2)对称性:如果ab(mond),那么ba(mond) ; (3)传递性:如果ab(mond),bc(mond) ,那么ac(mond); (4)如果aa1(mon)d,bb1(mon)d那么aba1b1(mno ) d
1. 信 息 熵 基 本 知 识
信息论中最重要的内容,是如何认识和使用 信息熵来表现信息。 这里用Shannon最喜欢用的 猜谜方法来说明信息熵的基本概念。假如有: “我们大__都喜__使__计__机来管__数__。” 不用很多努力,就可以猜出完整的句子:“我们大 家都喜欢使用计算机来管理数据。” Shannon在 信息论中指出,能猜出来的字符不运载信息,而 不能猜出来的字符运载信息。
的熵:
H (X) Y H (X ) H (Y )
N
P(xi ) 1
i 1
M
P(yi) 1
j1
可加性是熵函数的一个重要特性,正因为有可加性,
所以可以证明熵函数的形式是唯一的。
3. 信息熵的基本性质(6)
V. 极值性 信源各个状态为零概率分布时,熵值最 大,并且等于信源输出状态数,因为 当 P (x 1 ) P (x 2 ) P (x s) 1 /N 时,
定义:设a,bZ,a0。如果存在 qZ使得 b aq,那么就说b 可
以被a 整除,记为 a b ,且称b是a的倍数,a 是b的因数(或称约
数、除数、因子) 。 b不能被a整除可以记作dFa。由定义及乘
法运算的性质,可推出整除关系具有以下性质(注:符号a b
本身包含了条件a 0 ): (1) a a ;
n
H(X)[1log10log0]0 (2.3) i2 此性质表明,信源的输出虽有不同形态,但其中 一种是必然的,意味着其他状态不可能出现。 那么,这个信源是一个确知信源,其熵为零。
3. 信息熵的基本性质(4)
III. 非负性 即 H(X)0 。 因为随机变量 的所有取值的 概率分布为0P(xi)1,当取对数的底大 于1时,loP g(xi)0,而 P (xi)loP g (xi)0,则得到 的熵是正值,只有当随机变量是一确知 量时,熵才等于零。这种非负性对于离 散信源的熵来说,这一性质并不存在。
2.1 信息加密理论基础
信息安全的核心技术之一是加密技术, 它涉及信息论、基础数论和算法复杂性等 多方面基础知识。随着计算机网络不断渗 透到各个领域,加密技术的应用也随之扩 大,应用加密基础理论知识,深入探索可 靠可行的加密方法,应用于数字签名、身 份鉴别等新技术中成为网络安全研究重要 的一个方面。
n
p ( xi )
1
。事件xi
i1
包含的信息量 I(xi)loaP g(xi)
(2.1)
通常=2,此时相应的信息量单位是bit。
Shannon定义信息的数学期望为信息熵,即
信源的平均信息量。
2. 信息量和信息熵基本定义(3)
定义:将集合X中事件所包含的信息量统计 平均,则平均值定义为集合X的熵.信息熵表 征了信源整体的统计特征,集合X的熵H(x) 表示X中事件所包含的平均信息量,或总体 的平均不确定性的量度。
3. 信息熵的基本性质(5)
IV. 可加性
独立信源 X和 Y的联合信源的熵等于它们各自的
熵之和。 如果有两个随机变量X和 Y, 它们彼此是
统计独立的,即 X的概率分布为[P(x1)P ,(x2) ,,P(xs),]
而 Y的分布概率为 [P (y1)P ,(y2) ,,P (yz),则] 联合信源
加密的理论依据
密码学问题就是随机性的利用问题. 差不多每台使用加密技术的计算机安全系 统都需要随机数,供密钥、协议中的基础 参量等使用或者用做辅助信息或者初始化 向量。这些系统的安全也经常依赖于这些 随机数的随机性及被保护程度。
简单的加密举例
中秋日月 编码 密钥 密文编码 诗
月明明日 010101 10
第二章 信息加密技术基础
引言
信息加密是网络安全体系中重要机制之 一。信息加密的目的是为了保持信息的机密 性,使用恰当的加密标准将在计算机环境中 增加安全性。信息加密通过使用一种编码而 使存储或传输的信息变为不可读的信息,解 密是一个相反的过程。这些编码就是将明文 变成密文的加密算nformation entropy)是对 信息状态“无序”与“不确定”的度量 (从本质上讲,熵不是对信息的度量,但 信息的增加而使产生的熵减小,熵可以用 来度量信息的增益)。
2. 信息量和信息熵基本定义(2)
定义:给定一离散集合X={xi; i=1,2,…,n},
令xi出现的概率是
p(xi ) 0且
加密编码在Shannon的信息论中有针对性的阐述, 数论及基础代数是加密算法的理论基础。要将一段 信息加密或解密,你会要用到密钥,它是一个很大 的值。一般来说,密钥越大,加密就越健壮。一般 来说加密体制分为对称密钥加密和公用密钥加密, 对称密钥加密在密钥方面有一定的缺陷,但执行效 率高;公用密钥加密加密执行效率底,但保密性强, 在报文和网络方面对小量信息加密非常有效.
其信息熵 H(X)H(Y).该性质说明,熵 只与随机变量的总体结构有关,与信源总 体的统计特性有关,同时也说明所定义的 熵有其局限性,它不能描述事件本身的主 观意义。
3. 信息熵的基本性质(3)
II. 确定性 如果信源的输出只有一个状态是必然的, 即 P (x 1 ) 1 ,P (x 2 ) P (x 3 ) 0 ,则信源的熵:
可见,H(Y)H(X),说明信源 Y 比信源 X 的平均不确定
性要大,即在事件发生之前,分析信源 Y,由于事
件 y1, y2 是等概率的,难以猜测哪一个事件会发生.
2. 信息量和信息熵基本定义(6)
而信源 X,虽然也存在不确定性,但大致可以 知道, x 1出现的可能性要大。正如两场比赛,其中
一场,双方势均力敌;而另一场双方实力悬殊很 大。当然,人们希望看第一场,因为胜负难卜,一 旦赛完,人们获得信息量大。也可以这样理解, 信息熵 表征了变量 的随机性。因此,熵反映了变 量的随机性,也是表征随机变量统计特性的一个 特征参数。
K和C分别是明文、密钥和密文空间,m、k、
c分别是它们的字母集,l ,r和v分别是明文、密
钥、和密文的长度。则明文和密文之间的互信
息以及密钥与密文之间的互信息分别是:
I(kr;cv)H (kr)H (krcv)
(2.6)
I(m l;cv)H (m l)H (m lcv)
(2.7)
4. 信息熵在信息加密编码中的作用(2)
是两两互不相同的素数,ei(1ik) 是正整数。 (4)素数有无穷多个。
(5)设 (x)表示不大于 的素数的数目,则li m (x)ln x/x1。
3. 同 余
设 a,bZ,n0,如果 n (a b) ,则称a和b模n同 余,记为 ab(mond),整数n称为模数。由 于n a b等价于 na b,所以ab(mond)与ab(mond))( 等价。因此,一般我们总假定 n1。如 果 0bn,我们称b是a对模n的最小非负剩 余,有时也称b为a对模n的余数。
因为只要密文、密钥确定后,明文也就得到了,所以
H(ml)(cv,kr))0,故 I(m l;(cv,kr))H (m l) 定理:对任意加密系统
I(m l;cv)H (m l)H (K )
(2.8)
从该理论我们可以看出,密钥熵越大,密文中所包含的
明文信息量就越小。一个加密系统中,若其密文与明
文之间的互信息
,则密码分析者无论截
获多大的密文,均I(不m能l;c得v)到有0关明文的任何信息。这
种加密系统称为完善加密系统,或无条件加密系统。
4. 信息熵在信息加密编码中的作用(3)
在对密文攻击下,完善加密系统是安全的,但它不能 保证在已知明文或选择性明文攻击下也是安全的。因 此,完善保密系统存在的必要条件是
(2)如果 a b 且 b c ,则 a c ;
(3)设 m0,那么a b 与 am bm 等价; (4)如果a b 且 a c ,则对所有的 x, yZ,有 a bx cy ;
(5)设 b0,如果 a b ,那么 a b ;
2. 素 数
定义:设整数 p 0。如果它除了显然因数1,p外没有其他的
3. 信息熵的基本性质(1)
I. 对称性
当概率空间中 P(x1),P(x2)序任意互换时, 熵函数的值不变,例如下面两个信源空
间:
x1 x2 x3 [X,P(x)]1 1 1
3 6 2
y1 y2 y3 [X,P(y)]1 1 1
6 2 3
3. 信息熵的基本性质(2)
n
H (x ) E [ lo 2P g (x i) ] p (x i)lo 2p g (x i) 0 (2.2) i 1
2. 信息量和信息熵基本定义(4)
其 因信统对息计某熵特一性只特有不定一同的个,信其,源[,X,P(xi)]0.x919
x2 0.01
熵也不同。例如,两
因数,则p就称为是素数,也叫不可约数。若 a 0,1且a不
是素数,则a称为合数。 关于素数,有以下性质:
(1)如果p是素数,且 p ab ,则 p a 或 p b ,即p至少整除a与b中
的一个。
(2)任何一个整数 n2 ,均可以分解成素数幂之积:np1e1p2 e2 pkek (3)若不计因数的顺序,这个分解式是唯一的。其中 k 1, p i (1ik)
明该信源不提供任何信息;反之,当信源输出为等概
率发生时,即 P(x1)1H(x/)2时信源的熵达到最大值,等于
1bit信息量。
明 文
0
0.5
1
P(x)
信息熵函数曲线
4. 信息熵在信息加密编码中的作用(1)
通过熵和信息量的概念,可计算加密系统中各
部分的熵。令明文熵为 H(M)H(ml) ,密钥
熵 H(K)H(kr) ,密文熵 H(C)H(cv) 。这里M、