信息论基础— 信源及其平均不确定性ch03.article

信息论基础— 信源及其平均不确定性ch03.article
信息论基础— 信源及其平均不确定性ch03.article

信息论基础—信源及其平均不确定性

Contents

1 信源的分类和建模1

2 离散平稳信源的熵率3

3 离散马尔可夫信源及其熵率4

3.1 离散马尔可夫信源. . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3.2 离散马尔可夫信源的熵率. . . . . . . . . . . . . . . . . . . . . . . 4

4 离散信源的相关性和剩余度4

5 连续信源6

5.1 连续信源的微分熵. . . . . . . . . . . . . . . . . . . . . . . . . . . 6

5.2 连续信源的最大熵. . . . . . . . . . . . . . . . . . . . . . . . . . . 7

5.3 连续信源的熵功率. . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1 信源的分类和建模

?信源(Information Source) 是信息的来源。信源是产生消息(符号)、消息(符号)序列以及连续消息的来源,数学上,信源是产生随机变量X、随机序列X 和随机过程X(t, ω) 的源。信源的最基本的特性是具有统计不确定性,它可用概率统计特性来描述。

?信源的描述与分类

–单消息(符号)信源:它是最简单也是最基本的信源,是组成实际信源的基本单元。它可以用信源取值随机变量的范围X 和对应概率分

布P (X) 共同组成的二元序对[X, P (X)] 来表示。

[

X ]

P (X) =

[

x1 x2 . . . x r

p(x1) p(x2) . . . p(x r )

]

(1)

1

2

– 实际信源(多符号信源)在离散情况下是消息序列信源,在连续情况 下是随机过程信源,它们分别代表数字与模拟信源。

X = (X i 1 , X i 2 , . . . , X i l , . . . , X i N )

(2) 简记

=(X 1, X 2, . . . , X l , . . . , X N )

(3)

其中,i = 1, 2, . . . , r 为每个消息(符号)取值的种类数,l = 1, 2, . . . , N 为消息(符号)序列的长度

信源输出是一组随机序列(矢量):

X = (X 1, . . . , X l , . . . , X N ) ∈ X N

(4)

其样值为: 对应概率为:

αi = (x 1, . . . , x l , . . . , x N ) (5)

p (αi ) = p (x 1, . . . , x l , . . . , x N ) (6)

由于每个随机变量 X = {1, 2, . . . , r } 有 r 种取值,则随机矢量共有 r N 种可能取值。

多符号信源的模型为:

[ X ] P (X ) = [ α1 α2 . . . αr N

p (α1) p (α2) . . . p (αr N ) ] (7) 此时信源的熵为 H (X ) = H (X 1X 2 . . . X N )。

– 根据样本空间的取值特性可将信源分为取值离散、取值连续两种。 – 根据样本的时间特性可将信源分为时间离散、时间连续两种。

– 根据信源发出的相邻符号之间的依赖关系可分为无记忆信源、有限 记忆信源、无限记忆信源等: * 离散无记忆信源

N p (α) = p (x 1, . . . , x l , . . . , x N ) = ∏

p (x l )

(8)

l =1

* 离散有记忆信源

p (α) = p (x 1)p (x 2|x 1)p (x 3|x 2x 1) . . . p (x N |x N ?1x N ?2 . . . x 2x 1)

(9)

– 在实际的连续信源中,可以采用两种方法进行分析:

* 一类是将连续信源离散化

* 另一类是仍然采用随机过程来分析

– 若信源的统计特性与时间起点无关,则称为平稳信源,否则为非平稳 信源。

3

2 离散平稳信源的熵率

Definition 1 (离散平稳信源). ? 若当 t = i, t = j (?i, j ∈ N , i = j ),有 p (x i ) =

p (x j ) = p (x ),则称信源是一维平稳的,即任意两个不同时刻信源发出符 号的概率分布完全相同;

? 若一维平稳信源还满足 p (x i x i +1) = p (x j x j +1),则称 信源是二维平稳的, 即任意时刻信源连续发出两个符号的联合概率分布也完全相同;

? 如果各维联合概率分布均与时间起点无关,则称信源是完全平稳 的,简 称离散平稳信源。

Corollary 2. 离散平稳信源的各维条件概率均与时间起点无关,只与关联长度 N 有关。

Definition 3. N 维离散平稳无记忆信源 X = X 1X 2 . . . X N 可能发出的消息 数,由离散无记忆信源 X 的 r 种扩展到 r N 种,其概率分布 p (α) 可由离散 无记忆信源的概率分布 p (x ) 求得。因此,我们将 N 维离散平稳无记忆信源 X = X 1X 2 . . . X N 称为 离散无记忆信源 X 的 N 次扩展信源,记为:

X N = X 1X 2 . . . X N .

(10)

Theorem 4. 离散无记忆信源 X 的 N 次扩展信源 X N 的熵为:

若 X 是平稳的,则: N H (X N

) = ∑

H (X i ),

(11)

i =1

H (X N ) = N H (X ).

(12)

Definition 5 (平均符号熵).

△ 1

H N (X ) = N

H (X 1X 2 . . . X N ) (13)

表示 N 长信源符号序列中平均每个信源符号所携带的信息量。 Definition 6 (极限熵(熵率)).

H ∞(X ) = lim N →∞

H N (X )

(14)

Theorem 7. 对于离散平稳信源,若 H 1(X ) < ∞,则 H ∞(X ) 存在,且

H ∞(X ) = lim N →∞

H (X N |X 1X 2 . . . X N ?1)

(15)

Lemma 8. 对于离散平稳信源,若 H 1(X ) < ∞,则

? 条件熵 H (X N |X 1X 2 . . . X N ?1) 随 N 的增加单调不增;

4

? N 给定时 H N (X ) ? H (X N |X 1X 2 . . . X N ?1); ? 平均符号熵 H N (X ) 随 N 的增加单调不增。

Corollary 9.

log r = H 0(X ) ? H 1(X ) ? H (X 2|X 1) ? . . .

? lim N →∞

H (X N |X 1X 2 . . . X N ?1) = H ∞(X ) ? 0

(16)

3 离散马尔可夫信源及其熵率

3.1 离散马尔可夫信源

? 信源在某一时刻发出的符号的概率除与该符号有关外,只与此前发出的有

限个符号相关。将这有限个符号记为一个状态,则信源发出的符号的概率 除与该符号有关外,只与该时刻信源所处的状态有关,信源将来的状态及 其发出的符号只与信源现在的状态有关,而与信源过去的状态无关。

? 设信源符号表为 {a 1, a 2, . . . , a r },信源输出的序列为 x 1, x 2, . . . , x N 。且信 源输出某一符号的概率与以前的 m 个符号有关,则我们将此 m 个符号合在 一起看成是一个状态,信源全部可能的状态集合为 S = {b 1, b 2, . . . , b r m }。 信源在各个时刻的状态组成信源状态序列s 1, s 2, . . . , s N 。信源在时刻 n 由状态 b i 进入时刻 n + 1 的状态 b j 的概率称为状态转移概率:p ij (n ) = Pr {s n +1 = b j |s n = b i }。

3.2 离散马尔可夫信源的熵率

? 根据熵率的定义,有:

H ∞ = lim N →∞

H (X N |X 1X 2 . . . X N ?1)

(17) = H (X m +1|X 1X 2 . . . X m ) = H m +1

(18)

p (x k m +1 |x k m , . . . , x k 1 ) = p (x k m +1 |s i )

(19)

? 将其取对数并对 x k m +1 , x k m , . . . , x k 1 和 s i 取均值。可得:

H m +1 = ∑

p (j )H (X |s j )

(20)

j

4 离散信源的相关性和剩余度

? 平均符号熵随着关联长度 N 的增加而单调减少,表明信源符号间的关联 性会降低信源的平均不确定性。

? 对于无记忆信源而言,分布的不均匀性也会使得信源的熵变小。

5

H

Definition 10. 一个信源的熵率与具有相同符号集合的最大熵的比值称为熵的相 对率:

信源剩余度定义为:

η =

△ H ∞

H 0

(21)

γ =△

1 ? η = 1 ? H ∞

(22)

Example 11. 已知英文的统计信息如下:

下面,首先求得独立等概率情况下的熵,即

H 0 = log 2 27 ≈ 4.755 bit/symbol

(23)

其次,计算独立不等概率情况下的熵,

27 H 1 = ? ∑

p i log 2 p i ≈ 4.041 bit/symbol

(24)

i =1

再次,若仅考虑字母有一维相关性,求得

H 2 ≈ 3.100 bit/symbol

(25)

最后,利用统计推断方法求出 H ∞:

H ∞ ≈ 1.400 bit/symbol

(26)

这样,可以计算出

η = 0.294, γ = 0.706

(27)

这一结论说明,英文信源,从理论上看 70.6% 是多余成分。1

1Gadsby is a 50,000 word novel written without the letter E.

5 连续信源

5.1 连续信源的微分熵

?连续随机变量X 对应的熵函数定义可以从离散随机变量的熵函数的形式扩展推导得到.

?设连续随机变量X 可能的取值为整个实数域R,即x ∈(?∞, +∞),其概

率密度函数为p(x)。

?将X 的值域分成间隔为?x 的小区间,则X 的值在小区间(x i, x i + ?x)

内的概率近似为p(x i)?x。于是,熵函数的近似值为:

H?x(X) = ??当?x →0 时,有

+∞

i=?∞

p(x i)?x log (p(x i)?x) , (28)

lim ?x→0

[

H?x(X) = lim ?

?x→0

+∞

i=?∞

]

p(x i)?x log (p(x i)?x)

∫+∞

= ?

?∞

∫+∞

p(x) log p(x) d x ?lim

?x→0

log ?x

∫+∞

?∞

p(x) d x

= ?p(x) l og p(x) d x ?lim

?∞?x→0

log ?x (29)

?当?x →0 时,上式中的后一项的极限值为无穷大,这个结果符合熵函数

的物理意义,但是不便于理论分析。因此,香农直接将上式的第一项作为连

续随机变量的熵函数的定义:

Definition 12 (微分熵). 连续随机变量X 的熵函数为:

∫+∞

h(X) = ?p(x) log p(x) d x (30)

?∞

为了区别该定义与离散熵的定义,通常称其为微分熵。

?微分熵由于去掉了无穷大项,只能作为连续随机变量的不确定程度的一种相对度量。

?微分熵的概念可以推广到多个随机变量:

Definition 13 (联合微分熵). 设两个连续随机变量X和Y 的联合概率密度函数

为p(xy),则其联合微分熵定义为:

∫∫

h(XY ) = ?p(xy) log p(xy) d x d y (31)

6

7

+ x

μ

Definition 14 (条件微分熵). 设两个连续随机变量 X 和 Y 的概率密度函数分别 为 p (x ) 和 p (y ),联合概率密度函数为 p (xy ),条件概率密度函数分别为 p (x |y ) 和 p (y |x ),则其条件微分熵定义为:

∫ ∫

h (X |Y ) = ? ∫ p (xy ) log p (x |y ) d x d y

= ? p (y ) d y ∫ ∫

p (x |y ) log p (x |y ) d x (32)

h (Y |X ) = ? ∫ p (xy ) log p (y |x ) d x d y

= ? p (x ) d x p (y |x ) log p (y |x ) d y (33)

? 多个随机变量下离散熵之间的一些关系式在连续随机变量下仍然成立:

h (XY ) = h (X ) + h (Y |X ) (34) = h (Y ) + h (X |Y ) (35) h (X |Y ) ? h (X ) (36) h (Y |X ) ? h (Y )

(37) h (XY ) ? h (X ) + h (Y )

(38)

5.2 连续信源的最大熵

Theorem 15. 在输出幅值受限的条件下:

a ? x ?

b ∫ b

(39)

p (x ) d x = 1

a

服从均匀分布(p (x ) = 1 b?a

, x ∈ [a, b ])的随机变量

X 具有最大微分熵:

h (X ) = log(b ? a )

(40)

Theorem 16. 在输出幅值的均值受限的条件下

∫ +∞ p (x ) d x = 1

?∞ ∫ ∞

xp (x ) d x = μ

?∞

(41)

服从指数分布(p (x ) = 1 e ? μ , x > 0)的随机变量 X 具有最大微分熵:

h (X ) = log(μe) (42)

8

2

Theorem 17. 在平均输出功率受限的条件下:

∫ +∞

?∞

∫ p (x ) d x = 1

+∞

?∞ xp (x ) d x = μ

(43) ∫ +∞ (x ? μ)2p (x ) d x = σ2

服从高斯分布(p (x )=√1 ?∞ exp (

? (x?μ)

)

)的随机变量 X 具有最大微分熵:

2πσ

2σ2

h (X ) = log √

2πe σ

(44)

5.3 连续信源的熵功率

Definition 18. 假设限定的平均功率为 P 的某连续信源的微分熵为 h (X ),则与 此信

源具有相同微分熵的高斯信源的平均功率 P

ˉ 定义为熵功率,即:

P

ˉ = 1 2πe

e 2h (X ) (45)

? 由连续信源的最大熵定理可知:P

ˉ ? P ,当此连续信源为高斯信源时等号 成立。

Definition 19. 将信源平均功率与熵功率之差定义为连续信源的剩余度: Γ = P ? P ˉ

(46)

The End of Chapter 3.

信源信道编码

青岛农业大学 本科生课程论文 论文题目联合信源信道编码的原理及其在通信中的应用学生专业班级信息与计算科学09级1班 学生姓名(学号)董晨晨(20093991) 指导教师吴慧 完成时间 2012年6月27日 2012 年 6 月 27 日

课程论文任务书 学生姓名董晨晨指导教师吴慧 论文题目联合信源信道编码的原理及其在通信中的应用 论文内容(需明确列出研究的问题):由于通信的根本目的是将消息有效而可靠地从信源传到信宿,信源编码的目的在于提高系统的有效性,信道编码理论核心是提高系统的可靠性,因此在编码时应在一定的传信率条件下,通过有规律的增加冗余度保证信息以尽可能小的差错概率从信源传到信宿,并且充分利用系统资源。基于这种情况下,提出了信源信道联合编码,可以跟随信道的变化充分利用通信系统的资源,达到最好的端对端的通信效果。本文主要研究了以下几个方面的问题:(1)信源信道联合编码的原理;(2)信源信道联合编码的研究方向;(3)信源信道联合编码的关键技术;(4)联合编码在通信系统方面的应用。 资料、数据、技术水平等方面的要求:通过书籍报刊杂志、网络等各种渠道广泛搜集资料,充分利用现有文献,借鉴他人的学术成果,做到了资料翔实,数据准确,引用规范,论证充分。论文符合一般学术论文的写作规范,具备学术性、科学性和一定的创造性。文字流畅、语言准确、要点清楚,有独立的观点和见解。内容理论联系实际,计算数据准确,涉及到他人的观点、统计数据或计算公式标明出处,结论写的概括简短。 发出任务书日期2012.6.20完成论文日期2012.6.27 教研室意见(签字) 院长意见(签字)

课程论文成绩评定表

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

数字通信中的信源编码和信道编码.(优选)

数字通信中的信源编码和信道编码 摘要:如今社会已经步入信息时代,在各种信息技术中,信息的传输及通信起着支撑作用。而对于信息的传输,数字通信已经成为重要的手段。本论文根据当今现代通信技术的发展,对信源编码和信道编码进行了概述性的介绍. 关键词:数字通信;通信系统;信源编码;信道编码 Abstract:Now it is an information society. In the all of information technologies, transmission and communication of information take an important effect. For the transmission of information, Digital communication has been an important means. In this thesis we will present an overview of source coding and channel coding depending on the development of today’s communica tion technologies. Key Words:digital communication; communication system; source coding; channel coding 1.前言 通常所谓的“编码”包括信源编码和信道编码。编码是数字通信的必要手段。使用数字信号进行传输有许多优点, 如不易受噪声干扰, 容易进行各种复杂处理, 便于存贮, 易集成化等。编码的目的就是为了优化通信系统。一般通信系统的性能指标主要是有效性和可靠性。所谓优化,就是使这些指标达到最佳。除了经济性外,这些指标正是信息论研究的对象。按照不同的编码目的,编码可主要分为信源编码和信道编码。在本文中对此做一个简单的介绍。 2.数字通信系统 通信的任务是由一整套技术设备和传输媒介所构成的总体——通信系统来完成的。电子通信根据信道上传输信号的种类可分为模拟通信和数字通信。最简单的数字通信系统模型由信源、信道和信宿三个基本部分组成。实际的数字通信系统模型要比简单的数字通信系统模型复杂得多。数字通信系统设备多种多样,综合各种数字通信系统,其构成如图2-l所示。 图2-1 数字通信系统模型 信源编码是以提高通信有效性为目的的编码。通常通过压缩信源的冗余度来实现。采用的一般方法是压缩每个信源符号的平均比特数或信源的码率。 信道,通俗地说是指以传输媒质为基础的信号通路。具体地说,信道是指由有线或无线电线路提供的信号通路。信道的作用是传输信号,它提供一段频带让信号通过,同时又给信号加以限制和损害。 信道编码是以提高信息传输的可靠性为目的的编码。通常通过增加信源的冗余度来实现。采用的一般方法是增大码率或带宽。与信源编码正好相反。在计算机科学领域,信道编

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11P 244?? ?? ? =?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

基于Huffman信源编码和LDPC信道编码的联合译码算法

Joint Source-Channel Decoding of Huffman Codes with LDPC Codes Zhonghui Mei and Lenan Wu Abstract In this paper, we present a joint source-channel decoding algorithm (JSCD) for LDPC codes by exploiting the redundancy of the Huffman coded sources.When the number of Huffman codes increases, just a moderate complexity is added for our algorithm by increasing the size of the lookup table, which is used to estimate the information bit probability based on the source redundancy. Key words - LDPC, Variable length codes (VLC), Huffman code, sum-product algorithm (SPA), joint source-channel decoding (JSCD) I. INTRODUCTION Recently in [1]-[4] several joint source-channel decoding algorithms for variable length codes (VLC) have been proposed. All of these algorithms consider the overall sequence of variable length codeword to exploit the source redundancy. The drawback is that the symbols have to be synchronized in order to limit error propagating. Furthermore, when the number of VLC increases, the decoding complexity of these algorithms explodes. In this paper we present a JSCD algorithm for LDPC codes in combination with Huffman coded sources. The error correcting property of our JSCD algorithm mainly depends on channel codes rather than source redundancy. In order to exploit the source redundancy, we estimate the information bit probability with just some corresponding bits before it, which simplifies the decoding algorithm significantly. The rest of the paper is organized as follows. Section II presents the Huffman coded source model. The JSCD algorithm for LDPC codes is described in section III. Section IV provides the simulation results. Section V concludes this paper. II. HUFFNAN CODED SOURCE MODEL Let denotes a sequence of information bits coded by VLC (e.g. a Huffman code). In [1], [3] and [4], they consider the overall sequence and express the source redundancy with . In order to compute , [3] and [4] design a trellis to illustrate statistics of the source sequence. When the number of the trellis states increases, the computational complexity of will rise explosively. ],......,,,[321n s s s s S =),......,,,()(21n s s s s p S p =)(S p )(S p In this paper, we make use of the source redundancy with , as is illustrated in Fig.1 and table 1. k is chose to be larger than the maximum length of Huffman codes. When the number of VLC increases, we only need to expand the lookup table. In addition, for we just estimate one bit probability with a small part bit of the information sequence every time, the error propagation phenomenon has been avoided successfully. ]),......,,[|(11?+??i k i k i i s s s s p

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论基础》试卷(期末A卷

重庆邮电大学2007/2008学年2学期 《信息论基础》试卷(期末)(A卷)(半开卷) 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则 每十个符号的平均信息量是 15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Flog(b-a)bit/s. 5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1 log32e 2 π;与其 熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b,最小瞬时电压为a。 若消息从放大器中输出,则该信源的绝对熵是无穷大;其能在每个自由度熵的最 大熵是log b-a 。 2、高斯白噪声信道是指信道噪声服从正态分布,且功率谱为常数。 3、若连续信源的平均功率为 5 W,则最大熵为1.2 Iog10 e ,达到最大值的条件是高 斯信道。 4、离散信源存在剩余度的原因是信源有记忆(或输岀符号之间存在相关性)和不 等概。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号 的统计特性,对概率大的符号用短码,对概率小的符号用长码,这样平均码长 就可以降低,从而提高编码效率。 7、八进制信源的最小熵为0 ,最大熵为3bit 。 8、一个事件发生概率为,则自信息量为3bit 。 9、在下面空格中选择填入数字符号“,,,”或“ <” H XY 二HY HXY HY H X 二、判断题(正确打",错误打X)(共5分,每小题1分) 1)离散无(")记忆等概信源的剩余度为0 。 2) 离散无记忆信源N次扩展源的熵是原信息熵的N倍(") 3) 互信息可正、可负、可为零。 (") 4) 信源的真正功率P 永远不会大于熵功率P ,即P P (X ) 5) 信道容量与信源输出符号的概率分布有关。 (X ) 、(5分)已知信源的概率密度函数p x如下图所示,求信源的相对熵

* p x 0.5 4 h x 2 p x log p x dx 1bit自由度 四、(15分)设一个离散无记忆信源的概率空间为P x 0.5 0.5 它们通过干扰信道,信道输出端的接收信号集为丫= 示。 试计算: (1)信源X中事件x的自信息量;(3分) (2)信源X的信息熵;(3分) (3)共熵H XY ; ( 3 分) (4)噪声熵H Y X ;(3分) (5)收到信息丫后获得的关于信源X的平均信息量。(1)I x11bit (2)H丄,丄1bit/符号 2 2,已知信道出书概率如下图所 (3 分)

信息论基础与编码课后题答案第三章

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ???? =? ??? ???? ,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516 61344P ???? =? ?????? ? ,求: (1)信源X 中事件1x 和2x 分别含有的自信息量; (2)收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3)信源X 和信宿Y 的信息熵; (4)信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5)接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit == (2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-, 22(;)0.907I x y bit = (3)()(0.6,0.4)0.971/H X H bit symbol == ()(0.6,0.4)0.971/H Y H bit symbol == (4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol == (/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol = (5)(;)0.9710.7140.257/I X Y bit symbol =-= 3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正 确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 证明:信道传输矩阵为:

以香农编码为信源编码、(7,4)循环码为信道编码的2FSK信号的调制解调

目录 1 课程设计目的 (1) 2 课程设计正文 (1) 2.1 调制原理 (1) 2.2 解调原理 (3) 2.3 程序分析 (3) 3 课程设计总结 (9) 4 参考文献 (9)

1 课程设计目的 通过我们对这次CDIO 二级项目的学习和理解,综合运用课本中所学到的理论知识完成一个以香农编码为信源编码、(7,4)循环码为信道编码的2FSK 信号调制解调的课程设计。以及锻炼我们查阅资料、方案比较、团结合作的能力。学会了运用MA TLAB 编程来实现2FSK 调制解调过程,并且输出其调制及解调过程中的波形,并且讨论了其调制和解调效果,增强了我们的动手能力,为以后学习和工作打下了基础。 2 课程设计正文 本次课程设计我们所做的课题是一个以香农编码为信源编码、(7,4)循环码为信道编码的2FSK 信号调制解调的CDIO 项目,这就要求我们需要完成信源编码、信道编码、信号的调制解调以及误码率分析等问题。 图1 数字通信系统模型 数字信号的传输方式分为基带传输和带通传输,在实际应用中,大多数信道具有带通特性而不能直接传输基带信号。为了使数字信号在带通信道中传输,必须使用数字基带信号对载波进行调制,以使信号与信道的特性相匹配。这种用数字基带信号控制载波,把数字基带信号变换为数字带通信号的过程称为数字调制。 2.1 调制原理 用基带信号)(t f 对高频载波的瞬时频率进行控制的调制方式叫做调频,在数字调制系统中则称为频移键控(FSK)。频移键控在数字通信中是使用较早的一种调制方式,这种方式实现起来比较容易,抗干扰和抗衰落的性能也较强。其缺点是占用频带较宽,频带利用串不够高,因此,额移键控主要应用于低、中速数据的传输,以及衰落信道与频带较宽

信息论基础1答案

信息论基础1答案

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为 123x x x X 111P 2 44?? ?? ?=?? ??? ?? , 其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 ∞ ;其能在每个自由度熵的最大熵是log (b-a ) bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为

16w,其概率密度函数是高斯分布时,差熵的 最大值为1log32e π;与其熵相等的非高斯分布信2 源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限 (S))。 制为信源熵(或H(S)/logr= H r 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信源编码与信道编码解析

信源编码与信道编码解析 摘要:衡量一个通信系统性能优劣的基本因素是有效性和可靠性,有效性是指信道传输信息的速度快慢,可靠性是指信道传输信息的准确程度。在数字通信系统中,信源编码是为了提高有效性,信道编码是为了提高可靠性,而在一个通信系统中,有效性和可靠性是互相矛盾的,也是可以互换的。我们可以用降低有效性的办法提高可靠性,也可以用用降低可靠性的办法提高有效性。本文对信源编码和信道编码的概念,作用,编码方式和类型进行了解析,以便于更好的理解数字通信系统的各个环节。 关键字:信源编码信道编码 Abstract: the measure of a communication system the basic factor is quality performance efficiency and reliability, effectiveness refers to channel to transfer information machine speed, reliability is to point to the accuracy of the information transmission channel. In digital communication system, the source coding is in order to improve the effectiveness, channel coding is in order to improve the reliability, and in a communication system, effectiveness and reliability is contradictory, is also can be interchanged. We can use to reduce the availability of improving the reliability, also can use to improve the effectiveness of reduces reliability. In this paper, the source coding and channel coding concept, function, coding mode and the types of analysis, in order to better understand all aspects of digital communication systems. Key words: the source coding channel coding 中图分类号:TN911.21 文献标识码:A 文章编号: 1引言 数字通信系统: 信源是把消息转化成电信号的设备,例如话筒、键盘、磁带等。 信源编码的基本部分是压缩编码。它用于减小数字信号的冗余度,提高数字信号的有效性,如果是模拟信源,则它还包括数模转换功能,在某些系统中,信源编码还包括加密功能。

信源编码和信源解码

信源编码和信源解码 字、符号、图形、图像、音频、视频、动画等各种数据本身的编码通常称为信源编码,信源编码标准是信息领域的基础性标准。无论是数字电视、激光视盘机,还是多媒体通信和各种视听消费电子产品,都需要音视频信源编码这个基础性标准。 大家用电脑打字一定很熟悉,当你用WORD编辑软件把文章(DOC文件)写完,存好盘后,再用PCTOOLS工具软件把你的DOC文件打开,你一定能看到你想象不到的东西,内容全是一些16进制的数字,这些数字叫代码,它与文章中的字符一一对应。现在我们换一种方法,用小画板软件来写同样内容的文章。你又会发现,用小画板软件写出来的BMP文件,占的内存(文件容量)是DOC文件的好几十倍,你知道这是为什么?原来WORD编辑软件使用的是字库和代码技术,而小画板软件使用的是点阵技术,即文字是由一些与坐标位置决定的点来组成,没有使用字库,因此,两者在工作效率上相差几十倍。[信源]->[信源编码]->[信道编码]->[信道传输+噪声]->[信道解码]->[信源解码]->[信宿] 目前模拟信号电视机图像信号处理技术就很类似小画板软件使用的点阵技术,而全数字电视机的图像信号处理技术就很类似WORD编辑软件使用的字库和代码技术。实际上这种代码传输技术在图文电视中很早就已用过,在图文电视机中一般都安装有一个带有图文字库的译码器,对方发送图文信号的时候只需发送图文代码信息,这样可以大大地提高数据传输效率。 对于电视机,显示内容是活动图像信息,它哪来的“字库”或“图库”呢?这个就是电视图像特有的“相关性”技术问题。原来在电视图像信号中,90%以上的图像信息是互相相关的,我们在模拟电视机中使用的Y/C(亮度信号/彩色信号)分离技术,就是利用两行图像信号的相关性,来进行Y/C分离。如果它们之间内容不相关,Y/C信号则无法进行分离。全数字信号电视也一样,如果图像内容不相关,则图像信号压缩也就要免谈。如果图像内容有相关性,那么上一幅图像的内容就相当于下一幅图像的“图形库”,或一幅图像中的某部分就是另一部分的“图形库”,因此,下一幅图像或图像中某一个与另一个相关的部分,在发送信号时,只需发送一个“代码”,而传送一个“代码”要比送一个“图形库”效率高很多,显示时也只需把内容从“图形库”中取出即可,这就是MPEG图像压缩的原理。 利用电视信号的相关性,可以进行图像信号压缩,这个原理大家已经明白,但要找出图像相关性的内容来,那就不是一件很容易的事情,这个技术真的是太复杂了。为了容易理解电视图像的相关性,我们不妨设想做一些试验,把图像平均分成几大块,然后每一块,每一块的进行比较,如果有相同的,我们就定义它们有相关性;如果没有相同的,我们继续细分下去,把每大块又分成几小块,一直比较下去,最后会发现,块分得越细,相同块的数目就越多,但分得太细需要的代码也增多,所以并不是分得越细越好。我们在看VCD的时候经常发现,如果VCD读光盘数据出错,就会在图像中看到“马赛克”,这些“马赛克”就是图像分区时的最小单位,或把数码相片进行放大,也可以看到类似“马赛克”的小区,这就是数码图像的最小“图形库”,每个小“图形库”都要对应一个“代码”。 在单幅图像中找出相关性的几率并不是很大的,所以对单幅图像的压缩率并不很大,这个通过观察数码相片的容量就很容易明白,如果把寻找相关性的范围扩大到两幅图像,你就会发现,具有相关性的内容太多了,这是因为运动物体对于人的眼睛感觉器官来说,是很慢

信源编码(数据压缩)课程课后题与答案(第二章)

信源编码 Assignment of CH2 1、(a)画出一般通信系统结构的组成框图,并详细说明各部分的作用或功能; 信源信源编码信道编码调制 噪声信道传输 , 信宿信源解码信道解码解调 图1、一般数字通信系统框图 各部分功能: 1、信源和信宿:信源的作用是把消息转换成原始的电信号;信宿的作用是 把复原的电信号转换成相应的消息。 . 2、信源编码和信源解码:一是进行模/数转换,二是进行数据压缩,即设法降低信号的数码率;信源解码是信源编码的逆过程。 3、信道编码和信道解码:用于提高信道可靠性、减小噪声对信号传输的影响;信道解码是信道编码的反变换。 4、调制和解调:将信息调制为携带信息、适应在信道中传输的信号。数字 " 解调是数字调制的逆变换。 5、信道:通信的通道,是信号传输的媒介。 (b)画出一般接收机和发射机的组成框图,并分别说明信源编解码器和信道编 解码器的作用; … 高频振荡器高频放大调制高频功放天线

" 音频功放 信 号 图2、一般发射机框图(无线广播调幅发射机为例)

天线 信号放大器混频器解调器音频放大器 信 号 本地振荡器 图3、一般接收机框图(无线广播调幅发射机为例) 信源编解码器作用:它通过对信源的压缩、扰乱、加密等一系列处理,力求 用最少的数码最安全地传输最大的信息量。信源编解码主要解决传输的有效性问题。 信道编解码器作用:使数字信息在传输过程中不出错或少出错,而且做到自 动检错和尽量纠错。信道编解码主要解决传输的可靠性问题。 (c)信源编码器和解码器一般由几部分组成,画出其组成图并给以解释。 信源编码器 时频分析量化熵编码 信道传输 时频分析反量化熵解码 信源解码器 图 4、信源编解码器框图 时频分析部分:信源编码器对信源传送来的信号进行一定方法的时域频域分析,建立一个能够表达信号规律性的数学模型,从而得知信号中的相关性和多余度,分析出信号数据中可以剔除或减少的部分(比如人感知不到的高频率音频信号或者看不见的色彩信号等等),以决定对后续数据的比特分配、编码速率等处理问题。 量化部分:根据时频分析的结果,为了更加简洁地表达利用该模型的参数, 减少精度,采取相应量化方法对信号进行量化,减小信号的多余度和不相关性,

WCDMA技术的信源编码和信道编码

WCDMA技术的信源编码和信道编码 WCDMA网络是全球商用时间最长,技术成熟、可演进性最好的,全球第一个3G商用网络就是采用WCDMA制式。我国采用了全球广泛应用的WCDMA 3G技术,目前已全面支持HSDPA/HSUPA,网络下载理论最高速率达到14.4Mbps。2G无线宽带的最高下载速度约为150Kbps,我国的WCDMA网络速度几乎是2G网络速度的100倍。支持业务最广泛,基于WCDMA成熟的网络和业务支撑平台,其所能实现的3G业务非常丰富。无线上网卡、手机上网、手机音乐、手机电视、手机搜索、可视电话、即时通讯、手机邮箱、手机报等业务应用可为用户的工作、生活带来更多的便利和美妙享受。终端种类最多,截至2008年底,支持WCDMA商用终端的款式数量超过2000款,全球主要手机厂商都推出了为数众多的WCDMA手机。国内覆盖广泛,截至2009年9月28日,联通3G网络已成功在中国大陆285个地市完成覆盖并正式商用,新覆盖的城镇数量还在不断增长中,联通3G网络和业务已经覆盖了中国绝大部分的人口和地域。开通国家最广,可漫游的国家和地区最多,截至2008年底,全球已有115个国家开通了264个WCDMA网络,占全球3G商用网络的71.3%。截至2009年9月28日,中国联通已与全球215个国家的395个运营商开通了。 WCDMA的优势明显,技术成熟,在WCDMA物理层来看,信源编码和信道编码是WCDMA技术的基础,信源编码是采用语音编码技术,AMR语音编码技术是由基于变速率多模式语音编码技术发展而来,主要原理在于:语音编码器模型由一系列能提供多种编码输出速率与合成质量的声码器构成AMR支持八种速率。鉴于不同信源比特对合成语音质量的影响不同AMR 语音编码器输出的话音比特在传输之前需要按照它们的主观重要性来排序分类,分别采用不同保护程度的信道编码对其进行编码保护。 信源编码AMR模式自适应选择编码器模式以更加智能的方式解决信源和信道编码的速率匹配问题,使得无线资源的配置和利用更加灵活和高效。实际的语音编码速率取决于信道条件,它是信道质量的函数。而这部分工作是解码器根据信道质量的测量参数协助基站来完成,选择编码模式,决定编码速率。原则上在信道质量差时采用低速率编码器,就能分配给信道编码更多的比特冗余位来实现纠错,实现更可靠的差错控制。在信道质量好、误比特率较低时采用高速率编码器,能够提高语音质量。在自适应过程中,基站是主要部分,决定上下行链路采用的速率模式。 信源编码AMR编码器原理,WCDMA系统的AMR声码器共有八种编码模式,它们的输出比特速率不同。为了降低成本和复杂度,八种模式都采用代数码本激励线性预测技术,它们编码的语音特征参量和参量提取方法相同,不同的是参量的量化码本和量化比特数。AMR语音编码器根据实现功能大致可分为LPC分析、基音搜索、代数码本搜索三大部分。其中LPC分析完成的主要功能是获得10阶LPC滤波器的-.个系数,并将它们转化为线谱对参数,并对LSF进行量化;基音搜索包括了开环基音分析和闭环基音分析两部分,以获得基音延迟和基音增益这两个参数;代数码本搜索则是为了获得代数码本索引和代数码本增益,还包括了码本增益的量化。

第10讲 信源编码的性能指标

第10讲 信源编码的性能指标 1. 无失真信源编码的冗余度压缩原理 为了压缩冗余度,必须改造信源输出符号的统计特性。一方面要尽量提高任一时刻输出符号的概率分布的均匀性,另一方面要尽量消除前后输出符号的统计相关性。因此,无失真信源编码的实质是将信源尽可能地改造为均匀分布的无记忆信源。这种信源的通信效率是最大的。改造后的新信源是由原信源和编码器共同组成的,称为编码后的信源。设f 是信源S 的一个编码,X 是编码后的信源,则三者之间的关系表示如下 f S X ??→ 信源编码f 所用的码元可以与信源S 的符号不同,一般是某个信道的输入符号。 从数据处理这个角度来看,编码f 是一个数据处理器,输入信源S 的数据,输出信源X 的数据。从通信的角度看,编码f 是一个信道,输入信源S 的数据,输出信源X 的数据。 无失真信源编码的目的是无损压缩,即用尽可能少的数据表示数据中的所有信息,不能破坏数据原有信息。这相当于提高信息传输效率,使之接近于1。因此,度量无失真编码的压缩性能可以看编码后信息传输效率,称为编码效率。编码效率越接近于1,无损压缩性能越好。下面介绍信源编码的5个性能指标,包括平均码长、码率、编码效率、编码冗余度和压缩率。 2. 平均码长 平均码长是信源编码的一个关键的性能指标。在已知信源熵的前提下,根据平均码长,可以计算出无损压缩编码的码率和编码效率。 定义2.1 设f 是一个N-分组码,各码字的码长分别记为,1i l i q ≤≤,对应的N 长分组的概率为i p ,则f 的平均码长定义为 11(/ q i i i L p l N ==∑码元信源) 注:在有的教材中,当平均码长的单位转化为“比特/信源”时,称为编码速率。本课程用不到这个概念。 讨论:用平均码长估计编码后的数据长度 设S 是一个离散无记忆信源,:f S C →是信源S 的一个编码,其平均码长为L 。令12n s s s s =?是一个信源序列。假设用f 对该数据进行编码,试估计编码后码元序列的长度。 对于信源数据12n s s s s =?,我们令L i 表示信源符号s i 所对应的码字f (s i )的长度,则编码后的数据长度为12+++n L L L 。我们把L i 视为随机变量,则对于任何i ,我们有[]i E L L =。 因为S 是离散无记忆的,所以{L i }是独立同分布随机序列。根据辛钦大数定理,我们有

相关文档
最新文档