信源及信源熵习题答案
通信原理第4章信息熵例题
![通信原理第4章信息熵例题](https://img.taocdn.com/s3/m/1140d1d6a58da0116c17497e.png)
(5)接收到信息 Y 后获得的平均互信息为: I ( X ; Y ) = H ( X ) − H ( X | Y ) = 0.0075 比特/符号
I ( x1 ; y 2 ) = log
I ( x 2 ; y 2 ) = log
(3)信源 X 以及 Y 的熵为: H ( X ) = − ∑ P( x) log P( x) = −0.6 log 0.6 − 0.4 log 0.4 = 0.971 比特/符号
X
H (Y ) = −∑ P( y ) log P( y ) = −0.8 log 0.8 − 0.2 log 0.2 = 0.722 比特/符号
【3.1】 设信源 X x1 x 2 P( x) = 0.6 0.4 通过一干扰信道,接收符号为 Y = [ y1 , y 2 ] ,信道传递概率如下图所示,求 (1)信源 X 中事件 x1 和 x 2 分别含有的自信息; (2) 收到消息 y j ( j = 1,2) 后,获得的关于 xi (i = 1,2) 的信 息量; (3)信源 X 和信源 Y 的信息熵; (4)信道疑义度 H ( X | Y ) (5)接收到消息 Y 后获得的平均互信息。 解: (1)信源 X 中事件 x1 和 x 2 分别含有的自信息分别为: I ( x1 ) = log 1 = − log 0.6 = 0.737 比特 P( x1 ) 1 = − log 0.4 = 1.32 比特 P( x2 ) 3/4 x2 1/4 y2 x1 5/6 1/6 y1
I ( x 2 ; y1 ) = log
P( y1 | x2 ) 3/ 4 15 = log = log = −0.093 比特 P( y1 ) 0.8 16 P( y 2 | x1 ) 1/ 6 5 = log = log = −0.263 比特 P( y 2 ) 0.2 6 P( y 2 | x2 ) 1/ 4 5 = log = log = 0.322 比特 P( y 2 ) 0.2 4
第三章 信道与信道容量 习题解答
![第三章 信道与信道容量 习题解答](https://img.taocdn.com/s3/m/73b5690c7375a417866f8fa0.png)
,
,求
,
,
和
;
(2) 求该信道的信道容量及其达到信道容量时的输入概率分布。
解:
(1)先写出
:
根据公式
计算联合概率:
信宿端符号分布概率:
根据公式
计算:
3
求各熵: 信源熵:
比特/消息
信宿熵:
比特/消息
可疑度:
平均互信息量: 噪声熵: (2)二元对称离散信道的信道容量:
比特/消息 比特/消息
比特/秒
信源等概分布时(
解:设下标 1为原状况,下标 2为改变后状况。由
可得:
,
倍
如果功率节省一半则
倍 ,为 了 使 功 率 节 省 一 半 又 不 损 失 信 息 量 I,根 据
,可以: (1) 加大信道带宽 W,用带宽换取信噪比
,
,
7
缺点是对设备要求高。 (2) 加大传输时间 T,用传输时间换取信噪比,同理可得:
缺点是传输速度降低了。
噪声熵:
(5)平均互信息量:
2.有一个生产 A、B、C、D四种消息的信源其出现的概率相等,通过某一通信系统传输时,B和 C无误,A 以 1/4概率传为 A,以 1/4概率误传为 B、C、D,而 D以 1/2概率正确传输,以 1/2概率误传为 C,
(1)试求其可疑度?(2)收到的信号中哪一个最可靠?(3)散布度为多少? 解:(1)
,
将各数据代入: 解得:
如果
则
将各数据代入: 解得:
14.在理想系统中,若信道带宽与消息带宽的比为 10,当接收机输入端功率信噪比分别为 0.1和 10时,试
比较输出端功率信噪比的改善程度,并说明
与
之间是否存在阀值效应。
信息论、编码与密码学课后习题答案
![信息论、编码与密码学课后习题答案](https://img.taocdn.com/s3/m/73cc1ffea300a6c30d229f83.png)
第1章 信源编码
1.1考虑一个信源概率为{0.30,0.25,0.20,0.15,0.10}的DMS。求信源熵H(X)。
解: 信源熵
H(X)=-[0.30*(-1.737)+0.25*(-2)+0.2*(-2.322)+0.15*(-2.737)+0.1*(-3.322)]
10100+11110=01010 10100+00111=10011
10100+01101=11001
11110+00111=11001 11110+01101=10011
00111+01101=01010
满足第一条性质
2、全零码字总是一个码字
{00000,01010,10011,11001,10100,11110,00111,01101}
(1)给出此信源的霍夫曼码并确定编码效率。
(2)每次考虑两个符号时,给出此信源的霍夫曼码并确定编码效率。
(3)每次考虑三个符号时,给出此信பைடு நூலகம்的霍夫曼码并确定编码效率。
解:
(1)本题的霍夫曼编码如下图所示:
图1.11 霍夫曼编码
则霍夫曼码如下表:
符号
概率
码字
x1
0.5
1
x2
0.4
00
x3
0.1
01
该信源的熵为:
(2)全零字总是一个码字,
(3)两个码字之间的最小距离等于任何非零码字的最小重量,即
设 ,即 , , , ,
首先证明条件(1):
, , , , , ,
很明显,条件(1)是满足的。条件(2)也是显然成立的。
信息论基础第五章课后答案
![信息论基础第五章课后答案](https://img.taocdn.com/s3/m/bacd194e59fafab069dc5022aaea998fcc2240a2.png)
5.1设有信源⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛01.01.015.017.018.019.02.0)(7654321a a a a a a a X P X (1)求信源熵H(X)(2)编二进制香农码(3)计算其平均码长及编码效率解:(1)H(X)=-)(log )(21i ni i a p a p ∑=H(X)=-0.2log 20.2-0.19log 20.19-0.18log 20.18-0.17log 20.17-0.15log 20.15-0.log 20.1-0.01log 20.01H(X)=2.61(bit/sign)(2)ia i P(ai)jP(aj)ki码字a 001a 10.210.0030002a 20.1920.2030013a 30.1830.3930114a 40.1740.5731005a 50.1550.7431016a 60.160.89411107a 70.0170.9971111110(3)平均码长:-k =3*0.2+3*0.19+3*0.18+3*0.17+3*0.15+4*0.1+7*0.01=3.14(bit/sign)编码效率:η=R X H )(=-KX H )(=14.361.2=83.1%5.2对习题5.1的信源二进制费诺码,计算器编码效率。
⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛0.01 0.1 0.15 0.17 0.18 0.19 2.0 )(7654321a a a a a a a X P X 解:Xi)(i X P 编码码字ik 1X 0.2000022X 0.191001033X 0.18101134X 0.17101025X 0.151011036X 0.110111047X 0.01111114%2.9574.2609.2)()(74.2 01.0.041.0415.0317.0218.0319.032.02 )(/bit 609.2)(1.5=====⨯+⨯+⨯+⨯+⨯+⨯+⨯===∑KX H R X H X p k K sign X H ii i η已知由5.3、对信源⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制赫夫曼码,计算各自的平均码长和编码效率。
信息论与编码习题答案-曹雪虹
![信息论与编码习题答案-曹雪虹](https://img.taocdn.com/s3/m/cb33e43e580216fc700afdb3.png)
3-14
信源 符号 xi x1 x2 x3 x4 x5 x6 x7
符号概 率 pi 1/3 1/3 1/9 1/9 1/27 1/27 1/27 1/3 1/3 1/9 1/9 2/27 1/27 1/3 1/3 1/9 1/9 1/9
编码过程
编码 1/3 1/3 1/3 2/3 1/3 00 01 100 101 111 1100 1101
得p0p1p223当p0或p1时信源熵为0第三章无失真信源编码31321因为abcd四个字母每个字母用两个码每个码为05ms所以每个字母用10ms当信源等概率分布时信源熵为hxlog42平均信息传递速率为2信源熵为hx0198bitms198bitsbitms200bits33与上题相同351hu12log2?14log4?18log8?116log16?132log32?164log64?1128log128?1128log128?1984111111112481632641281282每个信源使用3个二进制符号出现0的次数为出现1的次数为p0p134相应的香农编码信源符号xix1x2x3x4x5x6x7x8符号概率pi12141811613216411281128累加概率pi00507508750938096909840992logpxi12345677码长ki12345677码字010110111011110111110111111011111110相应的费诺码信源符号概符号xi率pix1x2x3x4x5x6x7x812141811613216411281128111第一次分组0第二次分组0第三次分组0第四次分组0第五次分组011第六次分组01第七次分组01二元码0101101110111101111101111110111111105香农码和费诺码相同平均码长为编码效率为
北邮通信原理习题答案第七章 信源和信源编码
![北邮通信原理习题答案第七章 信源和信源编码](https://img.taocdn.com/s3/m/fc4c6d077cd184254b353561.png)
(2)Rb=1.9375 bit/符号×1000 符号/秒 = 1937.5 bit/s
1 1 (3) H max X 6 log 2 log 2 6 2.585bit/symbol 6 6
7.错误!未定义书签。已知两个二进制随机变量 X 和 Y 服从 下列联合分布: P X Y 0 P X 0, Y 1 P X Y 1 1
1 13 1 23 1 23 log 2 log 2 log 2 3 13 3 13 3 13 2 bit 3 P X ,Y H X |Y E log P Y | X E log 2 2 P X P X , Y log 2
试求: (1) P Ai ? P B j ? (2) H A ? H B ? H A, B ?
(3) I A; B ? 解: (1) P(A1)=0.10+0.08+0.13=0.31,同理可得 P(A2)=0.17; P(A3)=0.31; P(A4)=0.21; P(B1)=0.31; P(B2)=0.27; P(B3)=0.42 (2)
如下图示:
取样值 x 落入 4 个区间的概率是 1 0.5 1 , P2 P3 0 p x dx 3 P 1 P 4 0.5 p x dx
8 8
因此:
2 4 1 2 3 3 2 1 3 1 3 2 Sq E y y P 2 2 1 3 i i 16 4 8 i 1 4 8 4 8 2 2 1 2 1 1 3 2 N q E y x 2 x 1 x dx x 1 x dx 0 12 4 4 1 3 在第一个积分中令 t x ,在第二个积分中令 t x ,得 4 4 1 4 1 4 1 4 3 1 N q 2 t 2 t dt t 2 t dt 2 t 2 1 2t dt 1 4 1 4 1 4 4 4 3 14 14 1 1 1 2 t 2 dt 4 t 2 dt 4 1 4 0 3 4 48
信息论第五章答案
![信息论第五章答案](https://img.taocdn.com/s3/m/db3f9fec700abb68a982fb4b.png)
5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
信息论与编码第二章答案
![信息论与编码第二章答案](https://img.taocdn.com/s3/m/decd04245b8102d276a20029bd64783e09127d92.png)
第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。
2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。
2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。
答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。
从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。
2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。
答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。
信息论与编码第五章课后习题答案
![信息论与编码第五章课后习题答案](https://img.taocdn.com/s3/m/76b1ddccda38376baf1faed4.png)
第五章课后习题【5.1】某信源按43)0(=P ,41)1(=P 的概率产生统计独立的二元序列。
(1)试求0N ,使当0N N >时有01.005.0)()(≤≥−S H N I P i α 式中,)(S H 是信源的熵。
(2)试求当0N N =时典型序列集N G ε中含有的信源序列个数。
解:(1)该信源的信源熵为811.0)(log )()(=−=∑i i s p s p S H 比特/符号自信息的方差为4715.0811.04log 4134log 43)()]([)]([22222=−+=−=S H s I E s I D i i 根据等长码编码定理,我们知道δεα−≤≥−1)()(S H N I P i 根据给定条件可知,05.0=ε,99.0=δ。
而[]2)(εδN s I D i =因此[]5.19099.0*05.04715.0)(220==≥δεi s I D N 取1910=N 。
(2)ε典型序列中信源序列个数取值范围为:])([])([22)1(εεεδ+−<<−S H N N S H N G代入上述数值得451.164351.1452201.0<<×N G ε【5.2】有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A 、B 、C 、D 、E 和F 。
表5.2消息 )(i a P A B C D E F 1a 1/2 000 0 0 0 0 0 2a 1/4 001 01 10 10 10 100 3a 1/16 010 011 110 110 1100 101 4a 1/16 011 0111 1110 1110 1101 110 5a 1/16 100 01111 11110 1011 1110 111 6a1/1610101111111111011011111011(1) 求这些码中哪些是惟一可译码; (2) 求哪些码是非延长码(即时码); (3) 求对所有惟一可译码求出其平均码长L 。
信源熵的计算与理解习题3及详细解答
![信源熵的计算与理解习题3及详细解答](https://img.taocdn.com/s3/m/5c6c8e7c7e21af45b307a845.png)
习题3-1(情况二:认为事件“0/0”“1/1”不会出现;)
解:设X={S1=“0”, S2=“1”}, (1) Y={ t1=“0” , t2=“1”};
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
序列熵: 而 即:
p(1) [a(1) d (1)] max [a(1) d min] max
由于 t (1) [a(1) d min],
(6 8) (6 8)
且d (1) a(1) t (1)为确定值
H ( X Y ) H ( X ) H (Y / X )
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
信源熵的计算与理解习题3及详细解答
公式:
习题3-1(?)
解:设X={S1=“0”, S2=“1”}, Y={ t1=“0” , t2=“1”};
(1)
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
信源及信源熵习题答案
![信源及信源熵习题答案](https://img.taocdn.com/s3/m/7aaa15450029bd64793e2c5a.png)
信源及信源熵习题答案(总16页)--本页仅作为文档封面,使用时请直接删除即可----内页可以根据需求调整合适字体及大小--第二章:试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍 解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量H(X 1) = log 2n = log 24 = 2 bit/symbol 八进制脉冲的平均信息量H(X 2) = log 2n = log 28 = 3 bit/symbol 二进制脉冲的平均信息量H(X 0) = log 2n = log 22 = 1 bit/symbol 所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。
假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量 解:设随机变量X 代表女孩子学历 X x 1(是大学生) x 2(不是大学生)P(X)设随机变量Y 代表女孩子身高 Y y 1(身高>160cm ) y 2(身高<160cm )P(Y)已知:在女大学生中有75%是身高160厘米以上的 即:p(y 1/ x 1) =求:身高160厘米以上的某女孩是大学生的信息量即:bit y p x y p x p y x p y x I 415.15.075.025.0log )()/()(log )/(log )/(2111121111=⎪⎭⎫⎝⎛⨯-=⎥⎦⎤⎢⎣⎡-=-=一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量 解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:bit x p x I i i 581.225!52log )(log )(2==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:bit C x p x I C x p i i i 208.134log )(log )(4)(13521322135213=-=-==设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202032),求 (1) 此消息的自信息量是多少(2) 此消息中平均每符号携带的信息量是多少 解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p 此消息的信息量是:bit p I 811.87log 2=-=(2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%,如果你问一位男士:“你是否是色盲”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量如果问一位女士,则答案中含有的平均自信息量是多少 解: 男士: sym bolbit x p x p X H bitx p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%93)( 837.307.0log )(log )(%7)(22222222=+-=-==-=-===-=-==∑女士:symbol bit x p x p X H i i i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2222=+-=-=∑设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡17.016.017.018.019.02.0)(654321x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6不满足信源熵的极值性。
1-4 信源熵-习题答案
![1-4 信源熵-习题答案](https://img.taocdn.com/s3/m/ae05b509844769eae009edd9.png)
600
1030 3408 2520
382
489 1808 859
3.137
3.1595 3.1415929 3.1795
利用蒙特卡罗(Monte Carlo)法进行计算机模拟. 取a 1, b 0.85. 单击图形播放/暂停 ESC键退出
二
概率的公理化定义
概率 P 是在事件域 上有定义的集合函数,它
§1.4
一
概率的公理化定义及概率的性质
几何概率 古典概型中试验结果是有限的,但许多问题试验
结果是无限的,一般的情况是不易解决的,下面考虑 所谓的“等可能性”问题. 在一个面积为 S 的区域 中,等可能地投点.这 里“等可能”的确切意义是:设在区域 中有任意一个 小区域 A ,如果它的面积为 S A,则点落入 A 中的可 能性大小与 S A成正比,而与 A 的位置和形状无关。
所以 1 P ( S ) P ( A A) P ( A) P ( A) . P ( A) 1 P ( A).
(6) ( 加法公式) 对于任意两事件 A, B 有 P ( A B ) P ( A) P ( B ) P ( AB ).
证明 由图可得
A B A ( B AB),
通常,在
代数 上有定义的非负、可列可加的
上
集函数称作是 上的测度.概率不过是事件域
的一个规范化的测度.
一般地描述一个随机试验的数学模型,应该有 三件东西: (1) 样本空间 (2) 事件域 (3) 概率(上的规范测度) P 三者写成 ( , , P) 并称它是一个概率空间.
会面问题
例7 甲、乙两人相约在 0 到 T 这段时间内, 在预 定地点会面. 先到的人等候另一个人, 经过时间 t ( t<T ) 后离去.设每人在0 到T 这段时间内各时刻
信源及信源熵习题答案
![信源及信源熵习题答案](https://img.taocdn.com/s3/m/6e39980b804d2b160b4ec060.png)
(1)
(2)
(3)
H(X) > H2(X)
表示得物理含义就是:无记忆信源得不确定度大与有记忆信源得不确定度,有记忆信源得结构化信息较多,能够进行较大程度得压缩。
2、12 同时掷出两个正常得骰子,也就就是各面呈现得概率都为1/6,求:
(1) “3与5同时出现”这事件得自信息;
(2) “两个1同时出现”这事件得自信息;
第二章:
2、1 试问四进制、八进制脉冲所含信息量就是二进制脉冲得多少倍?
解:
四进制脉冲可以表示4个不同得消息,例如:{0, 1, 2, 3}
八进制脉冲可以表示8个不同得消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}
二进制脉冲可以表示2个不同得消息,例如:{0, 1}
假设每个消息得发出都就是等概率得,则:
若把这些频度瞧作概率测度,求:
(1) 忙闲得无条件熵;
(2) 天气状态与气温状态已知时忙闲得条件熵;
(3) 从天气状态与气温状态获得得关于忙闲得信息。
解:
(1)
根据忙闲得频率,得到忙闲得概率分布如下:
(2)
设忙闲为随机变量X,天气状态为随机变量Y,气温状态为随机变量Z
(3)
2、15 有两个二元随机变量X与Y,它们得联合概率为
(1) 求符号得平均熵;
(2) 有100个符号构成得序列,求某一特定序列(例如有m个“0”与(100m)个“1”)得自信息量得表达式;
(3) 计算(2)中序列得熵。
解:
(1)
(2)
(3)
2、14 对某城市进行交通忙闲得调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现得相对频度如下:
(2) 若从中抽取13张牌,所给出得点数都不相同能得到多少信息量?
第2章 -1信源与信息熵1【单符号离散信源】
![第2章 -1信源与信息熵1【单符号离散信源】](https://img.taocdn.com/s3/m/b2470765561252d380eb6eb8.png)
1. 离散信源熵 (平均自信息量/无条件熵)
[定义] 自信息量的数学期望为信源的平均信息量,记为:H(X)。
H(X)=E[I(xi)]= –∑p(xi)log2 p(xi)
——平均不确定度的度量、体现: 总体平均
[单位]
二进制:bit/(信源)符号,或bit/(信源)序列 [含义]信息熵具有以下三方面物理含义: ⑴ 表示信源输出前,信源的平均不确定性 ⑵ 表示信源输出后,每个符号所携带的平均信息量 ⑶ 表示信源的的随机性(不同的信源有不同的统计特性) 信息熵的意义: 信源的信息熵是从整个信源的统计特性来考虑的。它是从 平均意义上来表征信源的总体特性的。对于某特定的信源, 其信息熵只有一个。不同的信源因统计特性不同,其信息熵 也不同。
√
(后续章节)
一、概述
⒈ 信息的一般概念 一个人获得消息→消除不确定性→获得信息。 ⒉ 信息度量的定性分析 事件发生的概率越大,不确定性越小,该事件 包含的信息量越小; 事件发生的概率越小,不确定性越大,该事件 包含的信息量越大; 如果一个事件发生的概率为1,那么它包含的 信息量为0; 两个相互独立事件所提供的信息量应等于它们 各自提供的信息量之和。
2.2.1
自信息量
1.自信息量 [定义] 若信源发出符号xi,由于信道无干扰,收到的就
信源熵理解练习知识题
![信源熵理解练习知识题](https://img.taocdn.com/s3/m/ef7eb6451fb91a37f111f18583d049649b660e34.png)
信源熵理解练习知识题第一章绪论练习题一、填空题1. 信息是事物运动状态或存在方式的所有可能取值的描述,不确定性可以用概率来表达,因而可以用概率论与随机过程来描述信源输出的消息。
单符号信源用概率空间来描述,即信源符号的所有可能取值及其对应的概率。
信源的某一种取值概率大,则其不确定性(度)小;相反,某一种取值概率小,则其不确定性(度)大。
2. 信源发出消息,传输信息的过程是:发出消息之前,信源即将发出什么消息存在不确定性(度),不确定性(度)的大小由消息的概率决定;发出某个具体消息后,就消除了对应大小的不确定性(度)。
在这一过程中,从未知到已知,传递了信息,信息的大小就是消除的不确定性(度)的大小。
3. 一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息,其定义为事件发生概率对数的负值,即 ()()2log i i I x p x =- ,自信息量的单位与所用的对数的底有关。
这就是香农信息的度量规则。
联合自信息是联合事件发生时所带来的信息量;条件自信息量是带有条件是事件发生时所带来的信息量。
4. 离散单符号信源熵是信源中各个消息符号(随机变量各个取值)不确定度(或者自信息量)的数学期望,代表了信息源的平均不确定度,记作H(X),用数学式子表达为()H X = ()()()1log qi i i i E I x p x p x ==-∑ 。
5. 离散信源熵有最大值,其取得最大值的条件是离散信源各个消息符号为等概率分布;离散信源熵一定有最大值的原因是熵函数是严格上。
例如,包含n 个不同离散消息的信源X 的熵()H X 2log n (选填<、>≥、≤或者=),当满足X 中各个消息出现的率全相等(或者表达出等概率的意思的文字)条件时,上式取得等号。
6. 联合熵是联合离散符号集合XY 上,联合消息i j x y 的联合自信息量的数学期望(或者概率统计/加权平均),在数学上表达为()1111()()()log ()n m n mi j i j i j i j i j i j H XY p x y I x y p x y p x y ======-∑∑∑∑ 。
(完整版)信息论基础与编码课后题答案(第三章)
![(完整版)信息论基础与编码课后题答案(第三章)](https://img.taocdn.com/s3/m/4fafc64726fff705cd170a26.png)
3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为51661344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。
解:(1)12()0.737,() 1.322I x bit I x bit ==(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,22(;)0.907I x y bit =(3)()(0.6,0.4)0.971/H X H bit symbol ==()(0.6,0.4)0.971/H Y H bit symbol ==(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =(5)(;)0.9710.7140.257/I X Y bit symbol =-=3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。
该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。
验证在该信道上每个字母传输的平均信息量为0.21比特。
证明:信道传输矩阵为:11112666111162661111662611116662P ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦,信源信宿概率分布为:1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,信宿收到的消息集合Y 包含12,y y 。
信息论习提答案
![信息论习提答案](https://img.taocdn.com/s3/m/ec07e66443323968001c9242.png)
1、 熵 是香农信息论最基本最重要的概念。
2、 单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
3、 两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
4、 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
5、 对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
6、 若一离散无记忆信源的信源熵H (X )等于4.2,对信源进行等长的无失真二进制编码,则编码长度至少为 5 。
7、 同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和6同时出现”这件事的自信息量是 log 218或(1+2 log 23)。
8、 一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 52log 2 。
9、 具有一一对应关系的无噪信道的信道容量C= log 2n 。
10、 信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。
11、 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小12、 平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 。
13、 率失真函数对允许的平均失真度是 单调递减和连续的 。
14、 对于离散无记忆信源的率失真函数的最大值是 log 2n 。
15、 信源编码的目的是: 提高通信的有效性 。
16、 对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为0的消息。
17、 对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。
18、 游程序列的熵 等于 原二元序列的熵。
19、 n 位重复码的编码效率是 1/n 。
20、 若纠错码的最小距离为d min ,则可以纠正任意小于等于t= ⎥⎦⎥⎢⎣⎢-21min d 个差错。
通信原理习题答案郑国梓精要
![通信原理习题答案郑国梓精要](https://img.taocdn.com/s3/m/00b843bca8114431b80dd85e.png)
第1章 绪论1-2 设信源X 由4个符号a,b,c,d 组成,各符号出现概率分别为3/8,1/4,1/8,1/4,每个符号的出现是独立的,求(1)信源熵H(X);(2)一个消息babcacaddabbcdcaabdcb 的信息量I 。
解:(1)符号/bit .log log log log )x (p log )x (p )x (H i i i 906141418181414183832222241=----=-=∑= (2)4148154168362222412log log log log )x (p log N I i i i ----=-=∑=bit ..494381512498=+++=若 bit ..)x (H 0264021906121=⨯=⨯个符号 是统计平均,与题意不符,为错的。
1-4 八进制数字信号在3分钟内共传送72000个码元,求码元速率和每个码元所含的信息量。
解:码元速率: B R B 40060372000=⨯=每个码元所含的信息量:bit log I 382==1-5 已知信源X 含有两个符号x 1,x 2,它们的出现概率分别为p(x 1)=q ,p(x 2)=1-q ,设信源每秒向信道发出1000个符号,求此无扰离散信道的信道容量。
解:符号/bit )q (log )q (q log q )x (p log)x (p )x (H i i i----=-=∑=1122212当21=q 时,信源熵有最大值:符号/bit H max 1= 每秒发送1000个符号,所以最大信息速率:s /bit R max b =⨯=10001信道容量:s /bit R C max b 1000==第2章 预备知识2-4 (a )试写出图P2-3(a )所示方波波形的复数傅里叶级数表示式;(b )用(a )中所得结果写出图P2-3(b )所示三角形波的复数傅里叶级数表示式。
解:(a )t n j n e n Aj t f 0)12(1)12(2)(ωπ+∞-∞=∑⋅+= (b )∑∞-∞=+⋅++=n t n j e n AT AT t f 0)12(22002)12(4)(ωπ2-9 已知)(t f 的频谱函数如图P2-5所示,画出t t fcos )(ω的频谱函数图,设τωω50=。
信源熵-习题答案
![信源熵-习题答案](https://img.taocdn.com/s3/m/0238a5cca1116c175f0e7cd184254b35effd1a72.png)
C
1 m1
C
2 m
2
+…+
C n1 m n 1
C n1 mn
P(A3)=
!! (
)!
[C
0 2
1
…
C 1
2
]
评注:
=
!! (
)!
C
1
1
=
如果把题中的“白球”、“黑球”换为“正品”、 “次品”或“甲物”、“乙物”等等,我们就可以得到各 种各样的“摸球模型”.
二. 古典概型的基本模型:分球入盒模型
排列.所以样本点总数为107.
(1)事件A1,要求所取的7个数是互不相同的,考虑到各 个数取出时有先后顺序之分,所以有利场合相当于从10个 相异元素里每次取出7个相异元素的排列.因此,A1所包含 的样本点数为 A170,于是
.
P(A1)=
A170 10 7
0.06048
(2)A2:不含10与1;
(1)杯子容量无限
问题1 把 4 个球放到 3个杯子中去,求第1、2个 杯子中各有两个球的概率, 其中假设每个杯子可 放任意多个球.
3
3
3
3
4个球放到3个杯子的所有放法 3 3 3 3 34种,
4种 2
2种 2
2个
2个
因此第1、2个杯子中各有两个球的概率为
p 4 2 34 2 .
个样本点,.这样
评注:
P(C)=
Cnm (N 1)nm Nn
Cnm
(
1 N
)m
(1
.
1 N
) nm
不难发现当n和N确定时P(C)只依赖于m.如果把 P(C)记作Pm,依二项式定理有
(完整版)信息论第五章答案
![(完整版)信息论第五章答案](https://img.taocdn.com/s3/m/8b1318d0336c1eb91a375df6.png)
5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
同理可得 。
2.17 给定声音样值X的概率密度为拉普拉斯分布 ,求Hc(X),并证明它小于同样方差的正态变量的连续熵。
解:
2.18 连续随机变量X和Y的联合概率密度为: ,求H(X),H(Y), H(XYZ)和I(X;Y)。
(提示: )
解:
2.19 每帧电视图像可以认为是由3105个像素组成的,所有像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现,问每帧图像含有多少信息量?若有一个广播员,在约10000个汉字中选出1000个汉字来口述此电视图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,并彼此无依赖)?若要恰当的描述此图像,广播员在口述中至少需要多少汉字?
解:
(1)
(2)
(3)
H(X) > H2(X)
表示的物理含义是:无记忆信源的不确定度大与有记忆信源的不确定度,有记忆信源的结构化信息较多,能够进行较大程度的压缩。
2.12 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:
(1) “3和5同时出现”这事件的自信息;
(2) “两个1同时出现”这事件的自信息;
解:
男士:
女士:
2.6 设信源 ,求这个信源的熵,并解释为什么H(X)> log6不满足信源熵的极值性。
解:
不满足极值性的原因是 。
2.7 证明:H(X3/X1X2) ≤ H(X3/X1),并说明当X1, X2, X3是马氏链时等式成立。
证明:
2.8证明:H(X1X2 。。。Xn) ≤ H(X1) + H(X2) + … + H(Xn)。
51
52
53
54
55
56
61
62
63
64
65
66
共有21种组合:
其中11,22,33,44,55,66的概率是
其他15个组合的概率是
(4)
参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:
(5)
2.13 某一无记忆信源的符号集为{0, 1},已知P(0)= 1/4,P(1)= 3/4。
(1) 求符号的平均熵;
(3)I(X;Y), I(X;Z), I(Y;Z), I(X;Y/Z), I(Y;Z/X)和I(X;Z/Y)。
解:
(1)
Z = XY的概率分布如下:
(2)
(3)
2.16 有两个随机变量X和Y,其和为Z = X + Y(一般加法),若X和Y相互独立,求证:H(X) ≤ H(Z), H(Y) ≤ H(Z)。
2.2 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量?
解:
设随机变量X代表女孩子学历
X
x1(是大学生)
x2(不是大学生)
P(X)
0.25
0.75
设随机变量Y代表女孩子身高
证明:
2.9 设有一个信源,它产生0,1序列的信息。它在任意时间而且不论以前发生过什么符号,均按P(0) = 0.4,P(1) = 0.6的概率发出符号。
(1) 试问这个信源是否是平稳的?
(2) 试计算H(X2),H(X3/X1X2)及H∞;
(3) 试计算H(X4)并写出X4信源中可能有的所有符号。
(2) 有100个符号构成的序列,求某一特定序列(例如有m个“0”和(100 -m)个“1”)的自信息量的表达式;
(3) 计算(2)中序列的熵。
解:
(1)
(2)
(3)
2.14 对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现的相对频度如下:
若把这些频度看作概率测度,求:
解:
(1)
这个信源是平稳无记忆信源。因为有这些词语:“它在任意时间而且不论以前发生过什么符号……”
(2)
(3)
2.10 一阶马尔可夫信源的状态图如下图所示。信源X的符号集为{0, 1, 2}。
(1) 求平稳后信源的概率分布;
(2) 求信源的熵H∞。
解:
(1)
(2)
2.11黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。设黑色出现的概率为P(黑)= 0.3,白色出现的概率为P(白)= 0.7。
(1) 此消息的自信息量是多少?
(2) 此消息中平均每符号携带的信息量是多少?
Байду номын сангаас解:
(1)此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:
此消息的信息量是:
(2)此消息中平均每符号携带的信息量是:
2.5 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?
四进制脉冲的平均信息量H(X1)= log2n = log24 = 2 bit/symbol
八进制脉冲的平均信息量H(X2)= log2n = log28 = 3 bit/symbol
二进制脉冲的平均信息量H(X0)= log2n = log22 = 1 bit/symbol
所以:
四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
Y
y1(身高>160cm)
y2(身高<160cm)
P(Y)
0.5
0.5
已知:在女大学生中有75%是身高160厘米以上的
即:p(y1/ x1)= 0.75
求:身高160厘米以上的某女孩是大学生的信息量
即:
2.3 一副充分洗乱了的牌(含52张牌),试问
(1) 任一特定排列所给出的信息量是多少?
(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量?
(3) 两个点数的各种组合(无序)对的熵和平均信息量;
(4) 两个点数之和(即2, 3, … , 12构成的子集)的熵;
(5) 两个点数中至少有一个是1的自信息量。
解:
(1)
(2)
(3)
两个点数的排列如下:
11
12
13
14
15
16
21
22
23
24
25
26
31
32
33
34
35
36
41
42
43
44
45
46
(1) 忙闲的无条件熵;
(2) 天气状态和气温状态已知时忙闲的条件熵;
(3) 从天气状态和气温状态获得的关于忙闲的信息。
解:
(1)
根据忙闲的频率,得到忙闲的概率分布如下:
(2)
设忙闲为随机变量X,天气状态为随机变量Y,气温状态为随机变量Z
(3)
2.15 有两个二元随机变量X和Y,它们的联合概率为
YX
解:
1)
2)
3)
2.20 设 是平稳离散有记忆信源,试证明:
。
证明:
2.21 设 是N维高斯分布的连续信源,且X1, X2, … , XN的方差分别是 ,它们之间的相关系数 。试证明:N维高斯分布的连续信源熵
证明:
相关系数 ,说明 是相互独立的。
2.22 设有一连续随机变量,其概率密度函数
(1) 试求信源X的熵Hc(X);
(1) 假设图上黑白消息出现前后没有关联,求熵H(X);
(2) 假设消息前后有关联,其依赖关系为P(白/白)= 0.9,P(黑/白)= 0.1,P(白/黑)= 0.2,P(黑/黑)= 0.8,求此一阶马尔可夫信源的熵H2(X);
(3) 分别求上述两种信源的剩余度,比较H(X)和H2(X)的大小,并说明其物理含义。
第二章:
2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?
解:
四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}
八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}
二进制脉冲可以表示2个不同的消息,例如:{0, 1}
假设每个消息的发出都是等概率的,则:
解:
(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:
(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:
2.4 设离散无记忆信源 ,其发出的信息为(202120130213001203210110321010021032011223210),求
x1=0
x2=1
y1=0
1/8
3/8
y2=1
3/8
1/8
并定义另一随机变量Z = XY(一般乘积),试计算:
(1)H(X),H(Y), H(Z), H(XZ), H(YZ)和H(XYZ);
(2)H(X/Y), H(Y/X), H(X/Z), H(Z/X), H(Y/Z), H(Z/Y), H(X/YZ), H(Y/XZ)和H(Z/XY);
(2) 试求Y = X + A (A > 0)的熵Hc(Y);
(3) 试求Y = 2X的熵Hc(Y)。
解:
1)
2)
3)