信息论与编码期末考试复习
信息论与编码-复习
第6章 信道编码
计算:
对于循环码,已知(n,k)循环码 会求g(x),并根据g(x)求G, 例p191-192 6.3.3,p193 6.3.4 会求h(x)=(xn+1)/g(x),并根据h(x), 例p193 6.3.4 会求系统循环码码字:由G经过初等行变换得Gs, 再通过C=mGS得系统循环码码字
第4章 信息率失真函数
计算:
对于离散信源(如作业4.1(3)):
R(D)的计算、R(D)与D的关系图 只要求等概信源,对称失真的R(D),见P120 (4.2.50式) 关系图见P109 图4.1.1(注意区分离散和连续信源), 所取的点的纵坐标根据R(D)的计算式求得
第4章 信息率失真函数
计算:
会计算达到稳态时的状态概率分布(作业2.16(1))和 极限熵(作业2.16(2),2.17(2)和p48 例2.2.4);
给定状态转移概率,会画状态转移图,反之亦要求。
第二章 ——续
计算:
信源冗余度的计算(作业2.17(3)) 根据给出的离散信源,能够进行定长编码,求出码字。
掌握信源编码器的性能指标(编码效率η)及其与码 长(k)之间的关系。
第3章 信道容量
掌握离散无记忆信道的N次扩展信道的容量的求解
CN次扩展 NC单符号无记忆信道
无噪信道的容量:见作业3.14 应用连续信道的信道容量公式进行解题
连续信道的容量 所需的信号功率
S 如作业3.19,使用公式 C连续 B log 2 (1 ) N 注意:
C就是信号的传输速率 dB表示的信噪比在代入时要进行转换
能够通过分析电路的运行过程,得到生成的循环码字。 见课件
信息论与编码期末考试题
信息论与编码期末考试题(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(XH . ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ()9. 率失真函数的最小值是0. ()10.必然事件和不可能事件的自信息量都是0. ()二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 ..6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X =,其失真矩阵00a D a ??=,则该信源的max D = . 三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??=. (1)计算接收端的平均不确定度()H Y ;(2)计算由于噪声产生的不确定度(|)H Y X ;(3)计算信道容量以及最佳入口分布.(二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。
信息论与编码期末复习篇
平均信息量。它不是指人们可以获得多少信息;而是指客观存在
多少信息,因而数学关系仅是平均不确定度的量。
而连续信源的相对熵,则是指相对平均不定度。
HC (X ) p(x) log p(x)dx
RX
课程复习大纲
➢ 熵函数的性质 (指离散熵)
1. 对称性: H ( p1, p2,K , pn ) H ( p2, p1, p3 K , pn ) 2. 非负性: H (X ) 0
r
C loga
a
Aj
j
迭代算法
连续信道
5
高斯信道:
C
1 2
log(1
Pwi
2 n
)
限时限频限功率 加性高斯白噪声信道
信道的容量
C L log(1 PS / N0 ) L log(1 PS ) WT log(1 PS )
2
2W 2 2
各种熵之间的关系
名称
无 条 件 熵
条 件 熵 条 件 熵 联 合 熵 交 互 熵
符号
H(X) H (Y )
H(X /Y) H (Y / X )
H(XY) H(YX)
I (X ;Y ) I (Y; X )
关系
H(X) H(X /Y) H(X /Y) I(X;Y)
H (X ) H (XY) H (Y / X )
图示
Y
X
Y
X
Y
X
Y
X
Y
X
Y
熵 、互信息
➢ 冗余度
R 1 H Hm
or R 1 Hm H0
理解两种冗余度的物理意义。
信息论与编码复习期末考试要点
30
1
1
2 W1
2W3
W1
Wi pij Wj
i
1 4W1
13W2
3 4
W3
15W4
W2
W3
2 3
W2
4 5
W4
W4
W1 W2 W3 W4 1
• 稳态分布概率
W 1 3 3 5 , W 2 3 6 5 , W 3 1 2 3 3 3 6 5 5 ,1 3 W 3 6 4 5 1 4 7 4 3 6 5 1 5 7 4 3 9 5
14
三、互信息
• 互信息
• 定义为 xi的后验概率与先验概率比值的对数
I(xi;yj)lo2gp(p x(ix|iy)j)
• 互信息I(xi;yj):表示接收到某消息yj后获得 的关于事件xi的信息量。
15
平均互信息
• 平均互信息定义
I ( X ; Y ) H ( X ) H ( X |Y ) H ( Y ) H ( Y |X )
I(X ; Y ) H (X ) H (Y )
38
• 2)无嗓有损信道 –多个输入变成一个输出(n>m)
p(bi | aj ) 1或0
p(ai
|
bj
)
1或0
• 噪声熵H(Y|X) = 0 • 损失熵H(X|Y) ≠ 0
I(X ; Y )H (Y )H (X )
Cm axI(X ;Y )m axH (Y ) p(a i) 39
加密
y 信道编码
k 加密 密钥
z
信
解密 密钥
道 z'
信宿 v
信源解码
x' 解密
y'
信道解码
信息论与编码期末考试题(全套)..
分) (2)(3分)最大后验概率准则下,有,八(10').二元对称信道如图。
1)若,,求、和()430=p ()411=p ()X H ()Y X H |;()Y X I ; 2)求该信道的信道容量。
解:1)共6分(14.3)(71==∑=i i i l a p L 831.014.361.2)(===LX H R1)求此分组码n=?,k=?共有多少码字?2)求此分组码的生成矩阵G 。
3)写出此分组码的所有码字。
4)若接收到码字(101001),求出伴随式并给出翻译结果。
解:1)n=6,k=3,共有8个码字。
(3分)2)设码字由得()012345C C C C C C C =rT T HC 0=(3分)⎪⎩⎪⎨⎧=⊕⊕⊕=⊕⊕=⊕⊕0000135034012C C C C C C C C C C 令监督位为,则有()012C C C(3分)⎪⎩⎪⎨⎧⊕=⊕=⊕=340451352CC C C C C C C C 生成矩阵为 (2分)⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡1011001100100110013)所有码字为000000,001101,010011,011110,100110,101011,110101,111000。
(4分)4)由得TTHR S =,(2分)该码字在第5位发生错误,()101=S (101001)纠正为(101011),即译码为(101001)(1分)(六)一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?2.简述最大离散熵定理。
对于一个有m 个符号的离散信源,其最大熵是多少?3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
5.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。
信息论与编码期末考试题
(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ( )3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ( )5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( )6. 连续信源和离散信源的熵都具有非负性. ( )7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ( )9. 率失真函数的最小值是0. ( )10.必然事件和不可能事件的自信息量都是0. ( )二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是 ;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是 、 、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I NN =成立的 条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭,其失真矩阵00a D a ⎡⎤=⎢⎥⎣⎦,则该信源的max D = . 三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦. (1) 计算接收端的平均不确定度()H Y ;(2) 计算由于噪声产生的不确定度(|)H Y X ;(3) 计算信道容量以及最佳入口分布.(二)一、填空题1、信源编码的主要目的是 ,信道编码的主要目的是 。
信息论与编码期末复习试题2套含答案(大学期末复习资料)
莆田学院期末考试试卷(A)卷2011 — 2012 学年第一学期课程名称:信息论与编码适用年级/专业: 09/电信(通信)试卷类别开卷()闭卷(√)学历层次本科考试用时 120分钟《.考生注意:答案要全部抄到答题纸上,做在试卷上不给分.........................》.一、简答题(每小题8分,共32分)1.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
2. 香农信息论研究了哪些内容?试讲述香农第二编码定理。
3. 什么是唯一可译码?什么是即时码(前缀码)?构造唯一可译码的充要条件?(10分)4. 什么是信源编码?什么是信道编码?为何要进行这两者编码?二、证明题(每小题6分,共6分)对于任意的事件X、Y,试证明下列不等式成立:H(X|Y)<=H(X),并说明等式成立的条件。
三、计算题(第1、5题各16分,第2题12分,第3题10分,第4题8分,共62分)1.(16分)一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。
设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。
求(1)假设图上黑白消息出现前后没有关联,求熵H(X);(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。
2.(12分)一信源产生概率为P(1)=0.005, P(0)=0.995的统计独立二进制数符。
这些数符组成长度为100的数符组。
我们为每一个少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。
(1)求出为所规定的所有源符组都提供码字所需的最小码长。
(2)求信源发出一数符组,而编码器无相应码字的概率。
3.(10分)已知一个(6,3)线性分组码的全部码字为001011,110011,010110,101110,100101,111000,011101,000000。
2020年信息论与编码期末考试题
信息论与编码期末考试题(一)一、判断题. 当随机变量和相互独立时,条件熵等于信源熵. ()由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ()一般情况下,用变长编码得到的平均码长比定长编码大得多. ()只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()连续信源和离散信源的熵都具有非负性. ()信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 汉明码是一种线性分组码. ()率失真函数的最小值是. () 1.必然事件和不可能事件的自信息量都是. ()二、填空题 1、码的检、纠错能力取决于 . 2、信源编码的目的是;信道编码的目的是 . 3、把信息组原封不动地搬到码字前位的码就叫做. 4、香农信息论中的三大极限定理是、、 . 5、设信道的输入与输出随机序列分别为和,则成立的条件 .. 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . 7、某二元信源,其失真矩阵,则该信源的=.三、计算题. 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为. (1)计算接收端的平均不确定度;(2)计算由于噪声产生的不确定度;(3)计算信道容量以及最佳入口分布. 2、一阶马尔可夫信源的状态转移图如右图所示,信源的符号集为. (1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵并与进行比较. 3、设码符号为,信源空间为试构造一种三元紧致码. 4、设二元线性分组码的生成矩阵为. (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量,试计算出其对应的伴随式并按照最小距离译码准则试着对其译码. (二)一、填空题 1、信源编码的主要目的是,信道编码的主要目的是。
信息论与编码期末复习
第三部分、信道编码
3.2 线性分组码
3.2 线性分组码:
码长为n,信息位为k ,记作(n , k); 监督位r =n-k
1、编码
C = K•G
和 P(X)Y0 0..1 22 10 0..1 04 90 0..3 05 9
H(Y | X)= – 0.21log0.3 –0.14log0.2 –0.35log0.5
–0.12log0.4 –0.09log0.3–0.09log0.3
= 1.5114 bit/符号
m
(4)接收符号熵:由 p(yj ) p(xi yj ) i1 P(Y)=(0.21+0.12,0.14+0.09,0.35+0.09)
第二部分、无失真信源编码
2.2 编码方法
1.2 编码方法:
1、Huffman编码:
(1)信源符号按概率大小排队。
(2)合并概率最小的两个符合为一个节点。 (3)节点参与排队放在与自己概率相等符号后面。 (4)重复这个过程直到合并完全部符号。 (5)标记每个分支的的0与1。 (6)从根到叶的路径就给出了相应符号的码字。 (7)计算平均码长与编码效率。
i1
(2)噪声熵 (散布度):
ms
H (Y|X) p(aibj)lop(g bj|ai)
i 1j 1m s
(3)联合熵: H(X)Y p(aibj)lop(g aibj)
i1j1
(4)接收符号熵:
m
H(Y) p(bj)lopg(bj)
(5)损失熵(后验熵):
i1
ms
H (X|Y) p(aibj)lop(g ai|bj)
信息论与编码期末考试题----学生复习用
《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为32log bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22212x f x eσπσ-=时,信源具有最大熵,其值为值21log 22e πσ。
9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。
(2)()()1222H X X H X =≥()()12333H X X X H X =(3)假设信道输入用X 表示,信道输出用Y 表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
三、已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。
(2分)(1)010101111.00.20.20.20.20.10.11S 2S 3S 4S 5S 6S编码结果为:1234560001100101110111S S S S S S ====== (2)610.420.63 2.6i i i L P ρ===⨯+⨯=∑码元符号(3)bit log r=2.6R L '=符号(4)() 2.53bit0.9732.6H S R L ===码元其中,()()bit 0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号 (5)()()0.973log H S H S L rLη===四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
信息论与编码期末试卷
信息论与编码期末试卷题号一二三四五六七八九十十一十二总成绩得分一.选择题(每小题3分,共15分)1)设信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/14321xxxxPX,则此信源的熵为:比特/符号A) 1.25 B) 1.5 C) 1.75 D) 22)对于离散信道⎥⎦⎤⎢⎣⎡=0.50.50.50.5P,信道容量是比特/符号A) 0 B) 1 C) 2 D) 33)对于三个离散信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6.01.03.0321xxxPX、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡3.04.03.0321yyyPY、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡2.05.03.0321zzzPZ,其中熵最小A) X B) Y C) Z D)无法计算4)信源编码的变长编码中,下面说法不正确的是A)无失真r进制变长码平均码长不得低于信源r进制符号熵B)变长编码时,随着信源序列长度的增大,编码效率会提高C)变长码要求各个码字的长度各不相同D)变长编码的编码效率通常高于定长码5)以下约束条件属于保真度准则的是共 4 页第 1 页共 4 页第 2 页共 4 页第 3 页共 4 页第 4 页练习题一 参考答案一.选择题(每小题3分,共15分) 1)C ) 2)A ) 3)A ) 4)C ) 5)C )二.三状态马尔科夫(Markov )信源,其一步状态转移概率矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=p qp qp qP 000, 1)、求出其二步转移概率矩阵2)、计算其稳态时处于各个状态的概率3)、极限熵∞H (15分)解:1)二步转移概率矩阵为P 2P 2=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡⨯⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⨯22222220000p pq pq q p pq q p pqpq q p qp q p qp qp q p qP P2)假设稳态时各个状态概率为p(0),p(1),p(2),则 [p(0) p(1) p(2)]= [p(0) p(1) p(2)]P 且p(0)+p(1)+p(2)=1 得到:()()⎪⎪⎪⎩⎪⎪⎪⎨⎧-=-=-=pq p p pq pq p pq q p 12111)0(223)极限熵∞H 为稳态时各个状态熵的数学期望三.两个串接的信道转移概率矩阵都为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=0100001/21/210001000P ,第一个信道的输入符号为X ,4个符号等概率分布,输出符号为Y ,第二个信道的输入符号为Y ,输出符号为Z ,求I (X ;Y ),I (Y ;Z ),I (X ;Z )其信道容量及信源最佳分布(8分)解:由第一个信道的转移矩阵,以及全概率公式()()()4,3,2,1,/41==∑=j x P x y P y P i i i j j计算得到:()()2/1)(,4/1)(,8/14321====y P y P y P y P)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Y H Y H Y X I =--⨯-=-= )/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H Y Z H Z H Z Y I =--⨯-=-= ⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⨯=002/12/1100001000100][/P P P X Z 从而()()())/)(((log log )(2020symbol bit q orH p H q q p p p H i p H i p H i ii =--===∑∑==∞)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Z H Z H Z X I =--⨯-=-= 按一般情况下求信道容量C ,⎪⎪⎩⎪⎪⎨⎧====00-1-14321ββββ ()()3/13/16/1)(6/1)()/(3log 2432141======∑=x p x p x p x p symbol bit C i j此时:β四.信源概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡16/116/116/116/18/18/14/14/187654321x x x x x x x x P X ,现采用二进制fano 编码,求各自的码字和编码效率(8分) 解:编码过程如下: 1)2) 由题意)/(75.2)(log )()(81symbol bit x p x p X H i i i =-=∑=而平均码长()75.291==∑=i i i x p l K则编码效率()%1001===Kx H η 五.设信源先验等概⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡5.05.010P X ,接收符号{}21,0,=Y ,失真矩阵为⎥⎦⎤⎢⎣⎡∞∞=1010D ,求()()max min max min ,,,D R D R D D 和对应的信道矩阵(10分)解:根据题意可知如果信道矩阵为⎥⎦⎤⎢⎣⎡=010001P ,则可得到失真值得最小值0m in =D ,此时信道传输的是信源的熵())/(1)()0(min symbol bit X H R D R === 对于最大的允许失真,对应的信道传输的信息为0,此时{}3,21max ,min D D D D =⎥⎦⎤⎢⎣⎡=001001P 时,∞=1D ⎥⎦⎤⎢⎣⎡=010010P 时,∞=2D ⎥⎦⎤⎢⎣⎡=100100P 时,11=D 则,1m ax =D ,()0)1(max ==R D R (bit /symbol ),且⎥⎦⎤⎢⎣⎡=100100P六.二元(n ,k )线性分组码的全部码字:000000,000111,011001,011110,101011,101100,110010,110101,求1)n ,k 各为多少? 2)求该码的生成矩阵G s ?3)此码的校验矩阵H ?(12分) 解:1)n 为码字长度,所以n=6,而码字个数M=8,所以k=logM=log8=3 2)G 为三行6列的矩阵,其行向量线性无关。
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)1填空题1、信息论研究的主要问题是如何提高信息传输系的性和性,对应这两个性能数字通讯系统量化指标分别为和。
2、若给定离散概率空间[X,p(x)]表示的信源,则该信源中的信源消息(事件)x的自信息量可表I(x)=;该信源平均自信息量(即信源的熵)可表示为H(X)=E[I(x)]= 。
3、在离散联合概率空间[XY,P(xy)] 上随机变量I(xy) 的数学期望H(XY)= ,若集合X与集合Y相互独立,则H(XY)= 。
4、若给定离散联合概率空间[XY,P(xy)],则x与y之间的互信息量I(x;y)= ;平均互信息量可用熵和条件熵表示即I(X;Y)= = ,其中条件熵H(X|Y)通常称为熵,条件熵H(Y|X) 称为____________熵;若集合X与集合Y相互独立,则H(X|Y) = ,H(Y|X) = ,平均互信息量I(X;Y)= 。
5、离散信源的冗余度是R表示信源消息的可压缩____________,设信源符号集的最大熵为Ho,实际熵为H∞,则冗余度R可表示为______________;信源编码目的就是通过减少或消除信源____________来提高信息传输效率,因此信源编码亦称__________性编码,而信道编码则称__________性编码。
6、对于连续随机变量,在峰值功率受限于P m的条件下,取得最大相对熵的最佳概率密度函数是一个恒值即W opt(x)=_________,称W(x)为__________分布,这时最大相对熵H cmax=__________。
7、对于平均功率受限,均值不为零的一维连续随机变量的方差为定值时,其取得最大相熵的最佳概率密度函数为_________ ,最大相对熵H cmax=__________。
正态分布,即Wopt(x)=8、假设任一随机变量X与一正态分布随机变量具有相同的相对熵Hc,则其等效正态分布的随机变量X的熵功率为P=;可以用信号平均功率和熵功率的相对差值_________来表示连续信源的冗余度。
信息论与编码期末考试题(全套)
信息论与编码期末考试题(全套)(一)一、判断题共 10 小题,满分 20 分.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(XH . ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信.()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性.()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码.()9. 率失真函数的最小值是0.()10.必然事件和不可能事件的自信息量都是0. ()二、填空题共 6 小题,满分 20 分.1、码的检、纠错能力取决于 .2、信源编码的目的是;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、.5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X =???,其失真矩阵00a D a ??=,则该信源的max D = . 三、本题共 4 小题,满分 50 分.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??=. (1)计算接收端的平均不确定度()H Y ;(2)计算由于噪声产生的不确定度(|)H Y X ;(3)计算信道容量以及最佳入口分布.2、一阶马尔可夫信源的状态转移图如右图所示,信源X 的符号集为}2,1,0{.图2-13(1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵)(X H 并与H ∞进行比较. 4、设二元)4,7(线性分组码的生成矩阵为=1000101010011100101100001011G . (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码.(二)一、填空题(共15分,每空1分)1、信源编码的主要目的是,信道编码的主要目的是。
《信息论与编码》复习试题
填空1.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
2.信息的 可度量性 是建立信息论的基础。
3.统计度量 是信息度量最常用的方法。
4.熵 是香农信息论最基本最重要的概念。
5.事物的不确定度是用时间统计发生 概率的对数 来描述的。
6.单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
7.一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
8.自信息量的单位一般有 比特、奈特和哈特 。
9.必然事件的自信息是 0 。
10.不可能事件的自信息量是 ∞ 。
11.两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
12.数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
13. 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
14. 离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。
15. 对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
16. 一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。
17.平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=eP π2log 212。
18.对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。
19.对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。
20.若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。
21.若把掷骰子的结果作为一离散信源,则其信源熵为 log 26 。
22.同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log 218(1+2 log 23)。
信息论与编码期末复习试题含参考答案
信息论与编码期末复习试题含参考答案在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。
要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后_____加密____编码,再______信道_____编码,最后送入信道。
带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。
保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。
已知n =7的循环码,则信息位长度k 为 3 ,校验多项式h(x)= 。
设输入符号表为X ={0,1},输出符号表为Y ={0,1}。
输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=。
已知用户A 的RSA 公开密钥(e,n )=(3,55),,则 log(1)C W SNR =+42()1g x x x x =+++31x x ++1001⎡⎤⎢⎥⎣⎦1010⎡⎤⎢⎥⎣⎦5,11p q ==()φn =40 ,他的秘密密钥(d,n )=(27,55) 。
若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。
二、判断题可以用克劳夫特不等式作为唯一可译码存在的判据。
(√ ) 线性码一定包含全零码。
(√ )算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。
信息论与编码期末试卷
10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码.
11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集.
1:写出信道矩阵。
2:求此信道的噪声熵,疑义度,信息传输率。
3:求此信道的信道容量与最佳分布。
2:(本题满分2知条件概率为p(0/0)=0.25, P(0/1)=0.5
计算该信源的状态极限概率分布与极限熵
用3个符号合成一个来编2进制HUFFMAN码,要求有具体的编码过程,再求新符号的平均码字长度和编码效率。
6:若某信道的信道矩阵为 ,则该信道为具有____归并____性能的信道
7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________
8:若某二元序列是一阶马尔科夫链,P(0/0)=0.8,P(1/1)=0.7,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________.
3:信源X经过宥噪信道后,在接收端获得的平均信息量称为______________.
4:一个离散无记忆信源输出符号的概率分别为p(0)=0.5,p(1)=0.25,p(2)=0.25,则由60个符号构成的消息的平均自信息量为__________.
5:信源编码可提高信息传输的___有效___性,信道编码可提高信息传输的___可靠_性.
12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位.
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
②状态转移概率矩阵、状态转移图、网格图转换关系;
③平稳马尔可夫信源熵的计算;
④状态平稳分布计算。
第五章
1、区分非奇异码与奇异码、异前置码;
2、区分及时码与非及时码;
3、求非唯一可译码;
对于定长码:非奇异码即为唯一可译码;
非奇异码
变长码:同时满足{
;
异前置码
4、编码定理的掌握;Kraft 定理的理解;
(4)η = ������ = 0.831
������������������������
或者η
=
������(������) ������′
=
0.831
7/7
=
∑������
������(������������ )������(������/������������ )
=
������(0)������
(������)
0
+
������(1)������
(������)
1
+
������(2)������
(������)
2
= 1 ������[���̅���, 0, ������] + 1 ������[������, ���̅���, 0] + 1 ������[0, ������, ���̅���] = ������[������]
1/36。不同点出现时有 15 种,概率 1/18。
H(i,
j)
=
6
∗
1 36
∗
log2
36
+
15
∗
1 18
∗
log2
18
=
4.3366������������������/事件
(4)
i + j 2 3 4 5 6 7 8 9 10 11 12
P(i + j) 1 2 3 4 5 6 5 4 3 2 1 36 36 36 36 36 36 36 36 36 36 36
由状态转移图可知:该马尔可夫链具有遍历性,平稳后状态的
极限分布存在。
由∑������ ������������ ������������������ = ������������和 ∑������ ������������������ = ������������可得方程组
������1 = ���̅���������1 + ������������2 ������2 = ���̅���������2 + ������������3 ������3 = ������������1 + ���̅���������3 {������1+������2 + ������3 = 1
001
������3
011
������4
100
������5
101
������6
1110
6/7
《信息论与编码》复习
������7
1110
(1)计算平均码长���̅���;
(2)编码后信息传输率 R;
(3)编码信息率R‘;
(4)编码效率η。
解:(1)
�Байду номын сангаас����
���̅��� = ∑ ������(������������)������������ = 3.14 (码元/信源符号)
������=0
11
H(Y|X) = − ∑ ∑ P(������������)P(������������|������������)logP(������������|������������) = 0.918 bit/符号
������=0 ������=0
H(XY)=H(X)+H(y|x)=1.729 bit/符号
例题
例 1:同时掷两个正常的骰子,也就是各面呈现的概率都是 l/6,求:
(1)“3 和 5 同时出现”事件的自信息量;
(2)“两个 1 同时出现”事件的自信息量;
(3) 两个点数的各种组合(无序对)的熵或平均信息量;
(4) 两个点数之和(即 2,3,„,12 构成的子集)的熵;
(5) 两个点数中至少有一个是 1 的自信息。
3
3
3
例 4:设二进制对称信道的概率转移矩阵为[21//33 12//33],
(1)若P(������0)
=
3 4
,P(������1)
+
1/4,求
H(X),H(X|Y),H(Y|X)和
I(X;Y)。
(2)求该信道的信道容量及其达到信道容量时的输入概率分布.
解:(1)
1
H(X) = − ∑ ������(������������)������������������������(������������) = 0.811 ������������������/符号
������=0 5/7
《信息论与编码》复习
P(������0) = P(������0)P(������0|������0) + P(������1)P(������0|������1) = 7/12
P(������������) = 1 − P(������0) = 5/12
1
H(Y) = − ∑ ������(������������)������������������������(������������) = 0.980 ������������������/符号
解:(1)P(3、5 或 5、3)=P(3、5)+P(5、3)=1/18
I = log2 18 = 4.1699������������������ (2)P(1、1)=l/36。I = log2 36 = 5.1699������������������ (3)相同点出现时(11、22、33、44、55、66)有 6 种,概率
������=1
例 5:对信源*������������+ = *0������.12
������2 0.19
������3 0.18
������4 0.17
������5 0.15
������6 0.10
0���.���071+进行
二元编码,编码方案为
信息符号
对应码字
������1
000
������2
5、变长码中求������;̅
6、二元、三元哈夫曼编码;编码效率;信息传输速率的计算;
第六章
1、离散信道模型; 2、无噪信道中,无损、确定、无损确定的判断;容量 C 的求解;
2/7
《信息论与编码》复习
3、对称信道容量 C 的计算; 4、级联信道容量 C 的计算; 5、并联、和信道容量 C 的计算;
第三章
离散无记忆信源 主要考点 {
离散马尔可夫信源 离散无记忆信源
信源符号的概率模型
①*���P���+ = *������(������1������)1
������2 … … ������������ ������(������2) … … P(������������)
+
1/7
《信息论与编码》复习
H(X|Y)=H(XY)-H(Y)=0.749 bit/符号
I(X;Y)=H(X)-H(X|Y)=0.062 bit/符号
(2)该信道为对称 DMC 信道,因此在P(������0) = P(������1) = 1/2时,取得 信道容量为:
2
C = log2 + ∑ ������������������������������������������������������ = 0.082 ������������������/符号
②*������������+ P
=
[������(������������1′1′ )
������2′ … … ���������′��� ������(������2′ ) … … P(���������′���)
]
H(X)、H(������������) 的计算。
离散马尔可夫信源
①离散马尔可夫信源的定义;
《信息论与编码》复习
《信息论与编码》复习
第一章
通信系统的模型、主要性能指标
第二章
1、自信息、联合自信息、条件自信息的求解; 2、自信息的物理含义; 3、互信息求解、物理含义、性质; 4、条件互信息求解; 5、信息熵、条件殇、联合熵的计算; 6、信息熵的物理含义; 7、平均互信息的计算,与各熵的关系; 注:这章几基本概念较多,同学们要注意理解
例 2:居住某地区的女孩中有 25%是大学生,在女大学生中有 75% 身高为 1.6m 以上,而女孩中身高 1.6m 以上的占总数一半。假如得知 “身高 1.6m 以上的某女孩是大学生”的消息,问获得多少信息量? 解:P(女大学生)=1/4;
P(身高>1.6m / 女大学生)=3/4; P(身高>1.6m)=1/2; P(女大学生/身高>1.6m)=P(身高>1.6m、女大学生)/P(身高>1.6m) =3/4*1/4*2=3/8; I=log2(8/3)=1.4150bit。
H(i+j)=H(1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36)
=3.2744bit/事件。
3/7
《信息论与编码》复习
(5)P(1、1or1、j or i、 1)=1/36+5/36+5/36=11/36。 I= log2(36/11)=1.7105bit/事件
������=1
(2)H(S)=2.61(比特/信源符号)