ch4-信息论与编码技术(MATLAB实现)-朱春华-清华大学出版社
信息论与编码_曹雪虹__第4章
以得到( 4.5)式。 证毕。
30
例4.3 设试验信道输入符号 {a1, a2 , a3} ,概率
分别为1/3,1/3,1/3,失真矩阵如下所示,
2°绝对误差失真函数 d ( xi , yj ) = | xi - yj |
3°相对误差失真函数 d ( xi , yj ) = | xi - yj |/ | xi |
4°误码失真函数
0 i j
d( xi , y j ) 1 其他
失真函数1°,2°,3°用于连续信源 , 失真函数4°用
于离散信源 , 失真函数4°也称Hanmming失真函数
min
R ( D )0
D
因此可以得到R(D)的定义域为
D 0, Dmax
n
Dmax min j 1,2, ,m
pi dij
i 1
25
Dmax是这样来计算的。R(D)=0就是I(X;Y)=0, 这时试验信道输入与输出是互相独立的,所以条 件概率p(yj/xi)与xi无关。即
pij p( y j / xi ) p( y j ) p j
存储容量(如各种数据库、电子出版物、多媒体娱乐)
、传输时间(如数据通信和遥测)、或占有带宽(如多媒
体通信、数字音频广播、高清晰度电视),要想方设法
压缩给定消息 集合占用的空间域、时间域和频率域资
源。
3
4.1.1 引 言
4.1 实际生活中的需要
基
实际生活中,人们一般并不要求获得完全无失真的消息 ,通常只要求近似地再现原始消息,即允许一定的失真
凡满足保真度准则的这些试验信道称为D失真许 可的试验信道。把所有D失真许可的试验信道 组成一个集合PD。
20
(2)信息率失真函数R(D)
《信息论》实验指导书—-应用MATLAB软件实现
《信息论》实验指导书—-应用M A T L A B软件实现-CAL-FENGHAI.-(YICAI)-Company One1《信息与编码理论》上机实验指导书———————应用MATLAB软件实现UPC通信工程系前言本实验系列是采用MATLAB软件,主要针对《信息论基础》课程中的相关内容进行的实验。
MATLAB是一完整的并可扩展的计算机环境,是一种进行科学和工程计算的交互式程序语言。
它的基本数据单元是不需要制定维数的矩阵,它可直接用于表达数学的算式和技术概念,解决同样的数值计算问题,使用MATLAB要比使用Basic、Fortran和C语言等提高效率许多倍。
MATLAB还是一种有利的教学工具,在大学的线性代数课程以及其它领域的高一级课程的教学中,已称为标准的教学工具。
该指导书共安排了4个实验,现就一些情况作简要说明:各实验要求学生在MATLAB系统上尽量独立完成,弄懂。
实验内容紧扣课程教学内容的各主要基本概念,希望同学们在完成每个实验后,对所学的内容起到巩固和加深理解的作用。
每个实验做完后必须交一份实验报告。
恳请各位实验老师和同学在实验中提出宝贵意见,以利于以后改进提高。
目录实验一离散信源及其信息测度 (3)实验二离散信道及其容量 (6)实验三无失真信源编码 (8)实验四有噪信道编码 (10)附录部分常用MATLAB命令 (12)实验一 离散信源及其信息测度一、[实验目的]离散无记忆信源是一种最简单且最重要的信源,可以用完备的离散型概率空间来描述。
本实验通过计算给定的信源的熵,加深对信源及其扩展信源的熵的概念的理解。
二、[实验环境]windows XP,MATLAB三、[实验原理]信源输出的各消息的自信息量的数学期望为信源的信息熵,表达式如下 1()[()]()log ()qi i i H X E I xi p x p x ===-∑信源熵是信源的统计平均不确定性的描述,是概率函数()p x 的函数。
信息论与编码matlab
信息论实验报告姓名胡小辉班级电子信息工程0902 学号 **********1.实验目的1、掌握哈夫曼编码、费诺编码、汉明码原理;2、熟练掌握哈夫曼树的生成方法;3、学会利用matlab、C语言等实现Huffman编码、费诺编码以及hamming编码。
2.实验原理Huffman编码:哈夫曼树的定义:假设有n个权值,试构造一颗有n个叶子节点的二叉树,每个叶子带权值为wi,其中树带权路径最小的二叉树成为哈夫曼树或者最优二叉树;实现Huffman编码原理的步骤如下:1. 首先将信源符号集中的符号按概率大小从大到小排列。
2. 用0和1表示概率最小的两个符号。
可用0表示概率小的符号,也可用1表示概率小的符号,但整个编码需保持一致。
3. 将这两个概率最小的符号合并成一个符号,合并符号概率为最小概率之和,将合并后的符号与其余符号组成一个N-1的新信源符号集,称之为缩减符号集。
4. 对缩减符号集用步骤1,2操作5. 以此类推,直到只剩两个符号,将0和1分别赋予它们。
6. 根据以上步骤,得到0,1赋值,画出Huffman码树,并从最后一个合并符号回朔得到Huffmaan编码。
费诺编码:费诺编码的实现步骤:1、将信源消息符号按其出现的概率大小依次排列:。
2、将依次排列的信源符号按概率值分为两大组,使两个组的概率之和近似相同,并对各组赋予一个二进制码元“0”和“1”。
3、将每一大组的信源符号再分为两组,使划分后的两个组的概率之和近似相同,并对各组赋予一个二进制符号“0”和“1”。
4、如此重复,直至每个组只剩下一个信源符号为止。
5、信源符号所对应的码字即为费诺码。
hamming编码:若一致监督矩阵H 的列是由不全为0且互不相同的所有二进制m(m≥2的正整数)重组成,则由此H矩阵得到的线性分组码称为[2m-1,2m-1-m,3]汉明码。
我们通过(7,4)汉明码的例子来说明如何具体构造这种码。
设分组码(n,k)中,k = 4,为能纠正一位误码,要求r≥3。
ch6-信息论与编码技术(MATLAB实现)-朱春华-清华大学出版社
这样的方法最简单,但码字就没
有任何检错和纠错能力。
B=1
1=B
由图6.1.1可见,接收端收到的 符号“0”直接译码成字母A,但 实际上,该符号“0”也有可能是 发送的符号“1”错误传输变成的, 但接收端译码时对此无能为力, 只能任由差错发生。
图6.1.1 未编码直接传输
6.1.1差错和差错控制系统分类
A=000
000
001
重复两次,效率比不重复低两倍,但 是收到两个三元符号译码一 次,会出现的长度为3的二元码符号 序列共有000,001,010,…111八 种情况,收到000译码成字母A,收到 111译码成字母B,收到的001或010 或 100 译 成 发 送 端 的 000 ; 收 到 的 110 , 011 , 101 译 成 111 。 这 种 译 码方式也叫最小距离译码。
信道编码的目的:提高信息传输的可靠性,保证信息传输的 质量。
信道编码的基本思想:在信息码中增加一定数量的码元(监 督码元),使码字具有一定的抗干扰能力(检错和纠错能 力),因此,信道编码又称抗干扰编码。
1948年,香农从理论上得出结论:对于有噪信道,只要通 过足够复杂的编码方法,就能使信息传输速率达到信道的极 限能力——信道容量,同时使平均差错概率逼近于零,这一 结论称为香农第二编码定理(有噪信道编码定理)
6.1 信道编码的基本概念
信道编码是以信息在信道上的正确曼传彻输斯特为码目、标A的MI编码码、,可分
为两个层次上的问题:
HDB3码、NBMB码和部
分响应系统中的相关编码
如何正确接收载有信息的信号 --线路编码
如何避免少量差错信号对信息内容的影响 --纠错编码
本课程讨论的信道编码是纠错编码。
信息论与编码课程作业_huffman编码的matlab_实现
信息论与编码课程作业_huffman编码的matlab_实现信息论与编码课程作业——霍夫曼编码求信源熵和存储前后的信息量的变化一:设计目的:1、学习离散信源平均信息量的计算方法。
2、理解和掌握huffman 编码的基本原理,实现对信源符号的huffman 编码3、熟悉 Matlab 编程;二:设计原理和思路1.信源熵的计算:公式: 21()log a I a p = Matlab 实现:I=log2(1/p) 或I=-log2(p) 熵(平均自信息)的计算公式22111()log log qq i i i i i i H x p p p p ====-∑∑Matlab 实现:HX=sum(-x.*log2(x));或者h=h-x(i)*log2(x(i));2.霍夫曼编码原理;分为两步,首先是码树形成过程:对信源概率进行合并形成编码码树。
然后是码树回溯过程:在码树上分配编码码字并最终得到Huffman 编码。
1、码树形成过程:将信源概率按照从小到大顺序排序并建立相应的位置索引。
然后按上述规则进行信源合并,再对信源进行排序并建立新的位置索引,直到合并结束。
在这一过程中每一次都把排序后的信源概率存入矩阵p 中,位置索引存入矩阵m 中。
这样,由排序之后的概率矩阵 p 以及索引矩阵m 就可以恢复原概率矩阵P 了,从而保证了回溯过程能够进行下去。
2、码树回溯过程:在码树上分配编码码字并最终得到Huffman 编码。
从索引矩阵M 的末行开始回溯。
(1) 在p 的末行2元素位置填入0和1。
(2) 根据该行索引1位置指示,将索引1位置的编码(‘1’)填入上一行的第一、第二元素位置,并在它们之后分别添加‘0’和‘1’。
(3) 将索引不为‘1’的位置的编码值(‘0’)填入上一行的相应位置(第3 列)。
(4) 以m的倒数第二行开始向上,重复步骤(1) ~(3),直到计算至m的首行为止。
三:设计代码:>> clear all;format longdisp(strcat('信息论与编码课程作业——霍夫曼编码求信源熵和存储前后的信息量的变化',13));histgram=zeros(1,255);[c,map]=imread('C:\Documents and Settings\Administrator\桌面\infomation\lenna.bmp');x=rgb2gray(c);[a,b]=size(x);for i=1:afor j=1:bk=x(i,j);histgram(k)=histgram(k)+1;endendf=histgram/a/b;symbols=find(f~=0); %灰度值p=f(symbols); %概率L=length(p);pp=p;%霍夫曼编码m=zeros(L-1,L);for i=1:L-1[p,mark]=sort(p);m(L-i,1:L-i+1)=mark(1:L-i+1);p=[p(1)+p(2),p(3:L),1];endc=cell(L-1,L);c(1,1)={'0'};c(1,2)={'1'};for i=2:L-1;ind=find(m(i-1,:)==1);temp=char(c(i-1,ind));c(i,1)={[temp,'0']};c(i,2)={[temp,'1']};snc=find(m(i-1,:)~=1);for j=3:i+1;con=snc(j-2);c(i,j)=c(i-1,con);endendcodeL=[];averge_long=0;H1=0;disp(strcat('灰度值',32,32,32,'概率',32,32,32,32,32,32,32,32,32,'霍夫曼编码:'));for i=1:L;ind=find(m(L-1,:)==i);code=char(c(L-1,ind));codeLength(i)=length(code);averge_long=averge_long+pp(i)*codeLength(i);H1=H1+pp(i)*log2(1/pp(i));disp(strcat(32,num2str(symbols(i)),32,32,32,num2str(pp(i)),3 2,32, code));enddisp(strcat('信源熵=',num2str(H1),32,32,32,32,'平均码字长度=',num2str(averge_long),32,32,32,32,32,'压缩比=',num2str(8/averge_long)));四:设计运行结果:信息论与编码课程作业——霍夫曼编码求信源熵和存储前后的信息量的变化灰度值概率霍夫曼编码:30 1.5259e-005 101000111100001031 1.5259e-005 101000111100001136 1.5259e-005 101000111100000037 1.5259e-005 101000111100000139 6.1035e-005 1010001111000140 7.6294e-005 1110010101001041 6.1035e-005 0111010111011042 6.1035e-005 0111010111011143 9.1553e-005 1110010101001144 0.00018311 111011101010145 0.00021362 00111101101146 0.00022888 01110101111047 0.00024414 01110101111148 0.00039673 0011110110049 0.00048828 1010001110050 0.00065613 1110010101151 0.00090027 011101011052 0.00086975 001111011153 0.0013123 111001011054 0.0013733 111011101156 0.0018005 01110101057 0.0025177 11010001158 0.0036621 0111111059 0.0033722 0101111060 0.0046539 1100110161 0.0055847 1111010162 0.0061188 001001063 0.0080261 100111064 0.0075226 100001165 0.0083466 101010166 0.0088806 101111167 0.0092773 110011168 0.0095367 110101069 0.0086517 101101070 0.0084229 101011071 0.0075378 100010172 0.0071564 011011173 0.0061493 001001174 0.0056 1111011075 0.0053864 1110110076 0.0045319 1100011177 0.0043488 1011000178 0.0042114 1010111079 0.0039063 1000111180 0.0041199 1010100181 0.0035706 0110101182 0.0039368 1001011083 0.0037537 1000010084 0.003479 0110101086 0.0033417 0101101087 0.0032501 0100110088 0.0034027 0110000189 0.0031128 0011010090 0.0031433 0011110091 0.0036774 0111111192 0.0041046 1010011094 0.0038452 1000111095 0.004364 1011100096 0.0037842 1000110097 0.0037079 1000001198 0.0033722 0101111199 0.0040741 10100001 100 0.0040741 10100010 101 0.0038147 10001101 102 0.0040588 10011111 103 0.0041046 10100111 104 0.004364 10111001 105 0.0048218 11010111 106 0.0052185 11100100 107 0.0049591 11011010 108 0.005188 11100001 109 0.0047455 11010110 110 0.0052032 11100011 111 0.0054474 11110100 112 0.0057526 11111011 113 0.0065308 0100111 114 0.0079346 1001100 115 0.010223 1101111116 0.0095825 1101100 117 0.0089417 1100000 118 0.0086975 1011011 119 0.0081787 1010010 120 0.007782 1001001121 0.0066376 0101011 122 0.0059357 11111111 123 0.0056458 11110111 124 0.0051575 11100000 125 0.0052948 11101001 126 0.005188 11100010 127 0.0059814 0000001 128 0.0058594 11111101 129 0.0065613 0101010 130 0.0062561 0011011 131 0.006897 0110100132 0.0072479 0111011 133 0.0073242 0111110 134135 0.0075226 1000100 136 0.0077515 1001000138 0.008606 1011001139 0.0091095 1100100 140 0.012115 000010141 0.012115 000011142 0.012741 001110143 0.012329 001100144 0.010941 1111001145 0.010147 1101110146 0.0089417 1100001 147 0.0088043 1011101 148 0.0091095 1100101 149 0.010712 1110101150 0.011337 1111100151 0.010513 1110011152 0.012878 010000153 0.012268 001010154 0.013138 010100155 0.012238 001000156 0.012939 010001157 0.012115 000100158 0.012955 010010159 0.012207 000111160 0.011993 000001161 0.013916 011001162 0.012177 000110163 0.012299 001011164 0.0094604 1101001 165 0.0089874 1100010 166 0.0088501 1011110 167 0.0056915 11111010 168 0.0059357 0000000 169 0.0071716 0111001 170 0.0057678 11111100 171 0.0054016 11101111 172 0.0054169 11110001 173 0.0058746 11111110 174 0.0072937 0111100 175 0.0070953 0110110 176177 0.0061035 0001011 178 0.0054016 11110000 179 0.0053864 11101101 180 0.0046692 11010000182 0.0036774 10000000183 0.0033875 01100000184 0.0033264 01011000185 0.0031281 00110101186 0.0035706 01110000187 0.0033264 01011001188 0.0033569 01011011189 0.0036011 01110100190 0.0040436 10011110191 0.0034485 01100010192 0.0036774 10000001193 0.0032654 01001101194 0.0034485 01100011195 0.003006 00010100196 0.0033722 01011100197 0.0036774 10000010198 0.0042419 10110000199 0.0045166 11000110200 0.0041046 10101000201 0.0052643 11101000202 0.0050354 11011011203 0.0045319 11001100204 0.0039825 10011010205 0.0040588 10100000206 0.0039673 10010111207 0.0037537 10000101208 0.0033722 01011101209 0.0026703 111011100210 0.0022125 110100010211 0.0018768 101000110212 0.0015259 000101010213 0.0013428 1110010111214 0.0012665 1110010100215 0.0007782 0011110100216 0.00079346 0011110101217 0.00061035 10100011111218 0.00054932 10100011101219 0.00065613 11101110100220 0.00035095 111011101011 221 0.00033569 111001010101 222 0.00030518 101000111101 223 0.00021362 011101011100 224 0.00016785 1110111010100225 0.00019836 001111011010226 0.00015259 1110010101000227 0.00010681 0111010111010228 6.1035e-005 10100011110010230 3.0518e-005 101000111100110231 1.5259e-005 10100011110011110232 1.5259e-005 10100011110011111233 1.5259e-005 1010001111001110信源熵=7.2193 平均码字长度=7.2492 压缩比=1.1036五:设计新得体会:通过这学期对信息论和编码的学习,以及这次的设计,使我了解了很多东西,也使以前所学的知识得以巩固!,通过这次的设计,进一步学习了离散信源平均信息量、平均码长和压缩比的计算方法。
ch3-信息论与编码技术(MATLAB实现)-朱春华-清华大学出版社
图3.2.2 信道数学模型
信道输入随机变量X 输出随机变量Y 输入已知的情况下,
输出的条件概率分布
P(Y/X)
3.2.2 信道的数学模型
二进制离散信道 二进制对称信道(BSC信道):对称的二进制输入、 二进制输出信道。
条件概率对称 p(Y 0 / X 1) p(Y 1/ X 0) p
p(Y 1/ X 1) p(Y 0 / X 0) 1 p
第3章 信道与信道容量
3.1互信息 3.2 离散信道的数学模型与分类 3.3信道容量及其一般计算方法 3.4连续信道和波形信道的信道容量 3.5 信源与信道的匹配
3.1 互信息
3.1.1互信息量 3.1.2平均互信息量与平均条件互信息量 3.1.3平均互信息的特性 3.1.4平均互信息凸性的MATLAB分析
后验概率
3.1.1 互信息量
收信者收到消息(符号) yj后,已经消除的不确定 性为:先验的不确定性减去尚存在的不确定性。 这就是收信者获得的信息量,定义为互信息量:
由此得互信息量:以上为香农关于信息的定义度量。
互信息的引出,使信息得到 了定量的表示,是信息论发 展的一个重要的里程碑。
3.1.1互信息量
平均互信息量定义
推论:
3.1.2 平均互信息量与平均条件互信息量
平均互信息量其它定义
从接收端看
从发送端看
从收发两端看
3.1.2 平均互信息量与平均条件互信息量
信道疑义度
条件熵H(X/Y)—信道上的干扰和噪声所造成的对信源符号 的平均不确定度.
噪声熵或散布度
条件熵H(Y/X)—可看作唯一地确定信道噪声所需要的平均 信息量.
互信息量的其它定义
从接收端看 从发送端看 从收发两端看
ch2-信息论与编码技术(MATLAB实现)-朱春华-清华大学出版社
2.1 离散信源的数学模型与分类
信源的主要问题:
1.如何描述信源(信源的数学建模问题) 2.怎样计算
2.1 离散信源的数学模型与分类
信源是发出消息的源,信源输出以符号形式出现 的具体消息。
按照信源发出的消息在时间上和幅度上的分布情况:
先验概率。
离散有记忆信源
所发出的各个符号 的概率是有关联的。
2.1 离散信源的数学模型与分类
有记忆信源符号间的概率关联性可用两种方式:
一种是用信源发出的一个符号序列的整体概率(即 联合概率)反映有记忆信源的特征.
一种限制记忆长度,即某一个符号出现的概率只与 前面一个或有限个符号有关,而不依赖更前面的那 些符号,这样的信源可以用信源发出符号序列内各 个符号之间的条件概率来反映记忆特征,这就是发 出符号序列的马尔可夫信源.
解:设消息x1:摸出红球;消息x2:摸出白球; 若放回,该单符号信源为无记忆信源,其数学模型
为:
若不放回,该单符号信源为有记忆信源,每个符号 出现的概率与之前出现的符号有关,用条件概率描 述。
2.1.2 离散序列无记忆信源
最简单的序列信源是N=2的情况
2
X =X 1 X 2
信源的概率空间为
若每次取两个球,每次均放回。则该信源每次输出 两个符号作为一个消息,称为符号序列信源。
设消息x1 x1 :先后摸出红球;
消息x1x2:先摸出红球,后摸出白球;
消息x2 x1 :先摸出白球,后摸出红球;符号序列
消息x2 x2 :先后摸出白球。
无记忆信源
长度为2的符号序列信源的数学模型 其中
2.1.3 离散序列有记忆信源
发出单个符号的信源 发出符号序列的信源
指信源每次发出一 组含二个以上符号 的符号序列代表一 个消息.
信息论与编码教学课件(全)
目录
• 课程介绍与背景 • 信息论基础 • 编码理论基础 • 信道编码技术 • 数据压缩技术 • 多媒体信息编码技术 • 课程总结与展望
01
课程介绍与背景
Chapter
信息论与编码概述
信息论的基本概念
01
信息、信息量、信息熵等
编码的基本概念
02
信源编码、信道编码、加密编码等
02
极化码(Polar Codes)
一种新型信道编码方式,通过信道极化现象实现高效可靠的信息传输。
03
深度学习在信道编码中的应用
利用深度学习技术优化传统信道编码算法,提高编码性能和效率。
05
数据压缩技术
Chapter
数据压缩概述与分类
数据压缩定义
通过去除冗余信息或使用更高效的编码方式,减小数据表示所需存储空间的过 程。
线性分组码原理:线性分组码是一 种将信息序列划分为等长的组,然 后对每组信息进行线性变换得到相 应监督位的编码方式。
具有严谨的代数结构,易于分析和 设计;
具有一定的检错和纠错能力,适用 于各种通信和存储系统。
循环码原理及特点
循环码原理:循环码是一种特殊的线 性分组码,其任意两个码字循环移位
后仍为该码的码字。
03
编码理论基础
Chapter
编码的基本概念与分类
编码的基本概念
编码是将信息从一种形式或格式转换为另一种形式的过程,以 满足传输、存储或处理的需要。
编码的分类
根据编码的目的和原理,可分为信源编码、信道编码、加密编 码等。
线性分组码原理及特点
线性分组码特点
监督位与信息位之间呈线性关系, 编码和解码电路简单;
信息论与编码课程设计(哈夫曼编码的分析与实现)
吉林建筑大学电气与电子信息工程学院信息理论与编码课程设计报告设计题目:哈夫曼编码的分析与实现专业班级:电子信息工程101学生姓名:学号:指导教师:吕卅王超设计时间:2013.11.18-2013.11.29一、设计的作用、目的《信息论与编码》是一门理论与实践密切结合的课程,课程设计是其实践性教学环节之一,同时也是对课堂所学理论知识的巩固和补充。
其主要目的是加深对理论知识的理解,掌握查阅有关资料的技能,提高实践技能,培养独立分析问题、解决问题及实际应用的能力。
通过完成具体编码算法的程序设计和调试工作,提高编程能力,深刻理解信源编码、信道编译码的基本思想和目的,掌握编码的基本原理与编码过程,增强逻辑思维能力,培养和提高自学能力以及综合运用所学理论知识去分析解决实际问题的能力,逐步熟悉开展科学实践的程序和方法二、设计任务及要求通过课程设计各环节的实践,应使学生达到如下要求:1. 理解无失真信源编码的理论基础,掌握无失真信源编码的基本方法;2. 掌握哈夫曼编码/费诺编码方法的基本步骤及优缺点;3. 深刻理解信道编码的基本思想与目的,理解线性分组码的基本原理与编码过程;4. 能够使用MATLAB 或其他语言进行编程,编写的函数要有通用性。
三、设计内容一个有8个符号的信源X ,各个符号出现的概率为:编码方法:先将信源符号按其出现的概率大小依次排列,并取概率最小的字母分别配以0和1两个码元(先0后1或者先1后0,以后赋值固定),再将这两个概率相加作为一个新字母的概率,与未分配的二进制符号的字母重新排队。
并不断重复这一过程,直到最后两个符号配以0和1为止。
最后从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即为对应的码字。
哈夫曼编码方式得到的码并非唯一的。
在对信源缩减时,两个概率最小的符号合并后的概率与其他信源符号的概率相同时,这两者在缩减中的排序将会导致不同码字,但不同的排序将会影响码字的长度,一般讲合并的概率放在上面,12345678,,,,,()0.40.180.10.10.070.060.050.04X x x x x x x x x P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭这样可获得较小的码方差。
《信息论与编码技术》实验教案
《信息论与编码技术》实验教案一、实验目的1. 理解信息论基本概念,如信息量、信道容量等。
2. 掌握编码技术的基本原理,如Hamming 编码、卷积编码等。
3. 学会使用仿真工具进行信息论与编码技术的实验。
二、实验原理1. 信息论基本概念:信息量、信道容量、误码率等。
2. 编码技术原理:Hamming 编码、卷积编码、解码算法等。
3. 仿真工具的使用:调用相关函数,设置参数,观察实验结果。
三、实验内容1. 实验一:信息量计算与信道容量分析利用仿真工具随机比特序列,计算信息量。
改变信道参数,分析信道容量变化。
2. 实验二:Hamming 编码与解码编写Hamming 编码器和解码器,进行编码和解码操作。
分析误码率与编码位数的关系。
3. 实验三:卷积编码与解码编写卷积编码器和解码器,进行编码和解码操作。
分析误码率与卷积编码器参数的关系。
4. 实验四:不同编码方案性能比较分别使用Hamming 编码和卷积编码对相同长度比特序列进行编码。
比较两种编码方案的误码率和信息传输效率。
5. 实验五:信息论与编码技术在实际应用中的案例分析分析数字通信系统中信息论与编码技术的应用。
了解信息论与编码技术在无线通信、图像传输等领域的应用。
四、实验步骤1. 实验一:信息量计算与信道容量分析随机比特序列,计算信息量。
设置信道参数,观察信道容量变化。
2. 实验二:Hamming 编码与解码编写Hamming 编码器和解码器,进行编码和解码操作。
改变编码位数,分析误码率变化。
3. 实验三:卷积编码与解码编写卷积编码器和解码器,进行编码和解码操作。
改变卷积编码器参数,分析误码率变化。
4. 实验四:不同编码方案性能比较使用Hamming 编码和卷积编码对相同长度比特序列进行编码。
比较两种编码方案的误码率和信息传输效率。
5. 实验五:信息论与编码技术在实际应用中的案例分析分析数字通信系统中信息论与编码技术的应用案例。
了解信息论与编码技术在无线通信、图像传输等领域的应用。
信息论与编码实验程序与结果图(matlab)
结果图信源熵实验程序:clc; close all; clear;linwidd=1fontt=20p0=0; pd=1; N=20p=linspace(p0,pd,N);I=-log2(p);plot(p,I,'k');title('I=-log2(p)函数图');xlabel('p');ylabel('I');clc; close all; clear;linwidd=1fontt=20p0=0; pd=1; N=20p=linspace(p0,pd,N);H=-p.*log2(p)-(1-p).*log2(1-p);plot(p,H,'k');title('H=-p.*log2(p)-(1-p).*log2(1-p)函数图');xlabel('p');ylabel('H');信道容量实验程序:clc; close all; clear;linwidd=1fontt=20p0=0; pd=1; N=20p=linspace(p0,pd,N);r=4c=log2(r)+(1-p).*log2(1-p)+p.*log2(p/(r-1));plot(p,c,'k');title('强对称信道容量数值模拟图');有噪信道编码--费诺不等式程序:结果图clc;close all;clear;r=3;p0=0.00001;pd=0.99999;N=2000;p=linspace(p0,pd,N);q=1-p;H=-p.*log2(p)-q.*log2(q);hold onHH=H+p.*log2(r-1)title('费诺不等式示意图');box onxlabel('PE');ylabel('H(X/Y)');plot(p,HH,'k:')hold onhold onfill([p,1],[HH,0],[0.6,0.6,0.6])stem((r-1)/r,1.59,'--.r')text(0.66,1.6,'最大值')香农编码程序:clc;clear all;close all;p=[0.2 0.19 0.18 0.17 0.15 0.1 0.01]; if sum(p)<1||sum(p)>1error('输入概率不符合概率分布')end[p index]=sort(p,'descend');n=length(p);pa=zeros(n,1);for ii=2:npa(ii)=pa(ii-1)+p(ii-1);endk=ceil(-log2(p));%码字长度计算c=cell(1,n);%生成元胞数组,用来存不同长度的码字for ii=1:nc{ii}='';tmp=pa(ii);for jj=1:k(ii)tmp=tmp*2;if tmp>=1tmp=tmp-1;%c{ii}{jj}='1';c{ii}=[char(c{ii}),'1']; else%c{ii}{jj}='0';c{ii}=[char(c{ii}),'0']; endendend c(index)=c;%换回原来的顺序codelength=zeros(1,n);%码长初始化for ii=1:nfprintf(['第',num2str(ii),'个消息对应为']);disp(c{ii});%显示码字codelength(ii)=length(c{ii});%endn_average=sum(codelength.*p) %平均码长fprintf('平均码长为');disp(n_average);H=-sum(p.*log2(p));fprintf('信源熵');disp(H);x=H/(n_average.*log2(2))fprintf('编码效率');disp(x);figureh=stem(1:n,codelength);%axis([0 n+1 0 n+1]);set(h,'MarkerFaceColor','blue','linewidth',2)实验结果结果图第1个消息对应为000第2个消息对应为001第3个消息对应为011第4个消息对应为100第5个消息对应为101第6个消息对应为1110第7个消息对应为1111110n_average = 3.1400平均码长为 3.1400信源熵 2.6087x =0.8308编码效率 0.8308费诺编码程序:endfor rr=2:2:needgroupnum*2index2=index_aftergroup(rr,:);for ii=index2(1):index2(2)c{ii}=[char(c{ii}),'1']; endendflag=0;index_p=[];for rr=1:needgroupnum*2indextmp=index_aftergroup(rr,:); if(indextmp(2)-indextmp(1)+1>1) flag=1;index_p=[index_p;indextmp]; endendjj=jj+1;endc(index)=c;codelength=zeros(1,N);for ii=1:Nfprintf(['第',num2str(ii),'个消息对应为']);disp(c{ii});codelength(ii)=length(c{ii}); endn_average=sum(codelength.*p)fprintf('平均码长为');disp(n_average);H=-sum(p.*log2(p));fprintf('信源熵');disp(H);x=H/(n_average.*log2(2))fprintf('编码效率');disp(x); figureh=stem(1:N,codelength);axis([0 N+1 0 N+1]);set(h,'MarkerFaceColor','blue','linewidth',2)endfunction index_aftergroup=func_group(p,index_p)index=index_p(1):index_p(2);n=length(index);p0=p(index);sump0=sum(p0);half_sump0=sump0/2;for ii=1:n-1tmpsum=sum(p0(1:ii));if abs(tmpsum-half_sump0)<=abs(tmpsum-half_sump0+p0(ii+1))index_aftergroup=[index(1) index(ii);index(ii+1) index(n)]; break;endendend实验结果结果图第1个消息对应为00第2个消息对应为010第3个消息对应为011第4个消息对应为10第5个消息对应为110第6个消息对应为1110第7个消息对应为1111n_average = 2.7400平均码长为 2.7400信源熵 2.6087x =0.9521编码效率 0.9521霍夫曼编码程序:clc;clear all;close all; A=[0.4 0.2 0.2 0.1 0.1]; A=sort(A,'descend');T=A;[m,n]=size(A);B=zeros(n,n-1);B(:,1)=T;r=B(n,1)+B(n-1,1);T(n-1)=r; T(n)=0;T=sort(T,'descend');t=n-1;for j=2:n-1B(1:t,j)=T(1:t);K=find(T==r);%B(n,j)=K(end);B(n,j)=K(1);r=(B(t-1,j)+B(t,j));T(t-1)=r;T(t)=0;T=sort(T,'descend');t=t-1;endB;ENDc1=sym('[1,0]');ENDc=ENDc1;t=3;d=1;for j=n-2:-1:1for i=1:t-2if i>1&&B(i,j)==B(i-1,j)d=d+1;elsed=1;endB(B(n,j+1),j+1)=-1;temp=B(:,j+1);x=find(temp==B(i,j));ENDc(i)=ENDc1(x(d));endy=B(n,j+1);ENDc(t-1)=[char(ENDc1(y)),'1']; ENDc(t)=[char(ENDc1(y)),'0'];t=t+1;ENDc1=ENDc;endA%排序后的原概率序列ENDc%编码结果for i=1:n[a,b]=size(char(ENDc(i)));L(i)=b;endavlen=sum(L.*A)%平均码长selen=(L-avlen).^2%?mselen=sum((selen).*A)%码长均方差H=-A*(log2(A'))%?P=H/avlen%?figure;subplot(2,1,1)h=stem(1:n,selen);%axis([0 n+1 0 max(selen)+0.1]);set(h,'MarkerFaceColor','blue','lin ewidth',2)xlabel('信源向上排');ylabel('方差值selen');hold onplot(0:n+1,mselen*ones(1,n+2),'r',' linewidth',2);hold offlegend('每个信源码长与平均码长的方差','码长均方差');A=[0.4 0.2 0.2 0.1 0.1];A=sort(A,'descend');T=A;[m,n]=size(A);B=zeros(n,n-1); B(:,1)=T;r=B(n,1)+B(n-1,1);T(n-1)=r;T(n)=0;T=sort(T,'descend');t=n-1;for j=2:n-1B(1:t,j)=T(1:t);K=find(T==r);B(n,j)=K(end);%B(n,j)=K(1);r=(B(t-1,j)+B(t,j));T(t-1)=r;T(t)=0;T=sort(T,'descend');t=t-1;endB;ENDc1=sym('[1,0]');ENDc=ENDc1;t=3;d=1;for j=n-2:-1:1for i=1:t-2if i>1&&B(i,j)==B(i-1,j)d=d+1;elsed=1;endB(B(n,j+1),j+1)=-1;temp=B(:,j+1);x=find(temp==B(i,j));ENDc(i)=ENDc1(x(d));endy=B(n,j+1);ENDc(t-1)=[char(ENDc1(y)),'1'];ENDc(t)=[char(ENDc1(y)),'0'];t=t+1;ENDc1=ENDc;endA%排序后的原概率序列ENDc%编码结果for i=1:n[a,b]=size(char(ENDc(i)));L(i)=b;endavlen=sum(L.*A)%平均码长selen=(L-avlen).^2%?mselen=sum((selen).*A)%码长均方差H=-A*(log2(A'))%?P=H/avlen%?subplot(2,1,2)h=stem(1:n,selen);%axis([0 n+1 0 max(selen)+0.1]);set(h,'MarkerFaceColor','blue','linewidth',2)xlabel('信源向下排');ylabel('方差值selen');hold onplot(0:n+1,mselen*ones(1,n+2),'r','linewidth',2);hold offlegend('每个码长与平均码长的方差','码长均方差');实验结果A = 0.4000 0.2000 0.20000.1000 0.1000ENDc =[ 11, 1, 0, 101, 100]avlen = 1.8000selen = 0.0400 0.6400 0.64001.4400 1.4400mselen =0.5600H =2.1219P =1.1788A =0.4000 0.2000 0.20000.1000 0.1000ENDc =[ 0, 10, 111, 1101, 1100]avlen =2.2000selen = 1.4400 0.0400 0.64003.2400 3.2400mselen =1.3600H =2.1219P =0.9645结果图。
《信息论与编码》曹雪虹-张宗橙清华大学出版社可配北邮版本
x8 0.04
编码 码长
1
1
001
3
011
3
0000
4
0100
4
0101
4
00010
5
00011
5
(3) 香农编码
信 源 符 号 符 号 概 率 累 加 概 率 -Logp(xi) 码长 Ki 码字
xi
pi
Pi
x1
0.4
0
1.322
2
00
x2
0.18
0.4
2.474
3
011
x3
0.1
0.58
3.322
4
1001
x4
0.1
0.68
3.322
4
1010
x5
0.07
0.78
3.837
4
1100
www.khd课后a答w案.网com
x6
0.06
0.85
4.059
5
x7
0.05
0.91
4.322
5
x8
0.04
0.96
4.644
5
平均码长:
11011 11101 11110
(4) 费诺编码:
3
2
6
www.khd课后a答w案.网com
(2) H(Y/X)=
1/3
1/3
1/3
1/3
2/3
00
2
x2 1/3
1/3
1/3
1/3
1/3
1/3
01
2
x3 1/9
1/9
1/9
2/9
1/3
100
信息论与编码第1章
第一章绪论(第一讲)(2课时)主要内容:(1)教学目标(2)教学计划(3)参考书(4)考试问题(5)信息论的基本概念(6)信息论发展简史和现状(7)通信系统的基本模型重点:通信系统的基本模型难点:通信系统的基本模型特别提示:运用说明:本堂课作为整本书的开篇,要交待清楚课程开设的目的,研究的内容,对学习的要求;在讲解过程中要注意结合一些具体的应用实例,避免空洞地叙述,以此激发同学的学习兴趣,适当地加入课堂提问,加强同学的学习主动性。
信息论与编码(Informatic s & Coding)开场白教学目标:本课程主要讲解香农信息论的基本理论、基本概念和基本方法,以及编码的理论和实现原理。
介绍信息的统计度量,离散信源,离散信道和信道容量;然后介绍无失真信源编码、有噪信道编码,以及限失真信源编码等,然后介绍信道编码理论,最后也简单介绍了密码学的一些知识。
教学重点:信息度量、无失真信源编码、限失真信源编码、信道编码的基本理论及实现原理。
教学计划:信息论:约20学时信道编码:约19学时*密码学:约8学时参考书:1.信息论与编码,曹雪虹张宗橙编,北京邮电大学出版社,20012.信息论—基础理论与应用,傅祖芸编著,电子工业出版社,20013.信息理论与编码,姜丹钱玉美编著4.信息论与编码,吴伯修归绍升祝宗泰俞槐铨编著,1987考试问题:第一章绪论信息论的基本概念信息论发展简史和现状通信系统的基本模型§1.1 信息论的基本概念信息论是一门应用近代数理统计方法来研究信息的传输和处理的科学。
在涉及这门课程的具体内容之前,很有必要在引言中,首先放宽视野,从一般意义上描述、阐明信息的基本含意。
然后,再把眼光收缩到信息论的特定的研究范围中,指明信息论的假设前提,和解决问题的基本思路。
这样,就有可能帮助读者,在学习、研究这门课程之前,建立起一个正确的思维方式,有一个正确的思路,以便深刻理解、准确把握以下各章节的具体内容。
信息论与编码技术朱春华
信息论与编码技术简介信息论与编码技术是计算机科学与通信工程领域中非常重要的研究方向,对于数字通信、数据压缩、错误检测与纠正等问题具有重要意义。
信息论是研究信息传输、存储和处理的数学理论,而编码技术则是利用信息论的基本原理设计和实现高效的编码方案。
本文将对信息论和编码技术进行介绍,并介绍其中的一位杰出研究者朱春华的贡献。
信息论信息论是由克劳德·香农于1948年提出的,他在论文《通信的数学原理》中系统地提出了信息论的基本概念和理论框架。
信息论主要研究信息传输的性质和限制,以及如何通过编码和解码来实现有效地信息传输。
在信息论中,最基本的概念是信息量。
信息量的单位是比特(bit),表示一条信息所携带的信息量。
信息量与信息的概率分布有关,对于概率为p的事件,其信息量为-log(p)。
这意味着,概率越小的事件所携带的信息量越大。
除了信息量,信息论还研究了其他重要概念,如熵、条件熵、互信息等。
熵是用来描述信息源的不确定性的度量,而条件熵是在已知一些先验信息的情况下,对信息源的不确定性进行度量的。
信息论的理论框架不仅可以用于描述信息的传输和存储,还可以用于优化通信系统的设计。
通过研究信道容量和编码理论,我们可以设计出高效的数字通信系统,以尽可能地提高通信速率和可靠性。
编码技术编码技术是利用信息论的基本原理设计和实现高效的编码方案。
编码技术在数字通信、数据压缩、错误检测与纠正等领域具有重要应用。
在数字通信中,编码技术用于将消息转化为数字信号,并通过信道进行传输。
常用的编码技术有霍夫曼编码、香农-法诺编码等。
这些编码技术通过将常用的消息用较短的码字表示,来提高信息传输的效率。
在数据压缩中,编码技术可以将冗余的信息进行压缩,以减少数据的存储和传输量。
编码技术可以通过去除冗余信息和利用统计特性来实现数据的高效压缩。
错误检测与纠正是编码技术的另一个重要应用领域。
在数据传输过程中,由于信道噪声或其他原因,可能会导致传输数据中出现错误。
信息论与编码2012—ch4 压缩编码应用介绍
信息论与编码基础
信源压缩 编码基础
2. MP3PRO • MP3PRO,它是 Thomson Multimedia多媒体公司
推出的一个MP3格式的升级版本,MP3PRO可以把声音 文件压缩到原有MP3格式的一半大小,但却可以保持 相同的音质。 • MP3Pro制式是利用低转送速率技术(bit per sec),即平常一首MP3的频率大多是128kbit,而 MP3Pro则固定于80kbit,降低码率就可以降低文件大 小,把每首MP3所占空间减低到原有的5至6成;但音质 却丝毫无损。
信息论与编码基础
1、声音压缩国际标准
信源压缩 编码基础
2、静止图像压缩国际标准
3、视频压缩国际标准
信息论与编码基础
信源压缩 编码基础
JPEG ( Joint Photographic Expert Group)
1992年,联合图片专家组正式完成用于各种分辨率和格 式的连续色调图像的ISO/IEC 10918标准,即JPEG标准。 JPEG标准支持渐进建立和顺序建立两种图像建立模式, 适合分辨率和格式的连续色调图像;支持以下四种操作 模式: 1、基于DCT的顺序型操作模式; 2、基于DCT的渐进型操作模式; 3、基于DPCM的无损编码(顺序型)操作模式; 4、基于多分辨率编码的(渐进型)操作模式;
国际声音标准比较
信源压缩 编码基础
信源压缩 高子带 信息论与编码基础 编码基础 ADPCM 16kb/s 编码器 G.722 64kb/s 输入0,8,16kb/s 音频编码
音频信号 输入
发送 MUX 低子带 QMF SB-ADPCM 48kb/s数据内插 发送器
ADPCM 编码器 编码器
64kb/s 输出
信息论与编码基础
信息论与编码(伴随式译码) (1)概述
2022年3月23日
16
举例说明信道编译码在实际应用中的实现方法
1. 汉明码概念——汉明码是能纠正单个错误的线性分组 码。如(n,k)码,它有以下特点:
码长
n=2m-1
信息码位 k=2m-m-1
监督码位 r=m=n-k
最小码距 d=3
纠错能力 t=1
这里m是正整数,m≥2。如(3,1)码、(7,4)码、(15,11)码等。
例1 若线性分组码生成矩阵为:G 0 1 0 0 1 1 1
0 0 1 1 1 0 1
4. 伴随式有 2r=16个,由 S E H T 得到8个伴随式的译码表为:
伴随式
错误图案
1 0 1 1 0 0 0 Si=(s1 s2 s3 s4 )
H 1 1 1 0 1 0 0 1 1 0 0 0 1 0 0 1 1 0 0 0 1
码,为什么?该(n,k)码是完备码?为什么?
2022年3月23日
7
5.4.3 线性分组码的生成矩阵、校验矩阵、伴随式译码
1 0 0 1 1 1 0
例1 若线性分组码生成矩阵为:G 0 1 0 0 1 1 1
0 0 1 1 1 0 1
4. 伴随式有 2r=16个,由 S E H T 得到8个伴随式的译码表为:
3.若接收到一个7位码 ,R1 (0 1 0 0 1 1 0)它是否码字?若不是,
判断所发的码字。
解:1. 信息位k=3,监督元位数 r=n-k=4,码长n=7。
2.
1 0 1 1 0 0 0
H 1 1 1 0 1 0 0
1 1 0 0 0 1 0
0 1 1 0 0 0 1
3. R1 H T (0 0 0 1) (0 0 0 0)
信息论与编码(伴随式译码) (1)概述
1 1
1 1
0 1
0 0 1 1 1 0 1
1.试由该矩阵指出(n,k)码的信息位k=?和监督元位数 r=?及码长n=? 2.求对应的校验矩阵H。
3.若接收到一个7位码 ,R1 (0 1 0 0 1 1 0)它是否码字?若不是,
判断所发的码字。
解:1. 信息位k=3,监督元位数 r=n-k=4,码长n=7。
码,为什么?该(n,k)码是完备码?为什么?
2022年3月23日
7
5.4.3 线性分组码的生成矩阵、校验矩阵、伴随式译码
1 0 0 1 1 1 0
例1 若线性分组码生成矩阵为:G 0 1 0 0 1 1 1
0 0 1 1 1 0 1
4. 伴随式有 2r=16个,由 S E H T 得到8个伴随式的译码表为:
2022年3月23日
12
5.4.3 线性分组码的生成矩阵、校验矩阵、伴随式译码
例1 若线性分组码生成矩阵为:
1 G 0
0 1
0 0
1 0
1 1
1 1
0 1
0 0 1 1 1 0 1
5.该(n,k)码的许用码集中包含 8个码字,由C=M*G得到,如下表。
信息序列M=(m1 m2 m3) 码字C=(c1 c2 c3 c4 c5 c6 c7)
例1 若线性分组码生成矩阵为:G 0 1 0 0 1 1 1
R1=(0 1 0 0 1 1 0)
1 0 0 1 1 1 0 1 C1=(0 1 0 0 1 1 )
4. 伴随式有 2r=16个,由 S E H T 得到8个伴随式的译码表为:
伴随式
错误图案
1 0 1 1 0 0 0 Si=(s1 s2 s3 s4 )
实验一 实验准备
五、函数文件
M文件的第一行包含function
功能: 建立一个函数,可以同MATLAB的库函
数一样使用。
五、函数文件
x(t)
1
例:编一个绘制图示波形的函数。
-1
0
1
t
function y=tri(t) y=[ abs(t)<=1].*(1-abs(t)); 调用函数tri,并画出它的波形 t=-2:0.05:2; plot(t,tri(t));
信息论与编码实验
刘美春 应用数学系
课程目的: 1、加深对信息理论的核心内容的理解,并提高计算和解 决实际问题的能力 2、掌握编码算法的实现过程 课程要求: 理解原理,独立编程 3、实验报告模板
实验内容
实验一 实验准备:matlab软件复习(4学时)
实验二 构建信源数学模型 (2学时) 实验三 构建传输信道 (2学时)
基本绘图语句
一、MATLAB的工作方式
(1)窗口命令方式 (2)运行以 .M 为扩展名磁盘文件
工作方式举例
%用plot函数画一个方波 t=[-1 0 0 1 1 3]; x=[0 0 1 1 0 0]; plot(t,x); xlabel('t');ylabel('x(t)'); axis([-1 3 0 2]);
四、数组
1. 数组的构造
MATLAB 提供了一些产生基本矩阵的函数
zeros
ones
产生矩阵元素全为0的矩阵
产生矩阵元素全为1的矩阵
rand
randn
产生(0,1)均匀分布随机数矩阵
产生正态分布随机数矩阵
四、数组
2. 数组的运算
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
4.1 平均失真和信息率失真函数 4.2 离散信源的信息率失真函数 4.3 连续信源的信息率失真函数 4.4限失真信源编码定理(香农第三定理) 4.5常见的限失真信源编码方法
4.1 平均失真和信息率失真函数 4.1.1 失真度与平均失真度 4.1.2 信息率失真函数 4.1.3 信息率失真函数 的特性
由该试验信道模型知,它是一个确定信道 由互信息公式可得 信道输出概率分布为
所以输出an的概率分布为
4.1.2 信息率失真函数
则输出熵H(Y)为
输入熵
失真D下 损失的熵
结论:经信源压缩编码后,信源的信息率由编码前的 H(X)=log2n,压缩到编码后的
这是采用了上述压缩编码方法的结果,所付出的代价是容忍 了1/2的平均失真。
限失真信源编码的必要性
例如:由于人耳能够接收的带宽和分辨率是有限的,因此 对数字音频传输的时候,就允许有一定的失真,并且对欣 赏没有影响。
——把频谱范围从20Hz~8000Hz的语音信号去掉低频和高频,看成带 宽只有300Hz~3400Hz的信号。这样,即使传输的语音信号会有一 些失真,人耳还可以分辨和感觉出来,已满足语音传输的要求,所以 这种失真是允许的。
对于离散无记忆信源
4.1.2 信息率失真函数
D允许信道(D允许的试验信道) 对于离散无记忆信道
信息率失真函数R(D)
对于离散无记忆信源
4.1.2 信息率失真函数
例4.1.3 已知编码器输入的概率分布为 转移矩阵分别为
,编码器
定义单符号失真度 平均失真。
,计算两种信源编码方法带来的
解:平均失真
信息率失真理论是量化、数模转换、频带压缩和数据 压缩的理论基础。
4.1平均失真和信息率失真函数
4.1.1 失真度与平均失真度
信源编码器描述
输入信源X
信源编码器
输出码元Y
失真函数
图4.1.1信源编码器
失真矩阵
4.1.1 失真度与平均失真度
例4.1.1 离散对称信道(m=n),信源变量
,接收
的前提下,使编码后的信息率尽可能小。
限失真信源编码研究的问题
上述问题已经被香农解决:
香农在1948年的经典论文中已经提到了这个问题; 1959年,香农又在他的一篇论文“保真度准则下的离散
信源编码定理”里讨论了这个问题。 研究这个问题并做出较大贡献的还有前苏联的柯尔莫郭洛
夫(Kolmogorov)以及伯格(T. Berger)等。
4.1.2 信息率失真函数
例4.1.4限失真信源编码实例,信源符号等概率分布,失 真限度D=1/2.
失真函数规定为
由信源概率分布可求出信源熵为
编码映射表相当于转移概率矩阵
图4.1.3 编码映射关系
4.1.2 信息率失真函数
编码方案:
平均失真D为
图4.1.3 编码映射关系
4.1.2 信息率失真函数
常用失真函数
平方失真: 绝对失真: 相对失真:
误码失真:
4.1.1 失真度与平均失真度
平均失真
平均失真是对给定信源分布 且转移概率分布为 的信源编码器失真的总体量度。平均失真是符号失真函数 在信源空间和信宿空间平均的结果,是从整体上描述系统 的失真情况。
输入信源X
信源编码器 p( y j / xi )
例如对于数字电视,由于人的视觉系统的分辨率有限,并 且对低频比较敏感,对高频不太敏感,因此也可以损失部 分高频分量,当然要在一定的限度内。
等等这些,都决定了限失真信源编码的重要性。
限失真信源编码研究的问题
在限失真信源编码里,一个重要的问题就是在一 定程度的允许失真限度内,能把信源信息压缩到 什么程度,即最少用多少比特数才能描述信源。 也就是,在允许一定程度失真的条件下,如何能 快速地传输消息。这是本章讨论的问题。
(编码前)信源的信息率:每个信源符号所携带的 平均信息量。
限失真信源编码研究的问题
如果信源输出的信息率大于信道的传输能力,(此时不 可能无差错传输)就必须对信源进行压缩,使压缩后的 信源信息率小于信道传输能力,但同时保证压缩所引入 的失真不超过预先规定的限度D。
因此,信息压缩问题就是对于给定的信源,在满足平均 :
当a=1时,这种失真称为汉明失真。 汉明失真矩阵为一方阵,而且对角线上的元素为零,即
4.1.1 失真度与平均失真度
例4.1.2 二元删除信源信源符号X∈{0,1},编码器输出符号 Y∈{0,1,2},规定失真函数为
求失真矩阵
4.1.1 失真度与平均失真度
编码后得信源信息率为
bit/符号
bit/符号
说明编码1对信源数据的压缩率高,但是编码1带来的失真要大一些。若例4.1.3中的 两种编码方法都满足失真度的限制,当然编码1要好些,因为它压缩掉了更多的信息。 事实上,在失真度的限制下,肯定存在一种编码方法,使编码后的信息率最小,这个 最小的信息率就是信息率失真函数。但具体是什么编码方法,香农定理没有指出来。
输出码元Y
假想信道 PD
图4.1.2信源编码器等效模型
4.1.1 失真度与平均失真度
例4.1.3 已知编码器输入的概率分布为 转移矩阵分别为
,编码器
定义单符号失真度 平均失真。 解:
得
,计算两种信源编码方法带来的
4.1.2 信息率失真函数
D允许信道(D允许的试验信道) 对于离散无记忆信道
信息率失真函数R(D)
限失真信源编码的必要性
1.信源特性 对于连续信源,因为其绝对熵为无限大,若要求无失真地对其进行传
输,则要求信道的信息传输率也为无限大,这是不现实的。(在信道 中,由于带宽总是有限的,所以信道容量总要受到限制)因此也就不 可能实现完全无失真传输。
另一方面,从无失真信源编码定理来考虑,由于要求码字包含的信息 量大于等于信源的熵,所以对于连续信源,要用无限多个比特才能完 全无失真地来描述
2.数据压缩 即使对于离散信源,由于处理的信息量越来越大,使得信息的存储和
传输成本很高,(数字系统的广泛应用,需要传送、存储和处理大量 的数据),为了提高传输和存储的效率,就必须对有待传送和存储的 数据进行压缩,这样也会损失一定信息,带来失真。 3.符合实际 在很多场合,过高的信息率也没有必要。