率失真理论和保真度准则下的信源编码定理
信息论与编码 自学报告
《信息论与编码》课程自学报告题目:AAC音频压缩编码学号:xxxxxxxxx姓名:xxxxxxx任课教师:xxxxxxx联系方式:xxxxxxxxxxxxx二零一六年一月一日一、自学内容小结与分析1. 基本概念要想无失真地传送连续信源的消息,要求信息率R 必须为无穷大。
这实际上是做不到的,因此实际通信系统允许一定的失真存在,那么对信息率的要求便可降低,换言之,就是允许压缩信源输出的信息率。
信息率失真理论研究的就是信息率与允许失真之间的关系。
1.1 失真函数与平均失真度为了定量地描述信息率与失真的关系,首先定义失真的测度。
设离散无记忆信源1212 , ,, (),(),,()()n n a a a X p a p a p a P X ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭。
信源符号通过信道传送到接收端Y ,1212 , , , (),(),,()()m m b b b Y p b p b p b P Y ⎛⎫⎛⎫= ⎪ ⎪⎝⎭⎝⎭。
对于每一对(),i j a b ,指定一个非负的函数(),0i j d a b ≥ (1) 称d(a i ,b j )为单个符号的失真度或失真函数。
用它来表示信源发出一个符号a i ,而在接收端再现b j 所引起的误差或失真。
由于a i 和b j 都是随机变量,所以失真函数d(a i ,b j )也是随机变量,限失真时的失真值,只能用它的数学期望或统计平均值,因此将失真函数的数学期望称为平均失真度,记为11[(,)]()(/)(,)nmi j i j i i j i j D E d a b p a p b a d a b ====∑∑ (2)1.2 信息率失真函数的定义 1.2.1 D 允许试验信道平均失真由信源分布p(a i )、假想信道的转移概率p(b j /a i )和失真函数d(a i ,b j )决定,若p(a i )和d(a i ,b j )已定,则调整p(b j /a i )使D̅≤D ,称P D ={p (bj ai):D ̅≤D}为D 失真许可的试验信道。
信息论与编码民大06限失真信源编码
23-Oct-18
21/49
离散信源率失真函数的参量表达式
(2) 离散信源的信息率失真函数
已知平均互信息在(4.2.5)的条件限制下求I(X;Y)的极值, 引入参量S和μi(i=1,2,…,n),构造一个新函数ф (4.2.6) (S 和μi 为待定参量)
23-Oct-18
22/49
离散信源率失真函数的参量表达式
理论上“消息完全无失真传送”的可实现性 信道编码定理:无论何种信道,只要信息率 R=(Klog2 m)/L 小于信道容量C,总能找到一种编码,使在信道上能以任 意小的错误概率和任意接近于C的传输率来传送信息。反 之,若R>C,则传输总要失真。 实际上“消息完全无失真传送”的不可实现性 实际的信源常常是连续的,信息率无限大,要无失真传送 要求信道容量C为无穷大; 实际信道带宽是有限的,所以信道容量受限制。要想无失 真传输,所需的信息率大大超过信道容量R>>C。
引入一个失真函数,计算在失真度一定的情况下信息率的 极小值就变成有意义了。
4/49
23-Oct-18
信息率与失真的关系
信道中固有的噪声和不可避免的干扰,使信源的消息通 过信道传输后造成误差和失真 误差或失真越大,接收者收到消息后对信源存在的不确 定性就越大,获得的信息量就越小,信道传输消息所需 的信息率也越小。
研究信道容量的意义:是为了解决在已知信道中传送最大 信息率问题。目的是充分利用已给信道,使传输的信息量 最大而发生错误的概率任意小,以提高通信的可靠性。这 就是信道编码问题。
23-Oct-18
15/49
信息率失真函数的性质
率失真函数的定义域
对香农三大定理的分析与探讨
对香农三大定理的分析与探讨摘要本文针对香农三大定理的内容,进行理论分析,探讨了无失真信源编码、有噪信道编码和保真度准则下的信源编码定理。
通过对离散信源熵的分析,延伸到了对扩展信源的理解,同时结合著名的香农公式和信息论与编码的发展史,指出了香农三大定理的意义。
一、香农第一定理香农第一定理主要研究信息的测度,对应的是无失真信源编码定理。
采用无失真最佳信源编码,可以使得用于每个信源符号的编码位数尽可能地小,但它的极限是原始信源的熵值,超过了这一极限就不可能实现无失真的译码。
1.1 离散信源熵1.1.1 信源的概念信源发出消息,消息载荷信息,而消息又具有不确定性,故而可以用随机变量或随机矢量来描述信源输出的消息。
从随机变量出发来研究信息,这正是香农信息论的基本假说。
而离散信源指的是这类信源输出的消息常以一个符号、一个符号的形式出现,这些符号的取值是有限的或者是可数的。
单符号离散信源只涉及一个随机事件,多符号离散信源则涉及多个随机事件。
1.1.2 信源熵的概念及其性质在度量信息的各种方法中,香农提出了解决信息度量问题的方法——熵,这是香农信息论最基本的,也是最重要的概念[1]。
信源熵,即信源的信息熵,又称香农熵、无条件熵,简称熵。
信源各个离散消息的自信息量的数学期望是信源的平均信息量,实质上是无记忆信源平均不确定度的度量。
信源熵表示在信源输出消息前,信源的平均不确定度,也表示在信源输出消息后,平均每个离散消息所提供的信息量,能够反映变量的随机性。
当消息出现的概率相同时,猜测每一个消息发生错误的概率均相同,说明等概率信源的不确定性最大,具有最大熵[2]。
1.2 无失真离散信源编码1.2.1 信源编码的概念信源编码处于通信系统的前端,直接对信源发出的信号进行变换处理。
通过压缩每个信源符号的平均比特数或信源的码率,以较少的码率来传送同样多的信息,增加单位时间内传送的平均信息量,来压缩信源的冗余度,从而提高通信的有效性。
信息论与编码期末复习填空
1.信源编码的主要目的是提高有效性, 信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面, 一是信源符号间的相关性, 二是信源符号的统计不均匀性。
3.三进制信源的最小熵为0, 最大熵为 bit/符号。
4.无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。
5.当R=C 或(信道剩余度为0)时, 信源与信道达到匹配。
6.根据信道特性是否随时间变化, 信道可以分为恒参信道和随参信道。
7、根据是否允许失真, 信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为 , 则输出信号幅度的概率密度是高斯分布或正态分布或 时, 信源具有最大熵, 其值为值 。
9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时, H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。
(2)()()1222H X X H X =≥()()12333H X X X H X = (3)假设信道输入用X 表示, 信道输出用Y 表示。
在无噪有损信道中, H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
无穷大。
1、在认识论层次上研究信息的时候, 必须同时考虑到 形式、含义和效用 三个方面的因素。
2、1948年, 美国数学家 香农 发表了题为“通信的数学理论”的长篇论文, 从而创立了信息论。
3、按照信息的性质, 可以把信息分成 语法信息、语义信息和语用信息 。
4、按照信息的地位, 可以把信息分成 客观信息和主观信息 。
5、人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
6、信息的 可度量性 是建立信息论的基础。
7、 统计度量 是信息度量最常用的方法。
8、 熵 是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生 概率的对数 来描述的。
10、单符号离散信源一般用随机变量描述, 而多符号离散信源一般用 随机矢量 描述。
信息论与编码第5章限失真信源编码
第一节 失真测度
• 以上所举的三个例子说明了具体失真度的定义. 一般情况下根据实际信源的失真, 可以定义不同 的失真和误差的度量.
• 另外还可按照其他标准, 如引起的损失、风险、 主观感受上的差别大小等来定义失真度d(ui,vj).
• 从实用意义上说, 研究符号实际信源主观要求的、 合理的失真函数是很重要的.
第一节 失真测度
设信源变量为U={u1,…,ur}, 接收端变量为 V={v1,…,vs}, 对于每一对(u,v), 指定一个非负 函数
d(ui,vj)≥0 称为单个符号的失真度(或称失真函数). 失真函数用来表征信源发出符号ui, 而接收端再现 成符号vj所引起的误差或失真. d越小表示失真越小, 等于0表示没有失真.
➢ 应该指出, 研究R(D)时, 条件概率p(v|u)并没有 实际信道的含义. 只是为了求互信息的最小值而引 用的、假想的可变试验信道. ➢ 实际上这些信道反映的仅是不同的有失真信源编 码或信源压缩. 所以改变试验信道求平均互信息最 小值, 实质上是选择编码方式使信息传输率为最小.
率失真理论与信息传输理论的对偶关系
– 接收端获得的平均信息量可用平均互信息量I(U;V)表示;
– 这就变成了在满足保真度准则的条件下 D D 找平均互信息量I(U;V)的最小值.
,寻
– 因为BD是所有满足保真度准则的试验信道集合, 即可以 在D失真许可的试验信道集合BD中寻找某一个信道 p(vj|ui), 使I(U;V)取最小值.
本章所讨论的内容是量化、数模转换、频带 压缩和数据压缩的理论基础.
前言
本章主要介绍信息率失真理论的基本内容, 侧 重讨论离散无记忆信源.
首先给出信源的失真度和信息率失真函数的定 义与性质, 然后讨论离散信源的信息率失真函数计 算. 在这个基础上论述保真度准则下的信源编码定 理.
信息论与编码7限失真信源编码1
d被称为失真矩阵。
信息论与编码-限失真信源编码
失真函数 d(xi , y j )的函数形式可以根据需要适当选 取,如平方代价函数、绝对代价函数、均匀代 价函数等:
平方失真:
d (xi , y j ) (xi y j )2
绝对失真:
d(xi , y j ) xi y j
相对失真: d(xi , y j ) xi y j / xi
§4.2 R(D)的计算
已知信源的概率分布和失真函数 信源的R(D)函数。
d ij
,就可以求得
信息论与编码-限失真信源编码
求R(D)函数,实际上是一个求有约束问题的最小 值问题。即适当选取试验信道的 p(y / x)使平均 互信息
I(X;Y)
m i1
m j 1
p(xi ) p( y j / xi ) log
而输出符号概率为 p(y1) 0, p(y2) 1
例题2:输入输出符号表同上题,失真矩阵为
d
d d
( x1 , ( x2 ,
y1 ) y1 )
d (x1, d ( x2 ,
y2 ) y2 )
1
2 2
1 1
求 Dmax
解: Dmax
min
j 1,2
2 i 1
p(xi )d (xi ,
yj)
信息论与编码-限失真信源编码
显然或者是最小值不变,或者是变小了,所以 R(D)是非增的。
关于R(D)的连续性,这里我们就不再证明了。 所以,R(D)有如下基本性质: R(D) 0 ,定义域为 0 ~ Dmax ,当D Dmax 时,
R(D)=0。 R(D)是关于D的连续函数。 R(D)是关于D的严格递减函数。
误码失真:
现代编码
随着现代信息技术的不断发展,对原始通过应用密码学、概率论、信息熵、通信系统、随机过程等方法的信息论科目提出了进一步的发展要求。
而编码技术研究的主要内容是如何既可靠又有效地传输信息。
从1948年香农在《贝尔系统技术杂志》上发表了《通信的数学理论》开始。
次年,他又发表了另一篇著作《噪声下的通信》。
人们认为这两篇文章成了现在信息论的奠基著作。
1959年香农发表了“保真度准则下的离散信源编码定理”,首先提出了率失真函数及率失真信源编码定理,此后发展成为信息率失真编码理论。
现在,信息理论广泛应用在通信、计算机等领域,随着通信安全与质量的高要求化,编码技术也在不断地突飞猛进。
编码技术的分类:信源编码、信道编码信源编码:概念:信源编码是一种以提高通信有效性为目的而对信源符号进行有目标的变换。
具体说,就是针对信源的输出符号序列统计特性来寻找某种方法,把信源输出符号序列变换为最短的码字序列,使后者的各码元所载荷的平均信息量最大,同时又能保证无失真地恢复原来的符号序列。
作用:信源编码的作用之一是,即通常所说的数据压缩;作用之二是将信源的模拟信号转化成数字信号,以实现模拟信号的数字化传输。
发展:最原始的信源编码就是莫尔斯电码,另外还有ASCII码和电报码都是信源编码。
但现代通信应用中常见的信源编码方式有:Huffman编码、算术编码、L-Z编码,这三种都是无损编码,另外还有一些有损的编码方式。
信源编码的目标就是使信源减少冗余,更加有效、经济地传输,最常见的应用形式就是压缩。
另外,在数字电视领域,信源编码包括通用的MPEG—2编码和H.264(MPEG—Part10 AVC)编码等。
相应地,信道编码是为了对抗信道中的噪音和衰减,通过增加冗余,如校验码等,来提高抗干扰能力以及纠错能力。
分类:信源编码根据信源的性质进行分类,则有信源统计特性已知或未知、无失真或限定失真、无记忆或有记忆信源的编码;按编码方法进行分类可分为分组码或非分组码、等长码或变长码等。
第六章率失真函数理论及限失真信源编码
用以下数学方法描述:如果用 d(x,y) 表示当发端为x,而收端为
y 时所定义的某种误差代价;或者是当用y 来代替x 时,所定量
的失真度。具体的讲,对于离散信源设发端
收端:y b1,b2, ,bm ;当发 ai时收到 b j
x a1, a2, , an ;
符号的情况下定义
失真度为:
def
0 i = j
问题的另一方面是如何用数学关系式定量地描述失真限度, 即什么是信宿可接受的失真程度;什么情况下又是信宿不能接受 的失真程度。所以这种数学描述的第一步是如何将失真程度的大 小定量地给出;其次才是能否在失真度D定义给出之后,找到一
§6. 1 率失真函数的基本概念与定义
种信息率的性能界限:R(D);使得信宿在R>R(D)时,收到信息后
5º Guide action: Channel coding problem
I(X;Y) is a function of P(y/x).
R(D)是表达信源与失真要求 匹配条件下的最小传信率; 在RR(D)下,总能找到一种 编码方法,满足信宿要求。
Source coding problem with finite distortion (Data Compression)
i1 j 1
If let
0 i j dij 1 i j
then d Pe
即,平均每一符号可能发生的误码率。
当x, y都为L维的随机矢量时,可定义矢量间的失真函数为:
dL( x,
def
y)
1 L
L l=1
d(xl ,
yl
)
dL = E dL( x, y ) =
1 LE L l=1
d(xl , yl )
香农三大定理详解
表述二:若R>H(S),就存在惟一可译变长编码;若R<H(S), 惟一可译变长编码不存在,不能实现无失真编码。其中 R' LN logr
N
信息论与编码基础
香农三大定理 简介
2、香农第一定理(可变长无失真信源编码定理)
说明:
1)通过对扩展信源进行可变长编码,可以使平均码长无限趋近 于极限熵值,但这是以编码复杂性为代价的。
信息论与编码基础香农三大定理简介2常用判决准则amap准则maximumaposteriorircprcp对于所有的cccrpcrpcprpcrpcp信息论与编码基础香农三大定理简介bml准则maximumlikelihood若输入符号等概时rcp1crpcrpcpcpcrpcrp似然比2常用判决准则amap准则maximumaposteriori信息论与编码基础香农三大定理简介例1重复编码bsc的三次扩展信道1000211110000010100111001011101112345678n131324310001eppcppp?信息论与编码基础香农三大定理简介31324310001eppcppp?n5pe105n7pe4107n9pe108rlogmnbitcoderlogm5rlogm7rlogm9可靠性增强有效性减小矛盾例1重复编码n1信息论与编码基础香农三大定理简介例252线性码54321iiiiiiaaaaa21514213iiiiiiiiaaaaaaaape78104r04信息论与编码基础香农三大定理简介00001001001000000011例252线性码00000011011011111010信道0000000010010001000101101011110010111100011000100111101011101011110101111110011010110100110011110100110101100010010010111101111001010101100100000011011011111010信息论与编码基础香农三大定理简介3香农第二定理有噪信道编码定理定理42设某离散无记忆信道有r个输入符号s个输出符号信道容量为c
《信息论》(电子科大)第七章_信息率失真理论
电子科技大学
称全部n 称全部n×m个失真度组成的矩阵为失真 矩阵: 矩阵:
d(x1, y1 ) d(x1, y2 ) d(x , y ) d(x , y ) 2 2 2 1 [D] = ... ... d(xn , y1 ) d(xn , y2 ) ... d(x1, ym ) ... d(x2 , ym ) ... ... ... d(xn , ym )
电子科技大学
i = 1,2,L,n, j = 1,2,L,m
µi ln − Sd(xi , yj ) − =0 p(yj ) p(xi ) p(yj / xi ) i = 1,2,L,n, j = 1,2,L,m
µi 令ln λi = p(xi )
ln
p(yj / xi ) p(yj )
电子科技大学
∂ {−S[∑∑p(xk )p(yl / xk )d(xk , yl ) − D]} ∂p(yj / xi ) k =1 l =1
n m
= −Sp(xi )d(xi , yj )
p(yj / xi ) ∂Φi ∴ = p(xi )ln ∂p(yj / xi ) p(yj ) − Sp(xi )d(xi , yj ) − µi = 0
电子科技大学
d(xi , yj ) = (yj − xi )
2
称为平方误差失真度。 称为平方误差失真度。
(2)平均失真度 (2)平均失真度
D = E[d(xi , yj )] = ∑∑p(xi )p(yi / xi )d(xi , yj )
i =1 j=1 n m
电子科技大学
(3)保真度准则 (3)保真度准则 如果给定的允许失真为D 如果给定的允许失真为D 为保真度准则。 则称 p(yj / xi ) = p(yj )
通信原理第六章-保真度准则下的信源编码
(6-6)
假如信源符号代表信源输出信号的幅度值,那么,这一种就是以方差表示的失真度。它 意味着幅度差值大的要比幅度差值小的所引起的失真更为严重, 严重程度用平方来表示。 这 种失真就是平方误差失真。 当 r 3 时, U 0,1,2 , V 0,1,2 ,则失真矩阵为
0 1 4 D 1 0 1 4 1 0
U ,N U ,N
(6-10)
也可写成
D N P i P j | i d i , j
i 1 j 1 r
N
r
N
s
N
N
(6-11)
l
P i P j | i
i 1 j 1
s
N
d ui , v j
l 1
l
由此所得的信源平均失真度(单个符号的平均失真度)
(6-19)
应该强调指出,条件概率 P V U 反映的是不同的有失真信源编码或信源压缩方法。 计算使平均互信息最小的 P V U ,实质上是选择一种编码方式使信息传输率为最小。
RD 是在信源给定情况下,接收端为满足失真要求所必须获得的最少平均信息量。因
6.2 失真度和平均失真度 6.2.1 失真度
由于本章只涉及信源编码问题。我们把信道编码、信道、信道译码这三部分看成是一个 没有任何干扰的广义信道。这样收信者收到消息后所产生的失真(或误差)只是由信源编码 带来的。 若对信源输出的信号进行有损压缩, 则信源解码后的信号与信源编码器的输入信号 间将存在误差。从直观感觉可知,若允许失真越大,信源压缩比越大,信息传输率越低。所 以信息传输率与信源编码所引起的失真(或误差)是有关的。 现在我们要研究在给定允许失真地条件下, 是否可以设计一种信源编码使信息传输率最 低。为此,必须首先讨论失真度。 设离散无记忆信源 U ,U u1, u2 ,...,ur ,其概率分布为 Pu Pu1 , Pu2 ,...,Pur 。信源 符号通过信道传输到某接收端,接收端的接收变量 V v1, v2 ,...,vs 。对应每一对 u, v ,我们
信息论与编码[第七章保真度准则下的信源编码]山东大学期末考试知识点复习
第七章保真度准则下的信源编码7.1.1 失真度(失真函数)与平均失真度1.离散信源单符号的失真度与平均失真度设离散无记忆信源输出随机变量U,U={u1,u2,…,u r},概率分布为P(u)=[P(u1),P(u2),…,P(u r)],其通过某信道传输到信宿,接收的随机变量为V,V={v1,v2,…,v s}。
(1)离散信源单个符号的失真度它是对应于每一对(u,v)所指定的一个非负函数3.连续信源的失真度和平均失真度设连续信源输出随机变量U,U取值于实数域R,其概率密度分布为p(u)。
通过某连续信道传输到信宿,接收的随机变量为V,V也取值于实数域R。
(1)连续信源的失真度7.1.2 信息率失真函数1.离散信源的信息率失真函数设离散信源输出随机变量U,其概率分布为P(u),接收随机变量为V,失真测度为d(u,v),则信息率失真函数7.1.3 信息率失真函数的特性7.1.4 R(D)函数的参量表述及其计算1.离散信源已知信源的概率分布P(u)和失真函数d(u,v),离散信源的R(D)函数是选取试验信道P(v|u)满足斜率S必为非正的。
当D由D min增大到D max时,S的数值也随之S min= -∞增至S max=0。
除某些特例外,S在D=D max处是不连续的,从某一负值跳到零。
2.连续信源已知连续信源概率密度函数p(u)和失真函数d(u,v),连续信源的R(D)函数是在概率密度函数p(v|u)满足3.差值失真度下连续信源的香农下界限连续信源U,u∈R,概率密度函数p U(u)。
其失真函数为差值量度的函数4.高斯波形信源信源输出的是一个均值为零的平稳高斯随机过程{U(t),-∞<t<∞}。
在均方误差失真度下,信息率失真函数和平均失真度的参量表达式7.1.5 常见信源的R(D)函数1.二元离散对称信源U7.1.6 保真度准则下信源编码定理(香农第三定理)1.保真度准则下信源编码定理及其逆定理保真度准则下信源编码定理又称限失真信源编码定理:离散信源的信息率失真函数为R(D),并有有限的失真函数。
现代通信与香农的三大定理
现代通信与香农三大定理姓名:杨伟章学号:201110404234摘要:当我们提起信息论,就不得不把香农和信息论联系在一起,因为正是香农为通信理论的发展所做出的划时代贡献,宣告了一门崭新的学科——信息论的诞生。
从此,在香农信息论的指导下,为了提高通信系统信息传输的有效性和可靠性,人们在信源编码和信道编码两个领域进行了卓有成效的研究,取得了丰硕的成果。
其实,信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统计等学科相互结合而逐步发展起来的一门新兴交叉学科。
关键词:信息论基础现代通信系统香农三大定理上个世纪四十年代,半导体三极管还未发明,电子计算机也尚在襁褓之中。
但是通信技术已经有了相当的发展。
从十九世纪中叶,电报就已经很普遍了。
电报所用的摩斯码(Morse Code),就是通信技术的一项杰作。
摩斯码用点和线(不同长度的电脉冲)来代表字母,而用空格来代表字母的边界。
但是每个字母的码不是一样长的。
常用的字母E只有一个点。
而不常用的Z有两划两点。
这样,在传送英语时,平均每个字母的码数就减少了。
事实上,摩斯码与现代理论指导下的编码相比,传送速度只差15%。
这在一百五十多年前,是相当了不起了。
在二次世界大战时,雷达和无线电在军事上广泛应用。
无线电受各种噪声的干扰很厉害,这也给通讯技术提出了新的课题。
各种不同的调制方式也纷纷问世。
于是就出现了这样一个问题:给定信道条件,有没有最好的调制方式,来达到最高的传送速率?“传输速率是波特率与每波特所含比特数的乘积。
波特率受频宽的限制,而每波特所含比特数受噪声的限制。
”前一个限制,由那奎斯特(Harry Nyquist)在1928年漂亮地解决了。
而后一个问题则更复杂。
1928年,哈特利(R. V. L. Hartley)首先提出了信息量的概念,并指出编码(如摩斯码)在提高传送速度中的重要作用。
但是他未能完整定量地解决这个问题。
二战期间,维纳(Norbert Wiener)发展了在接收器上对付噪声的最优方法。
信息率失真函数及信源编码定理的应用
《信息论与编码》课程自学报告题目:信息论与编码自学报告学号:姓名:任课教师:联系方式:二零一四年2 月15 日1 自学内容阐述1.1 信息率失真函数1.1.1 失真函数与平均失真度失真函数:设离散信源概率分布为: 经信道传输后输出序列为: ,对任一 指定一个非负数 称为单个符号的失真度(或称失真函数)。
失真函数用来表征信源发出一个符号i a ,而在接收端再现成符号j b 所引起的误差或失真。
d 越小表示失真越小,等于0表示没有失真。
可以将所有的失真函数排列成矩阵的形式: 平均失真度:由于i a 和j b 都是随机变量,所以失真函数),(j i b a d 也是随机变量,限失真时的失真值,只能用它的数学期望或统计平均值,因此将失真函数的数学期望称为平均失真度,记为1.1.2 信息率失真函数的定义由于互信息取决于信源分布和信道转移概率分布,当信源的分布概率已知时,互信息I 是关于p(bj/ai) 的下凸函数,存在极小值。
该最小的互信息就称为信息率失真函数R(D): 对于离散无记忆信源,R(D)可以写成:);(m in )()()/(N N P p N Y X I D R N D i j ∈=αβ1.1.3 信息率失真函数的性质 率失真函数的定义域: 。
允许失真度D 的下限可以是零,即不允许任何失真的情况。
率失真函数对允许平均失真度的下凸性:设21,D D 为任意两个平均失真,10≤≤a ,则有: )(,),(,),(),( , , , , ,)( 2121⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡n i n i a p a p a p a p a a a a X P X }...{21m b b b Y =),(j i b a 0),(≥ji b a d ⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=),(...),(),(............),(...),(),(),(...),(),(][212221212111m n n n m m b a d b a d b a d b a d b a d b a d b a d b a d b a d D ∑∑∑∑====-===n i mj j i i j i n i m j j i j i ji b a d a b p a p b a d b a p b a d E D 1111),()/()(),()()],([);(min )()/(Y X I D R D i j P a b p ∈=min max 0D D D ≤≤≤1212((1))()(1)()R aD a D aR D a R D +-≤+-率失真函数的单调递减和连续性:由信息率失真函数的下凸性可知, R(D)在),(max min D D 上连续。
第10章 率失真理论
率失真理论
n ∂ ˆ ˆ ˆ [−∑P(xl ) lnP(xl )] = −[P(xi ) ln P(x j ) + P(xi )] ˆ ∂P(x j / xi ) l=1
n n ∂ ˆ ˆ [∑∑P(xk )P(xl / xk ) lnP(xl / xk )] ˆ ∂P(x j / xi ) k=1 l=1
率失真理论
③保真度准则 如果给定的允许失真为D
称D≤ D为 真 准 保 度 则
2、测试信道 定义
信源概率分布P(X)或概率密度函数p(x)不变时调整 信道,满足保真度准则的所有信道为测试信道, ˆ ˆ 用 PD (X / X)或pD (x / x) 表示
率失真理论
表示
ˆ ˆ 单符号离散测试信道 PD (X/ X) = {P(X/ X) : D ≤ D}
③对D具有单调递减性 由R(D)对D具有的非负性、严格下凸性及R(Dmax) =0即可说明
率失真理论
当Dmin=0时,率失真函数R(D)的大致曲线为 R(D) H(X)
Dmin
Dmax D
率失真理论
3、率失真函数的表达式
单符号离散信源的率失真函数可以通过平均互信 息在满足保真度准则前提下信源固定时对信道转 移概率分布的条件极值来求取 信道转移概率分布的n个约束条件
率失真理论
ˆ P(x j / xi ) ∂Φi ˆ = P(xi ) ln −SP(xi )d(xi , x j ) −µi = 0 ˆ ˆ ∂P(x j / xi ) P(x j ) i =1,2,L, n j =1,2,L, n
ˆ P(x j / xi ) µi ˆ ln −Sd(xi , xj ) − =0 ˆ P(x j ) P(xi ) i =1,2,L, n j =1,2,L, n
第七章:信息率失真函数与限失真信源编码
§7.1:概述-4
• 实际需求特点:
– 信宿对真实度的要求:
• 实际语音信号: 20Hz~8KHz 人耳能够分辨: 300Hz~3400Hz
• 图象色差:可达足够多 视觉分辨:256级(黑白)已足够
– 可以允许一定的失真度
• 完全保真没必要
§7.1:概述-5
• 引出的研究内容
– 限失真的信源编码问题
– N维信源符号序列的平均失真度:
此时D为一 rN×sN阶的矩阵
D (N ) E[d (u, v)]
rN sN
N
p(i ) p( j | i ) d (uil , v jl )
i1 j1
l 1
D (N ) 与: d(u,v)、p(u)、p(v|u)、N均有关
§7.2:失真的度量-8
• 平均失真度
– N维信源符号序列信源平均失真度
DN
1 N
D(N)
– 信源、信道均无记忆时:
N
N
D(N)
Dl
DN
1 N
Dl
l 1
l 1
序列中第l个分量 的平均失真度
– 信源平稳时: p(uil ) p(ui ), p(v jl | uii ) p(v j | ui )
Dl D D(N) ND DN D
最好地利用C
消息 压缩冗余度
信 源
最佳分布 无噪无损信道
编 码
R=C;PE=0,
限:平均码长最小值Hr(S) 每个码符号平均能够携带的最大信息量
§7.1:概述-2
• 有噪信道编码定理回顾:
– 只要R<C,总可以找到一种信道编码方法,使在信道 上能够以尽可能小的PE传输信息。
增加冗余度,最好地匹配信 道特性
第七章 保真度准则下的信源编码
失真矩阵为:
0 1 4 D 1 0 1
4 1 0
第一节 失真度和平均失真度
2、平均失真度
D E[d(ui,vj )]
若已知试验信道的传递概率,则平均失真度为:
rs
D P(u,v)d (u,v)
P(ui )P(v j / ui )d (ui , v j )
那么在允许一定程度失真的条件下,能够把信源信息压 缩到什么程度,也就是,允许一定程度失真的条件下,如何 能快速的传输信息,这就是本章所要讨论的问题。
本章所讨论的内容是量化、数模转换、频带压缩和数据 压缩的理论基础。
第一节 失真度和平均失真度
1、失真度
信源
信源 编码
信道 信道 编码
信道 译码
信源 译码
在汉明失真条件下,
R(
D)
H
()
0
H
(D)
0 D D
例: 0.4 D 0.2
R(D) H (0.4) H (0.2) 0.249
第三节 二元信源和离散对称信源的R(D)函数
对于离散对称信源,在汉明失真条件下:
R(D)
log
r
D
log(r
1)
H
(
D)
0
0 D 1 1 r
D 1 1 r
P(v / u) Q(v)
失真度函数变为:
D P(u)Q(v)d(u,v)
U ,V
第二节 信息率失真函数及其性质
所以, Dmax 就是在R(D)=0的情况下,求 D 的最小值
Dmax
min
Q(v)
P(u)Q(v)d (u, v)
U ,V
DVIP04 信源编码和率失真理论
15
北 京 邮 电 大 学 信 息 与 通 信 工 程 学 院 多 媒 体 技 术 中 心 门 爱 东
北 京 邮 电 大 学 信 息 与 通 信 工 程 学 院 多 媒 体 技 术 中 心 门 爱 东
信息与通信工程学院多媒体技术中心
数字视频图像处理
Digital Video Image Processing
第04章 源编码和率失真理论
Source Code and Rate-Distortion Theory
从部分损失恢复的能力
如低帧率会使得运动跳跃,但仍然可被感知
由于受到信息存储、处理或传输设备的限制,而不得 不对信源输出的信号作某种近似以降低熵率,如对连 续信号的数字化、音视频。
Digital Video and Image Processing 信源编码和率失真, Men Aidong, Multimedia Telecommunication Centre, BUPT
信道编码定理:
如果信源速率 R 小于信道容量 C,总可以找到一种信道编码方法,使得信 源信息可以在有噪声信道上进行无差错传输,即:R C,无差错传输条 件。
说明1:信道容量 C 是根据仙侬定理得到的 C = Wlog2(1+S/N) 说明2:为了保证无差错传输,必需采用信道编码,因而会引入编码延时。
11
北 京 邮 电 大 学 信 息 与 通 信 工 程 学 院 多 媒 体 技 术 中 心 门 爱 东
图象的相关性(冗余度)
信息熵冗余
信息量: 从 N 个可能事件中选出一个事件所需要的信息度量。 设事件 X 的概率为 P(x),则信息量定义为:
I(x)= -log2P(x)
信息熵:如果将信源所有可能事件的信息量进行平均,就得到了 信息熵(entropy)。熵就是平均信息量。 信息源的符号集为 Xj (j=1,2,3……..N),设 X 出现的概率为 P(xj),则信息源 X 的熵为
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第5章率失真理论和保真度准则下的
信源编码定理
无损:无失真,压缩冗余度,保熵--离散信源
有损:有失真,压缩熵,熵变小--连续信源
率失真理论(Rate Distortion Theory):
主要是研究信源问题,但是采用了研究信道的方法,主要研究在一定的失真条件下,信源能够压缩的程度,又称“数据压缩理论”,在数据压缩,数字图像处理等领域具有广泛的应用。
5.1 失真函数的基本概念
一、失真函数
1.符号---符号
2.序列---序列
二、平均失真
5.2 率失真函数的基本概念
一、率失真函数
二、率失真函数的性质
1.R(D)的非负性
2. R(D)的定义域[0,D max]
3. R(D)是关于D的下凸函数
4. R(D)在[0,D max]上是严格递减的连续函数
三、简单信源的率失真函数
1.贝努利信源
2.高斯信源
3.r元离散信源
四、率失真函数的计算
五、限失真信源编码定理
当DMS的信息率失真函数R(D)与编码速率R满足R≥R(D)时,则一定存在一种编码方法,使E(D)≤D*(其中D*为失真标准),反之也成立。
六、信息传输理论和率失真理论之间的关系。