多媒体数据压缩编码的国际标准
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第四章多媒体数据压缩编码技术
考核目的:
考核学生对多媒体数据压缩编码的基本原理和算法、数据压缩编码的分类和方法、多媒体数据压缩编码的国际标准等内容的理解和掌握。
考核的知识点:
什么是多媒体数据压缩、为什么信息能被压缩、常用的压缩编码和算法(统计编码、预测编码、变换编码)、多媒体数据压缩编码的国际标准JPEG、MPEG-1等内容。
考核要求:
掌握:数据压缩编码的方法、常用的压缩编码和算法、JPEG的原理和实现技术。
理解:量化的原理和量化器的设计、MPEG-1的原理和实现技术。
了解:其它的国际标准等。
4.1 多媒体数据压缩编码的重要性和分类
一.多媒体数据压缩编码的重要性
多媒体信息传送面临的最大难题是海量数据存储与传送电视信号数字化后的数据量问题,数据压缩是解决问题的重要途径。
二.多媒体数据压缩的可能性
1.空间冗余
2.时间冗余
3.信息熵冗余
●信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。
●信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。
4.结构冗余
图象有非常强的纹理结构。
5.知识冗余
图像的理解与某些基础知识有关。
6.视觉冗余
视觉冗余是非均匀、非线性的。
三.多媒体数据压缩方法的分类
1.按压缩方法分:
(1). 有失真压缩
(2). 无失真压缩
2.编码算法原理分:
(1)预测编码:PCM、DPCM、ADPCM等
(2)变换编码:傅里叶(DFT)、离散余弦(DCT)、离散正弦(DST)等
(3)统计编码:哈夫曼、算术等
(4)静图像编码:方块、逐渐浮现等
(5) 电视编码:幀内预测、幀间编码等
(6) 其他编码:矢量量化、子带编码等
4.2量化
一.量化原理
量化处理是使数据比特率下降的一个强有力的措施。
数据压缩编码中的量化处理,不是指A/D变换后的量化,而是指以PCM码作为输入,经正交变换、差分、或预测处理后,熵编码之前,对正交变换系数、差值或预测误差的量化处理。
量化输入值的动态范围很大,需要以多的比特数表示一个数值,量化输出只能取有限个整数,称作量化级,希望量化后的数值用较少的比特数便可表示。每个量化输入被强行归一到与其接近的某个输出,即量化到某个级。
量化处理总是把一批输入,量化到一个输出级上,所以量化处理是一个多对一的处理过程,是个不可逆过程,量化处理中有信息丢失,或者说,会引起量化误差(量化噪声)。
二.标量量化器的设计
1.量化器的设计要求
●给定量化分层级数,满足量化误差最小。
●限定量化误差,确定分层级数,满足以尽量小的平均比特数,表示量化输出。
三.量化方法:
●标量量化:
对于PCM数据,一个数一个数地进行量化叫标量量化。
分为:均匀量化、非均匀量化和自适应量化。
四.矢量量化
1.矢量量化概念:
对PCM数据分组,每组K个数构成一个K维矢量,然后以矢量为单元,逐个矢量进行量化,称矢量量化。
矢量量化编码方法是有失真编码方法。
4.3 统计编码
一.统计编码原理——信息量和信息熵
1.概念:
(1)信息:是用不确定性的量度定义的。
(2)信息量:从N个相等可能事件中选出一个事件所需要的信息度量或含量。
(3)熵:如果将信源所有可能事件信息量进行平均就得到信息的熵(熵就是平
均信息量)。
(4)信源均含有的平均信息量(熵),就是进行无失真编码的理论极限。
(5)信源中或多或少的含有自然冗余。
(6)信息源X的熵为H(X):
式(4.2)
二.哈夫曼编码
1.变字长编码定理:最佳编码定理
在变字长编码中,对于出现概率大的信息符号,编以短字长的码,对于出现
概率小的信息符号编以长字长的码,如果码字长度严格按照符号概率的大小的
相反顺序排列,则平均码字长一定小于按任何其他符号顺序排列方式得到的码
字长度。
证明:(P108)
2.Huffman编码方法用变字长最佳编码定理
(1). 把信源符号按概率大小顺序排列,设法按逆次序分配码字的长度。
(2). 在分配码字长度时,将出现概率最小的两个符号的概率相加合成一个概率。
(3).把这个合成概率看成是一个新组合符号地概率,重复上述做法直到最后只剩下
两个符号概率为止。
(4). 完成以上概率顺序排列后,再反过来逐步向前进行编码,每一次有三个分支各赋予
一个二进制码,对概率大的赋为零,概率小的赋为1。
3.Huffman 编码步骤
(1)信源符号按概率大小顺序排列,按逆次序分配码字的长度。
(2)出现概率最小的两个符号概率相加合成一个新概率。
(3)将合成概率看成一个新组合符号概率,重复上述做法,直到最后只剩下两个符号概率为止。
(4) 反过来逐步向前编码,每层有两个分支,分别赋予0和1,构成Huffman码字。
总结:
●Huffman 编码构造出的码不唯一
●Huffman 编码字长参差不齐
●Huffman编码在信源编码概率分布不均匀时效率高,
效率比较均匀时,效率低,不用Huffman编码。
●对出现频率较高的码分配短码字;
对出现频率较低的码分配长码字。
三.算术编码
1.原理:
算术编码方法是将被编码的信息表示成实数0和1之间的一个间隔。
信息越长编码表示它的间隙就越小,表示这一间隙所须二进位就越多,
大概率符号出现的概率越大对应于区间愈宽,可用长度较短的码字表示;
小概率符号出现的概率越小对应于层间愈窄,需要长度较长的码字表示。
信息源中连续的符号根据某一模式生成概率的大小来减少间隔。可能出现的符号要比不太可能出现的符号减少范围少,因此只增加了较少的比特位
2.自适应二进制算术编码
(1)编码算法举例
设编码初始化子区间为[0,1] 设大概率MPS, Pe 小概率LPS Qe
Pe=1-Qe
编码时,设置两个专用寄存器(C,A)