第三章 图像压缩编码

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

统计编码
统计编码是一种无损编码,是建立在图像的统计特性 基础之上的压缩编码。 信源统计编码方法关键在于去除冗余度。 Huffman编码 香农编码 游程编码 算术编码
统计编码 (无损编码)
LZW字典编码
3.3 霍夫曼编码(Huffman Coding)
这为Huffman于1952年提出的一种编码方法,是 一种最佳编码方法。所谓最佳编码方法是指采用 Huffman编码方法得到的单元像素的比特数最接近图 像的实际熵值。而熵为进行无失真编码的理论极限。 Huffman编码是根据可变长最佳编码定理,应用 哈夫曼算法而产生的一种编码方法。
⑷ 分配码字。原则为从最后一步开始反向进行,以 二进制码元(0,1)赋值,构成Huffman码字;
注意:码字分配从最后一步开始反向进行。对最后 两个概率一个赋予“0”码,一个赋予“1”码,这里 赋予0和1完全随机,不影响结束。 2、举例1:
设有一图像序列,含8个灰度级x1,x2,,x8,概率 分别为:P1=0.04,P2=0.06,P3=0.10,P4=0.10, P5=0.07,P6=0.18,P7=0.05,P8=0.40。 试进行Huffman编码,并计算编码效率、压缩比及冗 余度。
定理2:在变字长编码中,如果码字长度严格按
照对应符号出现的概率大小逆序排列,则其平均 码字长度为最小。
三、描述图像压缩性能的指标:
b1 压缩前图像每像素的平 均比特数 压缩比:c b2 压缩后图像每像素的平 均比特数
一般情况下压缩比c1,c愈大则压缩程度愈高。 平均码字长度R: R k pk
什么是数据冗余呢? 如果不同的方法表示给定量的信息用了不同的 数据量,那么使用较多数据量的方法中,有些数据 必然代表无用的信息,或者为重复地表示了其它数 据已表示的信息,这为数据冗余的概念。 一幅图像中像素灰度出现的不均匀性。如果用同 样长度比特表示每一个灰度,则必然存在冗余。
图像能量在变换域内分布的不均匀性,大部分能 量集中在低频部分,而小部分能量集中在高和较 高的频率部分。则高频能量为数据冗余。 图像像素在时间和空间上的相关性造成信息冗余。


由此我们知道,整理图 像的描述方法可以达到 压缩的目的。
描述语言 1)“这是一幅 2*2的图像, 图像的第一个像素是红的, 第二个像素是红的,第三个 像素是红的,第四个像素是 红的”。 2)“这是一幅2*2的图 像, 整幅图都是红色的”。
• 图像冗余无损压缩的原理
RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB RGB
设数字图像X中包含的像素的分布灰度级的集合为 A={ai|i=1,2,…,m},ai在统计上是无关的,且ai出现概 率为p(ai),则定义各灰度级ai所包含信息I(ai)为:
1 I (ai ) log 2 log 2 p(ai ) p(ai )
如果对数字图像X像素分布各灰度级作平均度量,则 可得平均信息量:
0.09
1
0
p5 0.07
p2 0.06
0.09
0.07
0
0.10
1
p7 0.05
p1 0.04
1
0
0.06
1
统一:概率大的赋予码 字为“0”,概率小的赋 予码字为“1”。
则有:
分配码字 x1 00011 码长 5
x2
x3 x4 x5 x6 x7 x8
0101
011 0000 0100 001 00010 1
空间冗余:邻近像素灰度分布的相关性很强。
频间冗余:多谱段图像中各谱段图像对应像素之间 灰度相关性很强。
时间冗余:序列图像帧间画面对应像素灰度的相关 性很强。
视觉冗余: 是指人眼不能感知或不敏感的那部分 图像信息。 信息熵冗余: 也称编码冗余,如果图像中平均每个 像素使用的比特数大于该图像的信息 熵,则图像中存在冗余。 结构冗余: 图像中存在很强的纹理结构或自相似性。 知识冗余: 在有些图像中还包含与某些先验知识 有关的信息。
34
34 34 34
34
34 34 34
34
34 34 34
34
34 34 34
25
34
利用各种冗余信息, 压缩编码技术能够很好地解决在 将模拟信号转换为数字信号后所产生的带宽需求增加 的问题, 是使数字信号走上实用化的关键技术之一。
表1 几种常见应用的码率
2.应用环境允许图像有一定程度地失真:
如一张CD光盘可存600兆字节数据,这部电影光 图像(还有声音)就需要160张CD光盘用来存储。
因此,传输带宽、速度、存储器容量的限 制使得对图象数据进行压缩显得非常必要。
二、图像编码技术的可能性:
1、从信息论观点来看,图像作为一信源,描 述图像信源数据是有效信息量和冗余量两部分 组成。
去除冗余量可节省存储和传输中的开销,同时 不损害图像信源中有效信息量。
第三章 图像压缩编码
中国矿业大学 信电学院
主要内容

3.1 图像编码理论分类


3.2 数据压缩与信息论基础
3.3 霍夫曼编码 3.4 游程长度编码 3.5 算术编码 3.6 LZW字典编码
3.1 图像压缩编码分类
一般从信息论角度出发分为两大类:
冗余度压缩方法
信息量压缩方法
1、冗余度压缩方法:也称无损压缩,信息保 持编码或熵编码。具体讲为解码图像和压缩编码
16
RGB
从原来的16*3*8=284bits压缩为: (1+3)*8=32bits
• 图像冗余有损压缩的原理
36 34 33 34 34 35 34 37 34 35 34 32 30 34 34 34 34 34 34 34 34 34 34 34 31 34 34 34 34 34
34
34 34 34
H ( X ) p(ai ). I (ai ) p(ai ).log 2 p(ai )
i 1 i 1 m m
则称H(X)为数字图像X的熵,单位为bit/像素。 可看出,图像的熵H是表示其各个灰度级比特数的 统计平均值。
例如:
有一幅40个像素组成的灰度图像,灰度共有5级,分 别用A、B、C、D、E表示。40个像素中出现灰度A的 像素数有15个;出现灰度B的像素数有7个;出现灰 度C的像素数有7个等等,如下表所示。
k 1
则其编码效率为:
H 2.55 100 % 100 % 97.8% R 2.61
则其冗余度为:
r 1 1 0.978 2.2%
如果压缩前8个符号需要3个比特量化,经压缩后平 均码字长度为2.61,则压缩比为:
前图像严格相同,没有失真。
冗余度压缩方法的核心是基于统计模型,减少或完 全去除源数据流中的冗余,同时保持信息不变。可 实现编码与解码互逆。 (第3章压缩方法)
2、信息量压缩方法:
也称有损压缩,失真度编码或熵压缩编码。
即解码图像和原始图像是有差别的,允许有一定失 真。 信息量压缩方法是以牺牲部分信息量为代价而换取 缩短平均码长的编码压缩方法。由于在压缩过程中 在允许前提下丢失一部分信息,所以图像还原后与 压缩前不会完全一致。 (第4、5章压缩方法) 信息量压缩方法不能实现编码与解码互逆。
接收端图像设备分辨率降低,则可降低图像分辨 率。 根据人的视觉特性对不敏感区进行降分辨率编码。 人眼对静态物体的敏感程度大于对动态物体敏感 程度,可减少表示动态物体bit数; 人眼对图像中心信息敏感程度大于对图像边缘信 息敏感程度,可对边缘信息少分配bit数。
应用方关心图像区域有限,可对其余部分图像可 采用空间和灰度级上的粗化。

通信方式的改变
文字+语音图像+文字+语音

通信对象的改变
人与人人与机器,机器与机器
要求图像的保真度和传输的实时性。
2.图像传输与存储需要的信息量空间:
如一部90分钟的彩色电影,每秒放映24帧。把
它数字化,每帧512512像素,每像素的R、G、B三
分量分别占8bit,则总比特数为
90602435125128bit=97,200M。
k 1 M
(bit / 字 符)
k为数字图像第k个码字Ck的长度; pk为数字图像第k个码字Ck 相应出现概率。
编码效率:
H 100 % R
H为原始图像的熵; R是实际编码的平均码字长度。
冗余度r:
r 1
如果编码效率100%,说明还有冗余信息存在。 r 越小,说明可压缩的余地越小。
对于识别,图像特征抽取和描述也是数据压缩。
3.2 数据压缩与信息论基础
3.2.2 图像压缩编码系统的基本构成
图 像 信 息 源 信 源 编 码 器 信 道 编 码 器


信 道 解 码 器
信 源 解 码 器
图 像 输 出
编码器
解码器
信道编码功能是将输入二进制序列形 信源编码功能是将信源编码输出一系列 成能够在信道中传输的码,具有检错 二进制数字序列 纠错
4
3 4 4 3 5 1
则其平均码字长度为:
R k pk 0.4 1 0.18 3 0.1 3 0.1 4
k 1 8
0.07 4 0.06 4 0.05 5 0.04 5 2.61 特/ 字 符 比
则其熵为: 8 H p k log2 pk 2.55 特/ 字 符 比
3.2 数据压缩与信息论基础
3.2.2 图像压缩编码系统的基本构成
编码器构成
输入 图像
变 换 器
量 化 器
符 号 编 码 器


符 号 解 码 器
反 变 换 器
输出 图像
3.2 数据压缩与信息论基础
3.2.3 信息论基础 一、图像的信息熵:
熵是信息量的度量方法,表达一个信源平均信息 量的大小。它表示某一事件出现的消息越多,事件发 生的可能性越小,数学上为概率越小. 出现概率小的事件(符号)比出现概率大的事 件能提供更多的信息量。
可变长编码:对于每个符号,表示符号的码字的 长度不是固定不变的,而是随符号出现概率而变 化:对出现概率高的符号分配较短码字,对出现 概率低的符号分配较长码字。
在非均匀符号概率分布情况下,变长编码效率高于 等长编码。
定理1:若编码时,对出现概率较大的符号用较少
比特数(短码)表示,对出现概率较小的符号用较 多比特数(长码)表示,则其平均码字长度L要比等 长编码时所需码字少。
1、Huffman编码方法 ⑴ 概率统计(如对一幅图像作灰度信号统计),得到 n个不同概来自百度文库的灰度信息符号; ⑵ 将n个灰度信息符号出现的概率由大到小排序, 概率相同的可以任意放;
⑶ 将两个最小概率相加(概率个数减为n-1个),形成 新的概率集合;再按第⑵步方法重排,如此重复直 到仅有两个概率为止;
这就是说每个像素用2.196位表示,40个像素需要用 87.84位。 可看出,通过求图像的熵对图像编码,可起到压缩 图像数据作用。
二、无失真编码理论(可变长最佳编码定理) 等长编码:对于每个符号,如经过量化后的图 像数据,如果对它们每个值都是以相同长度的二 进制码表示的,称之为等长编码或均匀编码。 等长编码是将所有符号当作等概率事件处理的。
压缩编码分类
Huffman编码 香农编码 游程编码 算术编码 LZW字典编码 预测编码 有损编码 变换编码 DFT DCT
主 要 分 两 大 类
统计编码 (无损编码)
K-L变换
3.2 数据压缩与信息论基础
3.2.1 数据压缩与数据冗余
一、图像编码技术的必要性: 1. 信息传输方式发生了很大的改变
灰度等级 像素数 概率 A 15 15/40 B 7 7/40 C 7 7/40 D 6 6/40 E 5 5/40
假设每个像素占3位表示,则编码这幅图像 共需403=120位。 求这幅图象的熵为:
H ( S ) (15/ 40) log 2 (40/15) (7 / 40) log 2 (40/ 7) (5/ 40) log 2 (40/ 5) 2.196位 / 像素
符号 概率 p8 p6 0.40 0.18 0.40 0.18 0.10 0.10 0.40 0.18 0.13 0.40 0.19 0.18 0.13
0
0.40 0.23 0.19 0.18
1 0
0.40 0.37 0.23
1 0
1
0.60 0.40
0
p3 0.10 p4 0.10
0.10 0.10
相关文档
最新文档