第4章图像压缩编码
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
20
三.香农-范诺(Shannon-Fannon)编码
香农-范诺(Shannon-Fannon)编码也是一种常见的可 变字长编码。与哈夫曼编码相似,当信源符号出现的概
率正好为 2-i ( i<0 )时,采用香农 - 范诺编码同样能够达
到100%的编码效率。香农-范诺编码的理论基础是符号 的码字长度ti完全由该符号出现的概率来决定,即:
图像中像素之间,行或帧之间都存在着较强的相关性 从统计观点出发,简单直观地讲,就是某个像素的灰度值,总是和其周 围的其他像素灰度值某种关系,应用某种编码方法提供并减少这些相关 特性,使可实现图像信息的数据压缩。 从信息论观点出发,就是减少图像信息中无用的冗余信息,仍然保留有 效信息,这样既减少了描述信息的数据量,又保证图像有效信息没有丢 失,实现所谓信息保持编码。 从另一种角度出发,图像信息的信宿往往是人眼,而人的视觉系统接受 信息的能力是有限的,如灰度和空间分辨率都不能太高。即使是纪录或 显示设备,也往往受本身特性的限制,只能接受某种程度量的信息,而 并不能全部接受,如电视监视器其灰度特性、空间分辨率都是很有限的。
而医学图像处理和其他科研应用的图像的灰度量化可用到 12bit以上,因而所需数据量太大。 1024×1024 × 12 =12Mbit
遥感图像如SAR图像用8bit量化,100公里X100公里,10m
分辨率的图像的大小为10000X10000。这样一个地区的图像需 108B以上。这无疑对图象的存储、处理、传送带来很大的困
24
[例5.2] 已知信源
,试对l011进行算术编码。
解:(1)二进制信源符号只有两个“0”和“1”,设置 小概率:Qc=1/4 大概率:Pc= 1- Qc = 3/4。
(2)设B为子区的左端起始位置,L为子区的长度(符号概率) 符号“0”的子区为[0,l/4];左端B=0,长L=1/4; 符号“1”的子区为[1/4,1];左端B=1/4,长L=3/4。
29
设Cr为采用某种方法编码前后的压缩比:
取决于图像内容、分辨率、编码方法。
二值图像编码压缩一般采用熵编码。
30
二.
跳过白色块编码(White Block Skipping,WES)
WBS编码:
跳过白色区域,对黑色像素编码.这样表示这些图像的比特数将减 少,每个像素平均比特数也就可以减少。
1.一维WBS编码
25
(3) 在编码运算过程中,随着消息符号的出现,子区按下列规则缩小:
规则A:新子区左端=前子区左端十当前符号子区左端×前子区长度 规则B:新子区长度=前子区长度×当前符号子区的长度。
(4)初始子区为[0, 1],编码算法: 步序 符号 子区左端 a 1 0+ 1/4*1 =1/4 b 0 1/4+0*3/4 = 1/4 c 1 1/4+1/4*3/16 = 19/64 d 1 9/64+1/4*9/64 = 85/256
15
例一:
16
编码效率计算:
H 2.55 97 .7% R 2.61
17
仔细看一下编码过程:
码字 1 001 011 0000 0100 0101 00010 00011 信源符号 S0 S1 S2 S3 S4 S5 S6 S7 出现概率 0.40 0.18 0.10 0.10 0.07 0.06 0.05 0.04 1 1 0 0 1 0 1 0.09 0.13 1 0.19 0 0.23 0 0.37 0 1 0.60 1 0 1.00
将图像的每条扫描线分成若干段,每段有N个像素。对全部是白 色的像素用1bit“0”表示。 对于至少有一个黑色像素的像素段采用N十1个比特编码.即第一 个比特人为地规定为1.其余的N比特采用直接编码(白色为“0”.黑 色为“1”码字)。
31
分成五段: 段长N=4 编码
难。
3
2.
图像压缩的主要目的:
传输 从传送图像的角度来看: 与 存储
某些图像采集有时间性;
图像存储体的存储时间也有限制。它取决于存储器件的最短存 取时间,若单位时间内大量图像数据来不及存储,就会丢失信息。
从图像存储的角度:
通过压缩可以减少存储设备的用量,产生经济效益。
4
3.
图像数据压缩的可能性:
据量(比特数)将非常具大。减少量化级数即编码比特数b,势必又
引起量化信噪比 (S / N )q 大大下降
2
1.
几种图像的数据量:
计算机图像处理中的数字图像其灰度多数用8bit来度量,一
幅最简单的黑白照片,若按512×512点阵取样,表示这幅图像的二 进制数据量: 512×512×8=2048Kbit= 2Mbit=256KB
子区长度 1 * 3/4 = 3/4 3/4 *1/4 = 3/16 3/16 * 3/4 = 9/64 9/64 * 3/4 = 27/256
26
最后的子区左端(起始位置): B=(85/256)d =(0.01010101)b
最后的子区长度: L=(27/256)d=(0.00011011)b 最后的子区右端(子区间尾): 85/256+27/256=(7/16)d =(0.0111)b
10
5.
可变长度最佳编码的平均码字长度
设:
可变长度编码所用码元进制为D(一般为2),
被编码的信息符号总数为N,
第i个符号出现的概率为 i,
与其对应的码字长度为
p
ti
H H R 1 logB D logB D
11
由此可以引导出对某一个信息符号存在下式
logB Pi logB Pi ti 1 logB D logB D
28
§ 3
二值图像编码
一. 概述
二值图像: 只有两个灰度级的图像,即图像内容“非白即黑”。典型的有 传真。 二值图像直接编码: 如每一个像素用一位二进制码(0或1)代表就称为编码。 分辨率: 单位长度的像素数。 CCITT(国际电话电报咨询委员会)建议在传真中采用两种分辨率: 1728像素/行(8取样/mm),3.85行/mm; l728像素/行(8取样/mm), 7.7行/mm。
log2 Pi ti log2 Pi 1
21
编码步骤:
(1)输入灰度级按出现的概率从大到小排列; (2)计算码字长度; (3)计算累加概率;
(4)十进制转换为二进制; (5)去掉多余尾数。
22
根据:
log2 Pi ti log2 Pi 1
编码效率计算:
23
编码结果为子区间头尾之间取值、其值为0.011,可编码为011,原 来4个符号1011被压缩为三个符号011。
27
注: 1个算术码字要赋给整个信源符号序列,而码字本身确定0和1之间 的1个实数区间。 随着符号序列中的符号数量增加,用来代表它的区间减小而用来表 达区间所需的信息单位(如比特)的数量变大。每个符号序列中的符号根 据区间的概率减少区间长度。与哈夫曼方法不同,这里不需要将每个信 源符号转换为整数个码字(即1次编1个符号),在理论上它可达到无失真 编码定理给出的极限。 解码过程是逆过程,首先将区间[0,1]按Qc靠近0侧, Pc靠近1侧 分割成两个子区间,判断被解码字落在哪个子区,而赋予对应符号。
对二进制码进一步简化为:
log2 Pi ti log2 Pi 1
可见码字长度是由信息符号出现的概率来决定的。这 就是下面要介绍的香农编码方法理论基础
12
6.
唯一可译编码
为了减少表示图像的平均码字长度,对码字之间往往不加同步
码,这样就要求所编码字序列能被唯一译出来。满足这个条件的编码 称为唯一可译编码,或单义可译码。 (a)续长代码和非续长代码 非续长代码:不能在某一代码后面添加一些码元而构成另一个码字。 例如:[0,10,11]是非续长代码; [0,01,11]是续长代码。 (b)单义代码
任意有限长的码字序列,只能被唯一地分割成一个个码字。
单义代码的充要条件是满足克劳夫特(kraft)不等式:
D
i 1
n
ti
1
13
例如:
14
二. 哈夫曼(Huffman)编码方法(紧凑码)
哈夫曼编码的一般算法如下: (1) 按符号出现的概率从大到小排序。 (2) 把最小的两个概率相加合并成新的概率, 与剩余的概 率组成新的概率集合。 (3) 对新的概率集合重新排序, 再次把其中最小的两个概 率相加, 组成新的概率集合。如此重复进行, 直到最后 两个概率的和为1。 (4) 分配码字。码字分配从最后一步开始反向进行, 对于 每次相加的两个概率,给大的赋“0”, 小的赋“1”(也相 反, 如两个概率相等, 则从中任选一个赋“0” ), 读出 时由该符号开始一直走到最后的概率和“1”, 将路线上所 遇到的“0”和“1”按最低位到最高位的顺序排好,就是该 符号的哈夫曼编码。
18
例二:
P1
0.25
P2
0.25
P 3
0.2
P4
0.15
P 5
0.1
P 6
0.05
01
10
11
000
0010
0011
19
结论:
对不同概率分布的信源,哈夫曼编码的 编码效率有所差别。根据信息论中信源编码 理论,对于二进制编码,当信源概率为2的 负幂次方时,哈夫曼编码的编码效率可达 100%,其平均码字长度也很短,而当信源 概率为均匀分布时, 其编码效果明显降低。 在信源概率接近于均匀分布时,一般不使用 哈夫曼编码。
7
来自百度文库 2.
平均码字长度
给(W1,W2,…,WM)每个灰度级赋予一个编码Ck,称为码字,
其中 k=1,2,…,M (二进制) ,。
设 k 为数字图像第k个码字Ck的长度(二进制代码的位数)。 其相应出现的概率为Pk,则数字图像所赋予的码字平均长度R为:
R k pk (bit)
k 1
M
8
6
§ 2
熵编码方法
一. 基本概念
1. 图像熵
设数字图像像素灰度级集合为(W1,W2,…,WM),其对应的 概率分别(P1,P2,…,PM),按信息论中信源信息熵定义,数字图 像的熵H为:
H Pk log2 Pk
k 1
M
特例:肯定发生的事:H=0
假定图像中的各像素间取何种灰度级是相互独立的,称为无记忆 信息熵值或0阶熵,记为:H 0 () 。
第五章
§ § § § § § 1 2 3 4 5 6
图像压缩编码
概述 熵编码方法 预测法编码 变换编码方法 二值图像编码 图像压缩编码主要国际标准
1
§ 1
概述
图像压缩编码问题的提出
在图像数字化中,若对图像的取样值以最基本和最简单的PCM编 码(pulse coding modulation脉冲编码调制),这样获得的图像数
四. 算术编码方法
算术编码是60年代初期提出: 如何给每个信源符号赋予非整数个比特? 在信源概率分布比较均匀情况下,它的编码效率高于哈夫曼编码。
1.
算术编码的方法
算术编码是一种从整个符号序列出发,采用递推形式连续编码 的方法。它将一个符号序列映射为一个实数。算术编码中,单个源 符号和码字间的一一对应关系并不存在。
5
4.
数字图像数据压缩按应用不同可分为三类:
(1) 信息保持编码(无误差编码) 它要求压缩图像的比特数而不丢失任何信息。主要用在图像信息保 存中,要求图象存储能保持信息并能快速存取图象。例如短时随机存取 主要用于处理过程中的各个环节的存储,它要求经过不同存储介质多次 重复不变质、不失真。 (2) 保真度编码(非信息保持编码) 传送图像应能适应通信的通道限制,若接收端是人观看的情况,由 于人眼的生理特性不需过高的空间分辨率和灰度分辨率,因此在压缩过 程中允许丢失一些人感觉不到的信息,这就是一种允许微量失真的图像 压缩,数字电视、图像传输和多媒体中常用这种压缩。 (3) 特征抽取(保持)编码 许多图像处理的目的是为了计算机的识别、分析、控制,这时并不 需要图像的全部细节及灰度细节。只要能保存图像中的感兴趣的特征信 息,无用信息都可丢掉。
3.
编码效率:
H (%) R
式中H为信源熵,R为平均码字长度
根据信息论信源编码理论,可以证明:
RH
R H
总可以设计出某种无失真编码方法 表明这种方法效率很低,占用比特数太多 为最佳编码 丢失信息图像失真
9
RH RH
4.
变长最佳编码定理
定理内容: 在变长编码中,对出现概率大的信息符号赋予短码字,而 对于出现概率小的信息符号赋予长码字,如果码字长度严格按 照所对应符号出现概率大小逆序排列,则编码结果平均码字长 度一定小于任何其他排列方式。
三.香农-范诺(Shannon-Fannon)编码
香农-范诺(Shannon-Fannon)编码也是一种常见的可 变字长编码。与哈夫曼编码相似,当信源符号出现的概
率正好为 2-i ( i<0 )时,采用香农 - 范诺编码同样能够达
到100%的编码效率。香农-范诺编码的理论基础是符号 的码字长度ti完全由该符号出现的概率来决定,即:
图像中像素之间,行或帧之间都存在着较强的相关性 从统计观点出发,简单直观地讲,就是某个像素的灰度值,总是和其周 围的其他像素灰度值某种关系,应用某种编码方法提供并减少这些相关 特性,使可实现图像信息的数据压缩。 从信息论观点出发,就是减少图像信息中无用的冗余信息,仍然保留有 效信息,这样既减少了描述信息的数据量,又保证图像有效信息没有丢 失,实现所谓信息保持编码。 从另一种角度出发,图像信息的信宿往往是人眼,而人的视觉系统接受 信息的能力是有限的,如灰度和空间分辨率都不能太高。即使是纪录或 显示设备,也往往受本身特性的限制,只能接受某种程度量的信息,而 并不能全部接受,如电视监视器其灰度特性、空间分辨率都是很有限的。
而医学图像处理和其他科研应用的图像的灰度量化可用到 12bit以上,因而所需数据量太大。 1024×1024 × 12 =12Mbit
遥感图像如SAR图像用8bit量化,100公里X100公里,10m
分辨率的图像的大小为10000X10000。这样一个地区的图像需 108B以上。这无疑对图象的存储、处理、传送带来很大的困
24
[例5.2] 已知信源
,试对l011进行算术编码。
解:(1)二进制信源符号只有两个“0”和“1”,设置 小概率:Qc=1/4 大概率:Pc= 1- Qc = 3/4。
(2)设B为子区的左端起始位置,L为子区的长度(符号概率) 符号“0”的子区为[0,l/4];左端B=0,长L=1/4; 符号“1”的子区为[1/4,1];左端B=1/4,长L=3/4。
29
设Cr为采用某种方法编码前后的压缩比:
取决于图像内容、分辨率、编码方法。
二值图像编码压缩一般采用熵编码。
30
二.
跳过白色块编码(White Block Skipping,WES)
WBS编码:
跳过白色区域,对黑色像素编码.这样表示这些图像的比特数将减 少,每个像素平均比特数也就可以减少。
1.一维WBS编码
25
(3) 在编码运算过程中,随着消息符号的出现,子区按下列规则缩小:
规则A:新子区左端=前子区左端十当前符号子区左端×前子区长度 规则B:新子区长度=前子区长度×当前符号子区的长度。
(4)初始子区为[0, 1],编码算法: 步序 符号 子区左端 a 1 0+ 1/4*1 =1/4 b 0 1/4+0*3/4 = 1/4 c 1 1/4+1/4*3/16 = 19/64 d 1 9/64+1/4*9/64 = 85/256
15
例一:
16
编码效率计算:
H 2.55 97 .7% R 2.61
17
仔细看一下编码过程:
码字 1 001 011 0000 0100 0101 00010 00011 信源符号 S0 S1 S2 S3 S4 S5 S6 S7 出现概率 0.40 0.18 0.10 0.10 0.07 0.06 0.05 0.04 1 1 0 0 1 0 1 0.09 0.13 1 0.19 0 0.23 0 0.37 0 1 0.60 1 0 1.00
将图像的每条扫描线分成若干段,每段有N个像素。对全部是白 色的像素用1bit“0”表示。 对于至少有一个黑色像素的像素段采用N十1个比特编码.即第一 个比特人为地规定为1.其余的N比特采用直接编码(白色为“0”.黑 色为“1”码字)。
31
分成五段: 段长N=4 编码
难。
3
2.
图像压缩的主要目的:
传输 从传送图像的角度来看: 与 存储
某些图像采集有时间性;
图像存储体的存储时间也有限制。它取决于存储器件的最短存 取时间,若单位时间内大量图像数据来不及存储,就会丢失信息。
从图像存储的角度:
通过压缩可以减少存储设备的用量,产生经济效益。
4
3.
图像数据压缩的可能性:
据量(比特数)将非常具大。减少量化级数即编码比特数b,势必又
引起量化信噪比 (S / N )q 大大下降
2
1.
几种图像的数据量:
计算机图像处理中的数字图像其灰度多数用8bit来度量,一
幅最简单的黑白照片,若按512×512点阵取样,表示这幅图像的二 进制数据量: 512×512×8=2048Kbit= 2Mbit=256KB
子区长度 1 * 3/4 = 3/4 3/4 *1/4 = 3/16 3/16 * 3/4 = 9/64 9/64 * 3/4 = 27/256
26
最后的子区左端(起始位置): B=(85/256)d =(0.01010101)b
最后的子区长度: L=(27/256)d=(0.00011011)b 最后的子区右端(子区间尾): 85/256+27/256=(7/16)d =(0.0111)b
10
5.
可变长度最佳编码的平均码字长度
设:
可变长度编码所用码元进制为D(一般为2),
被编码的信息符号总数为N,
第i个符号出现的概率为 i,
与其对应的码字长度为
p
ti
H H R 1 logB D logB D
11
由此可以引导出对某一个信息符号存在下式
logB Pi logB Pi ti 1 logB D logB D
28
§ 3
二值图像编码
一. 概述
二值图像: 只有两个灰度级的图像,即图像内容“非白即黑”。典型的有 传真。 二值图像直接编码: 如每一个像素用一位二进制码(0或1)代表就称为编码。 分辨率: 单位长度的像素数。 CCITT(国际电话电报咨询委员会)建议在传真中采用两种分辨率: 1728像素/行(8取样/mm),3.85行/mm; l728像素/行(8取样/mm), 7.7行/mm。
log2 Pi ti log2 Pi 1
21
编码步骤:
(1)输入灰度级按出现的概率从大到小排列; (2)计算码字长度; (3)计算累加概率;
(4)十进制转换为二进制; (5)去掉多余尾数。
22
根据:
log2 Pi ti log2 Pi 1
编码效率计算:
23
编码结果为子区间头尾之间取值、其值为0.011,可编码为011,原 来4个符号1011被压缩为三个符号011。
27
注: 1个算术码字要赋给整个信源符号序列,而码字本身确定0和1之间 的1个实数区间。 随着符号序列中的符号数量增加,用来代表它的区间减小而用来表 达区间所需的信息单位(如比特)的数量变大。每个符号序列中的符号根 据区间的概率减少区间长度。与哈夫曼方法不同,这里不需要将每个信 源符号转换为整数个码字(即1次编1个符号),在理论上它可达到无失真 编码定理给出的极限。 解码过程是逆过程,首先将区间[0,1]按Qc靠近0侧, Pc靠近1侧 分割成两个子区间,判断被解码字落在哪个子区,而赋予对应符号。
对二进制码进一步简化为:
log2 Pi ti log2 Pi 1
可见码字长度是由信息符号出现的概率来决定的。这 就是下面要介绍的香农编码方法理论基础
12
6.
唯一可译编码
为了减少表示图像的平均码字长度,对码字之间往往不加同步
码,这样就要求所编码字序列能被唯一译出来。满足这个条件的编码 称为唯一可译编码,或单义可译码。 (a)续长代码和非续长代码 非续长代码:不能在某一代码后面添加一些码元而构成另一个码字。 例如:[0,10,11]是非续长代码; [0,01,11]是续长代码。 (b)单义代码
任意有限长的码字序列,只能被唯一地分割成一个个码字。
单义代码的充要条件是满足克劳夫特(kraft)不等式:
D
i 1
n
ti
1
13
例如:
14
二. 哈夫曼(Huffman)编码方法(紧凑码)
哈夫曼编码的一般算法如下: (1) 按符号出现的概率从大到小排序。 (2) 把最小的两个概率相加合并成新的概率, 与剩余的概 率组成新的概率集合。 (3) 对新的概率集合重新排序, 再次把其中最小的两个概 率相加, 组成新的概率集合。如此重复进行, 直到最后 两个概率的和为1。 (4) 分配码字。码字分配从最后一步开始反向进行, 对于 每次相加的两个概率,给大的赋“0”, 小的赋“1”(也相 反, 如两个概率相等, 则从中任选一个赋“0” ), 读出 时由该符号开始一直走到最后的概率和“1”, 将路线上所 遇到的“0”和“1”按最低位到最高位的顺序排好,就是该 符号的哈夫曼编码。
18
例二:
P1
0.25
P2
0.25
P 3
0.2
P4
0.15
P 5
0.1
P 6
0.05
01
10
11
000
0010
0011
19
结论:
对不同概率分布的信源,哈夫曼编码的 编码效率有所差别。根据信息论中信源编码 理论,对于二进制编码,当信源概率为2的 负幂次方时,哈夫曼编码的编码效率可达 100%,其平均码字长度也很短,而当信源 概率为均匀分布时, 其编码效果明显降低。 在信源概率接近于均匀分布时,一般不使用 哈夫曼编码。
7
来自百度文库 2.
平均码字长度
给(W1,W2,…,WM)每个灰度级赋予一个编码Ck,称为码字,
其中 k=1,2,…,M (二进制) ,。
设 k 为数字图像第k个码字Ck的长度(二进制代码的位数)。 其相应出现的概率为Pk,则数字图像所赋予的码字平均长度R为:
R k pk (bit)
k 1
M
8
6
§ 2
熵编码方法
一. 基本概念
1. 图像熵
设数字图像像素灰度级集合为(W1,W2,…,WM),其对应的 概率分别(P1,P2,…,PM),按信息论中信源信息熵定义,数字图 像的熵H为:
H Pk log2 Pk
k 1
M
特例:肯定发生的事:H=0
假定图像中的各像素间取何种灰度级是相互独立的,称为无记忆 信息熵值或0阶熵,记为:H 0 () 。
第五章
§ § § § § § 1 2 3 4 5 6
图像压缩编码
概述 熵编码方法 预测法编码 变换编码方法 二值图像编码 图像压缩编码主要国际标准
1
§ 1
概述
图像压缩编码问题的提出
在图像数字化中,若对图像的取样值以最基本和最简单的PCM编 码(pulse coding modulation脉冲编码调制),这样获得的图像数
四. 算术编码方法
算术编码是60年代初期提出: 如何给每个信源符号赋予非整数个比特? 在信源概率分布比较均匀情况下,它的编码效率高于哈夫曼编码。
1.
算术编码的方法
算术编码是一种从整个符号序列出发,采用递推形式连续编码 的方法。它将一个符号序列映射为一个实数。算术编码中,单个源 符号和码字间的一一对应关系并不存在。
5
4.
数字图像数据压缩按应用不同可分为三类:
(1) 信息保持编码(无误差编码) 它要求压缩图像的比特数而不丢失任何信息。主要用在图像信息保 存中,要求图象存储能保持信息并能快速存取图象。例如短时随机存取 主要用于处理过程中的各个环节的存储,它要求经过不同存储介质多次 重复不变质、不失真。 (2) 保真度编码(非信息保持编码) 传送图像应能适应通信的通道限制,若接收端是人观看的情况,由 于人眼的生理特性不需过高的空间分辨率和灰度分辨率,因此在压缩过 程中允许丢失一些人感觉不到的信息,这就是一种允许微量失真的图像 压缩,数字电视、图像传输和多媒体中常用这种压缩。 (3) 特征抽取(保持)编码 许多图像处理的目的是为了计算机的识别、分析、控制,这时并不 需要图像的全部细节及灰度细节。只要能保存图像中的感兴趣的特征信 息,无用信息都可丢掉。
3.
编码效率:
H (%) R
式中H为信源熵,R为平均码字长度
根据信息论信源编码理论,可以证明:
RH
R H
总可以设计出某种无失真编码方法 表明这种方法效率很低,占用比特数太多 为最佳编码 丢失信息图像失真
9
RH RH
4.
变长最佳编码定理
定理内容: 在变长编码中,对出现概率大的信息符号赋予短码字,而 对于出现概率小的信息符号赋予长码字,如果码字长度严格按 照所对应符号出现概率大小逆序排列,则编码结果平均码字长 度一定小于任何其他排列方式。