第六章图像编码技术
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
4
目的:节省图像存储容量;减少传输信 道容量;缩短图像加工处理时间。 原因:
图像像素之间、行之间、帧之间有较强的相 关性。
从统计的观点,某点像素的灰度与其邻域灰 度有密切关系; 从信息论关系,减少图像信息中冗余信息。
5
压 缩 率
9.2
6
压 缩 率
18.4
7
压 缩 率
51.6
8
则,各信源符号自信息量:
p(d ) 1 / 8
I (a) log2 2 1, I (b) log2 4 2, I (c) I (d ) log2 8 3
信源熵
H ( X ) 1 / 2 *1 1 / 4 * 2 1 / 8 * 3 1 / 8 * 3 1.75
I (a) 1.152, I (b) 2, I (c) 2.4739 , I (d ) 3.0589
信源熵
H ( X ) 0.45 *1.152 0.25 * 2 0.18 * 2.4739 0.12 * 3.0589 1.8308
用第二种编码方法 ,平均码长1.85大于信源熵
15
2、编码冗余:
如果一个图像的灰度级编码,使用了 多于实际需要的编码符号,就称该图像包 含了编码冗余。
例:如果用8位表示该图像的像素,我们 就说该图像存在着编码冗余,因为该图像 的像素只有两个灰度,用1位即可表示。 P148 例6.1.2
16
3.心理视觉冗余:
17
心理学家马赫(mach)注意到,人类感知两个区域 之间的边缘时,就好像把边缘拉出来夸大亮度的差异, 如图所示。马赫带效应能改变连接面的感知形状
3
0.22 0.10
0.30
b1
哈夫曼编码
先从上述消减到最小的信源开始,逐步赋值 回到初始信源 这里赋0或1可以随意,不影响编码效率 这组码字的平均长度为L'avg = 0.38 + 0.3 2 对消减信源的赋值 初始信源 + 0.22 3 符号 概率 码字 1 2 b 0.38 1 0.38 1 0.62 0 + 0.1 3 b 0.30 01 0.32 00 0.38 1 0.30 01 = 1.94比特/符号 b 0.22 000
11
三种数据冗余:
1、像素相关冗余
2、编码冗余 3、心理视觉冗余
12
1. 像素相关冗余(空间冗余、几何冗余)
由于任何给定的像素值,原理上都可以通 过它的邻域预测到,单个像素携带的信息相对是 小的。 对于一个图像,很多单个像素对视觉的 贡献是冗余的。这是建立在对邻居值预测的基础 上。 例:原图像数据:234 223 231 238 235 压缩后数据:234 -11 8 7 -3
1 / 2 *1 1 / 4 * 2 1 / 8 * 3 1 / 8 * 3 1.75
平均码长等于信源的熵
41
离散信源的熵表示
例
设
X {a, b, c, d}
p(a) 0.45, p(b) 0.25, p(c) 0.18, p(d ) 0.12
则,各信源符号自信息量:
哈夫曼编码
哈夫曼编码步骤
(2) 对每个信源符号赋值 对消减信源的赋值 初始信源 从(消减到)最小的信源开始,逐步回到初始信源
符号 a2 a6 a1 a
4
概率 0.4 0.3 0.1 0.1 0.06 0.04 1
码字 00 011 0100 01010 01011
1 0.4 1 0.3 00 0.1 011 0.1 0100 0.1 0101
36
离散信源的熵表示
一幅图像可以看做一个具有随机离散输出的信源,这个信源可以 由信源符号集合组成,信源集合中的符号称为信源符号。 信源符号集合B={b1,b2,…,bJ} 单个符号bj的自信息量
p(b ) 1
j 1 j
J
I (b j ) log p(b j )
概率矢量u = [P(b1) P(b2) … P(bJ )]T
数字图像处理
Digital Image Processing
张鑫
1
第六章 图像编码 技术
2
主要内容: 数据冗余和压缩 图像保真度 编码方法
3
图像编码又称为图像压缩
一幅512x512像素,8b/像素的黑白图像——256KB 一幅512x512像素,每分量8b/像素的彩色静止图像— —3x256=768KB 如果每秒24帧(1帧即1幅图像)传送上述彩色图像, 则一秒钟的数据量为24X768=18.5MB 一张容量为680MB的CD-ROM——存储30多秒的数据
40
离散信源的熵表示
例
两种编码方法:
1、a,b,c,d用码字00,01,10,11来编码
平均码长: lavg
1/ 2 * 2 1/ 4 * 2 1/ 8 * 2 1/ 8 * 2 2
平均码长大于信源的熵
2、 a,b,c,d分别用码字0,10,110,111来编码
平均码长:l avg
SNR 10 lg[ 1 [ f ( x, y ) f ( x, y )]2 MN x 0 y 0
M 1 N 1 2 f max
]
27
6.2 图像保真度
主观保真度准则
主观评价准则
设每一种得分为Ci,每一种得分的评分人数为ni
平均感觉分MOS的主观评价可定义
MOS
'
L'avg H (u ) (3)
(4)
,称为最佳编码;
,丢失信息,图像失真。
第38页
L'avg H (u )
离散信源的熵表示
例
设
X {a, b, c, d}
p(a) p(b) p(c) p(d ) 1 / 4
则,各信源符号自信息量:
I (a) I (b) I (c) I (d ) log 2 4 2
32
什么是图像压缩的最终极限(熵)
33
信息理论是图像编码的主要理论依据之 一,它给出无失真编码所需比特数的下 限,为了逼近这个下限而提出了一系列 熵编码算法。
34
ຫໍສະໝຸດ Baidu
离散信源的熵表示
设一个离散信源X: 其概率分布:
( x1 , x2 ,, x N ) { p1 , p 2 ,, p N }
满足
n C
i 1 k i
k
i
n
i 1
i
MOS得分越高,解码后图像的主观评价好
29
图像的编码质量评价
压缩比 设n1为原始图像每个像素的平均比特数 n2为编码后每个像素的平均比特数
则压缩比p147:
n1 CR n2
压缩比越大压缩效果越好
30
相对数据冗余:
RD = 1 – 1/CR
31
6.3 无失真编码定理
信源熵H(X)
(平均信息量) (零阶熵)
H (u ) p(b j ) log p (b j )
j 1
37
J
编码效率:
H (u) n 100 % L' avg
根据信息论信源编码理论,可以证明:
(1) Lavg H (u )
'
,总可以设计出某种无失真编码方法;
(2)Lavg H (u ) ,表明这种方法效率很低,占用比特数太多;
43
P152,二元信源的熵
44
6.3 无失真编码定理
无失真编码定理(香农第一定理)
确定了对零记忆信源的每个信源符号编码 可达到的最小平均码字长度
把信息论中熵值的概念应用到图像信息源。以 灰度级为【1,L】的图像为例,可以通过直方 图得到各灰度级概率ps(sk),k=1,2,…,L,这时图 像的熵为:
6.1 数据冗余和压缩
9
图像压缩方法的分类 : 信息保存型: 在压缩和解压缩过程中没有信息损失 压缩率一般在2 ~ 10之间 信息损失型: 常能取得较高的压缩率(几十~几百) 压缩后并不能经解压缩恢复原状
第10页
数据冗余的概念
数据是用来表示信息的。 如果不同的方法为表示给定量的信息使用了不 同的数据量,那么使用较多数据量的方法中, 有些数据必然是代表了无用的信息,或者是重 复地表示了其它数据已表示的信息,这就是数 据冗余的概念。
l avg 0.45 *1 0.25 * 2 0.18 * 3 0.12 * 3 1.85
42
离散信源的熵表示
可得到几点提示:
信源的平均码长lavg>=H(X);也就是说熵是无失真编码的下界。 如果所有I(xk)都是整数,且l(xk)=I(xk),可以使平均码长等于熵。 对非等概率分布的信源,采用不等长编码其平均码长小于等长编 码的平均码长。 如果信源中各符号的出现概率相等,信源熵值达到最大,这就是 重要的最大离散熵定理。
6.2 图像保真度
客观保真度准则
压缩―解压缩图的均方信噪比(signal-tonoise ratio,SNR) :
实际使用时,常将SNR归一化并用分贝(DB)表示
峰值信噪比PSNR 令fmax=max{f(x,y),x=0,1,…,M-1,y=0,1,…,N-1},图像 中的灰度最大值。
p
i 1
N
i
1
无记忆信源 离散信源类型 有记忆信源
信源的当前输出与以前的输出 是无关的
35
离散信源的熵表示
1个随机事件E,如果它的出现概率是P(E),那么它包含的信息
E的自信息量
1 I ( E ) log log p( E ) p( E )
如果P(E)=1,那么I(E)=0
一般底数是2,这样得到的信息单位就是bit(比特)
2 4 3
b1
0.10
001
哈夫曼编码
哈夫曼编码步骤
(1) 缩减信源符号数量 将信源符号按出现概率从大到小排列,然后选2个最小的结合
初始信源 符号 a2 a6 a1 a4 a3 a5 概率 0.4 0.3 0.1 0.1 0.06 0.04
第50页
信源的消减步骤 1 0.4 0.3 0.1 0.1 0.1 2 0.4 0.3 0.2 0.1 3 0.4 0.3 0.3 4 0.6 0.4
L ~ H ps ( si ) log 2 ps ( si ) i 1
46
信息无损熵编码方法 哈夫曼编码(赫夫曼编码) 香农-范诺编码 算术编码 行程编码 位平面编码
47
哈夫曼编码
哈夫曼编码过程可分为2个步骤,第1步是消 减信源符号数量,第2步是对每个信源符号赋值 先将信源符号按它们的概率从大到小排列, 然后将概率最小的2个符号结合得到 1个组合符 号,将这个组合符 初始信源 信源的消减步骤 号与其他尚没有组合 符号 概率 1 2 的符号一起仍按概率 b2 0.38 0.38 0.62 b4 0.30 0.32 0.38 从大到小排列 b
感到他像窗帘边或者凹格
18
3.心理视觉冗余:
19
图像编解码系统模型 两个通过信道级连的结构模块
编码器 解码器 信道 编码器 信道 信道 解码器 信源 解码器 输出图 信源 编码器
输入图
输出图是输入图的精确复制? 信息保持型:是,无失真 信息损失型:不是,有一定的失真
第20页
信源编码器和信源解码器
13
直接与像素间相关性联系
规则 冗余大
1 0.8 0.6 0.4 0.2 0 0 5 10 15 20 25
不规则 冗余小
1 0.8 0.6 0.4 0.2 0 0 5 10 15 20 25
第14页
第9章 图像编码
2、编码冗余:
为表达图像数据需要使用一系列符号,用这些符号根据 一定的规则来表达图像就是对图像编码。 码字:对每个信息或事件所赋的符号序列 码字的长度:每个码字里的符号个数
无失真信源编码器不需要量化器
第21页
映射器:通过将输入数据变换以减少像素相关 冗余; 量化器:通过减少映射器输出的精度来减少心 里视觉冗余; 符号编码器:通过将最短的码赋给最频繁出现 的量化器输出值以减少编码冗余。
6.2 图像保真度
23
24
6.2 图像保真度
客观保真度准则
所损失的信息量可用编码输入图与解码输出 图的某个确定函数表示 均方根(rms)误差:
2 0.4 1 0.3 00 0.2 010 0.1 011
3 0.4 1 0.3 00 0.3 01
4 0.6 0 0.4 1
a3 a5
第51页
信源熵
H ( X ) 1/ 4 * 2 1/ 4 * 2 1/ 4 * 2 1/ 4 * 2 2
编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比
特。平均码长也是2比特。
39
离散信源的熵表示
例
设
X {a, b, c, d}
p(a) 1 / 2, p(b) 1 / 4, p(c) 1 / 8,