第六章图像编码技术()
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1. 最常用的客观保真度准则是原图像和解码图像之 间的均方根误差和均方根信噪比两种。令f(x,y)代表 ˆ f 原图像,( x , y ) 代表对f(x,y)先压缩又解压缩后得到的 ˆ f(x,y)的近似,对任意x和y,f(x,y)和 f ( x , y )之间的误差 定义为:
点误差
图误差
ˆ e( x, y) f ( x, y) f ( x, y)
SNRms
g x, y
2
g x, y f x, y
2
将 SNRms 归一化信噪比并用分贝(dB)表示.令
1 M 1 f MN x 0
N 1 y 0
f ( x, y )
则有
M 1 N 1 2 f ( x, y ) f x 0 y 0 SNR 10 lg M 1 N 1 ˆ f ( x, y ) f ( x, y ) x 0 y 0
香农-范诺编码举例
0.58 0.42
s0,s1,s2,s3,s4,s5,s6,s7 s0 0.40 s1 0.18 0 1 0.22 0.20 s2 0.10 s0,s1 s2,s3,s4,s5,s6,s7 s3 0.10 1 0 1 0 s4 0.07 0.13 0.09 s0 s1 s2,s3 s4,s5,s6,s7 s5 0.06 s6 0.05 s7 0.04
6.3 基础理论
信息量 概率为P(E)的随机事件 E 的信息量
1 I ( E ) log logP ( E ) P( E )
I(E )称为E的自信息(随概率增加而减少) 特例:P(E ) = 1(即事件总发生),那么I(E ) = 0 信息的单位:比特(log以2为底)
产生单个信源符号的自信息:I (aj) = –logP(aj)
信源字 母集 a1 a2 a3 a4
概率
码A
码B
码C
码D
0.5 0.25 0.125 0.125
0 11 1 10
0 1 00 11
0 10 110 111
1 01 011 0111
如何判断是不是前缀编码 1. 下述那一个不是前缀编码? A (00,01,10,11) B (0,1,,00,11) C (0,10,110,111) D (1,01,000,001) 2.不是前缀编码的是: A (0,10,110,1111) C (00,010,0110,1000)
评分 1 2 3 4 5 6
评价 优秀 良好 可用 刚可看 差 不能用
说
明
图象质量非常好,如同人能想象出的最好质量。 图象质量高,观看舒服,有干扰但不影响观看。 图象质量可接受,有干扰但不太影响观看。 图象质量差,干扰有些妨碍观看,观察者希望改进。 图象质量很差,妨碍观看的干扰始终存在,几乎无法观看。 图象质量极差,不能使用。
初始信源 符号 a2 a6 a1 a4 a3 a5 概率 0.4 0.3 0.1 0.1 0.06 0.04 1 0.4 0.3 0.1 0.1 0.1
信源的消减步骤 2 0.4 0.3 0.2 0.1 3 0.4 0.3 0.3 4 0.6 0.4
初始信源 符号 a2 a6 a1 a4 a3 a5 概率 0.4 0.3 0.1 0.1 0.06 0.04 码字 1 00 011 0100 01010 01011 1 0.4 1 0.3 00 0.1 011 0.1 0100 0.1 0101
Wi改错 这两种编码哪一种更好呢,我们来计算一下二 者的码长。
L1 P(si )li 0.4 1 0.2 2 0.2 3 0.1 4 0.1 4 2.2
i 1
5
L2 P(si )li 0.4 2 0.2 2 0.2 2 0.1 3 0.1 3 2.2
变字长编码理论
基本思想:P154 先统计数据中各字符出现的概率, 再按字符
出现频率高低的顺序分别赋以由短到长的代码,
从而保证文件整体的大部分字符是由较短的编码 所构成。
哈夫曼编码(Huffman)
步骤:P155 将信源符号按概率递减顺序排列(排序) ; 把两个最小的概率加起来,作为新符号的概率(合并) ; 重复和 ,直到概率和达到1为止(重复) ; 完成上述步骤后,再沿路径返回进行编码。每层有两个 分支,分别赋予0和1(对概率大的赋予编码0,概率小 的赋予编码1,反之亦可,但同一过程中赋值的方法必 须一致) (赋值) ; 对每一符号写出从码树的根到终节点1、0序列(编码) 。
可见:第二种编码方法的码长方差要小许多。意味着第二种 编码方法的码长变化较小,比较接近于平均码长。 第一种方法编出的5个码字有4种不同的码长; 第二种方法编出的码长只有两种不同的码长; 显然,第二种编码方法更简单、更容易实现,所以更好。
结论:在哈夫曼编码过程中,对缩减信源符号按概率由大到小 的顺序重新排列时,应使合并后的新符号尽可能排在靠前的 位置,这样可使合并后的新符号重复编码次数减少,使短码 得到充分利用。
B (11,10,001,101,0001) D (b,c,aa,ac,aba,abb,abc)
前缀编码就是任一字符的编码不能是另一字符编码的前缀 再通俗点, 1题,B选项:0是00的前缀,1是11的前缀 2题,B选项:10是101的前缀。
等长编码 哈夫曼编码均为前缀编码
哈夫曼编码(Huffman) :1952年问世,依据
第六章
图像编码技术
6.1 引言 图像编码又称为图像压缩。 (在信息论中,数据压缩又称为信源编码)。
图像编解码系统模型 通过信道连接的两个结构模块
编码器 解码器 信道 编码器 信道 信道 解码器 信源 解码器 输出图
输入图
信源 编码器
图像压缩
1.必要性:
对于电视画面的分辨率640*480的彩色图像(RGB), 假设每秒30帧,则一秒钟的数据量为:640*480*3*30=27M 100M 仅能存储 100/27=3.7秒。若视频为DVD格式2小时 的电影需要200张碟片。 2. 图像存在着数据冗余(可行性)(rong) 数据冗余是指那些代表了无用信息,或是重复的表示 了其他数据已表示信息的数据。P146 3. 数据冗余分为几种冗余 像素冗余、编码冗余、视觉心理冗余
输入数据流:S1S2S1S3S2S1S1S4
符号 出现概率 等长编码 S1 1/2 00 S2 1/4 01 S3 1/8 10 S4 1/8 11
霍夫曼
0
10
110
111
H(X) = 1.75
源 等 霍 S1 00 0 S2 01 10 S1 00 0
L1=2
S3 10 110 S2 01 10
熵?
如果某种编码方法产生的平均码长等于信息源的熵,那 么它就没有任何冗余信息,达到了编码的最优状态。
前缀编码
最需考虑的问题是,如果 a1用 0表示,而对a3用 00表示,那么 ,在解码时,面对0011的二进制流,我怎么知道是解码为 a1a1a2a2,或a1a1a4,还是a3a4?所以,必须设计出一种编码方 式,使得解码程序可以方便地分离每个字符的编码部分。于是 有了一种叫“前缀编码”的技术。该技术的主导思想是,任何 一个字符的编码,都不是另一个字符编码的前缀。蓝色编码就 是前缀编码一个最简单的例子。
例:如果用8位表示下面图像的像素,我们 就说该图像存在着编码冗余,因为该图像 的像素只有两个灰度,用一位即可表示。
一些信息在一般视觉处理中比其它信息的 相对重要程度要小,这种信息就被称为视觉 心理冗余。
33K
15K
6.2 保真度准则——评价压缩算法的准则 P150
保真度准则:图像压缩经过解压缩后并不能令图 像完全恢复原状。因此需要度量以描述解压缩图 像相对原始图像的偏离程度。这一测度称为保真 度准则。 常有准则可分为:客观保真度准则、主观保真度 准则。
信源平均信息(又称为熵): H (u) P (a j ) logP (a j )
j 1 J
举例说明: 输入字符串: aabbaccbaa
如果用二进制等长 编码,需要多少位?
20位 a、b、c 出现的概率分别为 0.5、0.3和
0.2,他们的信息量分别为:
Ea = -log2(0.5) = 1 Eb = -log2(0.3) = 1.737 Ec = -log2(0.2) = 2.322 总信息量也即表达整个字符串需要的位数为: E = Ea * 5 + Eb * 3 + Ec * 2 = 14.855 位
L2=1.75
S1 00 0 S1 00 0 S4 11 111
香农-范诺编码(Shannon-Fano )
香农-范诺编码与Huffman编码相反,采用从上到下的 方法。 具体步骤为: (1)首先将编码字符集中的字符按照出现频度和概率 进行排序。 (2)用递归的方法分成两部分,使两个部分的概率和 接近于相等。直至不可再分,即每一个叶子对应一个 字符。 (3)编码。
0 1 0
S0: 00 S2: 100 S4: 1100 S6: 1110
S1: 01 S3: 101 S5: 1101 S7: 1111
1 1
s2
s3
Hale Waihona Puke Baidus4,s5
0 1 0
s6,s7 s6
对消减信源的赋值 2 0.4 0.3 0.2 0.1 1 00 010 011 3 0.4 1 0.3 00 0.3 01 4 0.6 0 0.4 1
哈夫曼的编法并不惟一 (1) P156 例6.4.1
设某信源有5种符号x={A1 ,A2 ,A3 ,A4 ,A5}。在 数据中出现的概率p={0.25,0.22,0.20,0.18, 0.15},试给出Huffman编码方案,写出每个符号对 应的Huffman编码。 答案1:A1:10 A2:01 A3:00 A4:111 A5:110 答案2:A1:01 A2:10 A3:11 A4:000 A5:001
M 1 N 1 x 0 y 0
fˆ ( x, y) f ( x, y)
1 MN
M 1 N 1
均方根(erms)误差
erms
( fˆ ( x, y ) f ( x, y )) x 0 y0
2
1/ 2
均方根信噪比 SNRms
M 1 N 1 x 0 y 0 M 1 N 1 x 0 y 0
i 1
5
两种编码的平均码长是一样的,都是2.2,那一种更好呢, 我们可以计算一下平均码长的方差。 q 2 2 定义码字长度的方差σ2: E[(li L ) ] P( si )(li L )2
12 P(si )(li L1 )2 1.36
2 2 P( si )(li L2 )2 0.16 i 1 i 1 5 5 i 1
像素冗余:
由于任何给定的像素值,原理上都可以通过它的相 邻像素预测到。对于一个图像,很多单个像素对视觉的 贡献是冗余的。
例:原图像数据:234 223 231 238 235 压缩后数据:234 11 -8 -7 3,我们可 以对一些接近于零的像素不进行存储,从而减小 了数据量。
编码冗余:
如果一个图像的灰度级编码,使用了多于实际需要的 编码符号,就称该图像包含了编码冗余.
哈夫曼的编法并不惟一 (2)
例:单符号离散无记忆信源
X x1 , x2 , x3 , x4 , x5 , P( X ) 0.4 0.2 0.2 0.1 0.1 ,用
两种不同的方法对其编二进制哈夫曼码。
方法一:合并后的新符号排在其它相同概率符号的后面。
方法二:合并后的新符号排在其它相同概率符号的前面。
2
峰值信噪比(PSNR)
2 PSNR 10 lg MN f max f max max{f ( x, y )}
M 1 N 1 x 0 y 0
ˆ ( x, y ) f ( x, y ) 2 f
2. 主观保真度准则 观察者对图像综合评价的平均 P151 例6.2.1 电视图像质量评价
点误差
图误差
ˆ e( x, y) f ( x, y) f ( x, y)
SNRms
g x, y
2
g x, y f x, y
2
将 SNRms 归一化信噪比并用分贝(dB)表示.令
1 M 1 f MN x 0
N 1 y 0
f ( x, y )
则有
M 1 N 1 2 f ( x, y ) f x 0 y 0 SNR 10 lg M 1 N 1 ˆ f ( x, y ) f ( x, y ) x 0 y 0
香农-范诺编码举例
0.58 0.42
s0,s1,s2,s3,s4,s5,s6,s7 s0 0.40 s1 0.18 0 1 0.22 0.20 s2 0.10 s0,s1 s2,s3,s4,s5,s6,s7 s3 0.10 1 0 1 0 s4 0.07 0.13 0.09 s0 s1 s2,s3 s4,s5,s6,s7 s5 0.06 s6 0.05 s7 0.04
6.3 基础理论
信息量 概率为P(E)的随机事件 E 的信息量
1 I ( E ) log logP ( E ) P( E )
I(E )称为E的自信息(随概率增加而减少) 特例:P(E ) = 1(即事件总发生),那么I(E ) = 0 信息的单位:比特(log以2为底)
产生单个信源符号的自信息:I (aj) = –logP(aj)
信源字 母集 a1 a2 a3 a4
概率
码A
码B
码C
码D
0.5 0.25 0.125 0.125
0 11 1 10
0 1 00 11
0 10 110 111
1 01 011 0111
如何判断是不是前缀编码 1. 下述那一个不是前缀编码? A (00,01,10,11) B (0,1,,00,11) C (0,10,110,111) D (1,01,000,001) 2.不是前缀编码的是: A (0,10,110,1111) C (00,010,0110,1000)
评分 1 2 3 4 5 6
评价 优秀 良好 可用 刚可看 差 不能用
说
明
图象质量非常好,如同人能想象出的最好质量。 图象质量高,观看舒服,有干扰但不影响观看。 图象质量可接受,有干扰但不太影响观看。 图象质量差,干扰有些妨碍观看,观察者希望改进。 图象质量很差,妨碍观看的干扰始终存在,几乎无法观看。 图象质量极差,不能使用。
初始信源 符号 a2 a6 a1 a4 a3 a5 概率 0.4 0.3 0.1 0.1 0.06 0.04 1 0.4 0.3 0.1 0.1 0.1
信源的消减步骤 2 0.4 0.3 0.2 0.1 3 0.4 0.3 0.3 4 0.6 0.4
初始信源 符号 a2 a6 a1 a4 a3 a5 概率 0.4 0.3 0.1 0.1 0.06 0.04 码字 1 00 011 0100 01010 01011 1 0.4 1 0.3 00 0.1 011 0.1 0100 0.1 0101
Wi改错 这两种编码哪一种更好呢,我们来计算一下二 者的码长。
L1 P(si )li 0.4 1 0.2 2 0.2 3 0.1 4 0.1 4 2.2
i 1
5
L2 P(si )li 0.4 2 0.2 2 0.2 2 0.1 3 0.1 3 2.2
变字长编码理论
基本思想:P154 先统计数据中各字符出现的概率, 再按字符
出现频率高低的顺序分别赋以由短到长的代码,
从而保证文件整体的大部分字符是由较短的编码 所构成。
哈夫曼编码(Huffman)
步骤:P155 将信源符号按概率递减顺序排列(排序) ; 把两个最小的概率加起来,作为新符号的概率(合并) ; 重复和 ,直到概率和达到1为止(重复) ; 完成上述步骤后,再沿路径返回进行编码。每层有两个 分支,分别赋予0和1(对概率大的赋予编码0,概率小 的赋予编码1,反之亦可,但同一过程中赋值的方法必 须一致) (赋值) ; 对每一符号写出从码树的根到终节点1、0序列(编码) 。
可见:第二种编码方法的码长方差要小许多。意味着第二种 编码方法的码长变化较小,比较接近于平均码长。 第一种方法编出的5个码字有4种不同的码长; 第二种方法编出的码长只有两种不同的码长; 显然,第二种编码方法更简单、更容易实现,所以更好。
结论:在哈夫曼编码过程中,对缩减信源符号按概率由大到小 的顺序重新排列时,应使合并后的新符号尽可能排在靠前的 位置,这样可使合并后的新符号重复编码次数减少,使短码 得到充分利用。
B (11,10,001,101,0001) D (b,c,aa,ac,aba,abb,abc)
前缀编码就是任一字符的编码不能是另一字符编码的前缀 再通俗点, 1题,B选项:0是00的前缀,1是11的前缀 2题,B选项:10是101的前缀。
等长编码 哈夫曼编码均为前缀编码
哈夫曼编码(Huffman) :1952年问世,依据
第六章
图像编码技术
6.1 引言 图像编码又称为图像压缩。 (在信息论中,数据压缩又称为信源编码)。
图像编解码系统模型 通过信道连接的两个结构模块
编码器 解码器 信道 编码器 信道 信道 解码器 信源 解码器 输出图
输入图
信源 编码器
图像压缩
1.必要性:
对于电视画面的分辨率640*480的彩色图像(RGB), 假设每秒30帧,则一秒钟的数据量为:640*480*3*30=27M 100M 仅能存储 100/27=3.7秒。若视频为DVD格式2小时 的电影需要200张碟片。 2. 图像存在着数据冗余(可行性)(rong) 数据冗余是指那些代表了无用信息,或是重复的表示 了其他数据已表示信息的数据。P146 3. 数据冗余分为几种冗余 像素冗余、编码冗余、视觉心理冗余
输入数据流:S1S2S1S3S2S1S1S4
符号 出现概率 等长编码 S1 1/2 00 S2 1/4 01 S3 1/8 10 S4 1/8 11
霍夫曼
0
10
110
111
H(X) = 1.75
源 等 霍 S1 00 0 S2 01 10 S1 00 0
L1=2
S3 10 110 S2 01 10
熵?
如果某种编码方法产生的平均码长等于信息源的熵,那 么它就没有任何冗余信息,达到了编码的最优状态。
前缀编码
最需考虑的问题是,如果 a1用 0表示,而对a3用 00表示,那么 ,在解码时,面对0011的二进制流,我怎么知道是解码为 a1a1a2a2,或a1a1a4,还是a3a4?所以,必须设计出一种编码方 式,使得解码程序可以方便地分离每个字符的编码部分。于是 有了一种叫“前缀编码”的技术。该技术的主导思想是,任何 一个字符的编码,都不是另一个字符编码的前缀。蓝色编码就 是前缀编码一个最简单的例子。
例:如果用8位表示下面图像的像素,我们 就说该图像存在着编码冗余,因为该图像 的像素只有两个灰度,用一位即可表示。
一些信息在一般视觉处理中比其它信息的 相对重要程度要小,这种信息就被称为视觉 心理冗余。
33K
15K
6.2 保真度准则——评价压缩算法的准则 P150
保真度准则:图像压缩经过解压缩后并不能令图 像完全恢复原状。因此需要度量以描述解压缩图 像相对原始图像的偏离程度。这一测度称为保真 度准则。 常有准则可分为:客观保真度准则、主观保真度 准则。
信源平均信息(又称为熵): H (u) P (a j ) logP (a j )
j 1 J
举例说明: 输入字符串: aabbaccbaa
如果用二进制等长 编码,需要多少位?
20位 a、b、c 出现的概率分别为 0.5、0.3和
0.2,他们的信息量分别为:
Ea = -log2(0.5) = 1 Eb = -log2(0.3) = 1.737 Ec = -log2(0.2) = 2.322 总信息量也即表达整个字符串需要的位数为: E = Ea * 5 + Eb * 3 + Ec * 2 = 14.855 位
L2=1.75
S1 00 0 S1 00 0 S4 11 111
香农-范诺编码(Shannon-Fano )
香农-范诺编码与Huffman编码相反,采用从上到下的 方法。 具体步骤为: (1)首先将编码字符集中的字符按照出现频度和概率 进行排序。 (2)用递归的方法分成两部分,使两个部分的概率和 接近于相等。直至不可再分,即每一个叶子对应一个 字符。 (3)编码。
0 1 0
S0: 00 S2: 100 S4: 1100 S6: 1110
S1: 01 S3: 101 S5: 1101 S7: 1111
1 1
s2
s3
Hale Waihona Puke Baidus4,s5
0 1 0
s6,s7 s6
对消减信源的赋值 2 0.4 0.3 0.2 0.1 1 00 010 011 3 0.4 1 0.3 00 0.3 01 4 0.6 0 0.4 1
哈夫曼的编法并不惟一 (1) P156 例6.4.1
设某信源有5种符号x={A1 ,A2 ,A3 ,A4 ,A5}。在 数据中出现的概率p={0.25,0.22,0.20,0.18, 0.15},试给出Huffman编码方案,写出每个符号对 应的Huffman编码。 答案1:A1:10 A2:01 A3:00 A4:111 A5:110 答案2:A1:01 A2:10 A3:11 A4:000 A5:001
M 1 N 1 x 0 y 0
fˆ ( x, y) f ( x, y)
1 MN
M 1 N 1
均方根(erms)误差
erms
( fˆ ( x, y ) f ( x, y )) x 0 y0
2
1/ 2
均方根信噪比 SNRms
M 1 N 1 x 0 y 0 M 1 N 1 x 0 y 0
i 1
5
两种编码的平均码长是一样的,都是2.2,那一种更好呢, 我们可以计算一下平均码长的方差。 q 2 2 定义码字长度的方差σ2: E[(li L ) ] P( si )(li L )2
12 P(si )(li L1 )2 1.36
2 2 P( si )(li L2 )2 0.16 i 1 i 1 5 5 i 1
像素冗余:
由于任何给定的像素值,原理上都可以通过它的相 邻像素预测到。对于一个图像,很多单个像素对视觉的 贡献是冗余的。
例:原图像数据:234 223 231 238 235 压缩后数据:234 11 -8 -7 3,我们可 以对一些接近于零的像素不进行存储,从而减小 了数据量。
编码冗余:
如果一个图像的灰度级编码,使用了多于实际需要的 编码符号,就称该图像包含了编码冗余.
哈夫曼的编法并不惟一 (2)
例:单符号离散无记忆信源
X x1 , x2 , x3 , x4 , x5 , P( X ) 0.4 0.2 0.2 0.1 0.1 ,用
两种不同的方法对其编二进制哈夫曼码。
方法一:合并后的新符号排在其它相同概率符号的后面。
方法二:合并后的新符号排在其它相同概率符号的前面。
2
峰值信噪比(PSNR)
2 PSNR 10 lg MN f max f max max{f ( x, y )}
M 1 N 1 x 0 y 0
ˆ ( x, y ) f ( x, y ) 2 f
2. 主观保真度准则 观察者对图像综合评价的平均 P151 例6.2.1 电视图像质量评价