第11章图象编码基础(数字图像处理)
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
则,各信源符号自信息量:
I ( a ) l2 o 2 1 , I g ( b ) l2 o 4 2 , I g ( c ) I ( d ) l2 o 8 3 g
信源熵
H ( X ) 1 / 2 * 1 1 / 4 * 2 1 / 8 * 3 1 / 8 * 3 1 . 7
第11讲
3 可 用 图 象 质 量 可 接 受 , 有 干 扰 但 不 太 影 响 观 看 。
4 刚 可 看 图 象 质 量 差 , 干 扰 有 些 妨 碍 观 看 , 观 察 者 希 望 改 进 。
5
差 图 象 质 量 很 差 , 妨 碍 观 看 的 干 扰 始 终 存 在 , 几 乎 无 法 观 看 。
第11讲
第18页
11.1.3 图象编码模型
第11讲
第19页
11.2 信息理论基础
设一个离散信源X: (x1,x2, ,xN) 其概率分布: {p1,p2, ,pN} 满足
离散信源类型
无记忆信源 有记忆信源
N
pi 1
i 1
第11讲
第20页
11.2 信息理论基础
考虑无记忆信源X ,某个信源符号xk,如果它出现的概率是pk
步骤2: 当前字符C 的内容为输入字符流中的下一个字符;
步骤3: 判断P+C是否在词典中 (1) 如果“是”, 则用C扩展P,即让P=P+C; (2) 如果“否”,则
①输出当前前缀P的码字到码字流; ②将P+C添加到词典中; ③ 令前缀P = C (即现在的P仅包含一个字符C);
步骤4: 判断输入字符流中是否还有码字要编码 (1) 如果“是”,就返回到步骤2; (2) 如果“否”
x 0y 0
x 0y 0
第15页
11.1.2 图象保真度和质量
1. 客观保真度准则
(归一化)信噪比:令
f
1
M1 N1
f(x,y)
MNx0 y0
单位:分贝(dB)
M1N1 f (x, y) f 2
SNR10lgM1xN01yf0ˆ(x,
y)
f
(x,
y)
2
x0 y0
峰值信噪比 PS 1 N l0 g M R fm N 2 a M x 1 N 1fˆ(x ,y ) f(x ,y )2
第11讲
第27页
11.2 信息理论基础
变长编码定理:若一个离散无记忆信源具有熵,并有r个 码元符号集,则总可以找到一种无失真信源编码,构 成单义可译码,使其平均码长满足:
H(X) LH(X)1
logr
logr
当r=2
Biblioteka Baidu
H (X)LH (X)1
第11讲
第28页
11.2 信息理论基础
3.变长最佳编码定理 在变长编码中,对出现概率大的信息符号赋予
① 把当前前缀P的码字输出到码字流; ② 结束。
第11讲
第33页
11.3 LZW编码
位置 1 字符 A
步骤
1 2 3 4 5 6
第11讲
23 BB 位置
1 2 3 4 6 --
4567 ABAB 词典(码字) (1) A (2) B (3) C (4)A B (5)B B (6) B A (7)A B A (8)A B A C
信源熵
H ( X ) 1 / 4 * 2 1 / 4 * 2 1 / 4 * 2 1 / 4 * 2 2
编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比
特。平均码长也是2比特。
第11讲
第22页
11.2 信息理论基础
设 X{a,b,c,d}
p ( a ) 1 /2 ,p ( b ) 1 /4 ,p ( c ) 1 /8 , p(d)1/8
6 不 能 用 图 象 质 量 极 差 , 不 能 使 用 。
第11讲
第17页
11.1.3 图象编码模型
图象编解码系统模型
两个通过信道级连的结构模块
编码器
解码器
输入 编 信 图 码 源器 编 信码 道器 信道
信道 信源 输出 解码器 解码器
输出图是输入图的精确复制? 信息保持型:是,无失真
信息损失型:不是,有一定的失真
0 0 255 255
0 0 255 255 来表示两个象素的(8+8)比
初始字典 特码字用单个9比特码字代替
字典 位置
0
1
25 5
25 6
25 7
51 1
字典 条目
0
1
25 5
第11讲
第32页
11.3 LZW编码
LZW编码算法的具体执行步骤如下:
步骤1: 将词典初始化为包含所有可能的单字符,当前前缀P初始化为 空;
平均比特数
L1
Lavg l(sk)ps(sk)
k0
用较少的比特数表示出现概率较大的灰度级
用较多的比特数表示出现概率较小的灰度级
第11讲
第10页
11.1.1 数据冗余
第11讲
第11页
11.1.1 数据冗余
2. 象素间冗余
直接与象素间相关性联系
规则 冗余大
不规则 冗余小
第11讲
1 0.8 0.6 0.4 0.2
用第二种编码方法 ,平均码长1.85大于信源熵
l a v 0 . g 4 * 1 5 0 .2 * 2 5 0 .1 * 3 8 0 .1 * 3 2 1 .85
第11讲
第25页
11.2 信息理论基础
可得到几点提示:
➢信源的平均码长lavg>=H(X);也就是说熵是无失真编码的下界。 ➢如果所有I(xk)都是整数,且l(xk)=I(xk),可以使平均码长等于熵。 ➢对非等概率分布的信源,采用不等长编码其平均码长小于等长编 码的平均码长。 ➢如果信源中各符号的出现概率相等,信源熵值达到最大,这就是 重要的最大离散熵定理。
第11讲
第26页
11.2 信息理论基础
1.香农信息保持编码定理
香农信息论已证明,信源熵是进行无失真编码的理论极限。低于 此极限的无失真编码方法是不存在的,这是熵编码的理论基础。 而且可以证明,考虑像素间的相关性,使用高阶熵一定可以获得 更高的压缩比。
2.变长编码定理
变长编码定义:对于一个无记忆离散信源中每一个符号,若采 用相同长度的不同码字代表相应符号,就叫做等长编码,例如 中国4位电报码。若对信源中的不同符号,用不同长度的码字表 示就叫做不等长或变长编码。
x 0y 0
第11讲
第16页
11.1.2 图象保真度和质量
2. 主观保真度准则
观察者对图象综合评价的平均
电视图象质量评价尺度
评 分 评 价
说明
1 优 秀 图 象 质 量 非 常 好 , 如 同 人 能 想 象 出 的 最 好 质 量 。
2 良 好 图 象 质 量 高 , 观 看 舒 服 , 有 干 扰 但 不 影 响 观 看 。
n1和n2代表2个数据集合中的信息载体单位的个数
n1 相 对 于 n2 n1 = n2 n 1 >> n2 n 1 << n2
C R RD 10 1 0
对 应 的 情 况 第 1种 表 达 相 对 第 2种 表 达 不 含 冗 余 数 据 第 1个 数 据 集 合 含 相 当 多 的 冗 余 数 据 第 2个 数 据 集 合 包 括 比 原 始 表 达 多 得 多 的 数 据
信息理论基础
– 自信息量、信源熵 – 变长最佳编码定理 LZW编码 图像处理应用实例
第11讲
第31页
11.3 LZW编码
LZW编码示例 图象
字典前256个码字被分配给灰 度值。第257个位置用于下一
0 0 255 255 个出现的灰度值序列。使用一
0 0 255 255 个9比特512个字的字典,将用
0 0
5 10 15 20 25
1 0.8 0.6 0.4 0.2
0 0
5 10 15 20 25
第12页
11.1.1 数据冗余
3. 心理视觉冗余
主观:因人而异,因应用要求而异 其存在与人观察图象的方式有关
眼睛对某些视觉信息更敏感 人对某些视觉信息更关心 心理视觉冗余与实在的视觉信息有联系 (损失不可逆转)
第23页
11.2 信息理论基础
两种编码方法:
1、a,b,c,d用码字00,01,10,11来编码
平均码长: l a v 1 / g 2 * 2 1 /4 * 2 1 /8 * 2 1 /8 * 2 2
平均码长大于信源的熵
2、 a,b,c,d分别用码字0,10,110,111来编码
平均码长:la v1 g /2 * 1 1 /4 * 2 1 /8 * 3 1 /8 * 3 1 .75
短码字,而对于出现概率小的信息符号赋予长码字。 如果码字长度严格按照所对应符号出现概率大小逆 序排列,则编码结果平均码字长度一定小于任何其 他排列形式.
第11讲
第29页
讨论题
鸡蛋表面的污垢检测,假设污垢面积占鸡 蛋表面有一定的百分比,设计一个检测方 法,写出其具体步骤。
第11讲
第30页
上次课程内容回顾
11.1.1 数据冗余
数据冗余的概念
数据是信息的载体
同量的数据可表达不同量的信息
同量的信息可用不同量的数据表达
冗余 数据表达了无用的信息
数据表达了已表达的信息
第11讲
第6页
11.1.1 数据冗余
相对数据冗余
数据冗余可定量描述,相对冗余:RD11CR
压缩率:CRn1 n2 CR 在开区间 (0, ) 中取值
第11讲
第13页
11.1.2 图象保真度和质量
图象保真度
信息保存型/信息损失型 描述解码图象相对于原始图象的偏离程度 对信息损失的测度
主观保真度准则 主观测量图象的质量,因人而异,应用不方便
客观保真度准则 用编码输入图与解码输出图的某个确定函数表示损 失的信息量, 便于计算或测量
第11讲
第14页
11.1.2 图象保真度和质量
平均码长等于信源的熵
第11讲
第24页
11.2 信息理论基础
设 X{a,b,c,d}
p (a )0 .4,p 5 (b )0 .2,5 p(c)0 .1,8 p(d)0 .12
则,各信源符号自信息量:
I(a) 1.152I,(b)2,I(c)2.473,9I(d)3.0589
信源熵
H ( X ) 0 . 4 * 1 . 1 5 0 . 5 2 * 2 2 5 0 . 1 * 2 . 4 8 0 7 . 1 * 3 . 0 3 2 1 5 9 . 8
1. 客观保真度准则
点误差
e(x,y)fˆ(x,y)f(x,y)
第11讲
图误差
M1 N1
fˆ(x,y)f(x,y)
x0 y0
均方根误差 均方信噪比
ermsM 1M xN 01N y 0 1
fˆ(x,y)f(x,y)212
M 1N 1
Sm N sRf ˆ(x ,y )2
M 1N 1f ˆ(x ,y ) f(x ,y )2
第11讲
第2页
第11章 图象编码基础
图象压缩方法的分类 : 信息保存型: 在压缩和解压缩过程中没有信息损失 压缩率一般在2 ~ 10之间
信息损失型: 常能取得较高的压缩率(几十~几百) 压缩后并不能经解压缩恢复原状
准无损(near-lossless):
第11讲
第3页
第11讲
第4页
第11讲
第5页
图象工程
第11章 图像编码基础
第11章 图象编码基础
动机/原因:表达数字图象所需数据量通常很大
图象编码:
采用对图象的新的表达方法以减小所需的数据量
数据和信息:数据是信息的载体
对给定量的信息可用不同的数据量来表示 对给定量的信息,设法减少表达这些信息的
数据量称为数据压缩
图象压缩(编码)和图象解压缩(解码)
-- --
89 AC
输出
(1) (2) (2) (4) (7) (3)
第34页
11.3 LZW编码
LZW解码
输出码字值串 1 2 2 4 7 3 解码后的字串 A B B AB ABA C
xk的自信息量 I(xk)logp1k logpk
N
信源熵H(X) H(X) pi lo2gpi i1
第11讲
第21页
11.2 信息理论基础
设 X{a,b,c,d}
p ( a ) p ( b ) p ( c ) p ( d ) 1 /4
则,各信源符号自信息量:
I ( a ) I ( b ) I ( c ) I ( d ) lo 2 4 2 g
码本:用来表达一定量的信息或一组事件所 需的一系列符号(如字母、数字等)
码字:对每个信息或事件所赋的码符号序列
码字的长度(字长): 每个码字里的符号个数
第11讲
第9页
11.1.1 数据冗余
1. 编码冗余 图象中灰度出现的概率
p s ( s k ) n k n
k 0 , 1 , , L 1
不同灰度出现的概率不同
第11讲
第7页
11.1.1 数据冗余
数据冗余类别
(1) 编码冗余 与灰度分布的概率特性有关
(2) 象素相关冗余 空间冗余,几何冗余
(3) 心理视觉冗余 与主观感觉有关
减少/消除其中的一种/多种冗余,就能取得数据压缩的效果
第11讲
第8页
11.1.1 数据冗余
1. 编码冗余 编码:需建立码本来表达数据
I ( a ) l2 o 2 1 , I g ( b ) l2 o 4 2 , I g ( c ) I ( d ) l2 o 8 3 g
信源熵
H ( X ) 1 / 2 * 1 1 / 4 * 2 1 / 8 * 3 1 / 8 * 3 1 . 7
第11讲
3 可 用 图 象 质 量 可 接 受 , 有 干 扰 但 不 太 影 响 观 看 。
4 刚 可 看 图 象 质 量 差 , 干 扰 有 些 妨 碍 观 看 , 观 察 者 希 望 改 进 。
5
差 图 象 质 量 很 差 , 妨 碍 观 看 的 干 扰 始 终 存 在 , 几 乎 无 法 观 看 。
第11讲
第18页
11.1.3 图象编码模型
第11讲
第19页
11.2 信息理论基础
设一个离散信源X: (x1,x2, ,xN) 其概率分布: {p1,p2, ,pN} 满足
离散信源类型
无记忆信源 有记忆信源
N
pi 1
i 1
第11讲
第20页
11.2 信息理论基础
考虑无记忆信源X ,某个信源符号xk,如果它出现的概率是pk
步骤2: 当前字符C 的内容为输入字符流中的下一个字符;
步骤3: 判断P+C是否在词典中 (1) 如果“是”, 则用C扩展P,即让P=P+C; (2) 如果“否”,则
①输出当前前缀P的码字到码字流; ②将P+C添加到词典中; ③ 令前缀P = C (即现在的P仅包含一个字符C);
步骤4: 判断输入字符流中是否还有码字要编码 (1) 如果“是”,就返回到步骤2; (2) 如果“否”
x 0y 0
x 0y 0
第15页
11.1.2 图象保真度和质量
1. 客观保真度准则
(归一化)信噪比:令
f
1
M1 N1
f(x,y)
MNx0 y0
单位:分贝(dB)
M1N1 f (x, y) f 2
SNR10lgM1xN01yf0ˆ(x,
y)
f
(x,
y)
2
x0 y0
峰值信噪比 PS 1 N l0 g M R fm N 2 a M x 1 N 1fˆ(x ,y ) f(x ,y )2
第11讲
第27页
11.2 信息理论基础
变长编码定理:若一个离散无记忆信源具有熵,并有r个 码元符号集,则总可以找到一种无失真信源编码,构 成单义可译码,使其平均码长满足:
H(X) LH(X)1
logr
logr
当r=2
Biblioteka Baidu
H (X)LH (X)1
第11讲
第28页
11.2 信息理论基础
3.变长最佳编码定理 在变长编码中,对出现概率大的信息符号赋予
① 把当前前缀P的码字输出到码字流; ② 结束。
第11讲
第33页
11.3 LZW编码
位置 1 字符 A
步骤
1 2 3 4 5 6
第11讲
23 BB 位置
1 2 3 4 6 --
4567 ABAB 词典(码字) (1) A (2) B (3) C (4)A B (5)B B (6) B A (7)A B A (8)A B A C
信源熵
H ( X ) 1 / 4 * 2 1 / 4 * 2 1 / 4 * 2 1 / 4 * 2 2
编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比
特。平均码长也是2比特。
第11讲
第22页
11.2 信息理论基础
设 X{a,b,c,d}
p ( a ) 1 /2 ,p ( b ) 1 /4 ,p ( c ) 1 /8 , p(d)1/8
6 不 能 用 图 象 质 量 极 差 , 不 能 使 用 。
第11讲
第17页
11.1.3 图象编码模型
图象编解码系统模型
两个通过信道级连的结构模块
编码器
解码器
输入 编 信 图 码 源器 编 信码 道器 信道
信道 信源 输出 解码器 解码器
输出图是输入图的精确复制? 信息保持型:是,无失真
信息损失型:不是,有一定的失真
0 0 255 255
0 0 255 255 来表示两个象素的(8+8)比
初始字典 特码字用单个9比特码字代替
字典 位置
0
1
25 5
25 6
25 7
51 1
字典 条目
0
1
25 5
第11讲
第32页
11.3 LZW编码
LZW编码算法的具体执行步骤如下:
步骤1: 将词典初始化为包含所有可能的单字符,当前前缀P初始化为 空;
平均比特数
L1
Lavg l(sk)ps(sk)
k0
用较少的比特数表示出现概率较大的灰度级
用较多的比特数表示出现概率较小的灰度级
第11讲
第10页
11.1.1 数据冗余
第11讲
第11页
11.1.1 数据冗余
2. 象素间冗余
直接与象素间相关性联系
规则 冗余大
不规则 冗余小
第11讲
1 0.8 0.6 0.4 0.2
用第二种编码方法 ,平均码长1.85大于信源熵
l a v 0 . g 4 * 1 5 0 .2 * 2 5 0 .1 * 3 8 0 .1 * 3 2 1 .85
第11讲
第25页
11.2 信息理论基础
可得到几点提示:
➢信源的平均码长lavg>=H(X);也就是说熵是无失真编码的下界。 ➢如果所有I(xk)都是整数,且l(xk)=I(xk),可以使平均码长等于熵。 ➢对非等概率分布的信源,采用不等长编码其平均码长小于等长编 码的平均码长。 ➢如果信源中各符号的出现概率相等,信源熵值达到最大,这就是 重要的最大离散熵定理。
第11讲
第26页
11.2 信息理论基础
1.香农信息保持编码定理
香农信息论已证明,信源熵是进行无失真编码的理论极限。低于 此极限的无失真编码方法是不存在的,这是熵编码的理论基础。 而且可以证明,考虑像素间的相关性,使用高阶熵一定可以获得 更高的压缩比。
2.变长编码定理
变长编码定义:对于一个无记忆离散信源中每一个符号,若采 用相同长度的不同码字代表相应符号,就叫做等长编码,例如 中国4位电报码。若对信源中的不同符号,用不同长度的码字表 示就叫做不等长或变长编码。
x 0y 0
第11讲
第16页
11.1.2 图象保真度和质量
2. 主观保真度准则
观察者对图象综合评价的平均
电视图象质量评价尺度
评 分 评 价
说明
1 优 秀 图 象 质 量 非 常 好 , 如 同 人 能 想 象 出 的 最 好 质 量 。
2 良 好 图 象 质 量 高 , 观 看 舒 服 , 有 干 扰 但 不 影 响 观 看 。
n1和n2代表2个数据集合中的信息载体单位的个数
n1 相 对 于 n2 n1 = n2 n 1 >> n2 n 1 << n2
C R RD 10 1 0
对 应 的 情 况 第 1种 表 达 相 对 第 2种 表 达 不 含 冗 余 数 据 第 1个 数 据 集 合 含 相 当 多 的 冗 余 数 据 第 2个 数 据 集 合 包 括 比 原 始 表 达 多 得 多 的 数 据
信息理论基础
– 自信息量、信源熵 – 变长最佳编码定理 LZW编码 图像处理应用实例
第11讲
第31页
11.3 LZW编码
LZW编码示例 图象
字典前256个码字被分配给灰 度值。第257个位置用于下一
0 0 255 255 个出现的灰度值序列。使用一
0 0 255 255 个9比特512个字的字典,将用
0 0
5 10 15 20 25
1 0.8 0.6 0.4 0.2
0 0
5 10 15 20 25
第12页
11.1.1 数据冗余
3. 心理视觉冗余
主观:因人而异,因应用要求而异 其存在与人观察图象的方式有关
眼睛对某些视觉信息更敏感 人对某些视觉信息更关心 心理视觉冗余与实在的视觉信息有联系 (损失不可逆转)
第23页
11.2 信息理论基础
两种编码方法:
1、a,b,c,d用码字00,01,10,11来编码
平均码长: l a v 1 / g 2 * 2 1 /4 * 2 1 /8 * 2 1 /8 * 2 2
平均码长大于信源的熵
2、 a,b,c,d分别用码字0,10,110,111来编码
平均码长:la v1 g /2 * 1 1 /4 * 2 1 /8 * 3 1 /8 * 3 1 .75
短码字,而对于出现概率小的信息符号赋予长码字。 如果码字长度严格按照所对应符号出现概率大小逆 序排列,则编码结果平均码字长度一定小于任何其 他排列形式.
第11讲
第29页
讨论题
鸡蛋表面的污垢检测,假设污垢面积占鸡 蛋表面有一定的百分比,设计一个检测方 法,写出其具体步骤。
第11讲
第30页
上次课程内容回顾
11.1.1 数据冗余
数据冗余的概念
数据是信息的载体
同量的数据可表达不同量的信息
同量的信息可用不同量的数据表达
冗余 数据表达了无用的信息
数据表达了已表达的信息
第11讲
第6页
11.1.1 数据冗余
相对数据冗余
数据冗余可定量描述,相对冗余:RD11CR
压缩率:CRn1 n2 CR 在开区间 (0, ) 中取值
第11讲
第13页
11.1.2 图象保真度和质量
图象保真度
信息保存型/信息损失型 描述解码图象相对于原始图象的偏离程度 对信息损失的测度
主观保真度准则 主观测量图象的质量,因人而异,应用不方便
客观保真度准则 用编码输入图与解码输出图的某个确定函数表示损 失的信息量, 便于计算或测量
第11讲
第14页
11.1.2 图象保真度和质量
平均码长等于信源的熵
第11讲
第24页
11.2 信息理论基础
设 X{a,b,c,d}
p (a )0 .4,p 5 (b )0 .2,5 p(c)0 .1,8 p(d)0 .12
则,各信源符号自信息量:
I(a) 1.152I,(b)2,I(c)2.473,9I(d)3.0589
信源熵
H ( X ) 0 . 4 * 1 . 1 5 0 . 5 2 * 2 2 5 0 . 1 * 2 . 4 8 0 7 . 1 * 3 . 0 3 2 1 5 9 . 8
1. 客观保真度准则
点误差
e(x,y)fˆ(x,y)f(x,y)
第11讲
图误差
M1 N1
fˆ(x,y)f(x,y)
x0 y0
均方根误差 均方信噪比
ermsM 1M xN 01N y 0 1
fˆ(x,y)f(x,y)212
M 1N 1
Sm N sRf ˆ(x ,y )2
M 1N 1f ˆ(x ,y ) f(x ,y )2
第11讲
第2页
第11章 图象编码基础
图象压缩方法的分类 : 信息保存型: 在压缩和解压缩过程中没有信息损失 压缩率一般在2 ~ 10之间
信息损失型: 常能取得较高的压缩率(几十~几百) 压缩后并不能经解压缩恢复原状
准无损(near-lossless):
第11讲
第3页
第11讲
第4页
第11讲
第5页
图象工程
第11章 图像编码基础
第11章 图象编码基础
动机/原因:表达数字图象所需数据量通常很大
图象编码:
采用对图象的新的表达方法以减小所需的数据量
数据和信息:数据是信息的载体
对给定量的信息可用不同的数据量来表示 对给定量的信息,设法减少表达这些信息的
数据量称为数据压缩
图象压缩(编码)和图象解压缩(解码)
-- --
89 AC
输出
(1) (2) (2) (4) (7) (3)
第34页
11.3 LZW编码
LZW解码
输出码字值串 1 2 2 4 7 3 解码后的字串 A B B AB ABA C
xk的自信息量 I(xk)logp1k logpk
N
信源熵H(X) H(X) pi lo2gpi i1
第11讲
第21页
11.2 信息理论基础
设 X{a,b,c,d}
p ( a ) p ( b ) p ( c ) p ( d ) 1 /4
则,各信源符号自信息量:
I ( a ) I ( b ) I ( c ) I ( d ) lo 2 4 2 g
码本:用来表达一定量的信息或一组事件所 需的一系列符号(如字母、数字等)
码字:对每个信息或事件所赋的码符号序列
码字的长度(字长): 每个码字里的符号个数
第11讲
第9页
11.1.1 数据冗余
1. 编码冗余 图象中灰度出现的概率
p s ( s k ) n k n
k 0 , 1 , , L 1
不同灰度出现的概率不同
第11讲
第7页
11.1.1 数据冗余
数据冗余类别
(1) 编码冗余 与灰度分布的概率特性有关
(2) 象素相关冗余 空间冗余,几何冗余
(3) 心理视觉冗余 与主观感觉有关
减少/消除其中的一种/多种冗余,就能取得数据压缩的效果
第11讲
第8页
11.1.1 数据冗余
1. 编码冗余 编码:需建立码本来表达数据