第6章 图像编码技术
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
的性质可获得其邻域像素的性质,即存在与像素间相 关性联系的数据冗余。
实质:空间冗余或几何冗余 减少冗余方法:将常用的2-D像素矩阵形式转换为某
种更有效的表达形式。
第6章 6.1 数据冗余和压缩
1.像素相关冗余
第6章 6.1 数据冗余和压缩
2.编码冗余
原始码为: aaaa bbb cc d eeeee fffffff (共22*8=176 bits) 行程编码为: 4a3b2c1d5e7f (共6*(3+8)=66 bits) 压缩率为:66/176=37.5%
0.58 1.58 1.17 2.17 2.17 3.17
l(βi)
1 2 2 3 3 4
码字
0 1 0 10 110 111
码长
1 1 1 2 3 3
一阶扩展:H(u)=0.918,Lavg=1,
η=0.918,平均:1比特/符号
二阶扩展:H(u’)=1.83,Lavg=1.89,η=0.97, 平均:0.945比特/符号
⎡ M −1 N −1 ⎤ 2 ⎢ ∑ ∑ ⎡ f ( x, y ) − f ⎤ ⎥ ⎣ ⎦ SNR归一化, x =0 y =0 ⎥ SNR = 10 lg ⎢ M −1 N −1 2 单位分贝(dB): ∧ ⎢ ⎡ ⎤ ⎥ ⎢ ∑ ∑ ⎢ f ( x, y ) − f ( x, y ) ⎥ ⎥ ⎦ ⎥ ⎢ x =0 y =0 ⎣ ⎣ ⎦
(251,32,15)
(248,27,4)
(248,27,4)
第6章 6.1 数据冗余和压缩
编解码过 程:
输入图 映射器
像素间 心理视觉 编码
编码器
输出图 量化器 符号编码器
解码器
输入图 符号解码器 反映射器 输出图
量化过程不可逆
第6章 6.1 数据冗余和压缩
练习:
设图像灰度共4级,P(0)=0.4, P(1)=0.3 , P(2)=0.2 , P(3)=0.1,用下列哪种方法得到的码平 均长度较短? (A) l(0) = l(1) = l(2) = l(3) (B) l(0) > l(1) > l(2) > l(3) (C) l(0) < l(1) < l(2) < l(3) (D) l(0) =1; l(1) =2; l(2) =3; l(3)=4
H(u)=1.81 像素数n=32 Lmin=H(u)×n=58bit
第6章 6.4 哈夫曼编码
压缩:减少编码冗余 变长编码:编码的平均长度减少
用较少的比特数表示出现概率较大的灰度级; 用较多的比特数表示出现概率较小的灰度级。
哈夫曼编码:
对信源符号逐个编码——最短码字 对固定n值的信源块编码——最优
M −1 N −1 ∧
∧
∑∑
x =0 y =0
f ( x, y ) − f ( x, y )
均方根误差erms: erms 均方信噪比SNRms:
⎡ 1 =⎢ ⎢ MN ⎣
M −1 N −1
⎡∧ ⎤ f ( x, y ) − f ( x, y ) ⎥ ∑∑⎢ ⎦ x =0 y =0 ⎣
2 1/ 2
⎤ ⎥ ⎥ ⎦
峰值信噪比PSNR:
⎡ ⎢ PSNR = 10 lg ⎢ ⎢ 1 ⎢ ⎢ MN ⎣
(fmax:图像中灰度最大值)
⎤ ⎥ 2 f max ⎥ 2 M −1 N −1 ∧ ⎡ ⎤ ⎥ ∑ ∑ ⎢ f ( x, y ) − f ( x, y ) ⎥ ⎥ ⎦ ⎥ x =0 y =0 ⎣ ⎦
第6章 6.2 图像保真度
H (u ) 第6章 6.3 无失真编码定理= −∑ P(b ) log P(b )
j =1 j j
J
例:计算图像的熵及图像编码所用最少比特数。
21 21 21 21 21 21 21 21 灰度级 21 95 169 243 21 21 21 21 95 95 95 95 169 169 169 169 计数 12 4 4 12 243 243 243 243 243 243 243 243 概率 3/8 1/8 1/8 3/8 243 243 243 243
第6章 6.3 无失真编码定理
无失真编码定理——香农第一定理
确定每个信源符号可达到的最小平均码字长 度。 (1)现有信源符号集B={b1,b2,…,bJ},其中共有J个信源符号,
每个符号统计独立,其概率矢量: u=[P(b1),P(b2),…P(bJ)] 单符号信源的熵为:
H (u ) = −∑ P (b j ) log P(b j )
第6章 6.1 数据冗余和压缩
数据冗余类别
(1) 象素相关冗余 空间冗余,几何冗余 (2) 编码冗余 与灰度分布的概率特性有关 (3) 心理视觉冗余 与主观感觉有关 减少/消除其中的一种/多种冗余,可实现数据压缩
第6章 6.1 数据冗余和压缩
1.像素相关冗余 产生:同一目标的像素间一般存在相关性,由某一像素
− kP (b1 ) × log P(b1 ) − kP (b2 ) × log P (b2 ) − ... − kP(bJ ) × log P (bJ ) H (u ) = k
= −∑ P (b j ) log P (b j )
j =1
J
熵!
第6章 6.3 无失真编码定理
例:二元信源的熵
H (u ) = −∑ P(b j ) log P(b j )
第6章 6.1 数据冗余和压缩
2.编码冗余——变长编码
图像中灰度出现的概率: ps(sk)=nk/n k=0,1,…L-1 不同灰度出现概率不同 平均比特数:
Lavg = ∑ l ( sk ) ps ( sk )
k =0
L −1
l(sk)为sk编码比特数
用较少的比特数表示出现概率较大的灰度级 用较多的比特数表示出现概率较小的灰度级
主观保真度准则:
评分 评价
1 2 3 4 5 6 优秀 良好 可用
说明
图像质量非常好,是人能想象出的最好质量 图像质量高,观看舒服,有干扰但不影响观看 图像质量可接受,有干扰但不太影响观看
刚可看 图像质量差,干扰有些妨碍观看,观察者希望改进 差 图像质量很差,妨碍观看的干扰始终存在,几乎无法观看
不能用 图像质量极差,不能使用
第六章
6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9
图像编码技术
数据冗余和压缩 图像保真度 无失真编码定理 哈夫曼编码 算术编码 位平面编码 无损预测编码 有损预测编码 变换编码
第6章 6.1 数据冗余和压缩
图像编码:表达数字图像所需数据量通常很大, 采用新的
表达方法以减小所需的数据量
第6章 6.3 无失真编码定理
信源的平均信息(熵)
信源符号集:B={b1,b2,…,bJ} 概率矢量:u=[P(b1),P(b2),…P(bJ)]
T
∑ P(b ) = 1
j =1 j
J
单个信源符号的自信息:I(bj) = –logP(bj) 若信源产生k个符号,符号bj平均将产生kP(bj)次 则,每个信源符号平均信息量为:
自然码
000 001 010 011 100 101 110 111
自然码 l(sk)
3 3 3 3 3 3 3 3
第6章 6.1 数据冗余和压缩
3. 心理视觉冗余
其存在与人观察图像的方式有关: 眼睛对某些视觉信息更敏感; 人对某些视觉信息更关心。 R G B
224= 16,777,216
(248,27,4)
第6章 6.4 哈夫曼编码
哈夫曼编码——(2)对每个信源符号赋值
a.将0、1分别赋给消减到最后的2个信源符号; b.对于不是由原信源结合成的信源符号,所赋值即为该 信源符号的码; c.对于由原信源结合成的信源符号,将所赋值赋给这2个 符号,再将0、1接在后面做为区分; d.重复b、c步骤直至初始信源。
j =1 J
T
第6章 6.3 无失真编码定理
(2)由信源符号集中n个符号组成一组形成块信源βi,则块 信源集B’={β1, β2,…, βJ n},其中共有J n个块信源。 信源产生βi的概率为: P(βi)=P(bj1)P(bj2)…P(bjn) 块信源概率矢量: u=[P(β1),P(β2),…P(βJ n)]T 信源的熵:
j =1 J
二元信息源B={b1,b2}={0,1},设信源产生2个符号的概 率分别为P(b1)=pbs和P(b2)=1-pbs。 信息源的熵: H(u)= - pbs log2 pbs -(1- pbs)log2 (1- pbs)
pbs=1/2, Hmax=1bit; pbs=0 或 pbs=1, Hmin= 0bit。
第6章 6.1 数据冗余和压缩
自然码和变长码:
sk
0 1 2 3 4 5 6 7
Lavg=3
Lavg =2.81 变长码
00111 00110 0010 011 010 11 10 000
CR=1.068 变长码 l(sk)
5 5 4 3 3 2 2 3
ps(sk)
0.02 0.05 0.09 0.12 0.14 0.20 0.22 0.16
编码效 率:
H (u ) η=n L 'avg
第6章 6.3 无失真编码定理
例:一阶和二阶扩展编码
块符号 源符号 P(βi) 一阶 扩展 二阶 扩展
β1 β2 β1 β2 β3 β4
b1 b2 b1 b1 b1 b2 b2 b1 b2 b2 2/3 1/3 4/9 2/9 2/9 1/9
I(βi)
H (u ') = −∑ P ( β i ) log P ( β i ) = nH (u )
i =1 Jn
块信源的熵是对应单符号信源的n倍
第6章 6.3 无失真编码定理
(3)可用长度为l(βi)的整数码字来对βi编码:
− log P( β i ) ≤ l ( β i ) < − log P( β i ) + 1
数据与信息
数据是信息的载体 同量的数据可表达不同量的信息 同量的信息可用不同量的数据表达
冗余
数据表达了无用的信息 数据表达了已表达的信息
第6章 6.1 数据冗余和压缩
相对数据冗余
n1和n2代表2个具有相同信息的数据集合的数据量 压缩率 CR=n1/n2 CR 在开区间(0, ∞) 中取值
数据冗余可定量描述 RD=1-1/CR
第6章 6.2 图像保真度
图像保真度
信息保存型/信息损失型 描述解码图像相对于原始图像的偏离程度 对信息损失的测度
Байду номын сангаас客观保真度准则
用编码输入图与解码输出图的某个确定函数表示损失 的信息量, 便于计算或测量。
主观保真度准则
主观测量图像的质量,应用不方便。
第6章 6.2 图像保真度
客观保真度准则:
点误差: e( x, y ) = f ( x, y ) − f ( x, y ) 图误差:
第6章 6.3 无失真编码定理
信息测量:
概率为P(E)的随机事件E 的信息量: 1 = − log P( E ) P( E ) I(E)称为E 的自信息,随概率增加而减少。 I ( E ) = log 若P(E)=1,即事件总发生,则I(E)=0。 信息的单位:比特(log以2为底) 1个比特:即2个相等可能性的事件之一发生
将上式各项乘以P(βi)并对所有i求和:
H (u ') ≤ L 'avg = ∑ P( β i )l ( β i ) < H (u ') + 1
i =1 Jn
将上式各项除以n,并取极限:
⎡ L 'avg ⎤ lim ⎢ ⎥ = H (u ) n →∞ ⎣ n ⎦
香农定理
通过对信源的无穷长 扩展编码,可以使 L’avg/n任意接近H(u)
SNRms = ∑ ∑ f ( x, y ) 2
x =0 y =0
M −1 N −1 ∧
M −1 N −1
⎡ ⎤ f ( x, y ) − f ( x, y ) ⎥ ∑∑⎢ ⎦ x =0 y =0 ⎣
∧
2
第6章 6.2 图像保真度
令 :
1 f = MN
M −1 N −1 x =0 y =0
∑ ∑ f ( x, y )
数据和信息:数据是信息的载体
对给定量的信息可用不同的数据量来表示 对给定量的信息,设法减少表达这些信息的数据量称为 数据压缩
步骤:图像压缩(编码)、图像解压缩(解码)
第6章 6.1 数据冗余和压缩
编解码过程:
存储 原始图像 原始图像 编码 编码结果 编码结果 传输 解码 解码图像 解码图像
第6章 6.1 数据冗余和压缩
第6章 6.4 哈夫曼编码
哈夫曼编码——(1)缩减信源符号数量
a.将信源符号按概率从大到小排列; b.将概率最小的2个符号结合得到1个组合符号; c.将组合符号与其他没有组合的符号按概率从大到小排列; d.重复b、c步骤,直至信源中只有2个符号;
初始信源 符号 概率 b2 0.38 b4 0.30 b3 0.22 b1 0.10 信源的消减步骤 1 2 0.62 0.38 0.38 0.32 0.30
实质:空间冗余或几何冗余 减少冗余方法:将常用的2-D像素矩阵形式转换为某
种更有效的表达形式。
第6章 6.1 数据冗余和压缩
1.像素相关冗余
第6章 6.1 数据冗余和压缩
2.编码冗余
原始码为: aaaa bbb cc d eeeee fffffff (共22*8=176 bits) 行程编码为: 4a3b2c1d5e7f (共6*(3+8)=66 bits) 压缩率为:66/176=37.5%
0.58 1.58 1.17 2.17 2.17 3.17
l(βi)
1 2 2 3 3 4
码字
0 1 0 10 110 111
码长
1 1 1 2 3 3
一阶扩展:H(u)=0.918,Lavg=1,
η=0.918,平均:1比特/符号
二阶扩展:H(u’)=1.83,Lavg=1.89,η=0.97, 平均:0.945比特/符号
⎡ M −1 N −1 ⎤ 2 ⎢ ∑ ∑ ⎡ f ( x, y ) − f ⎤ ⎥ ⎣ ⎦ SNR归一化, x =0 y =0 ⎥ SNR = 10 lg ⎢ M −1 N −1 2 单位分贝(dB): ∧ ⎢ ⎡ ⎤ ⎥ ⎢ ∑ ∑ ⎢ f ( x, y ) − f ( x, y ) ⎥ ⎥ ⎦ ⎥ ⎢ x =0 y =0 ⎣ ⎣ ⎦
(251,32,15)
(248,27,4)
(248,27,4)
第6章 6.1 数据冗余和压缩
编解码过 程:
输入图 映射器
像素间 心理视觉 编码
编码器
输出图 量化器 符号编码器
解码器
输入图 符号解码器 反映射器 输出图
量化过程不可逆
第6章 6.1 数据冗余和压缩
练习:
设图像灰度共4级,P(0)=0.4, P(1)=0.3 , P(2)=0.2 , P(3)=0.1,用下列哪种方法得到的码平 均长度较短? (A) l(0) = l(1) = l(2) = l(3) (B) l(0) > l(1) > l(2) > l(3) (C) l(0) < l(1) < l(2) < l(3) (D) l(0) =1; l(1) =2; l(2) =3; l(3)=4
H(u)=1.81 像素数n=32 Lmin=H(u)×n=58bit
第6章 6.4 哈夫曼编码
压缩:减少编码冗余 变长编码:编码的平均长度减少
用较少的比特数表示出现概率较大的灰度级; 用较多的比特数表示出现概率较小的灰度级。
哈夫曼编码:
对信源符号逐个编码——最短码字 对固定n值的信源块编码——最优
M −1 N −1 ∧
∧
∑∑
x =0 y =0
f ( x, y ) − f ( x, y )
均方根误差erms: erms 均方信噪比SNRms:
⎡ 1 =⎢ ⎢ MN ⎣
M −1 N −1
⎡∧ ⎤ f ( x, y ) − f ( x, y ) ⎥ ∑∑⎢ ⎦ x =0 y =0 ⎣
2 1/ 2
⎤ ⎥ ⎥ ⎦
峰值信噪比PSNR:
⎡ ⎢ PSNR = 10 lg ⎢ ⎢ 1 ⎢ ⎢ MN ⎣
(fmax:图像中灰度最大值)
⎤ ⎥ 2 f max ⎥ 2 M −1 N −1 ∧ ⎡ ⎤ ⎥ ∑ ∑ ⎢ f ( x, y ) − f ( x, y ) ⎥ ⎥ ⎦ ⎥ x =0 y =0 ⎣ ⎦
第6章 6.2 图像保真度
H (u ) 第6章 6.3 无失真编码定理= −∑ P(b ) log P(b )
j =1 j j
J
例:计算图像的熵及图像编码所用最少比特数。
21 21 21 21 21 21 21 21 灰度级 21 95 169 243 21 21 21 21 95 95 95 95 169 169 169 169 计数 12 4 4 12 243 243 243 243 243 243 243 243 概率 3/8 1/8 1/8 3/8 243 243 243 243
第6章 6.3 无失真编码定理
无失真编码定理——香农第一定理
确定每个信源符号可达到的最小平均码字长 度。 (1)现有信源符号集B={b1,b2,…,bJ},其中共有J个信源符号,
每个符号统计独立,其概率矢量: u=[P(b1),P(b2),…P(bJ)] 单符号信源的熵为:
H (u ) = −∑ P (b j ) log P(b j )
第6章 6.1 数据冗余和压缩
数据冗余类别
(1) 象素相关冗余 空间冗余,几何冗余 (2) 编码冗余 与灰度分布的概率特性有关 (3) 心理视觉冗余 与主观感觉有关 减少/消除其中的一种/多种冗余,可实现数据压缩
第6章 6.1 数据冗余和压缩
1.像素相关冗余 产生:同一目标的像素间一般存在相关性,由某一像素
− kP (b1 ) × log P(b1 ) − kP (b2 ) × log P (b2 ) − ... − kP(bJ ) × log P (bJ ) H (u ) = k
= −∑ P (b j ) log P (b j )
j =1
J
熵!
第6章 6.3 无失真编码定理
例:二元信源的熵
H (u ) = −∑ P(b j ) log P(b j )
第6章 6.1 数据冗余和压缩
2.编码冗余——变长编码
图像中灰度出现的概率: ps(sk)=nk/n k=0,1,…L-1 不同灰度出现概率不同 平均比特数:
Lavg = ∑ l ( sk ) ps ( sk )
k =0
L −1
l(sk)为sk编码比特数
用较少的比特数表示出现概率较大的灰度级 用较多的比特数表示出现概率较小的灰度级
主观保真度准则:
评分 评价
1 2 3 4 5 6 优秀 良好 可用
说明
图像质量非常好,是人能想象出的最好质量 图像质量高,观看舒服,有干扰但不影响观看 图像质量可接受,有干扰但不太影响观看
刚可看 图像质量差,干扰有些妨碍观看,观察者希望改进 差 图像质量很差,妨碍观看的干扰始终存在,几乎无法观看
不能用 图像质量极差,不能使用
第六章
6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9
图像编码技术
数据冗余和压缩 图像保真度 无失真编码定理 哈夫曼编码 算术编码 位平面编码 无损预测编码 有损预测编码 变换编码
第6章 6.1 数据冗余和压缩
图像编码:表达数字图像所需数据量通常很大, 采用新的
表达方法以减小所需的数据量
第6章 6.3 无失真编码定理
信源的平均信息(熵)
信源符号集:B={b1,b2,…,bJ} 概率矢量:u=[P(b1),P(b2),…P(bJ)]
T
∑ P(b ) = 1
j =1 j
J
单个信源符号的自信息:I(bj) = –logP(bj) 若信源产生k个符号,符号bj平均将产生kP(bj)次 则,每个信源符号平均信息量为:
自然码
000 001 010 011 100 101 110 111
自然码 l(sk)
3 3 3 3 3 3 3 3
第6章 6.1 数据冗余和压缩
3. 心理视觉冗余
其存在与人观察图像的方式有关: 眼睛对某些视觉信息更敏感; 人对某些视觉信息更关心。 R G B
224= 16,777,216
(248,27,4)
第6章 6.4 哈夫曼编码
哈夫曼编码——(2)对每个信源符号赋值
a.将0、1分别赋给消减到最后的2个信源符号; b.对于不是由原信源结合成的信源符号,所赋值即为该 信源符号的码; c.对于由原信源结合成的信源符号,将所赋值赋给这2个 符号,再将0、1接在后面做为区分; d.重复b、c步骤直至初始信源。
j =1 J
T
第6章 6.3 无失真编码定理
(2)由信源符号集中n个符号组成一组形成块信源βi,则块 信源集B’={β1, β2,…, βJ n},其中共有J n个块信源。 信源产生βi的概率为: P(βi)=P(bj1)P(bj2)…P(bjn) 块信源概率矢量: u=[P(β1),P(β2),…P(βJ n)]T 信源的熵:
j =1 J
二元信息源B={b1,b2}={0,1},设信源产生2个符号的概 率分别为P(b1)=pbs和P(b2)=1-pbs。 信息源的熵: H(u)= - pbs log2 pbs -(1- pbs)log2 (1- pbs)
pbs=1/2, Hmax=1bit; pbs=0 或 pbs=1, Hmin= 0bit。
第6章 6.1 数据冗余和压缩
自然码和变长码:
sk
0 1 2 3 4 5 6 7
Lavg=3
Lavg =2.81 变长码
00111 00110 0010 011 010 11 10 000
CR=1.068 变长码 l(sk)
5 5 4 3 3 2 2 3
ps(sk)
0.02 0.05 0.09 0.12 0.14 0.20 0.22 0.16
编码效 率:
H (u ) η=n L 'avg
第6章 6.3 无失真编码定理
例:一阶和二阶扩展编码
块符号 源符号 P(βi) 一阶 扩展 二阶 扩展
β1 β2 β1 β2 β3 β4
b1 b2 b1 b1 b1 b2 b2 b1 b2 b2 2/3 1/3 4/9 2/9 2/9 1/9
I(βi)
H (u ') = −∑ P ( β i ) log P ( β i ) = nH (u )
i =1 Jn
块信源的熵是对应单符号信源的n倍
第6章 6.3 无失真编码定理
(3)可用长度为l(βi)的整数码字来对βi编码:
− log P( β i ) ≤ l ( β i ) < − log P( β i ) + 1
数据与信息
数据是信息的载体 同量的数据可表达不同量的信息 同量的信息可用不同量的数据表达
冗余
数据表达了无用的信息 数据表达了已表达的信息
第6章 6.1 数据冗余和压缩
相对数据冗余
n1和n2代表2个具有相同信息的数据集合的数据量 压缩率 CR=n1/n2 CR 在开区间(0, ∞) 中取值
数据冗余可定量描述 RD=1-1/CR
第6章 6.2 图像保真度
图像保真度
信息保存型/信息损失型 描述解码图像相对于原始图像的偏离程度 对信息损失的测度
Байду номын сангаас客观保真度准则
用编码输入图与解码输出图的某个确定函数表示损失 的信息量, 便于计算或测量。
主观保真度准则
主观测量图像的质量,应用不方便。
第6章 6.2 图像保真度
客观保真度准则:
点误差: e( x, y ) = f ( x, y ) − f ( x, y ) 图误差:
第6章 6.3 无失真编码定理
信息测量:
概率为P(E)的随机事件E 的信息量: 1 = − log P( E ) P( E ) I(E)称为E 的自信息,随概率增加而减少。 I ( E ) = log 若P(E)=1,即事件总发生,则I(E)=0。 信息的单位:比特(log以2为底) 1个比特:即2个相等可能性的事件之一发生
将上式各项乘以P(βi)并对所有i求和:
H (u ') ≤ L 'avg = ∑ P( β i )l ( β i ) < H (u ') + 1
i =1 Jn
将上式各项除以n,并取极限:
⎡ L 'avg ⎤ lim ⎢ ⎥ = H (u ) n →∞ ⎣ n ⎦
香农定理
通过对信源的无穷长 扩展编码,可以使 L’avg/n任意接近H(u)
SNRms = ∑ ∑ f ( x, y ) 2
x =0 y =0
M −1 N −1 ∧
M −1 N −1
⎡ ⎤ f ( x, y ) − f ( x, y ) ⎥ ∑∑⎢ ⎦ x =0 y =0 ⎣
∧
2
第6章 6.2 图像保真度
令 :
1 f = MN
M −1 N −1 x =0 y =0
∑ ∑ f ( x, y )
数据和信息:数据是信息的载体
对给定量的信息可用不同的数据量来表示 对给定量的信息,设法减少表达这些信息的数据量称为 数据压缩
步骤:图像压缩(编码)、图像解压缩(解码)
第6章 6.1 数据冗余和压缩
编解码过程:
存储 原始图像 原始图像 编码 编码结果 编码结果 传输 解码 解码图像 解码图像
第6章 6.1 数据冗余和压缩
第6章 6.4 哈夫曼编码
哈夫曼编码——(1)缩减信源符号数量
a.将信源符号按概率从大到小排列; b.将概率最小的2个符号结合得到1个组合符号; c.将组合符号与其他没有组合的符号按概率从大到小排列; d.重复b、c步骤,直至信源中只有2个符号;
初始信源 符号 概率 b2 0.38 b4 0.30 b3 0.22 b1 0.10 信源的消减步骤 1 2 0.62 0.38 0.38 0.32 0.30