图像的编码和压缩分析

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

不足:
如果图像中每两个相邻点的颜色都不相同,用行程编码不但不能 压缩,反而数据量增加一倍。 适用性 单一图像 — 二值图像;打印文件;地图;工程图;等高图...
无损压缩-行程 编码
适合行程编码的图像
无损压缩-行程 编码
适合行程编码的图像
无损压缩-行程 编码
(一)一维行程编码
对图象进行行扫描时,行内各像素的 灰度级可组成一个整数序列x1, x2, …, xN 。在行程编码中,可将这个序列映射成 整数对(gk, lk),其中gk表示灰度级, lk表 示行程长度,等于具有相同灰度级的相邻 像素的数目。
熵(Entropy)
平均信息量度,图像中各灰度级比特数的统计平均值。
H Pk log2 Pk
k 1
M
M : 灰度级数 Pk : 灰度级Wk出现的概率

平均码长(Average Code Length)
R k Pk
k 1 M
k : 灰度级Wk 对应的码字长度(二进 制代码的位数)
Pk : 灰度级Wk出现的概率
根据Shannon无干扰信息保持编码定理,若对原始图像数据的信息进 行无失真图像编码,压缩后平均码长存在一个下限,这个下限是图像 信息熵H。理论上最佳信息保持编码的平均码长可以无限接近图像信息 熵H。但总是大于或等于图像的熵H。
信息论要素(Elements of Information Theory)
码IV:单义性、续长码 如: 0010110111
W1W2W3W4
单义非续长代码平均码长最短
单义代码的充要条件:
ti D 1 i 1 n
D:代码中的码元种类; n:代码中的码字个数; ti:第i个码字的码长; 如上例:
4 7 ti 1 1 1 2 码 I : 2 2 2 2 2 1 非单义码 4 i 1 4 3 ti 1 1 2 2 码 II : 2 2 2 2 2 1 非单义码 2 i 1 4 码III: 2 ti 2 1 2 2 2 3 2 3 1 单义码 i 1 4 码IV: 2 ti 2 1 2 2 2 3 2 4 15 1 单义码 16 i 1
4
编码效率:
7 H 4 7 87.5% R 2 8
变长最佳编码定理
对概率大的消息符号赋予短码字,而对概率小的信 息符号赋予长码字,则编码的平均码长一定最短。
如: Wm Wn Pm < Pn tm > tn Pm:概率低 tm:长码 Pn:概率高 tn:短码
P
0
Pntn Pmtm 2 Pntm Pmtn 2
0.23
0
0.6
0.4
1
0
0.11
0.37 1 0 x4 0.12 x 0.17 1 0 3 1 0 0.20 x2 0.08 x6 0 .09 x 5

计算该信源的熵、编码后的平均码长,并思考对 于同一图像采用Huffman编码,编码是否唯一?
行程编码RLE(Run-length Encoding)
符号集 概率分布 Huffman编码
x1
0.40
x2
0.20
x3
0.12
x4
0.11
x5
0.09
x6
0.08
符号集 x1 x2 x3 x4 x5 x6
经排序的 第一次合 第二次合 第三次合 第四次合 第五次合 概率分布 并后排序 并后排序 并后排序 并后排序 并后排序 0.40 0.20 0.12 0.11 0.09 0.08 0.40 0.20 0.17 0.12 0.11 0.40 0.23 0.20 0.17 0.40 0.37 0.23 0.60 0.40 1
对于不需要图像的全部细节和灰度细节的图像,压 缩过程中可仅保存图像中的感兴趣的特征信息,压 缩其不相干和冗余信息,主要用于计算机的特征识 别、分析与控制。
数据域分类 压缩技术
空间域编码
变换域编码
其他方法
图像压缩编码技术
实现
无损压缩
PCM编码-脉冲编码调制 将模拟图像信号变为数字图像信号的基本手段
符号集 x1 x2 x3
经排序 的概率 分布
1 0.40 000
第一次 合并后 排序
1 0.40 000
第二次 合并后 排序
0.40 0.23 0.20
1Hale Waihona Puke Baidu
第三次 合并后 排序
1 0.40 00
第四次 合并后 排序
0.60 0.40
0 1
第五次 合并后 排序
1
0.20 0.12
010
0.20 0.17 0.11
第7章 图像的编码和压缩 Image Coding and Compression
概述
图像压缩(Image Compression)的概念
数据压缩的研究内容包括数据的表示、传 输、变换和编码方法,目的是减少存储数据所 需的空间和传输所用的时间。 图像压缩就是在一个可以接受的还原状况 的前提下用尽可能少的比特数来表示源信号, 即把需要存储或传输的图像数据的比特数减少 到最少程度。图像压缩是通过编码实现的。
思想:
有些图像具有许多颜色相同的图块,在这些图块中,许多连续的 扫描行都具有同一颜色,或者同一扫描行上有许多连续的像素都具有 相同的颜色值。这种情况下就可以不需要存储每一个像素的颜色值, 而仅仅存储一个像素值以及具有相同颜色的像素数目。
基本原理:
用一个符号值和串长代替具有相同值的连续符号(连续符号构成 了一段连续的“行程”。行程编码因此得名),使符号长度少于原始 数据长度。
01
001
000 001
0.37 0.23
01
x4
x5
0.11
011
0.09
0010
0.12
010 011
0.17
x6
符号集 概率分布 Huffman编码
0011
0.08
x1
0.40 1
x2
0.20 000
x3
0.12 010
x4
0.11 011
x5
0.09 0010
x6
0.08 0011
用二叉树方法实现Huffman编码方法也较为便利。 1 x1
码I:非单义性、续长码 如: 00110
W1W2W3W4 W1W1W3W3W1 W1W1W3W3W2
码II:非单义性、续长码 如: 010011
W1W2W3W4 W1W2W1W1W4 W1W2W1W3W2W2 W1W2W1W1W2W2
码III:单义性、非续长码 如: 010110111
W1W2W3W4
175K
1.46M
受生理和心理上的影响,人眼对黑白和彩色信息的 分辨率是有限的。光学上不一致的图像在视觉上可能是 一样。
图像压缩系统模型
信源 编码器
压缩的有效性
信源
信道 编码器
编码的可靠性
通信线路 或 存储介质
信宿
信源 解码器
信道 解码器
图像信息
图像包含大量的数据,但这些数据是高度相关的 静止图像往往含有大量的空间冗余信 息;动态图像不但含有大量的空间冗 余信息还含有大量的时间冗余信息。
概述
图像数据压缩的可能性
从信息论观点看,描述图像信源的数据由有 用数据和冗余数据两部分组成。
I D du
信息量 数据量 冗余量 冗余量是可以压缩的,在实际应用中应尽量保证去除 冗余量而不会减少信息量,即压缩数据在一定条件可以近 似恢复。
数据冗余(Data Redundancy)
编码冗余(Coding Redundancy)
哈夫曼编码(Huffman Coding)
Huffman编码是1952年由Huffman提出的一种编码 方法。这种编码方法是根据信源数据符号发生的概率进行 编码的。
思想:
在信源数据中出现概率越大的符号,编码以后相应的 码长越短;出现概率越小的符号,其码长越长,从而达到 用尽可能少的码符表示信源数据。它在无损变长编码方法 中是最佳的。
等长编码 平均码长为3
变长编码 平均码长为2.7
数据冗余
像素间冗余(Interpixel Redundancy)
图像是由按一定规则排列起来的像素组成,图像中相 邻像素的灰度往往相同或相近,这就称为像素间冗余或空 间冗余。
数据冗余
心理视觉冗余(Psychovisual Redundancy)
编码方法:
1. 把输入符号按出现的概率从大到小排列起来,接着把概 率最小的两个符号的概率求和; 2. 把它(概率之和)同其余符号概率由大到小排序,然后 把两个最小概率求和; 3. 重复2,直到最后只剩下两个概率为止。
在上述工作完毕之后,从最后两个概率开始逐步向前进行编码。对 于概率大的消息赋予0,小的赋予1。在反向进行的过程中,若概率 不变,保留原码字;若概率分裂为两个,前几位保留原码字,最后 一位一个赋“0”,另一个赋“1”码。
概述
图像数据压缩的必要性
图像数据的特点之一是信息量大。海量数据需要巨大 的存储空间。如多媒体中的海量图像数据,不进行编码压 缩处理,一张600M字节的光盘,只能存放20秒左右的 640× 480像素的视频。没有编码压缩,多媒体信息保存 有多么困难是可想而知的。 在现代通信中,图像传输已成为重要内容之一。采用 编码压缩技术,减少传输数据量,是提高通信速度的重要 手段。可见,没有图像编码与压缩技术的发展,大容量图 像信息的存储与传输是难以实现的,多媒体、信息高速公 路等新技术在实际中的应用会遇到很大困难。
应用分类
信息保持型数据压缩 — 无损压缩 压缩图像的比特数和冗余信息,主要用于图像信息 保存,要求图像存储能保持信息并能快速存取图像 保真度型数据压缩 传送的图像能够适应通信的通道限制,压缩图像过 程中允许丢失一些人感觉不到的信息即允许微量失 真,主要用于图像传输、数字电视和多媒体中。 特征保持型数据压缩 — 有损压缩
4
求信源X的熵、平均码长和编码效率。 解: 熵:H Pk log2 Pk
k 1
1 1 1 1 1 1 1 1 log2 log2 log2 log2 2 4 4 8 8 8 8 2 7 比特 4
平均码长:
1 1 1 1 R k Pk 2 2 2 2 2 比特 2 4 8 8 k 1
对连续图像信号的空间进行采样、幅值量化并用适当码 字将其量化编码。编码方法有等长和变长编码两种。
DPCM编码-差分脉冲编码调制
预测编码
空间域中最成熟也是最通用的编码技术。其结构和语音 信号中使用的线性预测编码完全相同。与 PCM 不同的是 它编码的是图像像素值和其预测值的差分。该编码系统 会引起斜率过载、颗粒噪声和轮廓噪声。
编码效率 Coding Efficiency

H ( x) 1 R( x) 1 r
冗余量 Redundancy
R( x) r 1 H ( x)
熵编码目的:使R尽量减少至H
例题
设一离散信源如下:
W1 1 X 2 00
W2 W3 W4 信源 1 1 1 概率 4 8 8 01 10 11 编码
目的 消除各种冗余并在给定畸变下使 用尽量少的比特率表示和重建图 像,以便更好地传输和存储图像 应用领域 二值图像传真、静态图像传输、可视电话、会议电 视、VCD、DVD、常规数字电视、高清晰度电视、 多媒体可视通信、多媒体视频点播与传输等…... 评价 客观保真度 准则 主观保真度
信息论要素(Elements of Information Theory)
(二)二维行程编码 一维行程编码只考虑消除每行内像素 (或水平分解元素)的相关性,未考虑行间 像素(垂直分解元素)的相关性。二维行程 编码考虑两个方向分解元素之间的相关性。
2 n 2 P m
2 2 2 2 2 2 P P t P P t n m n m n m 2 n 2 m
t t

P nt n P mt m P nt m P mtn
符合定理的平均码长 不符合定理的平均码长
唯一可译编码
所编码字序列能唯一地译出来。单义性、非续长码是 唯一可译编码。 单义性代码:任意一个有限长的码字序列只能被唯一 地分割成一个个码字。 非续长代码:集合中的码字不能由其他码字在后面添 加码元构成。 如: 信源 W1 W2 W3 W4 概率 1/2 1/4 1/8 1/8 码I 0 0 1 10 码II 0 1 00 11 码III 0 10 110 111 码IV 0 01 011 0111
相关文档
最新文档