基于信源模型图像编码的数据压缩算法的研究与实现

合集下载

图像压缩算法

图像压缩算法

算法实现与应用——《算法设计与分析》课程报告一. 基本要求 1. 题目: 图像压缩 2. 问题描述掌握基于DCT 变换的图像压缩的基本原理及其实现步骤;对同一幅原 始图像进行压缩,进一步掌握DCT 和图像压缩。

3. 算法基本思想图像数据压缩的目的是在满足一定图像质量的条件下,用尽可能少的比特数来表示原始图像,以提高图像传输的效率和减少图像存储的容量,在信息论中称为信源编码。

图像压缩是通过删除图像数据中冗余的或者不必要的部分来减小图像数据量的技术,压缩过程就是编码过程,解压缩过程就是解码过程。

压缩技术分为无损压缩和有损压缩两大类,前者在解码时可以精确地恢复原图像,没有任何损失;后者在解码时只能近似原图像,不能无失真地恢复原图像。

假设有一个无记忆的信源,它产生的消息为{}N ≤≤i a i 1,其出现的概率是已知的,记为()i a p 。

则其信息量定义为:()()i i a p a log -=I由此可见一个消息出现的可能性越小,其信息量就越多,其出现对信息的贡献量越大,反之亦然。

信源的平均信息量称为“熵”(entropy ),可以表示为:()()[]()()∑∑==-=⋅=H Ni i i Ni i i a p a p a p I a p 11log对上式取以2为底的对数时,单位为比特(bits ):()()∑=-=H Ni i i a p a p 1log根据香农(Shannon )无噪声编码定理,对于熵为H 的信号源,对其进行无失真编码所可能达到的最低比特数为,这里为一任意小的正数,因此可能达到的 最大压缩比为:H≈+H =BB C εmax 其中B 是原始图像的平均比特率。

在图像压缩中,压缩比是一个重要的衡量指标。

可以定义压缩比为:H=B C 其中B :原始数据的平均压缩比;H :压缩数据的平均比特率 图像压缩的基本模型图像编码包括两个阶段,前一个阶段就是利用预测模型或正交模型对图像信号进行变换;后一个阶段是利用已变换信号的统计特性,对其分配适当的代码来进行编码传输。

图像编码与压缩的关系解析(二)

图像编码与压缩的关系解析(二)

图像编码与压缩的关系解析引言:随着科技的不断发展,图像在日常生活中的应用越来越普遍。

然而,高清图片通常占用较大的存储空间,不利于传输和存储。

为了解决这个问题,图像编码与压缩技术应运而生。

本文将从理论、算法和应用三个方面,探讨图像编码与压缩之间的关系。

一、图像编码的原理与方法1. 图像编码的基本原理图像编码是将图像通过某种数学模型进行数值表示,从而实现对图片信息的压缩。

这一过程主要包括采样、量化和编码三个步骤。

采样将连续的图像转换为离散的信号,量化将连续的信号转换为离散的数值,而编码则是利用特定的编码方式将数值进行压缩存储。

2. 图像编码的方法常用的图像编码方法包括无损编码和有损编码。

无损编码保持图像质量不变,包括RLE(Run Length Encoding)、Huffman编码和LZW (Lempel-Ziv-Welch)编码等。

而有损编码则通过牺牲一定的细节和精度来实现更高的压缩率,代表性的有损编码方式有JPEG、以及WebP 等。

二、图像压缩的原理与方法1. 图像压缩的基本原理图像压缩是对图像数据进行有损或无损的压缩,以减小图像数据的体积。

图像压缩技术主要包括空域压缩和变换域压缩两种方法。

空域压缩利用空间冗余性进行数据压缩,该方法通常使用预测编码或差分编码等技术。

变换域压缩则通过将图像转换到频域进行压缩,常用的方式有离散余弦变换(DCT)。

2. 图像压缩的方法图像压缩方法可以分为无损压缩和有损压缩两类。

无损压缩通过减小冗余和利用编码等技术实现图像数据的压缩,以保持图像质量不变。

有损压缩则根据人眼对图像细节的敏感度,通过舍弃部分细节信息来实现更高的压缩率。

常见的图像压缩算法有LZ77、LZ78、DEFLATE 以及JPEG、HEVC等。

三、图像编码与压缩的关系1. 编码与压缩的异同编码和压缩都是对图像数据进行处理以实现压缩效果,但两者有不同的侧重点。

编码主要集中在信号表示的优化,通过数值表达来压缩图像数据及降低存储和传输成本;而压缩则更注重图像数据的压缩率,旨在减小数据量的同时保持较高的图像质量。

图像编码中的数据压缩技术介绍(六)

图像编码中的数据压缩技术介绍(六)

图像编码是将图像数据进行压缩和编码的技术,以减少数据的存储空间和传输带宽。

在现代科技快速发展的背景下,图像编码技术不断进步,以满足人们对高清图像的需求。

本文将介绍图像编码中的数据压缩技术。

一、无损压缩技术无损压缩技术是指经过压缩和解压缩后,图像数据还能完全恢复,不损失任何信息。

常见的无损压缩技术有:1.预测编码:根据前后像素的差异性,进行预测并编码,以达到压缩的效果。

其中比较常用的有差分编码和差分脉冲编码调制(DPCM)。

2.霍夫曼编码:通过统计图像中像素的出现频率,将频率较高的像素用较短的编码表示,频率较低的像素用较长的编码表示,从而达到压缩的目的。

3.算术编码:根据各个符号出现的频率以及前后符号之间的关联性,灵活地分配不同长度的编码,实现无损压缩。

二、有损压缩技术有损压缩技术是指在压缩过程中,为了减少数据量而损失一定的信息,但在视觉上仍然保持较好的感知质量。

常见的有损压缩技术有:1.离散余弦变换(DCT):将图像从时域转换为频域,通过将较大的频域系数保留,较小的系数舍弃,达到压缩图像的目的。

JPEG图像压缩就是基于DCT的有损压缩技术。

2.小波变换:与DCT类似,通过将图像从时域转换为频域,但是小波变换能更好地保留图像的细节信息。

3.向量量化:将图像分成多个小区域,然后将区域中的像素编码为对应的向量,通过选择合适的码本来对向量进行表达,从而减少数据量。

4.基于人眼视觉的压缩技术:根据人眼对图像细节和颜色的敏感程度,对图像进行优化压缩,达到较高的视觉质量。

三、混合压缩技术混合压缩技术将无损和有损压缩技术相结合,同时利用两种技术的优势进行图像压缩。

这种技术能够在保证图像质量的前提下,进一步减小数据量。

常见的混合压缩技术有:1.无损压缩+有损压缩:先利用无损压缩技术将图像数据压缩,再对剩余的数据采用有损压缩技术进行进一步压缩。

2.有损压缩+无损压缩:先利用有损压缩技术将图像数据进行压缩,然后对剩余的数据采用无损压缩技术进行进一步压缩。

使用计算机视觉技术进行图像压缩和图像编码的方法介绍

使用计算机视觉技术进行图像压缩和图像编码的方法介绍

使用计算机视觉技术进行图像压缩和图像编码的方法介绍在计算机视觉领域中,图像压缩和图像编码是两个重要的技术。

图像压缩的目的是降低图像占用的存储空间或传输带宽,而图像编码则是将图像转换为数字数据以便于处理和传输。

本文将介绍使用计算机视觉技术进行图像压缩和图像编码的方法。

图像压缩的方法可以分为两大类:有损压缩和无损压缩。

有损压缩是指在图像压缩的过程中,会损失一定的图像质量。

其中最常用的方法之一是基于离散余弦变换(Discrete Cosine Transform,DCT)的压缩方法。

这种方法将图像分块,然后对每个块进行频域变换,再使用量化表对变换系数进行量化,最后通过熵编码对量化后的系数进行编码。

另一个常见的有损压缩方法是基于小波变换(Wavelet Transform)的压缩方法。

这种方法将图像分解成不同尺度和方向的小波系数,然后根据能量分布对小波系数进行量化和编码。

无损压缩是指在图像压缩的过程中,不损失图像质量。

其中最常用的方法之一是基于预测的压缩方法,如差分编码和预测编码。

差分编码通过计算相邻像素之间的差异来减少冗余信息,然后使用熵编码对差异值进行编码。

预测编码则是利用预测模型预测当前像素的值,并将预测误差进行编码。

另一个常见的无损压缩方法是基于字典的压缩方法,如Lempel-Ziv-Welch(LZW)和gzip。

这种方法通过建立字典来存储和重用图像中的重复模式,从而实现压缩。

图像编码是将图像转换为数字数据的过程。

最常用的图像编码方法之一是基于亮度和色度分量的YUV编码。

YUV编码将图像分解为亮度分量Y和色度分量U、V,并对每个分量进行压缩和编码。

另一个常见的图像编码方法是基于向量量化的编码方法。

这种方法先将图像划分为不重叠的小块,然后将每个块与一组预定义的向量进行匹配和编码。

此外,还有基于灰度级联编码(Gray-level Run-length Encoding,RLE)的编码方法,该方法将连续的相同灰度值序列进行编码。

图像压缩与编码技术在信息科学中的创新与实践

图像压缩与编码技术在信息科学中的创新与实践

图像压缩与编码技术在信息科学中的创新与实践近年来,随着信息技术的迅猛发展,图像在我们的日常生活中扮演着越来越重要的角色。

然而,大量的图像数据给传输、存储和处理带来了巨大的挑战。

为了解决这一问题,图像压缩与编码技术应运而生。

本文将探讨图像压缩与编码技术在信息科学中的创新与实践。

一、图像压缩技术的发展历程图像压缩技术是一种能够减少图像数据量的技术。

早期的图像压缩技术主要是基于无损压缩(Lossless Compression)的原理,即通过对图像数据进行编码压缩,无需任何信息的丢失就能完成解压缩,保证图像质量的完整性。

然而,无损压缩技术在压缩率方面存在一定的限制,无法满足大规模图像数据的传输、存储和处理需求。

随后,无损压缩技术逐渐被无损压缩(Lossy Compression)技术所取代。

无损压缩技术以更高的压缩率为前提,牺牲图像质量的一部分,通过对人眼不敏感的信息进行舍弃,从而达到更高的压缩效率。

无损压缩技术在图像领域广泛应用,成为了图像压缩与编码技术中的重要组成部分。

二、图像编码技术的创新与应用图像编码技术是图像压缩与解压缩的关键环节。

在图像编码技术的发展历程中,各种编码算法层出不穷,不断提高了图像压缩的效果和速度。

其中最具代表性的编码算法是JPEG和PNG。

JPEG(Joint Photographic Experts Group)是一种基于DCT(Discrete Cosine Transform)的图像编码技术,广泛应用于数字摄影、图像传输和互联网图像展示等领域。

JPEG编码算法通过对图像进行分块,并对每个分块进行变换和量化处理,将变换系数编码以获得更高的压缩率。

然而,JPEG算法对于图像细节和边缘的处理效果不佳,容易产生压缩伪影。

相比之下,PNG(Portable Network Graphics)是一种无损压缩的图像编码技术,广泛应用于图像传输、数据存储和打印等领域。

PNG编码算法通过使用差分编码和哈夫曼编码,实现了更好的压缩效果和图像质量。

基于静止图像编码的数据压缩算法的研究与实现

基于静止图像编码的数据压缩算法的研究与实现

尽管数据存储技术不断发展,但人们对于压缩图像数据以节省数据存储空间和提高信道利用率的需求仍在增长。

图像的无损压缩相对有损压缩来说更加困难,取得的进展也更小。

目前,基于小波的图像压缩方法是图像压缩领域发展较快的一个分支,提升方法能够方便的构造从整数到整数的小波,为图像的无损压缩研究提供了有力的工具。

而对小波系数编码的方法是实现图像压缩的关键技术,不仅关系到图像的最终压缩效果、也关系到图像的恢复质量和编解码的时间消耗。

本文对小波的研究主要集中在提升方法上,并选择了9/7-F、9/7-M 两种传统用于图像压缩的小波来用提升方法实现从整数到整数的小波,为后面进一步研究系数编码做好准备。

基于分级量化的重要性测试编码是小波系数编码方法中重要的一类方法.本文对该类方法进行了全面和深入的研究,探讨了基于该方法的图像无损压缩编码算法,以改善图像无损压缩的性能,这是本文研究的重点。

对分层树集合分割算法(SPIHT,Set Partitioning In Hierarchiacal Trees)、嵌入式块集合分割算法(SPECK,the Set Partition Embedded block coder)这两种先进的、有代表性的算法本文作了详细和全面的分析与讨论。

在此基础上,本文提出了自己的基于分级量化的重要性测试编码的算法,该算法除了在集合分类策略和搜索策略上采用了新的方法外,还采用了截断量化和对特殊组合进行编码等方法来改善图像无损压缩的性能,同时又不影响有损压缩的性能。

本文算法在无损压缩性能、执行速度和有损压缩性能上同SPIHT、SPECK算法做了比较,都优于这两种算法。

另外,本文对算术编码,特别是它的实现作了研究,主要是为了探讨将该方法与本文的算法相结合,进一步提高图像压缩性能的可能性。

从实际情况来看,这一想法是可行的。

关键词:图像压缩,编码,小波,提升方法,算术编码摘要 iABSTRACT i第一章绪论 11.1 图像压缩编码研究的现状和发展 11.1.1 统计编码 21.1.2 预测编码 21.1.3 变换编码 21.1.4 其它编码方法 31.2 小波分析在图像压缩编码研究中的应用 41.2.1 小波的构造 51.2.2 量化和编码 61.3 论文介绍 7第二章静止图像的编码分析 92.1 分级量化的思想 92.2 分层树集合分割算法(SPIHT) 102.3 嵌入式块集合分裂编码器(SPECK) 122.4 现有方法的不足 14第三章图像编码算法及其实现 153.1小波的构造 153.1.1 提升方法 153.1.2 整数小波 163.2 截断量化的编码方法 173.3 图像的编码算法 193.3.1 算法1 193.3.2 算法2 213.4算术编码 22第四章压缩软件的设计及测试 244.1系统结构 244.2软件的设计和实现 254.2.1编码器结构 254.1.2 数据分析部分 264.2.3 文件格式 264.3软件使用简介 274.3.1界面设计 274.3.2小波变换的步骤 284.3.3 小波系数编码的步骤 284.3.4 图像压缩的步骤 294.4测试分析及结论 304.4.1压缩效果评价 304.4.2实验数据 314.4.3数据分析 32第五章结束语 355.1 研究和开发工作的总结 355.2将来进一步的工作和计划 35参考文献 36致谢 37附录 38摘要ABSTRACTAlthough the techniques of data storage are developing the demand for compression for image data is rapidly growing so that to save the space of storage and improve the use ratio of channel. Comparing with lossy image compression, the lossless image compression is more difficult and itsdevelopment is slower. Now, image compression method based on wavelet is the branch which development is fast in image compressing field. Lifting scheme can design the wavelet transforms that map integer to integer, which provides the effective tool for studying the lossless image compression. On the other hand, the method for wavelet coefficients coding is a key technique to implement image compression, which not only affects the effect of compression, but also the qualities of resuming image and the time of coding and decoding.This thesis presents an investigation into lifting scheme, Then, the 9/7-Fand 9/7-Mwavelets which use generally in image compression, are selected for factoring theminto lifting steps so as to study the coefficients coding.The method based on scalar quantized significant testing schemes is an importantclass of coding for wavelet coefficients, which is studied in this thesis so as to find the way to improve the performance of lossless image compression. These works are the key of this thesis. An investigation of two classical algorithms, SPIHT (Set Partitioning In Hierarchical Trees) and SPECK (Set Partition Embedded block coder) is presented. Then, this thesis presents an algorithm based on the method for lossless image compression, which uses new strategy of set partitioning and other new methods, which improve the performance of lossless image compression and not affect the lossy compression. The new algorithm comparing with SPIHT and SPECK has better performances in lossless compression, lossy compression and time of coding and decoding.In addition, this thesis presents an investigation into arithmetic coding, especiallyits implementation. This is for finding the other way to improve the performances ofthe new algorithm. This thought is proved by the practice.Keywords: Image compressing, Coding, Wavelet, Lifting scheme, Arithmetic codin第一章绪论1.1 图像压缩编码研究的现状和发展图像数据只是众多类型的数据中的一种,因此图像压缩编码也是数据压缩的一个部分,只是图像具有与语音、文字等其他数据不同的特点,所以需要分别加以研究。

基于模拟算法的图像编码与压缩技术研究

基于模拟算法的图像编码与压缩技术研究

基于模拟算法的图像编码与压缩技术研究图像编码与压缩是数字图像处理领域中的重要研究方向,旨在将图像数据进行高效表示和传输,以减少存储空间和传输带宽的需求。

基于模拟算法的图像编码与压缩技术,即通过模拟算法对图像数据进行处理来达到压缩的目的。

本文将从原理、方法和应用三个方面对基于模拟算法的图像编码与压缩技术进行研究。

首先,基于模拟算法的图像编码与压缩技术的原理是基于信号处理和信息论的相关理论。

通过对图像中的冗余信息进行消除和数据压缩,以达到降低数据存储和传输的目的。

常用的模拟算法包括离散余弦变换(DCT)、小波变换、预测编码等。

其次,基于模拟算法的图像编码与压缩技术的方法主要有以下几种。

首先是基于变换的方法,其中最常用的是离散余弦变换。

离散余弦变换利用图像的局部相关性,将图像数据从时域变换到频域,由于图像中低频信号占据了主导地位,通过丢弃高频信号可以达到较好的压缩效果。

其次是基于预测的方法,其中著名的方法是无损预测编码,利用当前像素值与周围像素值之间的相关性进行预测和编码,以实现数据压缩。

此外,小波变换等也是常见的方法。

每一种方法都有其适用的场景和优势。

最后,基于模拟算法的图像编码与压缩技术在多个领域有重要的应用价值。

首先是数字电视、视频会议等视频传输领域,通过对图像数据进行编码与压缩,可以降低传输带宽的要求,提高传输效率。

其次是图像存储领域,通过对图像进行压缩编码,可以减少存储空间占用,提高存储效率。

此外,基于模拟算法的图像编码与压缩技术还可以应用于医学图像处理、无人驾驶、安防监控等多个领域,为人们的生活和工作带来了便利。

综上所述,基于模拟算法的图像编码与压缩技术是一门重要的研究方向,其原理基于信号处理和信息论,方法包括变换法、预测法和小波变换等。

基于模拟算法的图像编码与压缩技术在多个领域有重要的应用价值,为数据的存储和传输提供了有效的解决方案。

随着科技的不断发展,该技术也将不断进步和完善,为数字图像处理领域的进一步发展提供更多的可能性。

图像压缩和编码中的数学算法和原理解析

图像压缩和编码中的数学算法和原理解析

图像压缩和编码中的数学算法和原理解析在当今数字化时代,图像的处理和传输已经成为了人们日常生活中不可或缺的一部分。

然而,由于图像数据庞大且占用存储和传输资源,图像压缩和编码技术应运而生。

本文将探讨图像压缩和编码中的数学算法和原理,为读者带来更深入的理解。

一、图像压缩的基本原理图像压缩是指通过减少图像数据的冗余信息来减小图像文件的大小,以达到节省存储空间和提高传输效率的目的。

图像压缩的基本原理可以归结为两个方面:冗余性和编码。

冗余性是指图像中存在的不必要的冗余信息。

在图像中,存在着空间冗余、视觉冗余和统计冗余。

空间冗余是指图像中相邻像素之间的相关性,即相邻像素之间的值往往是相似的;视觉冗余是指人眼对于某些细节的感知能力有限,可以通过适当的处理来减少图像中的冗余信息;统计冗余是指图像中像素值的统计规律,往往存在一些重复出现的像素值。

编码是指将图像数据用更少的比特数表示的过程。

编码技术可以分为无损编码和有损编码两种。

无损编码是指在压缩图像的同时保证图像数据的完整性,即压缩后的图像可以完全恢复为原始图像;有损编码是指在压缩图像的同时,对图像数据进行一定的舍弃或近似处理,以达到更高的压缩比。

二、图像压缩的数学算法1. 离散余弦变换(DCT)离散余弦变换是一种常用的图像压缩算法,它将图像从空域转换到频域。

在频域中,图像的能量会集中在较低频率的系数上,而高频系数则往往包含了图像的细节信息。

通过保留较低频率的系数,可以实现对图像的有损压缩。

2. 小波变换(Wavelet Transform)小波变换是一种多尺度分析的方法,可以将图像分解为不同频率的子带。

与DCT相比,小波变换能够更好地捕捉图像的局部特征,因此在图像压缩中具有更好的效果。

3. 向量量化(Vector Quantization)向量量化是一种有损压缩算法,它将一组相似的像素值用一个代表向量来表示。

通过将相邻像素值聚类并用代表向量表示,可以大大减少图像数据的冗余信息,从而实现高效的压缩。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

目录摘要 (I)ABSTRACT ......................................................................................................................... I I 第一章绪论 (1)1.1课题研究的意义 (1)1.2课题研究的现状 (2)1.3课题研究的内容和目的 (3)1.4图像压缩的相关概念 (4)第二章基于信源模型图像压缩的综述 (7)2.1基于信源模型的图像压缩技术分类 (7)2.2分形图像编码 (8)2.2.1 分形图像编码的基本原理 (8)2.2.2分形图像压缩的基本算法 (9)2.2.3分形图像压缩的特点 (12)2.3模型基图像编码 (13)2.3.1模型基图像压缩的基本思想 (14)2.3.2人脸模型化 (15)2.3.3 模型基编码的特点 (17)第三章矢量量化图像编码的研究 (18)3.1矢量量化的定义 (18)3.2量化的关键技术 (19)3.2.1码书设计 (19)3.2.2码字搜索 (21)3.2.3索引分配 (22)3.3相关改进算法 (23)3.3.1改进的覆盖聚类算法 (23)3.3.2改进的SA-LBG算法 (24)第四章软件系统的整体设计与实现 (29)4.1软件系统的整体设计及模块实现说明 (29)4.2算法的VC++实现的简单说明 (36)4.3矢量量化编码的性能和复杂度 (37)4.4算法的结果 (38)第五章结束语 (39)参考文献 (40)致谢 (42)附录 (43)摘要伴随着科技的发展,社会的进步,在多媒体压缩范畴里,人们认识到对信源的建模表达能使压缩技术取得更大的进展。

于是产生了一系列的基于信源模型的图像压缩技术。

本文在概要论述基于信源模型图像压缩技术的基础上,重点研究了矢量量化图像压缩。

矢量量化一直是图像编码领域最常用的有损压缩技术之一,具有信息理论概念上的最优性和实际应用的简易性。

在编码过程中,矢量量化编码器在码书中为每个输入图像块矢量寻找最匹配码字,并将其索引号而非码字本身传送到解码端,因而此编码算法能提供较高的压缩比,解码过程也只需进行简单的查表操作。

论文主要的研究工作体现在以下几个方面:系统地综述了矢量量化的三大关键技术,即码书设计、码字搜索和码字索引分配。

在此基础上提出了改进的LBG算法。

同时还介绍了分形图像压缩和模型基图像压缩的基本原理及算法,旨在深入了解信源模型图像压缩的技术。

关键词:信源模型,矢量量化,分形图像压缩,模型基图像压缩ABSTRACTWith the development of technology, and the progress of our society, in the multimedia compression category, people realized that the expression on source model can make the compression technology have greater progress. As follows, a series of image compression technology based on the source model have been created.The conceptions and algorithms for image coding based on source model, and focuses the research on vector quantization image compression algorithms is been summarily introduced in this thesis. Vector Quantization(VQ) has long been established as an efficient lossy compression technique popular in image coding field due to its optimality in information theory and simplicity in practical applications. By finding the nearest codeword in a codebook for each input image block vector and transmitting the codeword’s corresponding index to the deco der, VQ coding algorithm can usually provide high compression ratio and a simple table-look-up decoding operation. The main research work and contributions of this thesis are as follows:Firstly, this thesis systematically summarizes three key techniques of basic VQ, i.e. codebook design, codeword search and codeword index assignment, and some advances of LBG algorithms are presented.At the same time, the conceptions and algorithms for Fractal image coding and Model Based image coding is also been introduced. The purpose is to deep understand the technique of source model image compression.KEY WORDS: source model,vector quantization,fractal image coding,model based image coding第一章绪论1.1 课题研究的意义每天我们都是在报纸、杂志、书籍、电视、各种小册子等大量的图像信息包围中度过的。

这些图像包括文字、照片、图表、插图等,它使我们感到安适和生活情趣。

据统计,人们通过感觉器官收集到的各种信息中,视觉约占65%,听觉约占20%,触觉约占10%,味觉约占2%[1]。

随着信息处理技术的发展,出现了文本、声音、图像、视频等大量不同类型的听觉和视觉媒体数据。

进入信息时代以后,人们越来越多地依靠计算机来获取和利用各类媒体数据。

然而这些数据由于数据量庞大,在存储空间和传输带宽有限的情况下,这些数据的存储和传输存在瓶颈。

为此,人们通常要对这些媒体数据作压缩处理,以提高存储和传输效率,降低设备成本。

在保证听觉和视觉质量的前提下,人们往往希望能够以尽量少的空间和尽量小的比特率来存储和传输各种声音、图像数据。

然而在相同的压缩编码技术下,信息理论概念下的编码质量和压缩比往往是一对矛盾。

因此如何建立新的语音、图像和视频的分析模型,从而改进压缩编码算法长久以来一直是信号处理领域的研究热点。

图像视频通信的发展长期以来落后于语音通信。

而在多媒体数据通信的发展趋势下,图像压缩编码技术的研究和应用越来越引人瞩目。

人们对图像压缩的研究兴趣可以追溯到62年前。

最初在这一领域研究的焦点集中在如何建立一种模拟的方法以便减少视频传输所需的带宽。

这一过程称为带宽压缩。

数字计算机的出现和后来先进的集成电路的发展,导致了这方面研究的重点从模拟方式转移到数字压缩方法上来。

随着几种关键性的国际图像压缩标准的正式采用,这一领域在实际应用方面有了重大的发展。

当前,图像压缩被认为是一种“开放技术”,已经被广泛用于现代通信业务、工程应用、媒体传播、医疗服务和商务应用等诸多领域中。

对声音、图像、视频等多媒体信息的压缩有两条思路,要么采用成熟的通用数据压缩技术进行压缩,要么根据媒体信息的特性设计新的压缩方法。

然而在通用数据压缩领域技术已经相当的成熟,很难有大的突破,与此同时,多媒体信息日益成为主流信息形态,数据压缩技术特别是专用于图像、音频、视频的数据压缩技术还有相当大的发展空间——毕竟,人们对信息数量和信息质量的追求是永无止境。

随着电子信息产业的发展的牵引和相关科学技术进步的推动,科技界特别是许多跨国公司对于研究更高效图像压缩技术的热情越来越高涨,观念也在不断更新,新一轮的技术竞争也愈演愈烈。

今天,从事基于信源模型的图像编码的数据压缩课题的研究也正是在此思潮的引领之下开展的,希望通过笔者的努力能为这一技术的发展做出应有的贡献。

1.2 课题研究的现状严格意义上的数据压缩起源于人们对概率的认识。

当我们对文字信息进行编码时,如果为出现概率较高的字母赋予较短的编码,为出现概率较低的字母赋予较长的编码,总的编码长度就能缩短不少。

信息论之父 C. E. Shannon 第一次用数学语言阐明了概率与信息冗余度的关系。

在 1948 年发表的论文“通信的数学理论( A Mathematical Theory of Communication )[2]中, Shannon 指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。

Shannon 借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式。

这篇伟大的论文后来被誉为信息论的开山之作,信息熵也奠定了所有数据压缩算法的理论基础。

从本质上讲,数据压缩的目的就是要消除信息中的冗余,而信息熵及相关的定理恰恰用数学手段精确地描述了信息冗余的程度。

利用信息熵公式,人们可以计算出信息编码的极限,即在一定的概率模型下,无损压缩的编码长度不可能小于信息熵公式给出的结果。

1948年,Shannon在提出信息熵理论的同时也给出了一种简单的编码方法——Shannon 编码。

随着科学技术的不断进步,出现了Huffman 编码[3]。

编码效率高,运算速度快,实现方式灵活,从 20 世纪 60 年代至今,在数据压缩领域得到了广泛的应用。

不过,Huffman 编码所得的编码长度只是对信息熵计算结果的一种近似,还无法真正逼近信息熵的极限。

正因为如此,现代压缩技术通常只将 Huffman 视作最终的编码手段,而非数据压缩算法的全部。

相关文档
最新文档