- 相关推荐
基于嵌入式思想的小波图像压缩研究
摘要:图像作为传递信息的媒体和手段是十分重要的。但是数字图像的数据量非常大,需要很多的比特数,因而需要对图像进行压缩。所谓图像压缩就是在保证一定的图像质量和满足一定要求的前提下,减少图像原始数据量的一种过程。
关键字:图像压缩嵌入式小波变换
Abstract:
The image as delivering medium and means of information are very important .But the data quantity of the numerical image is very big, needing a lot of ratios to especially count, as a result need to carry on the compression to the image .So-called image compression is at guarantee the certain image quantity and satisfy the premise of certain request under, a process of reducing the quantity of original data of image.
Firstly, the image compression's necessary and feasibility are discussed, and several classical image coding technologies are introduced. Including code method and its evaluation criteria, main image coding international standard and so on. Finally, the Embedded Zerotree Wavelet algorithm based on the wavelet transformation had been analysised and the discuss, and its basic thought、 concept and algorithm principle had been elaborated. And the programming based on matlab has been completed: overall situation threshold value image compression Based on the bior3.1 wavelet, image two-times compressions and the primitive image 3-times decompositions based on the bior3.7 wavelet, the image compression-encoding and decoding based on the harr wavelet and the huffman coding. Through carries on the compression code test experiment to the standard test image, confirmed this method operation’s succinction, the quick speed, the high quality of the re-build images, which has obtained the satisfying effect.
Keywords:Image compression Embedded Wavelet transform
本文首先论述了图像数据压缩的必要性和可行性,对传统的经典的图像编码技术进行了介绍。包括编码方法及其评价标准、主要的图像编码国际标准等。并对基于小波变换的嵌入式零树算法进行了详细的分析和讨论,阐述了嵌入式零树小波编码(EZW)的基本思想、概念及算法原理。并完成了基于harr小波基和huffman编码方法的图像压缩编解码的编程。通过对标准测试图像进行压缩编码测试实验,证实该方法运算简洁,速度快,重构图像质量高,取得了令人满意的效果。
一、图像压缩编码概述
1.图像压缩编码的原理
图像压缩机制通常可以分为两种:有损压缩和无损压缩。在无损压缩中,我们关心的是确信重建没有丢失信息,无损压缩通常被用于文本文件的压缩中。对于有损压缩,允许压缩后产生质量上的误差。有损压缩机制的优点是可以得到比无损压缩高得多的压缩比,但是它只能用于可以用近似的数据代替原始数据,而这种相近数据又是容易被压缩的情况。举例来说,一幅和原图像在视觉上没有区别的图像可以看作是原图像的近似。任何压缩机制的根本思想都是除去数据中存在的相关性。所谓相关性,就是能够根据给出的一部分数据判断其相邻的数据。数据相关性分为以下几种:
(1)空间相关性:可以根据图像中某一点的像素值推断出其相邻点的像素值;
(2)频率相关性:一个信号的傅立叶变换通常是光滑的,这意味着可以根据某一部分的频率来推断其相邻部分的频率;
(3)时间相关性:在数字视频中,在时间上相邻两帧图像的大部分像素的值变化很小。
有损压缩的标准过程是变换编码。基本思想是用一个和原来不同的数学基来表示数据,在这种新的表示下,数据的相关性能够显露出来或被拆开。在这种情况下,大部分的系数都接近于0,可以忽略,于是可以将余下的信息存储在一个较小的数据包中。
2.图像压缩编码的方法
图像压缩编码有多种分类。按图像形式分为图示像和非图示像;从光度特征分为单色图像,彩色图像和多光谱图像;从处理维数分为行内编码,帧内编码和帧间编码;根据编码原理可分为:熵编码、预测编码、变换编码和混合编码[9]。
2.1熵编码
熵编码是纯粹基于信号统计特性的编码技术,是一种无损编码。熵编码的基本原理是给出现概率较大的符号赋予一个短码字,而给出现概率较小的符号赋予一个长码字,从而使得最终的平均码长最小。常见的熵编码方法有行程编码(RunLengthEncoding)、哈夫曼编码(huffman)和算术编码。这里重点说明哈夫曼编码。
哈夫曼编码是以信源概率分布为基础的,但一般无法事先知道信源的概率分布,通常采用对大量数据进行统计后得到的近似分布来代替,这样会导致实际应用时哈夫曼编码无法达到最佳性能。通过利用根据输入数据序列自适应地匹配信源概率分布的方法,可以较好地改进哈夫曼编码的性能。哈夫曼编码的一般算法如下[12]:
(1)首先统计信源中各符号出现的概率,按符号出现的概率从大到小排序;
(2)把最小的两个概率相加合并成新的概率,与剩余的概率组成新的概率集合;
(3)对新的概率集合重新排序,再次把其中最小的两个概率相加,组成新的概率集合,如此重复进行,直到最后两个概率的和为1;
(4)分配码字:码字分配从最后一步开始反向进行,对于每次相加的两个概率,给大的赋“0”小的赋“1”(也可以全部相反,如果两个概率相等,则从中任选一个赋“0”,另一个赋“1”即可),读出时由该符号开始一直走到最后的概率和“1”,将路线上所遇到的“0”和“1”按最低位到最高位的顺序排好,就是该符号的哈夫曼编码。
2.2预测编码
在经典的图像编码技术中,预测编码和变换编码是主要的两类编码方法。预测编码的硬件实现比较简单,而对于图像质量要求高的场合,采用预测编码,例如,差分脉冲编码调制(DPCM)可以达到与变换编码同样程度的码率压缩。目前,在视频序列编码,进行时间轴冗余度压缩的主要手段是运动补偿帧间预测。在预测编码时,不直接传送图像样值本身,而是对实际样值与它的一个预测值间的差值进行编码、传送。如果这一差值—预测误差被量化后再编码,这种预测编码方式叫DPCM。DPCM就是通过去除相邻像素间的相关性和减少对差值的量化层数来实现码率压缩的。
【基于嵌入式思想的小波图像压缩研究】相关文章:
基于医学图像的ROI模板压缩法03-07
基于提升小波构造在图像去噪的应用研究03-07
小波转换影像压缩模式之研究03-18
图像的小波降噪03-07
基于内容的图像检索研究11-20
基于内容的模糊图像检索技术研究03-18
基于分形维数的图像分类研究03-07