湍流图像退化复原
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
湍流退化图像复原
1、引言
由于人类活动和太阳辐照等因素引起了大气温度的变化,这一温度变化又引起了大气密度的随机变化,导致大气折射率发生随机变化,从而产生了对光学系统对目标的成像分辨率和成像质量的重要影响,这种现象后经对其定义指大气中任意一点的运动,其速度的方向和大小都时刻发生着不规则的变化,从而引起各个气团相对于大气整体平均运动的不规则运动,这种现象被称为大气湍流。
大气湍流是造成图像退化的原因之一,大气湍流能够造成图像模糊降晰,它能够退化远距离拍摄的图像质量,如通过望远镜观测到外太空的星星表现出的模糊降晰,因为地球上的大气退化了图像的质量,大气湍流随机地干扰,使像元强度分布扩散、峰值降低、图像模糊、像素位置偏移及抖动,给目标识别带来了较大的困难。光学器件受到大气湍流的影响主要是当光经过折射率不均匀的大气结构到达接收器件后,其振幅和相位等参数都产生了随机的起伏变化。传统的图像复原技术都是在退化模型确定和已知的情况下进行复原的,即先确定点扩展函数或其参数,然后利用诸如逆滤波和维纳滤波这样的方法恢复图像。但这些方法对光学系统的设计和光学器件的加工工艺都提出了更高的要求,并且不能消除系统像差中由大气湍流引起的部分,而且湍流流场对目标成像的影响是复杂多变的,导致湍流光学点扩展函数难以测定,其形式也是无法事先确定,所以往往单幅图像中所包含的信息量很少,而且不够全面,很难进行图像复原。因此通常大气湍流图像的复原都是在图像序列基础上进行的。为了消除大气湍流导致的成像抖动和模糊,很多学者进行了广泛深入的研究,如今已有很多针对大气湍流图像的复原算法,其中有不少取得的不错的进展。
2、国内外研究现状及方法
湍流退化图像的复原是一个世界性的难题,也是国内外不少科学家们多年来一直想致力解决的问题。大气湍流退化图像复原的困难之处在于其退化模型是未知的和随机变化的,且很难用数学解析式来描述,另外退化图像还含有噪声,这进一步增加了复原的难度。传统的图像复原方法主要集中在退化模型已知情况下的图像复原。退化模型未知情况下的图像复原方法研究室近几年来图像处理技术中极富挑战性的课题,它具有很大的应用前景。
湍流退化图像的复原有很多种方法,一种方法被称为“幸运成像”,由于大气湍流对图像产生的影响是随机的,所以在目标的短曝光图像中,存在一定比例接近衍射极限的好图像,它们只存在低阶像差,幸运成像正是运用这些“好图像”进一步复原图像。所以幸运成像技术的基本原理是:按照一定标准将拍摄图像中一些接近衍射极限的好图像选取出来,再进行配准叠加,从而复原出更加清晰的图像,提高图像的成像质量,使得原本无法显示的弱目标得以显示,原本无法分辨的细节得以分辨。由于这种方法的成本比空间望远镜的成本低很多,且复原图像的效果也比较好,所以很多学者都在深入研究如何更好的将这种方法应用天文观测领域。但是这种方法也存在一定的缺陷,首先由于长曝光图像受到大气湍流的影响较大,很难出现接近衍射极限的好图像,所以“幸运成像”技术只适用于短曝光图像;其次由于在短曝光图像中出现“好图像”的比例也很低,因此这种成像技术要求拍摄大量的短曝光图像(通常为几百幅,甚至上千幅),这样就大大增加了还原算法的计算量。
另外加利福利亚大学电气工程学院实验室针对大气湍流退化图像也提出了图像复原方法。这种算法是利用多帧图像重建的算法来复原图像序列中的某一幅图像,其基本步骤如下:首先对所拍摄的图像序列进行平均化处理,此时处理过的图像可以看做为一参考图像;然后利用非刚性图像配准技术对所得的图像进行配准,得到图像的变形矩阵Fk;最后利用贝叶斯图像重建算法对图像进行重建,从而得到更加清晰的图像。这种方法与“幸运成像技术”相比,所需拍摄的图像数较少,而且其应用不仅局限于短曝光图像,它同样可以应用长曝光的
图像序列。
美国在大气湍流对图像的退化方面,也进行了许多系统的理论研究,并建立了一系列的数学模型及相应的实验验证系统,同时揭示了一些规律,例如,图像模糊、抖动程度与探测器的成像积分(短曝光)时间有关,积分时间越长,湍流抖动引起的图像模糊越严重等。
美国研制的一些光学分析软件可以对湍流效应引起的像偏移、像模糊进行分析和预测。同时美国也系统的开展湍流退化图像校正复原理论研究,提出了一些校正复原的新原理、新方法。如基于LES仿真理论的湍流流场预测与控制技术、盲目迭代去卷积图像复原技术、基于自适应空间可变正则化图像复原技术等。
近些年来,国内也有许多科研机构开始对湍流退化图像的复原进行研究。华中科技大学图像识别与人工智能研究所提出了一种基于图像统计模型和极大似然估计准则的交替迭代多帧复原算法。该算法利用多帧湍流退化图像数据信息的互补,将航天图像的Poisson随机场概率模型作为先验知识,序列多帧湍流退化图像被一齐进行极大似然估计,建立了有关多帧图像数据的对数似然函数。通过极大化该对数似然函数,推导出了目标图像及各帧点扩展函数离散。经过实验证明,这种算法具有较好的抗噪声能力和稳定性,对湍流退化图像具有很好的恢复效果。但此算法依然存在多帧图像复原算法普遍存在的缺点,即要求图像的数量较多,当图像数量和迭代次数有限的情况下,是不不可能将目标图像完全地恢复出来,图像帧数越多,恢复的效果越好,但随之而来的计算量和耗时也将增加。
由于湍流点扩展函数是未知的和随机变化的,因此瞬时点扩展函数(退化模型)是难以确定的。当在湍流退化模型未知的情况下,直接从退化图像中估计目标的强度,必须转而借助盲目去卷积,为此人们提出了盲目去卷积方法。1968年Oppenheim等人以及1975年Stockham等人发表了具有开创性意义的研究成果。后来,Lane和Bates论证了用单帧图像进行盲目去卷积是可能的。1988年GR.Ayers和J.C.Dainty提出了基于单帧的迭代盲目去卷积方法,简称为IBD(Iterative Blind Deconvolution),并将其应用在大气湍流退化图像的复原中,这种方法在以后的研究中被证明是非常有发展前途的,此后的很多算法都是在IBD 算法基础上进行修正和改进的,如ne提出的共轭梯度极小的盲目去卷积技术、ne和w提出的基于最小二乘优化的盲目复原方法、以及Davey等人通过对维纳滤波进行迭代和在目标估计中使用支持域约束条件所进行的改良等。由上述发展可知,盲目去卷积方法是在未知湍流点扩展函数的情况下,利用一些合理的先验知识,如目标的强度和点扩展函数值都是非负的,支持区域大小以及频率域上某些已知的特性,来估计目标强度,它的关键是关于退化性质和图像的先验知识的应用。
为避免对先验知识的过多依赖和点扩展函数支持域大小的精确限制,D.Kundur和D.Hatzinakos提出了一种基于递归逆滤波的盲目去卷积算法,它不需要知道点扩展函数的支持域大小,利用目标图像的非负性和目标图像支持域。这种算法具有更好的可靠性、更快的收敛性和更低的计算复杂性,但其对噪声仍然较为敏感。随后,C.A.Ong和J.A.Chambers对这种算法进行了改进和提高。近十年间,人们对于盲目去卷积中正则化的理论研究和自适应方法有所进展,一些正则化技术既可以平滑噪声同时又尽可能保留图像细节,是图像复原尽可能恢复出更多的图像细节。
上述一些单帧盲卷积方法不够完善,对噪声十分敏感,不能有过多的噪声,而且有时其解还存在不确定性,所以这类还原算法对于大气湍流退化图像的复原效果不是十分理想。与单帧图像复原方法相比,显然多帧图像的使用对于确定和控制像抖动,实现稳定复原是有重要作用的,因此越来越多的科学家开始致力于多帧湍流图像复原。图像建模是用数学的解析式来表达图像的基本属性。图像模型可作为先验知识或约束于图像复原和图像重建中,这对于图像复原的意义是十分重要的。对于被复原的原始目标图像而言,采用多个不同的模糊帧是一个强有力的约束条件。这样可以针对地面目标图像,将其统计模型及其数学模型作为先验知识,使其复原问题变成参数化问题,从而实现稳定的湍流退化图像复原。国内外有很多的科研机构在研究湍流退化图像的复原工作,且有很多取得了很好的复原效果。