基于雾气理论的视频去雾算法2011.09
暗通道去雾算法原理
暗通道去雾算法原理暗通道去雾算法是一种常用的图像去雾方法,它基于暗通道先验原理,在图像中预先找到暗通道并利用其估计场景深度和大气光,从而去除图像中的雾霾。
该算法具有计算速度快、效果稳定等优点,在计算机视觉、图像处理等领域具有广泛的应用。
下面我们将详细介绍暗通道去雾算法的原理。
一、判定暗通道对于一张含有雾的图片I,其在某个像素位置的亮度值可以表示为I(x),其中x为该像素的坐标位置。
根据图像去雾的基本原则,假设原始场景的亮度值为J(x),则I(x)可以被表示为:I(x)=J(x)t(x)+A(1-t(x))其中t(x)表示该像素处的透射率,A表示场景的大气光,1-t(x)表示该像素的反射率。
对于一张图像,其暗通道一般可以通过以下公式计算:Dc(x)=min(min(Jr,Jg),Jb)其中Dc表示暗通道,Jr,Jg,Jb分别表示图片每个像素点处的红、绿、蓝通道的值。
该公式的物理意义是,在具有较强雾霾的区域,颜色值越小的像素点更容易透过雾霾,因此在暗通道中颜色值最小的像素点更可能是无雾情况下的颜色。
二、估计大气光在使用暗通道先验原理求图像场景深度之前,需要先估计图片中的大气光。
根据上述公式,Dc的最小值与大气光A具有关联,可以通过以下公式计算:A=argmax(I(x))其中argmax表示取所有像素点中亮度值最大的像素点的位置,该位置即为大气光所在位置。
由于大气光通常在图片中位置比较靠近,因此可以针对一个较小的图片区域进行计算,以提高速度和准确性。
需要注意的是,由于图像中可能存在比大气光更亮的物体,如光源等,因此在计算大气光时需要对这些物体作出排除。
三、估计场景深度场景深度是指光线在经过物体时所穿过的距离,能够用于估计透射率。
根据暗通道先验原理,可以使用暗通道估计场景深度。
具体而言,可以通过以下公式计算场景深度:t(x)=1-ωmin(D(x)/A)其中ω表示全局透射率的权重,通常设置在0.95左右。
计算机视觉技术中的去雾算法
计算机视觉技术中的去雾算法计算机视觉技术的发展已经在很大程度上改变了我们生活的方方面面,其中一个重要的应用领域就是图像处理。
图像处理不仅可以改善图像的质量,还可以从图像中提取出有价值的信息。
然而,在真实世界中,由于天气、空气质量等因素的影响,图像中常常存在着雾霾带来的模糊和退化问题。
为了解决这个问题,研究人员开发了各种去雾算法。
去雾算法是计算机视觉领域中的一种重要技术,其目的是从模糊的图像中恢复出清晰的图像。
去雾算法主要分为传统的基于物理模型的算法和深度学习算法。
传统的基于物理模型的算法是最早应用于去雾的方法之一。
这些方法基于透视成像模型和大气散射模型,通过对图像中的不同颜色通道进行处理,恢复图像的细节信息。
其中,最著名的算法之一是单尺度暗通道先验算法(Dark Channel Prior)。
该算法根据室外自然场景图像中暗通道的特性,通过寻找图像中最暗的像素点,并与全局的大气光值相结合,从而实现图像去雾。
虽然这些基于物理模型的算法在特定情况下可以取得良好的效果,但它们也面临着一些限制,例如需要相对精确的先验信息和对图像进行多次迭代等。
近年来,随着深度学习技术的快速发展,深度学习算法在计算机视觉领域取得了巨大的突破。
基于深度学习的去雾算法在解决雾霾问题上表现出了很强的鲁棒性和适应性。
这些方法通过构建神经网络模型,从大量的带雾图像数据中学习和提取图像的特征,进而实现去雾的效果。
其中,Retinex-based方法是一种基于深度残差网络的去雾算法,它可以对不同强度的雾霾进行准确去雾,并能够提升图像的对比度和细节。
此外,生成对抗网络(GAN)也被应用于去雾问题中,通过生成器和判别器之间的对抗性训练,使生成的图像更加逼真和清晰。
尽管基于深度学习的去雾算法在处理复杂场景和多样化的数据方面表现出了优势,但也面临着一些挑战。
首先,由于神经网络模型的设计和训练需要大量的计算资源和数据集,因此计算成本较高。
其次,训练数据中可能存在多样性不足以及样本不平衡的问题,这会导致模型的泛化能力不佳。
视频剪辑 使用去雾和防抖动效果
视频剪辑:使用去雾和防抖动效果一、去雾效果在视频剪辑中,去雾效果是一个非常实用的工具,可以帮助提升画面的清晰度和色彩还原度。
在Adobe Premiere Pro软件中,使用去雾效果非常简单。
1.导入视频素材首先,将需要进行去雾效果处理的视频素材导入到Adobe Premiere Pro软件中。
可以通过“导入”功能或者拖拽文件直接将素材导入到工作区。
2.创建调整图层在时间轴中选中视频素材,并点击右键选择“新建调整图层”。
这样可以在调整图层上添加去雾效果,保留原始视频素材的完整性。
3.应用去雾效果在“效果控制”面板中,找到“色彩校正”文件夹。
在其中可以找到“去雾”效果。
将该效果拖拽至调整图层上。
4.调整参数通过“效果控制”面板中的参数调整选项,可以对去雾效果进行调整。
常见的参数包括去雾强度、饱和度、对比度等。
根据具体情况,适量调整参数以达到理想的效果。
完成去雾效果的调整后,可以通过预览面板实时查看效果。
如果满意,可以选择导出视频。
二、防抖动效果防抖动效果的应用可以使视频看起来更加稳定,减少因拍摄过程中手持不稳导致的抖动问题。
在Adobe Premiere Pro软件中,使用防抖动效果同样十分简单。
1.导入视频素材同样,将需要进行防抖动效果处理的视频素材导入到Adobe Premiere Pro软件中。
2.创建调整图层在时间轴中选中视频素材,并右键选择“新建调整图层”。
3.应用防抖动效果在“效果控制”面板中,找到“变换”文件夹。
在其中可以找到“像素运动模糊”效果。
将该效果拖拽至调整图层上。
4.调整参数通过“效果控制”面板中的参数调整选项,可以对防抖动效果进行调整。
常见的参数包括像素模糊度、方向、尺寸等。
按需调整参数以达到最佳效果。
完成防抖动效果的调整后,可以通过预览面板实时查看效果。
如果满意,可以选择导出视频。
三、其他技巧与注意事项除了上述的去雾和防抖动效果,Adobe Premiere Pro软件还提供了许多其他实用的剪辑工具和特效。
应用于雾天行车视频实时处理的改进去雾算法
应用于雾天行车视频实时处理的改进去雾算法作者:张红莉李展鹏何宗伦董明轩来源:《西部论丛》2018年第02期【摘要】雾、霾天气的情况下,采集图像时会受到大气粒子散射的影响,导致图像细节模糊,色彩失真,可视距离较低。
现针对图像视频去雾的算法已被提出,但存在去雾实时性差,天空及大量明亮區域处理效果不理想,复原图像偏暗等问题,为此基于暗原色先验理论提出了一种改进的有效实时视频去雾算法。
首先,采用逐像素式滤波估计透射率,消除块效应;其次,采用自适应亮度调整的方法解决图像偏暗的问题;而后,在视频中取出必要的帧数显示处理,考虑对屏幕从上到下五分之三的位置进行去雾处理,余下部分不进行去雾处理(因为一般近处去雾效果不明显,远处明显),提高图像处理速度。
本文中的改进去雾算法可以实时地进行视频去雾,并且提高了图像对比度,清晰度,可视距离加长。
并可应用在Android平台APP 中,在手机移动端实现视频实时去雾。
【关键词】实时视频去雾技术暗通道先验逐像素式最小滤波自适应亮度调整引言近年来,雾霾天气频繁,该天气导致能见度降低,对比度差,对人们的日常生活尤其是交通安全方面有恶劣影响。
实时地进行视频去雾处理有重要的实际意义。
目前的去雾算法主要分两类:一种是图像增强的方法,主要有直方图均衡化、Retinex算法、局部对比度增强等,根据主观视觉效果来进行对比度调整优化。
另一种是图像复原的方法,通过分析图像在雾天的降质过程建立图像退化模型,进而求解无雾图像。
图像增强的方法未考虑图像退化因素,导致不能完全达到去雾功能。
所以相较而言图像复原的方法得到的图像更加清晰自然,是当前去雾研究的热点。
2009年,He Kaiming等人提出基于暗原色先验理论的去雾算法[1],取得了相当好的去雾效果。
但是此算法对天空区域处理效果并不理想,而且算法复杂度高,实时性差。
本文针对于雾天中交通视频实时处理提出了一种改进的去雾算法,采用逐像素式滤波对粗略透射率进行精细化,合理估计了大气光值,利用自适应方法对视频图像进行了亮度调整,并对图像进行分割处理,针对远处图像进行去雾,提高处理速度,适用于行车交通视频的实时去雾显示。
雾天图像成像理论分析
基于大气散射模型的实时视频去雾方法研究摘要:近年来,我国空气质量大幅下降,导致雾霾天气日渐频繁。
在雾霾天气情况下,大气中存在着很多混浊介质(如,颗粒、水滴等),户外场景的视频图像出现了退化和降质,表现为清晰度和对比度低、色彩失真、细节特征模糊不清等特点。
视频图像的降质退化使得户外视觉系统不能正常发挥效用,降低了工作效率及其可靠性。
例如,在雾霾天气情况下,能见度降低,航拍视频中目标不可见,且色彩及对比度等特征严重衰减,无法满足航拍工作系统的灾害监测预警等后续要求。
因而,在计算机视觉这一领域内,有雾视频的清晰化是一个重要的问题。
本文对雾天视频图像的退化和降质进行了详细的分析,阐述了雾天视频图像降质的原因,研究了国内外研究人员在视频图像去雾方面的成果,分析了各研究人员去雾方法的理论基础和核心技术,在此基础上,详细研究了基于大气散射模型的暗通道先验去雾方法,并且进行改进和完善,作出创新。
本文建立基于大气散射原理的视频图像去雾模型,以暗通道先验去雾方法为基础,用导向滤波进行改进,采用VS2013和Opencv编写去雾算法程序,实现单幅图像去雾,然后进行CUDA加速,使对常用的1920×1080大小的视频图像进行去雾处理的运算速率达到每秒15帧以上,实现实时视频去雾。
最后,将本文的去雾算法与其他算法进行比较,对比不同去雾方法得到的恢复图的效果,以及不同方法的利弊,完善细节,将该算法应用于实际待去雾的视频中。
关键词:图像降质;图像去雾;暗通道先验;大气散射模型第1章绪论1.1 课题研究背景和意义一般情况下,获得清晰的视频图像是户外视觉系统正常工作和发挥效用的前提,因此,它对于天气情况非常敏感。
然而,近年来,我国空气质量大幅下降,多地频繁出现雾霾天气。
雾天条件下,户外场景的视频图像受到严重影响,这是由于大气中存在着许多混浊介质,包括颗粒、水滴等,这些介质会吸收和散射部分可见光,使成像设备接收到的光的强度产生衰减,这导致获取的视频图像产生退化和降质。
基于深度学习的图像去雾算法
基于深度学习的图像去雾算法深度学习技术在计算机视觉领域有着广泛的应用,其中之一就是图像去雾。
图像去雾是一种对雾霾或模糊图像进行处理,以还原图像真实细节的算法。
深度学习模型能够通过学习大量的数据,从中自动提取图像特征,并生成较清晰的图像。
本文将介绍基于深度学习的图像去雾算法的原理和应用。
一、深度学习在图像去雾中的应用深度学习在图像去雾中的应用主要包括以下几个方面:1. 基于卷积神经网络(CNN)的图像去雾:CNN是一种常用的深度学习模型,可以自动学习图像的特征,并进行图像处理。
在图像去雾中,CNN可以通过对雾霾图像和清晰图像进行训练,学习到雾霾的特征,从而生成清晰的图像。
2. 基于生成对抗网络(GAN)的图像去雾:GAN是一种由生成器和判别器组成的深度学习模型。
生成器负责生成模糊图像的去雾结果,而判别器则评估生成结果的真实性。
通过对生成结果进行反馈和训练,GAN可以产生较为真实的去雾图像。
3. 基于深度残差网络(DRN)的图像去雾:DRN是一种具有残差连接的深度学习模型,可以有效地学习图像的细节。
在图像去雾中,DRN可以通过学习雾霾图像与清晰图像之间的残差,将雾霾图像还原为清晰图像。
二、基于深度学习的图像去雾算法原理基于深度学习的图像去雾算法主要通过以下几个步骤实现:1. 数据准备:收集大量的雾霾图像和其对应的清晰图像作为训练数据。
可以通过现有的数据集或自行采集。
2. 搭建深度学习模型:选择适用的深度学习模型,如CNN、GAN或DRN,并进行模型的搭建。
模型的结构可以根据实际情况进行调整和优化。
3. 数据预处理:对训练数据进行预处理,如调整图像大小、归一化、平滑处理等。
预处理能够使模型的训练更加稳定和高效。
4. 模型训练:使用预处理后的雾霾图像和对应的清晰图像对深度学习模型进行训练。
可以采用监督学习或无监督学习的方法。
5. 模型测试和评估:使用测试数据对训练好的模型进行测试和评估。
评估指标可以包括图像质量评价指标(如PSNR和SSIM)以及主观视觉效果。
视频实时自适应去雾算法
视频实时自适应去雾算法陈超;彭鑫珏;马利庄【摘要】Under climate condition of haze and fog, outdoor videos will show poor visibility, and real-time video dehazing is needed to restore the visibility of videos. Real-time video dehazing requires that single imagle haze removal algorithm has real-time speed, while existing methods are either not fast enough or have undesirable results. Furthermore, the extent of haze concentration on the scene captured in video will vary as time goes on. However, existing image dehazing algorithms use fixed parameters configured manually, which cannot make images under different degrees of haze concentration all have ideal results. This paper presents a real-time adaptive video dehazing algorithm. This algorithm designs an image dehazing method that distinguishes different regions of input image through dark channel value. It uses different parameters in different regions and achieves great results in real time. Besides, this algorithm designs a method to evaluate dehazing results based on dark channel prior and uses an iteration method to adjust parameters automatically to deal with the problem that haze in videos keeps changing.%在雾天环境下,户外视频的可视性将受到极大损害,需要通过视频实时去雾来恢复视频的可视性。
基于图像处理的视频去雾技术研究
基于图像处理的视频去雾技术研究近年来,移动互联网的迅速发展,推动了多媒体技术的飞速发展。
如今,人们在手机、电视上看视频已经成为一种非常普遍的娱乐方式。
但是,伴随着视频制作、传输、显示的不断深入,这些环节中可能会因为大气状况(如雾霾)而产生视频去雾问题。
因此,基于图像处理的视频去雾技术研究被越来越多的人看作是十分重要的课题。
一、图像处理技术的应用图像处理技术是通过计算机对图像进行处理,达到对图像质量的改善、去除噪点、增强画面对比度的目的。
图像处理技术在电视广播、医疗影像、数字娱乐、安全防护等领域得到了广泛的应用。
而在视频制作、传输、显示等过程中,由于大气状况的干扰,图像处理技术也被应用到了视频去雾领域。
二、视频去雾技术的研究现状视频去雾技术是近年来图像处理技术的重要研究方向之一。
当前,研究者们基于不同原理提出了不同的方法,主要包括模型方法、统计方法、盲估计法等。
其中,模型方法是将大气成像模型嵌入去雾算法,通过对天空的不透明度进行估计,实现对图像的去雾。
统计方法是根据遮盖率实现去雾,利用统计学原理分析图像中不透明度的分布,从而消除雾霾的影响。
盲估计法是指在不知道大气成像模型的具体情况下,通过盲估计技术实现去雾,这种方法自适应性强,但准确度较差。
三、基于暗通道先验的视频去雾技术研究暗通道先验是一种在图像处理领域中十分重要的公式。
暗通道是指在每个位置上的最小亮度值,因为大气散射的作用,图像的高光部分和阴影部分会出现弱化的情况,而暗通道则是不受此影响的部分。
因此,使用暗通道先验可以简化去雾算法的定位难度。
目前,基于暗通道先验的视频去雾技术是最受研究者欢迎的一种算法。
具体实现方法是在图像中提取出暗通道,通过求取全图像高光像素的最小值即暗通道,来实现对去雾区域的选择。
然后使用尺度统计原理,通过每一尺度暗通道代表的场景结构信息修复出雾霾图像。
四、基于深度学习的视频去雾技术研究基于深度学习的去雾算法使用卷积神经网络训练出来的网络结构,通过对图像学习,来实现对去雾区域的选择,并最终完成去雾任务。
基于物理模型的单幅雾天图像去雾方法
基于物理模型的单幅雾天图像去雾方法
基于物理模型的单幅雾天图像去雾方法是指利用空间反射光谱特
性的物理模型来对单幅雾天图像进行去雾处理的方法。
它是基于亚像
元成像模型,它使用空间反射光谱特性来估计净反射比(AER),从而
还原雾天图像中的真实视觉效果。
首先,这种方法将图像从RGB分量
转换为和空间反射光谱相关的分量,例如,水明度和对散射成分的反
射率。
然后,根据亚像元成像模型,通过可见光中的不同频带和远红
外中的总体反射率,估计出每个亚像元的净反射比值,进而移除浓雾
的影响。
最后,这个去雾方法可以在一定程度上恢复图像的真实视觉
信息,并且可以有效地降低此类图像的噪音。
此外,该方法具有很多优势。
首先,它可以自动从其他光谱特性
恢复净反射比,因此它可以有效避免手工调整模型参数的问题。
其次,该方法不受时间限制,它可以在短时间内获得很好的去雾结果。
最后,该方法可以准确地检测到雾或低能见度对视觉效果的影响,并有效地
进行去雾。
总的来说,基于物理模型的单幅雾天图像去雾方法通过使用空间
反射光谱特性来估计每个亚像元的净反射比,从而移除浓雾的影响,
从而可以恢复图像的真实视觉信息,并有效地降低此类图像的噪音。
视频去雾效果 改善远处景物清晰度
视频去雾效果:改善远处景物清晰度在拍摄视频时,有时候会出现远处景物模糊不清的问题,这给观看体验带来了一定的影响。
然而,通过使用Adobe Premiere Pro软件,我们可以轻松地改善远处景物的清晰度,为观众呈现更好的视觉效果。
本教程将向您展示如何使用这个软件进行视频去雾处理,以改善远处景物的清晰度。
第一步是导入视频素材。
打开Adobe Premiere Pro软件,并选择"文件" -> "导入" -> "文件",然后选中您要处理的视频素材并点击"导入"按钮。
软件会将素材导入到项目面板中,方便我们进行后续操作。
接下来,我们需要在时间轴上选择要处理的视频片段。
您可以通过拖动播放头进入到需要处理的位置,然后按下键盘上的"I"键标记入点,再拖动播放头到结束位置,按下键盘上的"O"键标记出点。
这样就可以选择需要处理的视频片段了。
现在,我们可以开始进行去雾处理。
在"效果"面板中,打开"视频效果"文件夹,找到"去雾"效果,并将其拖动到选中的视频片段上。
在"效果控制"面板中,您可以调整去雾效果的参数来改善远处景物的清晰度。
其中最常用的参数是"强度"和"半径"。
通过调节"强度"参数,您可以增强去雾效果,使远处景物更为清晰。
同时,通过调节"半径"参数,您可以控制去雾效果的范围。
除了"强度"和"半径"之外,"去雾"效果还有其他的参数可供调节,以满足不同的需求。
例如,"光源位置"参数可以调整光线方向,以改变去雾效果的效果。
"去雾颜色"参数可以调整去雾后的景物颜色,使其更加真实。
去雾算法的原理
去雾算法的原理雾天拍照或者看监控画面的时候,那雾蒙蒙的感觉真的很讨厌,啥都看不清楚。
不过呢,有个超酷的东西叫去雾算法,就像一个魔法一样,能把雾给驱散,让画面变得清晰起来。
咱们先来说说雾是怎么影响画面的哈。
雾就像是一个调皮捣蛋的小坏蛋,它会让光线变得乱七八糟的。
本来好好的光线,直直地从物体上反射到咱们眼睛或者摄像头里,雾一来,就把光线给散射得到处都是。
这就好比一群规规矩矩排队的小朋友,突然来了个调皮鬼,把大家都撞得东倒西歪,乱成一团。
所以咱们看到的画面就变得白茫茫的,远处的东西就像被一层白色的纱给盖住了,细节啥的都看不到了。
那去雾算法是怎么来应对这个调皮的雾呢?有一种比较常见的原理是基于物理模型的。
想象一下,雾里的光线传播就像是一场复杂的旅程。
去雾算法就像是一个超级聪明的导游,它知道光线在雾里的传播规律。
这个算法会假设雾是均匀分布的,虽然实际情况可能不完全是这样,但这是个很好的开始。
它会根据一些数学公式,来计算雾对光线的影响程度。
比如说,它会考虑到雾的浓度、光线的衰减等等因素。
就好像这个导游知道路上有多少个小坑洼(雾的浓度),会让游客(光线)走得多艰难(光线衰减),然后想办法把这些影响去掉,让游客能顺利到达目的地(让画面清晰)。
还有一种基于暗通道先验的去雾算法也很有趣呢。
暗通道是啥呢?简单来说,在没有雾的自然图像里,大多数局部区域都有一些像素点是非常暗的。
可是雾一来,就把这些暗的地方都给“洗白”了。
这个算法就抓住了这个特点,先找到图像的暗通道。
然后根据暗通道里的信息来估计雾的浓度。
这就像是发现了雾这个调皮鬼留下的小尾巴,通过这个小尾巴就能知道它到底有多调皮(雾的浓度),然后就可以有针对性地把雾给赶走啦。
另外呀,有些去雾算法还会用到深度学习的方法。
这就像是请了一个超级智能的小助手,这个小助手看过无数有雾和无雾的图像,然后学会了怎么把有雾的图像变成无雾的。
它会自动从图像里提取各种特征,就像我们人看东西会注意到颜色、形状这些特征一样。
基于大气散射理论的视频去雾算法的研究论文
基于大气散射理论的视频去雾算法的研究论文基于大气散射理论的视频去雾算法的研究论文摘要:本文提出了基于大气散射理论的视频去雾算法,这种方法计算固定场景下的大气透射率,把计算结果应用于视频的所有帧以消除雾气,实验结果和实际应用显示这种算法去雾效果较为清晰,对比度较原始图像有明显的提升。
与其他视频去雾算法相比,由于固化了先验信息,因此算法的处理速度较快,在处理实时监控数据时可以迅速得到去雾的结果。
关键词:雾气理论;视频;去雾;大气透射率0 引言目前针对雾天视频的去雾方法主要建立单幅图像去雾的基础上,也可分为基于图像增强和基于物理模型的视频去雾方法两类。
前者对视频的每一帧进行直方图去雾化处理,后者则是对背景图像采用去雾算法进行处理,求取得到相关的参数后,再将物理模型与原始视频结合得到完整的去雾视频。
1 雾气理论1.1 大气散射理论大气散射模型由大气光成像模型和入射光衰减模型组成[4]。
何恺明[3]给出了雾霾天气下单色大气散射模型的简化表达式为:其中,A为大气光强为输入的有雾图像,为空间坐标x处的场景反照率,为大气的散射系数,是观测点到场景点的距离。
去雾的本质就是通过求取以及A的值以从原有雾图像中得到去雾后的图像。
在原始的雾气图像中,雾气的浓度会随着景物距离的变化而变化,因此透射率是一个变化的参数,而暗原色先验则提供了估算透射率的方法。
暗颜色先验理论是对大量室外无雾图像的观察统计得到的:在排除了天空等大面积明亮区域后的无雾图像中,存在这样的一些像素点,它们在RGB3个颜色通道中至少一个通道的值很低,这就是暗原色的概念,数学模型为[3]:其中为原始图像的颜色通道,为红绿蓝3个颜色通道,c为颜色通道的合集;为以x为中心的局部区域。
通过观察统计得到,的值较低且趋近于0。
如果J是无雾图像,则被称为J的暗通道。
2 基于大气散射理论的去雾算法2.1 简化的大气散射理论从大气散射模型出发,定义,则散射模型表达式变换如下:其中,表示介质在图像位置x处的传播函数或者透射率,为复原后的无雾图像。
基于大气物理模型的快速视觉优化去雾算法
基于大气物理模型的快速视觉优化去雾算法付辉;吴斌;韩东轩;黄阳强【摘要】针对雾霾天气条件下单幅图像降质以及现有去雾方法时间复杂度高的问题,以环境光物理模型为基础,引出快速视觉优化去雾算法.首先对单幅图像阈值分割找到天空区域,并结合二叉树模型定位精确的天空光矢量,进而采用改进的约束最小二乘法滤波细化粗略透射比率,保证其边缘细节较完整且受噪声影响小,最后利用环境光物理模型实现无雾图像的还原,并采用平均梯度、信息熵和视觉保真度等指标对图像进行评价.实验结果表明,所提算法与基于多尺度Retinex的自适应图像增强方法、基于独立分量的复原方法、快速可视化复原方法和暗原色先验复原方法对比,指标值较好且实时性强.【期刊名称】《计算机应用》【年(卷),期】2015(035)011【总页数】5页(P3316-3320)【关键词】暗通道先验;阈值分割;二叉树;最小二乘法滤波【作者】付辉;吴斌;韩东轩;黄阳强【作者单位】西南科技大学信息工程学院,四川绵阳621000;西南科技大学信息工程学院,四川绵阳621000;西南科技大学信息工程学院,四川绵阳621000;西南科技大学信息工程学院,四川绵阳621000【正文语种】中文【中图分类】TP7510 引言现有的去雾算法可分为两个方向:一是基于图像增强的算法改进,通过提高图像的对比度,从人眼感官的角度优化视觉效果;二是基于图像复原的算法改进,针对环境光物理模型,采用病态方程和图像处理的基本方法还原未知量。
去雾算法基于人眼视觉。
增强类去雾算法通过强化和削弱某些信息达成此目的。
早期的该类去雾算法如全局直方图均衡化[1],对图像整体作均衡处理,但忽视了局部景深变化带来的“晕轮效应”。
对此Kim等[2]用子块部分重叠直方图均衡化和Zimmerman等[3]插值直方图均衡化方法解决了由“块效应”引起的运算复杂度高的问题。
此外,Russo[4]通过多个小波尺度上的增强策略实现图像细节区域较为精细的处理。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
基于雾气理论的视频去雾算法郭 ,蔡自兴,谢 斌(中南大学信息科学与工程学院,湖南长沙410083) 摘 要: 本文提出了两种基于雾气理论的视频去雾新算法,一种视雾气为覆盖在各帧图像上的一层遮罩被从原视频中减除,一种视雾气为光路传播图被分离消除.前者将Retinex 算法得到的亮度图像与视频帧自身的深度关系相结合求取雾气遮罩,并将此遮罩从原视频帧中分离以去除雾气;后者将由背景图像得到的视频“通用”传播图应用于视频的所有帧以消除雾气.实验证明两种算法均能有效地提高原有雾视频各帧的对比度和清晰度.本文所提算法从雾气的角度入手,无需借助参考图像,运算代价低,与一般视频去雾算法相比,在获得较优的去雾效果的同时,具有较好的实用性和较快的处理速度.关键词: 雾气理论;视频;去雾;雾气遮罩;传播图中图分类号: TP399 文献标识码: A 文章编号: 037222112(2011)0922019207Video Defogging Algorithm Ba sed on Fog TheoryG UO Fan ,C AI Z i 2xing ,XIE Bin(School o f Information Science and Engineering ,Central South University ,Changsha ,Hunan 410083,China )Abstract : In this paper ,we proposed two new video defogging algorithms based on fog theory.One is regarding fog as the veil layer to be subtracted ,and the other is taking fog as the transmission map to be separated from the original video.The former uses the luminance component image obtained by Retinex algorithm and the depth information of the original video frames to sepa 2rate the veil layer.The latter applies a single transmission map obtained from the background image to a series of video frames.Ex 2periments show that both algorithms can effectively improve the contrast and quality of the video pared with other state of the art algorithms ,our algorithms restore video frames from a perspective of fog with no reference image and low computation cost.The new algorithms can remove fog effectively as well as provide a good practicability and a fast speed.K ey words : fog theory ;video ;defog ;veil layer ;transmission map1 引言 有雾视频清晰化是计算机视觉领域的一个重要问题.近年来,随着计算机软硬件技术的不断发展,对有雾天气视频图像的景物影像进行去雾处理已经成为可能,这反过来又对去雾视频的清晰度和真实感提出了新的要求.在雾天情况下,由于场景的能见度降低,视频帧中目标对比度和颜色等特征被衰减,因而无法满足室外视频工作系统需要准确提取图像特征的需求.因此如何自动、实时地消除雾气对视频帧中场景目标的影响具有重要的理论研究意义和实际应用价值.目前,国内外学者对去雾算法的研究主要是针对单幅图像,而对视频去雾方面的研究工作开展较少且远没有达到成熟阶段,处理过程中对天气或场景信息的采集具有很强的依赖性.雾天视频的去雾方法主要建立在前、背景分割的基础上,可分为两类.第一类方法的基本思想在于计算传播图,再利用该传播图对视频的每一帧进行去雾处理.如Srinivasa G 等人[1]通过在不同天气条件下所采集的完全对应的场景图像得到前景目标对象的深度;G ong Chen 等人[2]采用参考图像估算出传播图,再利用基于无迹卡尔曼滤波(UK F )的背景保持算法将背景减除.由于这些方法需要借助参考图像的要求过于苛刻,因而在实际应用中难以实现;第二类方法首先将背景图像与前景图像分离开来,分别采用相关去雾算法进行清晰化处理,再将两者的处理结果相融合得到最终的去雾视频,如Jisha John 等人提出的基于小波融合的雾天视频增强方法[3].此方法虽然去雾速度较快,但是算法中相关阈值的选取需根据处理视频的不同而进行人工调节,且处理后的结果有可能出现轻微的块状噪声.此外,Zhiyuan Xu 等人采用对比度约束的自适应直收稿日期:2010209226;修回日期:2011202204基金项目:国家自然科学基金(N o.90820302)第9期2011年9月电 子 学 报ACT A E LECTRONICA SINICA V ol.39 N o.9Sep.2011方图均衡化方法分别对前背景进行清晰化处理[4],此方法的不足之处在于得到的去雾结果在颜色上不太自然.总之,视频去雾的研究还处于起步阶段,现有方法无论是在效率、实用性还是处理的结果质量上都无法令人满意.针对目前视频去雾算法存在的问题,本文提出了建立在雾气分析基础上的视频去雾方法.这里的雾气在本文算法中既可以看做是覆盖在视频帧上的一层遮罩,又可以视为大气散射模型变形表达式中的光路传播图.相对于前人的工作,本文方法有以下创新点及优势:(1)从雾气的角度考虑视频的去雾方法.雾气如同覆盖的一层遮罩从原有雾视频帧上消除,或是作为散射模型表达式中的传播图被分离消除,从而拓展了视频去雾问题的解决途径.(2)有效地提高去雾处理的效率.算法由于采用了“通用”策略,将通过背景图像求取的传播图用于视频的所有帧,大大降低了算法的运算代价,保证了处理后其效果的一致性.在获得较优的去雾效果的同时,提高了算法的处理速度.2 雾气理论2.1 视雾气为遮罩将雾气视为遮罩的理论基础是Retinex模型. Retinex(视网膜“Retina”和大脑皮层“C ortex”的缩写)是Edwin Land(艾尔文・兰德)提出来的一个关于人类视觉系统如何调节感知到物体的颜色和亮度的模型[5]. Retinex的基本原理是将一幅图像S分为亮度图像L和反射图像R两部分,对于图像中的每一像素点(x,y), S(x,y)=R(x,y)・L(x,y),通过降低亮度图像对反射图像的影响而达到增强图像的目的.对于一幅图像而言,其亮度分量往往变化比较缓和,对应于图像的低频部分.将此变化缓和的亮度分量图像像素值的均值与原有雾图像的信息相结合即可得到包含景深关系的雾气遮罩.2.2 视雾气为光路传播图M cCartney于1975年提出了大气散射模型[6],该模型由衰减模型和大气光模型两个模型组成.其中衰减模型描述了光从场景点传播到观测点之间的削弱过程.大气光模型描述了周围环境中的各种光经过大气粒子散射后,对观测点所观测到得光强的影响.大气散射模型用公式表示为:I(x)=Aρ(x)e-βd(x)+(1-e-βd(x))A(1)其中I(x)为观测点接收到的点光强(即输入的有雾图像).ρ(x)为场景反照率.d(x)是场景点到观测点的距离,通常称为光程.A为大气光,其代表了周围环境中各种光的总强度.β称作大气的散射系数,它表示单位体积的大气对光的散射能力.从数学观点来看,去雾的目的在于从I(x)中求出ρ(x),d(x)和A的值,则Aρ(x)即为所求的去雾复原图像.从大气散射模型的角度出发,定义t(x)=e-βd(x),则散射模型表达式变换如下:1-I(x)A=t(x)(1-ρ(x))(2)其中,t(x)即为光路传播图,1-ρ为逆反照率,其随反照率的变化而相应改变.进一步定义B(x)=1-I(x)/A,C(x)=1-ρ(x),则(2)式变换为:B(x)=t(x)C(x)(3)在求取大气光A后,即可从I(x)中计算出B(x).由此根据式(3),去雾问题转变为从B(x)中分离光路传播图和逆反照率两分量的问题.其中B(x)表示人眼未能捕捉到的光强所占总光强的比率,如图1(a)所示.图1(b)为光路传播图,其表示从场景点到观测者之间没有发生散射的残余光强所占的比率.图1(c)为逆反照率,由于反照率表示场景点入射光中被反射的比率,则逆反照率为入射光中被场景点吸收的比率.因此,式(3)中的因子B(x)可以看作是光路传播图与逆反照率的乘积.此过程与上面介绍的Retinex算法原理类似,若将B(x)视为输入图像,则可将传播图看作原图像的亮度分量,将逆反照率视为原图像的反射分量.传播图是景深的连续函数,尽管深度图存在不连续性,但大部分情况下深度的变化都是平滑的,因此传播图的变化也是平滑的,即传播图的变化是大规模的.而雾气的存在是导致其对应的无雾图像亮度发生大规模变化的主要原因,由此即可推出如下假设:B(x)中大规模的亮度变化是由反映雾气浓度变化的光路传播图所导致的.3 视雾气为遮罩的去雾算法3.1 去雾算法流程该视频去雾算法的流程主要有两步:一是利用Retinex算法将有雾视频各帧的亮度图像分离出来,并结合原视频帧自身的深度信息得到该视频各帧的雾气遮罩;二是在对数域中将原有雾视频的每一帧图像减去其雾气遮罩以分离出反射图像,其目的在于消除每帧图像中的雾气遮罩影响,从而获得场景目标的本来面貌,并采用自适应对比度拉伸方法以获得进一步增强后的去雾效果.此算法的具体流程如图2所示.0202 电 子 学 报2011年3.2 雾气遮罩估计与去雾图像获取对雾气遮罩的估计是该算法核心,视雾气为遮罩的去雾算法将从三个颜色通道分别处理.定义F(x,y)为标准差为σ的高斯低通平滑函数,首先将原有雾视频帧与此平滑函数进行卷积运算,以获得该帧图像的亮度分量图像L^(x,y),此操作表示如下:L^(x,y)=I(x,y)3F(x,y)(4)F(x,y)=k e-(x2+y2)/σ2(5)其中,k为归一化常数,使得系数和为1.σ为标准差,其决定了平滑程度.具体来说,假设平滑函数的窗口大小为v×v,则k的取值应满足使F(x,y)的和值为1.对于Π(x,y),为了求得该视频帧的雾气遮罩 L(x,y),先计算亮度分量图像L^(x,y)的均值 L(x,y):L(x,y)=1H3W ∑Hx=1∑Wy=1L^(x,y)(6)注意到直接计算L^(x,y)的均值所得到的雾气遮罩只适用于雾气分布均匀的情况,若处理雾气分布不均的视频帧,则会导致最终去雾效果的颜色严重失真,因此本文所提算法考虑从视频帧自身的景深关系入手求取雾气遮罩,其操作过程可表示为:L′(x,y)=255-I(x,y)3 L(x,y)(7)最后,将图像L′(x,y)转换到Y CbCr颜色空间,并提取出该空间的亮度分量 L(x,y),此亮度分量即为该视频帧的雾气遮罩.在获取雾气遮罩 L(x,y)后,即可将其在对数域中从图像I(x,y)中分离出去.然后经过指数变换即可得到原图的反射分量图像.图3显示了以上去雾过程.其中图3(a)为原有雾图像,图3(b)和图3(c)分别为估算的雾气遮罩和反射分量图像.从图3(c)可以看出,以上求得的反射图像整体偏暗.因此,本文方法采用自适应对比度拉伸方法[7]提高图像的整体对比度,图3(d)即为此方法最终去雾结果.4 视雾气为光路传播图的去雾算法4.1 去雾算法流程本文去雾算法流程如图4所示.针对有雾视频,本文所提方法首先借助由何恺明等人提出的暗原色先验统计信息估算出大气光强值A[8],进而经过计算求得B (x).再通过帧间差法检测运动目标,并进一步提取出该视频的背景图像.然后对此背景图像在Y CbCr空间的亮度分量进行多尺度Retinex(MSR)、参数调整、双边滤波和全变分去噪滤波即可获得视作雾气的光路传播图.由此即可通过运算求得C(x),并进一步得到反照率ρ(x).最后根据大气散射模型,将反照率ρ(x)与大气光A相乘即可求得去雾后的复原图像.4.2 大气光强估计为了计算B(x),必须首先估算出大气光值A.目前已有许多方法解决这一问题.如通过对雾天图像的天空区域求均值来估算A值,但该方法的不足在于场景中必须要有天空存在.J John等[3]通过求取调整对比度的代价函数的最小值或是利用YIQ模型的亮度分量值来求取大气光值.但这些估算A值的方法都不能在提高能见度的同时保持图像的颜色逼真度.何恺明提出的A值估计方法[9]建立在暗原色先验统计的规律之上,此方法适用于大多数实际场景.从实际应用的角度出发,本文算法即采用暗原色规律估算A值.具体做法为在暗原色图像中,将各像素点的亮度值按照递减的顺序排序,确定数值大小为前011%的点在暗原色图像中所处的位置,则这些位置所对应的原有雾图像区域中的最大值即为大气光A的值.按这种方法取得的A 值可能不是整幅图像中的亮度最大值,从而避免了A 值的错选.4.3 雾气传播图估计为了方便讨论,定义场景中的静止部分为背景,移动目标为前景.目前已有许多方法求取背景图像,如建模的方法或简单的均值方法.本文方法主要采用帧间1202第 9 期郭 :基于雾气理论的视频去雾算法差求取前景目标,然后进一步获得背景图像.在得到背景图像后,即可利用此图像求取视作雾气的光路传播图.注意到如果两个场景目标表面的辐照度发生大范围的变化,则即使它们位于同一景深区域也可能反映在传播图上具有不同的值.而物体表面的辐照度可以由亮度来衡量,因此可提出如下假设:传播图的变化由亮度引起.本文方法即是通过图像的亮度分量来获取其传播图,其估计方法的具体步骤如下:首先选取图像转换的颜色空间.对图像而言,为了将其亮度分量和色度分量分离开来,可以转换到HSI 、Y UV 颜色空间等,从而只针对亮度分量进行处理.目前常用的是HSI 空间,但由于该空间与RG B 之间的转换需要对每一个像素点进行三角函数运算,在计算时间和计算量上开销较大.因此选取的颜色空间为Y CbCr 空间,主要原因是其与RG B 之间的互换只涉及简单的代数运算,计算量小,计算速度快.其次在Y CbCr 空间的亮度分量上进行MSR 处理.该处理过程的数学形式如下: R m (x ,y )=∑Nn =1Wn (log Y (x ,y )-log [F n (x ,y )3Y (x ,y )])(8)其中R m (x ,y )是MSR 在第i 个色彩空间的输出,N 为尺度个数,W n 为对应于每一个尺度的权值,Y (x ,y )为亮度图像分布,F n (x ,y )为对应权值W n 的第n 个环绕函数,选取高斯形式.在对亮度分量进行处理时,环绕函数尺度的选择应尽量包含各个范围的尺度.实验表明对于大多数图像而言,选取大、中、小3个尺度,并且每个尺度的权重在保证和值为1的前提下根据保证色彩均衡的标准来选取,然后采用调整参数C 减去图像中每一点的像素值来调整传播图.大量实验证明,C 值取为1109时满足绝大多数情况,但是仅仅采用MSR 算法可能会使所获得的传播图包含多余细节,因此需要对传播图进行平滑.本文采用双边滤波器使传播图模糊化的同时保留场景目标的边缘.双边滤波器的特点是对图像的每一点用其空间相邻且灰度相近的象素值的平均值代替原来的值,从而达到滤波的效果.该滤波器是对图像的空问临近度和灰度相似度的一种折衷处理.在同一尺度下进行双边滤波时,小的边缘体现出的灰度差异往往被空间临近度所掩盖,滤波结果是大的边缘被保留.正是这个原因,双边滤波可用来去除图像的纹理,同时保留图像的形状特征.本文方法采用双边滤波的目的在于保留传播图中的场景目标边缘的同时,消除其中可能导致图像复原错误的细节信息.例如,图5(a )为原有雾图像,图5(b )为未经滤波的传播图,图5(c )为由图5(b )所得到的复原图像,图5(d )为经过双边滤波获得的传播图,图5(e )为由图5(d )得到的复原图像.从图5(a )中可以看出红色的砖瓦与其间的沟槽具有相同的景深,因此在传播图中不应有所区分,但在图5(b )所示的传播图中仍能很容易地看到瓦间的沟槽.采用双边滤波后这一多余的细节就被很好地消除了,如图5(d )所示,从而使最终的结果不存在光晕伪影的现象,去雾效果图5(e )要优于图5(c ).在求取传播图中采用的双边滤波其过程可定义为:I ^(u )=∑p ∈N (u )W c(‖p -u ‖)W s(|I (u )-I (p )|)I (p )∑p ∈N (u )W c (‖p -u ‖)W s(|I (u )-I (p )|)(9)其中,I (u )为原有雾图像,坐标u =(x ,y ),N (u )为u 的邻域.空间邻域相似度函数W c (x )为标准差为σc 的高斯滤波器:W c (x )=e -x 2/2σ2c.灰度相似度函数W s (x )则为标准差为σs 的高斯滤波器,其通常定义为:W s (x )=e-x 2/2σ2s.在实验中σc 和σs 分别设置为3和012,N (u )所表示的邻域的大小为5×5.双边滤波能有效地消除所估算传播图中的多余细节,从而使经过该滤波所获取的传播图能够较好地反映场景的景深信息.对于监控视频而言,摄像头一般是固定的且安装位置离地面距离较高,因此视频各帧的背景是不变的,并且前景目标与其背景之间在景深上的差异也通常较小.尽管针对单幅图像采用双边滤波求取传播图所获得的最终去雾效果较好,但如果对每帧图像都采用此滤波计算一次传播图必然需要耗费大量时间,从而无法满足实际应用的实时性要求.为了使一次计算得到的传播图能应用到所有帧,此传播图应在反映景深信息的同时,只包括场景目标的轮廓.在此情况下,运动的前景目标和图像的细节信息均可视作图像的“噪声”.由于基于Rudin 2Osher 2Fatem i (ROF )模型的全变分滤被证明对图像去噪较为有效,且对场景目标的边缘无平滑影响,因此本文算法在利用双边滤波所获取的传播图的基础上,又采用此全变分滤波器得到针对视频帧的通用传播图.图6表示视频片段1的去雾效果.图中,(a )和(d )是从原有雾视频中任意选取的两帧.(b )是背景图像经过双边滤波所得到的初始传播图.(e )是对(b )进行全变分去噪滤波后得到的通用传播图.该方法将由背景图像得到的传播图应用于视频的所有帧,因此算法速度快是其主要优点之一.同时从视觉感知的角度来看,最终的去雾视频帧也不存在重大失真.2202 电 子 学 报2011年4.4 场景辐照度复原在求取大气光值A后,即可结合视频每一帧的图像I(x),由式子B(x)=1-I(x)/A得到其对应的B(x)图像.再通过本文413节介绍的方法得到通用传播图t(x),代入式(3)即可求得C(x)图像,此图像相当于从图像B(x)中消除雾气t(x)后得到的结果.由此,最终的场景辐照度J(x)可以表示为:J(x)=A(1-C(x))(10)上式中的大气光值和传播图可分别由视频的第一帧和背景图像估算出然后即可应用于该视频的所有帧,从而避免了对每一帧求A和t(x)的重复运算.在图6中, (c)和(f)即为对任意选择的两帧(a)和(d)的场景辐照度复原效果.5 实验结果及分析 视频去雾中有待进一步研究的问题还很多,特别是各帧图像去雾效果的客观、定量评价问题尚未得到很好的解决,原因如下:(1)没有一个理想图像可以作为评价参考.对视频去雾效果的评估不同于图像质量评价或图像复原领域,在实际应用中与该视频各帧图像场景完全相同的晴天参考图像无法轻易获得;(2)任何合理的评价测度都必须与人眼视觉系统相匹配,然而视觉质量估计不是一个确定性过程.等等这些原因都使得对视频去雾的性能评估问题无法得到直接解决.为了对以上两种基于雾气理论的视频去雾方法进行对比,本文主要考虑以下三种评价标准:主观对比;定量评估;运算速度.5.1 去雾效果的主观对比实验采用M atlab615在Pentium(R)D,3100G hz,2GB 内存的PC机上对传统的视频去雾方法和本文提出的从雾气角度出发的视频去雾方法进行了大量的对比实验,图7即为采用文献[3]所代表的传统去雾方法和视雾气为光路传播图的方法在去雾效果上的主观对比.从图7中可以看出,文献[3]的传统去雾方法主要存在两个主要问题:一是该方法由于需对各帧的前景子图像进行相关增强处理再与去雾处理后的背景图像相融合,因而不可避免地会给最终的处理结果带来块状噪声,如图7(a)所示;二是相关阈值选取所造成的运动前景目标轮廓检测误差,如图7(b)所示.本文所提出的基于雾气理论的视频去雾方法不存在上述这些问题,因此从主观上来看能获得比传统视频去雾方法更优的处理效果.实验证明:将雾气视作遮罩或是看做传播图的方法均能使原有雾视频各帧的对比度有较大程度的提高.5.2 去雾效果的定量评估为了能客观地考察两种方法的去雾性能,考虑从大气能见距离的定义[9]出发进行去雾效果的定量评估.根据能见度的定义,采用K oheler提出的基于对数图像处理模型(LIP)的分割算法[10],得到去雾前后的视频帧图像中局部对比度大于5%的边缘集,这些边缘即为该帧图像的可见边.图8给出了传统去雾方法[6]和本文所提出的基于雾气理论的两种算法的可见边计算结果.由于此性能评价方法建立在大气能见距离定义的基础上,综合考虑了能见度的因素,因此评估结果与人眼视觉感知的结论相一致. 一旦得到局部对比度大于5%的对比度图,即可采用以下两个指标从不同角度客观评价帧图像的去雾效果.(1)新可见边集合数目比e: e=n rn 0(11)(2)去雾前后平均梯度比 r: r=g rg0(12)其中,n0和nr分别表示原有雾帧图像I0和去雾图像Ir 中可见边的数目.新可见边集合数目比e主要衡量在去雾图像中生成新可见边的能力. g0和 gr分别表示图3202第 9 期郭 :基于雾气理论的视频去雾算法像I 0和I r 的平均梯度.去雾前后平均梯度比 r 主要用来评估算法的平均能见度增强效果.对于每种算法,若e 、 r 值大于1,则说明相对于原有雾图像,处理后的图像具有更多的可见边和更高的能见度,且e 和 r 值越大,去雾效果越好.采用这些评价指标对文献[3]的方法和本文所提出的两种视频去雾方法进行定量评估,图9是对视频片断1(共50帧)的计算结果.此外,还分别对三段视频片断求取了以上两个指标的平均值,实验结果如图10所示.从图中可以看出,文献[3]的方法和本文提出的视雾气为遮罩以及视雾气为传播图的算法的e 、 r 值都大于1,说明这些算法均能有效地提高原有雾视频各帧的对比度和清晰度.同时相比之下,文献[3]的方法中其e 和 r 值均小于基于雾气理论的两种去雾方法.而对于本文所提出的两种去雾方法而言,前者比后者具有更多的可见边和更大的平均梯度值.以上这些结论在图7和图8的视觉效果中也得到了证实.究其原因,主要是视雾气为传播图的方法出于运算速度的考虑,采用“通用策略”将同一光路传播图应用于视频的所有帧,但各帧的雾气分布是存在细微差别的,因而最终的去雾结果有待完善.而视雾气为遮罩的方法由于对视频的每一帧都求取了雾气遮罩以用于后续的操作,因而此算法能取得相对较优的去雾效果.5.3 运算速度对有雾视频进行去雾处理所需的时间长短取决于该视频帧图像的大小以及场景的复杂程度.传统去雾方法由于需要提取视频背景图像和各帧的运动前景子图像,再将两者的增强处理结果相融合,因而所需的运算时间是三种算法中最多的.而对于视雾气为遮罩的去雾方法而言,由于算法需对每帧图像估算雾气遮罩和进行积累直方图运算,因而需要耗费一定的时间.相比之下,视雾气为光路传播图的去雾方法结合大气散射模型,并采用通用的传播图,其复杂度仅是视频帧总像素数目的线性函数,这就使该方法的运算速度要远远快于其它方法.表1是以上这些算法的运算速度对比表.表1 运算速度(帧/秒)视频序列大小文献[6]代表的传统方法视雾气为遮罩的方法视雾气为传播图的方法片段1480×270×500152512片段2350×197×800149425片段3210×118×10001484666 总结与展望 视频去雾是计算机视觉领域的一个重要问题,具有重要的实际应用价值.本文提出了基于雾气理论的视频去雾算法,即视雾气为遮罩或视雾气为光路传播图的算法.这些算法脱离了视频去雾的常规做法,考虑从雾气的角度研究视频的去雾问题,从而拓展了此问题的解决途径.实验证明两种算法均能有效地提高原4202 电 子 学 报2011年。