基于密集神经网络的灰度图像着色算法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2019-06-10
http://www. joca. cn
Journal of Computer Applications
计算机应用,2019, 39(6): 1816 - 1823
ISSN 1001-9081CODEN JYIIDU 文章编号:1001-9081 (2019)06-1816-08
DOI :10.11772/j. issn. 1001-9081.2018102100
基于密集神经网络的灰度图像着色算法
张娜,秦品乐:曾建潮,李启
(中北大学大数据学院,太原030051)
(*通信作者电子邮箱qpl@ nuc. edu. cn)
摘要:针对在灰度图像着色领域中,传统算法信息提取率不高、着色效果不理想的问题,提出了基于密集神经
网络的灰度图像着色算法,以实现改善着色效果,让人眼更好地观察图片信息的目的。

利用密集神经网络的信息提 取高效性,构建并训练了 一个端到端的深度学习模型,对图像中的各类信息及特征进行提取。

训练网络时与原图像
进行对比,以逐渐减小网络输出结果的信息、分类等各类型的损失。

训练完成后,只需向网络输入一张灰度图片,即可 生成一张颜色饱满、鲜明逼真的彩色图片。

实验结果表明,引入密集网络后,可有效改善着色过程中的漏色、细节信息
损失、对比度低等问题,所提算法着色效果较基于VGG 网络及U-Net 、双流网络结构、残差网络(ResNet)等性能优异的
先进着色算法而言取得了显著的改进。

关键词:图像着色;密集神经网络;灰度图像;特征利用;信息损失中图分类号:TP391.4
文献标志码:A
Grayscale image colorization algorithm based on dense neural network
ZHANG Na, QIN Pinle*, ZENG Jianchao, LI Qi
(School of Data Science And Technology, North University of China, Taiyuan Shanxi 030051, China)
Abstract : Aiming at the problem of low information extraction rate of traditional methods and the unideal coloring effect in the grayscale image colorization field, a grayscale image colorization algorithm based on dense neural network was proposed
to improve the colorization effect and make the information of image be better observed by human eyes. With making full use of the high information extraction efficiency of dense neural network, an end-to-end deep learning model was built and trained to
extract multiple types o£ information and features in the image. During the training, the loss o£ the network output result ( such
as information loss and classification loss) was gradually reduced by comparing with the original image. After the training, with
only a grayscale image input into the trained network, a full and vibrant vivid color image was able to be obtained. The
experimental results show that the introduction of dense network can effectively alleviate the problems such as color leakage,
loss o£ detail information and low contrast, during the colorization process. The coloring effect has achieved significant
improvement compared with the current advanced coloring methods based on Visual Geometry Group (VGG) -net, U-Net, dual
stream network structure, Residual Network (ResNet), etc.
Key words : image coloring; dense neural network; grayscale image; feature utilization; information loss
0引言
色彩信息是图像所包含的一种重要信息,能够结合图中 场景的语义及物体表面纹理信息,共同展现丰富的层次感。

研究表明,人眼对彩色强度及其变换具有很高的敏感度,彩色
图像较灰度图像而言,更便于人眼观察信息;且从人的心理层 面而言,彩色图像能给与观察者以更加愉悦、明快的感受,从
而有助于理解图像的内容,从中获取更加全面、丰富的信息,
提高图像使用价值。

因此,将灰度图像通过一定算法转换为
彩色图像,获得更好的观察效果是非常有意义的。

灰度图像
着色(即伪彩色处理)技术,即是在上述需求下产生的,通过
一种指定的规则,对灰度值赋以颜色⑴,实现还原、增强或改 变图像的色彩信息。

目前,主要存在着三类图像着色的方法。

1) 基于用户引导下的颜色传播类算法。

在灰度图像着
色领域出现较早,由用户进行关键部位或区域的指导性着色, 并按照设定的算法或转换规范进行颜色扩展。

其中,Levin
等⑵提出了全局优化着色算法,支持图像先验定义,用户在
着色后,生成与着色笔迹匹配的彩色图像;Lagodzinski 等〔一幻 提出了一种新颖的着色方法,利用形态距离变换和图像结构
自动传播用户在灰度图像内所写的颜色。

上述方法可取得不
错的效果,但由于不同的颜色区域需要明确指示,通常需要密
集的用户交互,且对与色度深浅等属性无法较好地进行表征 与实现,也容易出现由于标注不当、灰度值过于相近等原因产
生的颜色渗漏问题。

2) 基于指定函数或参数的颜色映射算法。

通过设定的
收稿日期:2018-10-18;修回日期:2018-12-18;录用日期:2018-12-18…
作者简介:张娜(1995-),女,山西临汾人,硕士研究生,主要研究方向:机器学习、计算机视觉、数字图像处理;秦品乐(1978-),男,山西太原 人,副教授,博士,CCF 会员,主要研究方向:大数据、机器视觉、三维重建;曾建潮(1963-),男,山西太原人,教授,博士生导师,博士,主要研究方 向:复杂系统的维护决策和健康管理;李启(1991-),男,山西大同人,硕士研究生,主要研究方向:机器学习、计算机视觉、数字图像处理。

第6期张娜等:基于密集神经网络的灰度图像着色算法1817
着色函数,将灰度值与彩色值之间建立某种映射关系,实现由灰色向彩色的变换。

Shah等⑸在基于优化的着色方法基础上,使用三个相关系数来评估其在信息损失方面的性能;Li 等⑹也使用了基于阈值应用着色技术,该类方法对阈值选取依赖性较高,且得到的着色效果颜色数目有限,效果较为生硬。

3)基于数据驱动的图像着色方法。

此类方法在早期主要有基于实例图像参考法及类比法。

Welsh等⑺提出可将灰度图像的亮度及纹理信息与实例参考图像进行对比,实现灰度图像的着色;Liu等⑻提出可直接从互联网中搜索与目标灰度图相关的彩色参考实例图像进行着色;Liu等何及Morimoto等〔呦通过颜色转换和图像分析,实现对目标灰度图像着色。

此类方法在目标灰度图与参考图像中内容相似的较高时,效果非常不错,但查找参考图像及匹配过程非常耗时,当着色目标或场景非常复杂或罕见时,着色效果就更难以得到保证。

Irony等则利用纹理特征匹配,首先对参考图像和灰度图像进行图像分割处理,参照参考图像,对灰度图像中具有相似纹理的部分赋以相同的色彩,虽然也可取得不错效果,但分割处理操作也增加了图像处理负担。

深度学习方法的发展及高性能图形处理器(Graphics Processing Unit,GPU)的出现,为基于数据驱动的图像着色方法开辟了新的方向。

该类方法利用神经网络,搭建不同的网络架构,通过卷积操作对图像的内容和特征进行提取及分析,寻找灰度图像到彩色图像之间的映射关系,从而训练出相应的模型,实现着色。

Cheng等凹通过为大规模数据建模,采用基于联合双边滤波的后处理方式,利用自适应图像聚类技术来整合图像全局信Deshpande等凹通过训练色度图中的二次目标函数,通过最小化目标函数实现图像着色。

此类网络结构较为简单,其着色效果比较有限。

Zhang等网提出通过VGG (Visual Geometry Group)卷积神经网络问来提取图像特征,预测每个像素的颜色直方图来为图像着色,后又提出了新的思路,利用U-Net网络〔切进行信息提取,并结合用户交互进行着色旳;Lizuka等丽构建了双流结构网络,同时提取图像的全局分类信息及局部特征信息,将两类信息进行融合,实现对像素颜色的预测。

此三类方法较之前的方法已取得了较大改善,但由于其网络均在图像处理过程中均进行了下采样及上采样操作,存在一定程度的信息丢失。

Qin等问采用残差网络囱进行细节特征的提取,结合分类信息指导,在一定程度上改善了信息损失,但仍存在细节着色不完善、漏色等问题。

通过对现有灰度图像着色算法进行广泛研究分析,可以看出,现有的灰度图像着色已经可以实现给定一幅灰度图像,通过一定算法得出一幅彩色图像,但基本都存在如下共性问题:
1)细节信息还原度不高。

由于对应映射关系效率有限,特征提取的过程中存在着一定程度的信息损失,导致图像中的部分内容(尤其是较小的物体)不能被赋予适当的颜色。

2)物体边界清晰度不高。

在一定程度上存在着“漏色”的问题,在物体边界处,容易存在颜色渗漏。

3)用户交互的依赖性较强。

需要借由用户做出大量辅助操作,往往容易引入较多的随机性误差,且不利于将用户从繁杂的参数调整工作中解放出来。

综合考虑上述因素,为了充分利用图像细节信息、轮廓信息等低阶语义信息,本文采用自适应性强、用户依赖低的密集神经网络,搭建着色网络,并且构造了着色网络损失函数以及评价指标。

经实验验证和理论分析,本文算法与传统方法相比,可以明显改善细节信息损失、边界不清晰的问题,同时不需要用户干预,得到的着色模型细节更加完善、丰富。

1相关理论
1.1卷积神经网络
卷积神经网络在图像识别、语音分析、自然语言处理等领域已经成为研究热点,该网络具有特征共享性,可有效降低网络的复杂性,在解决特征提取及特征映射问题时可发挥非常有效的作用。

特别是在图像分析与处理应用中,可直接将图像输入网络,避免了特征提取和分类过程中数据重建的复杂度。

目前已经有AlexNet(Alex Network)'"」、VGG、GoogleNet〔"」、残差网络(Residual Network,ResNet)等不同结构的基于卷积神经网络的优秀网络,在图像分类任务中已经将Top5错误率降到5%以下。

1.2跨层级连接思想
在深度学习网络中,随着网络深度的加深,梯度消失问题会愈加明显,因此产生了较大的信息损失。

目前,很多研究学者都针对此问题提出了解决方案,如ResNet、Highway Networks[23]‘Stochastic depth[24]‘FractalNets’25」等,此类算法的网络结构各有差别,但其核心都在于一创建早期层级到后期层级之间的短连接路径,在较小的代价下,利用较早层级提取到的信息,提高整体信息利用率。

其中,ResNet由于其较好的性能和结构的简单性,为较多研究者所采用。

该网络通过在残差块的输出和输入之间引入一个短连接,而不是简单地堆叠网络,实际映射关系可表示为F(x)+x,如图1所示。

恒等映射
丿乂
图1残差单元结构
Fig.1Residual unit structure
在一个厶层的卷积神经网络中,每一层I都对应一个非线性映射也(•),每一个映射通常包含了批标准化(Batch Normalization,BN)操作、ReLU激活函数、池化(Pooling)及卷积操作。

当一幅图像X。

进入网络,经过第2层后,将得到瓦的输出。

传统的前馈网络仅仅将第2-1层的输出直接连接至第2层,即X:=,ResNet添加了一个跳层连接,如式(1):
+^-i(1) ResNet的这一操作,在一定程度上可以解决由于网络加深出现梯度消失的问题,从而可以在一定程度上继续加深网络,获取更好的性能,但由于是直接将映射操作与前一次的输出相加,这可能不利于网络中的信息流动。

1.3密集神经网络
与传统的网络结构不同,密集神经网络DenseNet (Densely connected convolutional Network)〔如不是通过极其深或者宽的网络来获得更好的性能,而是通过特征重用来提升
1818计算机应用第39卷
网络的性能及潜力严生易于训练和参数效率高的压缩模型。

残差神经网络(ResNet)虽然也利用了跳层连接的思想,但其仅利用了上一层输入作为信息补充,并未充分利用早期层级特征。

而密集网络通过连接不同层级的特征图,将传统模型中未曾利用或充分利用的前期层级的特征均引入新的层级中,充分利用了低层级卷积层对位置信息、形状信息的敏感性,增加后续层输入的变化,将更加有效地提高效率,这也是DenseNet和ResNet之间的主要区别。

DenseNet相较于ResNet及早期其他类型网络,具备更高的信息利用率。

密集网络主体结构如图2所示。

LBN-ReLU-Conv
Fig.2Main structure of DenseNet
在一个L层的密集神经网络中,网络直接将卷积层与所有后续层级连接起来,即第I层接收了来自所有前面卷积层的特征图作为新的输入,如式(2)所示:
逅=旦([禺,禺, (2)
其中[/,心…忑“]即是将来自0,1,-,/-1层的特征图没有新增过多参数的情况下,充分利用了早先层级中的特征信息,有效提高了网络的性能。

2本文算法
本文算法引入密集神经网络,利用其信息提取率和特征利用率高的特性,结合分类指导及损失优化,使输出彩色图像的细节特征更为丰富、轮廓更为清晰,进而达到更好的着色效果。

2.1设计网络结构
2.1.1总体网络结构
现有的基于深度学习的灰度图像着色网络主要是通过构建卷积神经网络,对图像的细节纹理特征进行提取,着色效果尚可,但因没有适当的方式来学习正确的图像全局上下文信息(如场景是属于室内还是室外等),着色网络可能出现明显的错误。

Lizuka等〔切将图片的类别信息也融入网络,用图片的类别信息来协同训练模型,对整个着色网络起到了分类指导作用。

Qin等〔切在此原理基础上进行网络设计,也获得了不错的效果,也证实了双流结构的有效性。

本文汲取Lizuka等期、Qin等购算法的优点,总体采用双流架构,主要由分类子网络和特征提取子网络构成,通过整合特征信息和分类信息,实现由灰度图像到彩色图像的转换。

分类子网络采用VGG网络获取图像的分类信息;在设计特征提取子网络时,为了解决传统深度学习算法容易出现的梯度消失及底层特征利用率不足的问题,采用了密集神经网络。

网络将纹理细节信息及分类信息融合后进行特征再提取,根据得到的综合特征进行色彩预计,并与彩色图像进行对比,计算色彩、信息量等损失,经过多次优化训练后得到最终着色模
在设计网络时,考虑到CIE Lab颜色空间接近人眼视觉且色域比显示器甚至人眼的色域都要大,其颜色表示方式与设备无关,且弥补了RGB色彩模型色彩分布不均的不足,故本文使用此颜色空间。

图像在输入网络前,首先从RGB颜色空间转换为Lab颜色空间,标注分类信息后制作为训练数据集,利用该数据集进行网络训练。

整个网络模型为有监督类学习模型,其中,原图的L通道作为网络的输入(input),分别进入特征提取部分及分类网络部分,得到预测分类及对应于ab通道的输出;而原图的分类标签及ab通道信息作为监督信息(label),供网络输出进行对比以计算各类损失,将所有损失反馈给网络,按照损失梯度对权重进行调整,从而训练整个网络,实现着色。

整个着色网络由以下部分组成:基于密集网络的特征提取部分(fusion部分左侧所有Dense-block(密集块)和Transition块)、基于VGG的分类指导部分(fusion层以下的所有Conv层级fc层)、融合及输出部分(fusion层级右侧部分)。

第一部分中的密集块详细内部结构如图4所示。

网络信息提取子网络(即密集连接子网络)结构如表1
第6期张娜等:基于密集神经网络的灰度图像着色算法1819
所示,网络分类特征子网络如表2所示。

表1密集连接子网络
Tab.1Densely connected sub-networks
层级名称结构输出
convl7x7conv,stride216
Dense-blocki r1x1convl x6
[3x3conv」88
Transition-1lxl conv44
Dense-block2r1X1convl
a a X12
L3x3conv」188
Transition-2lxl conv94
Dense-block3r1x1convl…*
a a X24
L3x3conv」382
Transition-3lxl conv191
Dense-block4
r1x1convl,/
c c X16383表2分类特征子网络
Tab.2Classification feature sub-networks
层级名称卷积核步长输出
Conv_l3x32x264
Conv_23x31xl128
Conv_33x32x2128
Conv_43x31xl256
Conv_53x32x2256
Conv_63x31xl512
ConvJ73x32x2512
Conv_83x31xl512
Conv_93x32x2512
Conv_103x31xl512 fcl——4096
fc2——256
fc3——64
fc4——1024
fc5——205网络特征融合层结构如表3所示。

表3融合及输出网络
Tab.3Fusion and output networks
层级名称卷积核输出
fusion_out—447
fusion1Xl128 Dense-block5ynvz
L3x3conv」64
output3x32
2.1.2特征提取部分
输入图像的L通道(此部分即为灰度图,大小为H x W x1)进入特征提取部分,经过一层卷积后,将依次进入4个密集块。

每一个密集块中的不同卷积层与其后续的卷积层进行密集连接(块内每层均为%个feature map,本文设置%= 12)。

鉴于密集网络的稠密性,每一个3x3卷积前设置了一个1X1卷积(结构如表1中的Dense-block部分),此操作可减少输入的feature map数量,可实现降维效果,减少计算量,同时还可融合各个通道的特征。

在每两个Dense-block之间,增加了1x1的卷积操作(即图3中的Transition层),该操作可减少上一个Dense-block输出的feature map数量(本文网络设置为减少到一半),这将有效避免网络过于庞大,减少进入下一个Dense-block后的计算负担。

图像在经过具有上述特征的网络后,大量细节特征及纹理信息将被提取出,由于密集块中的卷积层都与前面的每一层保持连接,低级的信息也将被有效利用,有效减少了信息损失,并改善了梯度弥散的问题。

2.1.3分类指导部分
图像进入分类指导网络后,网络将逐步通过卷积操作提取图像的分类信息,全连接层fcl将提取到的特征重构为1x 4096的特征向量,再经由fc2、fc3整合后得到维度为1X64的特征向量,作为辅助信息进入fusion层,帮助判别图像内容的类别。

fc4和fc5层和输入图像的标签进行对比,经过损失优化,训练分类网络
2.1.4融合及输出部分
特征提取网络及分类指导网络均完成信息提取后,可将二者进行融合,进一步充分利用分类特征及细节纹理特征。

由于特征提取部分和分类提取部分所得的特征图维度不同(前者即Dense-block4,为由密集块组成的特征提取网络产生的特征图,尺寸仍为输入网络时的HxW(H=W=256),通道数为383;而后者即fc3,为VGG分类子网络经卷积操作、全连接操作及重构整合后形成的一维特征向量,尺寸为1x 64),在融合时需要进行统一维度,将两部分信息将重构为具有相同维度的feature map,即将fc3层扩展重构为与Dense-block4特征图相同的大小HxW,通道数为64。

二者尺寸统一后完成通道连接融合,形成尺寸为HxW,通道数为447的特征图Fusion_out,经卷积操作后成为fusion层(维度为H X W X128),随后进入Dense-block5进行特征再提取,最后经卷积操作后成为得到HxWx2的输出output,此部分即为网络所给出的色彩部分预测值(ab通道),与黑白通道(L通道)进行融合,转化为RGB颜色空间,就形成了一副彩色图像。

2.2构造损失函数
网络的损失将作为调整权重的重要参考内容。

为更好地调节网络的特征提取能力及分类性能,本文综合了特征提取子网络的特征提取损失(L1)及分类指导子网络的分类损失(L2),共同构成总网络的损失(Loss)。

两部分损失均独立反馈给网络,彼此不交互影响。

2.2.1特征提取损失L1
网络训练时,每一批次读取"幅图像。

得到输出预测后,将颜色预测值与原图进行对比,计算特征损失。

特征损失中主要组成部分为像素损失九同,如式(3)-(4)所示,可用于衡量网络输出与真值之间的损失。

%= +£恥爲(3)MSE=-Xp(i,j))2(4)
w x n i=l j=l
其中:如为样本的宽/为高;切为原图像的ab通道色彩值,勿为网络预测输出的ab通道色彩值;"为一个训练批次所包含的图像数量;MSE即为均方误差(Mean Square Error)0为防止网络模型陷入过拟合,本文还引入了正则化损失^regularization,如式(5)所示:
1820计算机应用第39卷
^gularization=«*II II2(5)其中:a为正则化系数;®为网络中的权重。

即特征提取部分的最终损失为式(6):
•1Epixel+^regularization(6) 2.2.2分类损失12
分类指导部分,输入图像的分类信息作为指导标签严°】,指导网络的预测结果为y ut,采用交叉爛(Cross-Entropy)来衡量网络预测的分类与真实分类的损失,即如式(刀所示:厶=丄£[-1>罟唤(層)]⑺n i^l i
在对yj求log函数值时,如果yj的值为0,会出现log(yj)值为无穷,本文在计算时,令小于1E-10的数都等于1E-10。

3实验结果与分析
3.1实验数据集及环境
作为有监督的着色网络,本文提出的网络需要大量有分类标签的彩色图像作为训练数据集,故采用MIT Places Database""(含205个场景分类、250多万张图片)、ImageNet冋(含1000个场景分类、120多万张图片)两种数据集对网络进行训练。

采用HDF5对数据集进行处理,生成一个“.h5”类型的data文件,不再需要依次读取大量单幅图片,方便运行与维护。

本文提出的着色网络需要进行大量的矩阵计算,故为提高训练效率,采用GPU进行训练,GPU型号为NVIDIA Tesla M40o在方法实现时,采用Python编程环境,基于TensorFlow[29]架构进行网络搭建。

3.2评价指标
对灰度图像进行着色的目的,主要是希望从着色结果中获得较灰度图像而言更丰富的信息,那么,着色结果是否清晰,包含的信息量是否充分,即可视为衡量着色算法优劣的重要指标。

传统的图像客观评价指标采用的是峰值信噪比(Peak Signal-to-Noise Ratio,PSNR),分值越高即认为若质量越好,如式(8)所示,其中MSE计算方式如式(4)所示。

PSNR=10x lg(_1))(8)
6\MSE丿
此标准主要针对的是新图与原图像素之间的像素差异性,分数无法和人眼看到的视觉品质完全一致,有可能PSNR较高者看起来反而比PSNR较低者差,不能较好地描述信息量丰富程度。

为此本文引入了评价图像所含信息充分程度的广为采用的量化指标图像爛(Image Entropy)。

爛指的是某一特定体系的混乱的程度,对图像而言,图像爛越大,图像包含的信息更丰富。

通过计算整张图片彩色通道的信息爛,判断图像包含的信息量。

利用图像爛,可从客观角度评价着色结果与人眼主观感受是否一致。

其计算方式如式(9)所示:
InEn=-^P(i)lb P(0(9)其中:AiE"表示图像爛值;P(i)表示值为i的颜色在整幅图像中出现的概率。

本文构造了基于信息爛的评价标准,通过计算着色图像的信息爛,结合主观观察结果,从而判断信息丰富程度,同时,主观观察结果也将验证指标的有效性。

由于本文提出的网络主要是基于Lab空间对图像ab通道的色值进行预估,不对图像的L通道(反映图像的灰度信息)进行重复的计算及处理,故为提高效率,本文在评价着色效果时,仅考虑彩色通道所包含的信息。

3-3实验结果
3.3.1有原图参考下的着色效果对比
为了验证本文所提算法的有效性及优异性,现选取了部分代表性的图片,与现有表现优异的算法(如Zhang等提出的基于VGG的着色算法,Lizuka等〔切提出的双流结构算法,Qin等网提出的基于残差网络算法)进行比较,从是否漏色、色彩对比度、细节信息损失程度等方面对上述算法着色效果进行比较,具体如图5所示。

着色效果对比中,Zhang等网算法、Lizuka等〔切算法的着色效果均来自其对外公示网站的着色结果,Qin等〔切算法的着色效果采用其最终版着色模型。

是否漏色对图像中的物体着色时,需要准确地识别物体的边界,否则将会发生颜色漏色,如图5中组(e)箭头指出部分,Zhang等网算法、Lizuka等期算法将天空的色彩渗漏到地面上,使得着色效果不太理想,本文算法在此方面表现较好。

色彩对比度在对灰度图像着色时要注意彩色图像中物体的颜色是各不相同的,图5中组(a)-(d)中Zhang等冋算法、Lizuka等〔切算法的着色结果倾向于整体赋予暖黄色色调,各个物体之间的颜色没有较好地区分开来,特别是天花板的颜色也混入主色调。

Qin等〔切算法着色效果物体区分度有了一定改善,但不如本文算法着色结果色彩对比度更鲜明,本文算法所得图像的色彩对比度就饱和度更高,各个物体的颜色彼此独立,不受整体色调蔓延影响,如本文算法组(a)及组(c)中的地板更接近于真实的木地板色泽纹理;组(b)中的床上用品颜色更为鲜艳。

细节信息损失程度在整体着色能达到一定效果时,细节信息可否良好还原即成为了重要衡量指标。

为对比细节效果,将图5中组(b)和组(d)的细节进行放大对比,详见图6。

图6(a)中(即图5组(b)中虚线框圈出的床头挂画中的绿色植物),本文算法准确地赋予了应有的绿色,但其他三种并没有合理地着色,与主色调融为一体;图6(b)中本文算法相对于其他算法而言,较好地为盆栽植物及挂画中的景物赋予了绿色。

从对比效果可看出,本文算法在实现整体着色时,不会忽略细节部分,具备更好的细节处理能力,能较好地对细节部位予以着色。

此外,为客观评价各个算法的性能优劣,本文采用了3.2节中所述的图像爛InEn作为评价指标,计算方式如式(9)所示,同时列出了采用式(8)中PSNR值,即峰值信噪比计算的结果,对比结果详见表4。

表4中图像爛指标采用加粗的方式表示性能最好的算法,由图像爛的定义可知,爛值更大的,表示信息量更丰富;峰值信噪比指标也采用加粗的方式表示性能最好的算法,按照定义,峰值信噪比越高,图像质量越好。

从图5性能对比可以看出,采用本文所用评价指标图像^InEn,其评价结果与人眼所观察的效果基本一致,这在客观上说明了本文算法的优异性,同时也印证了本文采用评价指标的有效性,而采用PSNR方式进行客观评价,按此指标最高的为图像质量最好的,但实际效果并非如此。

相关文档
最新文档