基于多尺度特征融合网络的交通标志检测
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第38卷第2期 计算机应用与软件
Vol 38No.22021年2月
ComputerApplicationsandSoftware
Feb.2021
基于多尺度特征融合网络的交通标志检测
刘 胜1 马社祥1
孟 鑫2 李 啸3
1
(天津理工大学电气电子工程学院 天津300384)
2
(天津理工大学海运学院 天津300384)
3
(天津理工大学计算机科学与工程学院 天津300384)
收稿日期:
2019-08-25。
国家自然科学基金项目(61601326,61371108)。
刘胜,硕士生,主研领域:计算机视觉,深度学习。
马社祥,教授。
孟鑫,副教授。
李啸,博士生。
摘 要 传统交通标志检测方法检测速度慢,且现有深度神经网络对小尺寸交通标志检测精度低。
对此提出一个基于YOLOv3的新型端到端卷积神经网络。
以YOLOv3为检测框架,对特征提取网络和特征融合网络加以改进,并应用K means聚类算法生成更适合交通标志的锚点框。
充分利用多尺度特征实现了对小尺寸交通标志检测性能的提升。
在TT100K(Tsinghua Tencent100K)和GTSDB(GermanTrafficSignDetectionBenchmark)交通标志数据集上进行实验,获得的mAP分别为82.73%和92.66%,运行时间分别为0.037s和0.033s。
实验结果验证了改进网络的有效性,表明了改进网络的整体性能优于其他检测方法。
关键词 交通标志检测 YOLOv3 特征提取 特征融合
中图分类号 TP3 文献标志码 A DOI:10.3969/j.issn.1000 386x.2021.02.027
TRAFFICSIGNDETECTIONBASEDONMULTI SCALEFEATUREFUSIONNETWORK
LiuSheng1 MaShexiang1 MengXin2 LiXiao
31
(SchoolofElectricalandElectronicEngineering,TianjinUniversityofTechnology,Tianjin300384,China)
2
(TUTMaritimeCollege,TianjinUniversityofTechnology,Tianjin300384,China)
3
(SchoolofComputerScienceandEngineering,TianjinUniversityofTechnology,Tianjin300384,China)
Abstract Tosolvetheproblemsofslowdetectionspeedoftraditionaltrafficsigndetectionmethodsandpoordetectioneffectofthedeepneuralnetworkforsmall scaletrafficsigns,anewend to endconvolutionalneuralnetworkbasedonYOLOv3isproposed.ItusedYOLOv3asthedetectionframework.Thefeatureextractionnetworkandfeaturefusionnetworkwereimproved,andK meansclusteringalgorithmwasappliedtogenerateanchorboxeswhichweremoresuitablefortrafficsigns.Theperformanceofsmall scaletrafficsigndetectionwasimprovedbymakingfulluseofmulti scalefeatures.TheproposednetworkwasevaluatedonTT100KdatasetandGTSDBdataset.Theresultsshowthattheproposeddetectionnetworkachievesstate of the artperformancebyobtainingmAPof82.73%and92.66%withaverageexecutiontimeof0.037sand0.033sintwodatasets.Theexperimentalresultsverifytheeffectivenessoftheimprovednetwork,andtheoverallperformanceoftheproposednetworkisbetterthanotherdetectionmethods.Keywords Trafficsigndetection YOLOv3 Featureextraction Featurefusion
0 引 言
交通标志识别在高级辅助驾驶系统和自动驾驶中扮演重要角色,对提高驾驶员的安全性起着至关重要
的作用。
交通标志识别任务可详细分为两部分:交通
标志检测和交通标志识别。
交通标志检测主要任务是解决交通标志的定位问题,即在一幅图像或一段视频中用矩形框标记出交通标志;交通标志识别则是在检
测的基础上进一步区分矩形框中目标的详细类别[1]。
第2期 刘胜,等:基于多尺度特征融合网络的交通标志检测159
因交通标志有目标小、背景复杂、易受环境因素影响等特点,所以与一般目标相比更难检测。
针对这一问题,一些传统检测算法在检测精度上已取得很好的效果。
如文献[2-4]在GTSDB数据集上的检测准确率约为100%,但运行时间却无法满足快速检测的要求。
而对高级辅助驾驶系统或自动驾驶而言,检测时间是非常重要的一项技术指标,只有快速检测才能对驾驶员起到及时提醒的作用,以保证驾驶员的安全。
近年来,由于计算机性能的发展使得深度学习取得了实质性的进展。
深度学习在计算机视觉、自然语言处理等领域都有良好表现。
在计算机视觉领域中,卷积神经网络(ConvolutionalNeuralNetwork,CNN)在目标检测、分类和分割等任务上都有很好的表现。
基于卷积神经网络的检测器大致可分为两类:二阶段检测器和一阶段检测器。
二阶段检测器如FasterR CNN[5]和R FCN[6]等,相比一阶段检测器有更高的检测精度;而一阶段检测器运行速度更快,如YOLOv3[7]、SSD[8]和RetinaNet[9]等。
近年来基于卷积神经网络的检测方法也逐渐应用于交通标志检测中,文献[10]提出使用全卷积网络提取感兴趣区域,并利用深度卷积神经网络对目标分类。
Aghdam等[11]提出一种利用扩张卷积在CNN中实现多尺度滑动窗的方法,该方法在GTSDB数据集上得到优异的检测结果。
Zhu等[12]提出一种端到端的多任务CNN网络,可以同时实现目标的检测和分类任务。
本文针对传统检测方法检测速度慢以及深度神经网络检测精度偏低的问题,提出一种基于YOLOv3的端到端交通标志检测网络。
首先,特征提取网络的最后两个尺度输出通道数量被改为1024,以便提取更多的全局特征信息。
通过采用减少顶层两个尺度残差块的数量和插入1×1卷积层的方法来降低计算量。
然后,融合除第一个尺度外的所有尺度特征信息,并将更大尺度特征图作为输出端之一,以便得到更多的局部特征信息。
最后,本文应用K means[7]聚类算法生成适合交通标志数据集的锚点框[7]。
在TT100K(Tsing hua Tencent100K)[12]和GTSDB(GermanTrafficSignDetectionBenchmark)[13]数据集上的实验结果表明,改进网络对小尺寸交通标志检测效果有明显提升,且检测速度也优于大多数检测方法。
1 YOLOv3网络
YOLOv3检测网络通常应用于普通的目标检测任务,属于一阶段检测器。
该网络采用Darknet 53作为特征提取网络,实现对图像的多尺度特征提取。
表1为Darknet 53的具体参数配置。
Darknet 53包含23个残差块,每个残差块包含一个1×1卷积层和一个3×3卷积层,共52个卷积层。
该网络实现5次下采样,能够提取不同尺度的特征。
特征提取后,网络输出8×8、16×16和32×32三个尺度的特征图。
检测网络对每个尺度预测3个边界框,每个边界框包括4个坐标参数,1个目标分数和C个类别。
因此,输出张量为N×N×[3×(4+1+C)][7],其中N×N为输出特征图的尺寸。
然后将三个输出张量分别经过预测模块、非极大值抑制(NonMaximumSuppression,NMS)和分数阈值过滤处理后得到相应的预测值。
表1 Darknet 53参数配置
执行
次数
类型
滤波
器数
卷积核
尺寸
输出
尺寸1卷积层323×3256×256
1卷积层643×3/2128×128
1
卷积层321×1128×128
卷积层643×3128×128
跳跃连接 128×128
1卷积层1283×3/264×64
2
卷积层641×164×64
卷积层1283×364×64
跳跃连接 64×64
1卷积层2563×3/232×32
8
卷积层1281×132×32
卷积层2563×332×32
跳跃连接 32×32
1卷积层5123×3/216×16
8
卷积层2561×116×16
卷积层5123×316×16
跳跃连接 16×16
1卷积层10243×3/28×8
4
卷积层5121×18×8
卷积层10243×38×8
跳跃连接 8×8
网络需要预测边界框的4个坐标参数:t
x
,t
y
,t
w
,
t
h。
(t
x
,t
y
)表示预测框相对于网格单元边界的中心。
t
w
和t
h
表示预测框相对于整幅图像的宽度和高度。
非线性变换后,预测结果定义为:
160
计算机应用与软件2021年
bx=σ(tx)+cxby=σ(ty)+cybw=pwexptwbh=phexpth
(1)
式中:(cx,cy)是单元格相对于图像左上角的偏移量;pw和ph表示相应锚点框的宽度和高度;σ是Sigmoid函数;bx、by、bw、bh表示相对于整幅图像的4个坐标预测。
逻辑回归用于预测边界框的中心坐标,指数函数用于预测边界框的宽度和高度。
对于目标分数预测,每个网格单元首先预测3个边界框的置信度。
置信度体现了预测边界框的准确度,等于预测边界框和真实边界框之间的I
OU。
定义为:Pr(Object)×IOUtruth
pred=σ(to
)(2)
式中:Pr(Object)表示单元格是否包含目标中心点,如果该单元格中存在目标中心,则Pr
(Object)=1,否则Pr(Object)=0;IOUtruth
pred表示预测边界框和真实边界框
之间的IOU;σ是Sigmoid函数。
最后,目标分数等于类别条件概率和置信度的乘积,具体定义为:
bo=Pr(Classi|Object)×Pr
(Object)×IOUtruth
pred=Pr(Classi)×IOUtruth
pred
(3)式中:bo代表目标分数;Pr(Classi|Object)表示类别条件概率;Pr(Classi
)表示预测的类别概率;i为类别索引值。
每个网格单元预测C个类别概率。
预测方式如下:
Pr(Classi)=σ(tc
)(4)
式中:σ为Sigmoid函数;tc
表示通过检测网络预测的类别概率。
2 多尺度特征融合网络
本节对提出的基于YOLOv3的端到端卷积网络详细说明。
根据交通标志尺寸小的特点对YOLOv3进行如下改进:(1)通过增加特征提取网络顶层两个尺度的输出特征图数量来提升网络对大尺寸交通标志检测效果。
(2)利用多尺度特征融合的方法解决小尺寸目标检测困难和目标尺度变化问题。
(3)利用K means聚类算法生成更适合交通标志的锚点框。
2.1 特征提取
特征提取网络是检测网络中必不可少的一部分,它对目标检测效果起至关重要的作用。
在YOLOv3中,作者提出了特征提取网络Darknet 53,且测试结果优于ResNet101。
本文针对交通标志尺寸小的特点改进Darknet 53网络。
改进后共19个残差块,46层卷积层,具体参数如表2所示。
与Darknet 53相比,前35
层卷积层相同,以便在训练过程中应用迁移学习。
因
此本文对35层之后的网络加以改进,如图1所示。
图中S
cale1-Scale5分别代表尺度为13×13、26×26、52×52、104×104和208×208的输出特征图。
表2 改进后特征提取网络参数配置
执行
次数类型
滤波器数卷积核
尺寸输出
尺寸1卷积层323×3256×2561
卷积层643×3/2128×1281
卷积层
321×1128×128卷积层643×3128×128跳跃连接
128×1281卷积层1283×3/264×642卷积层
641×164×64卷积层1283×364×64跳跃连接
64×641卷积层2563×3/232×328卷积层
1281×132×32卷积层2563×332×32跳跃连接
32×321卷积层5123×3/216×164卷积层
2561×116×16卷积层5123×316×16跳跃连接
16×161卷积层10241×116×162
卷积层
5121×116×16卷积层10243×316×16跳跃连接
16×161卷积层512
1×1
16×161
卷积层10243×3/28×82卷积层
5121×18×8卷积层10243×38×8跳跃连接
8×8
图1 改进后检测网络整体结构
第2期
刘胜,等:基于多尺度特征融合网络的交通标志检测
161
首先将Scale2的输出特征图数量由512改为1024,以便提取更多的交通标志全局特征。
为了降低计算量和网络参数,在残差块之间插入1×1卷积层,并且将Darknet 53中Scale1和Scale2的残差块数量由原4个和8个分别减少至2个和6个。
然后,对残差块结构进行调整。
如图2所示,
每个残差块包含一个1×1卷积层和一个3×3卷积层,每个卷积层后采用批归一化层(BatchNormalization,BN)[14]
处理特征。
激活层采用LeakyReLU[15]
,并将最后的激活层移至相
加层后,
与传统的残差块结构相似。
图2 残差块结构
2.2 特征融合
特征金字塔网络(FeaturePyramidNetworks,
FPN)[16]在目标检测领域表现优异,大多检测网络在
特征提取后都应用F
PN来融合多尺度特征。
YOLOv3中也应用类似FPN的网络结构,通过上采样和级联的方式融合顶层三个尺度的特征,最终得到三个尺度的输出。
而提出的多尺度特征融合网络在FPN的基础上针对交通标志尺寸小和尺度变化的问题加以改进,如图1所示。
由于第一个卷积层存在过多冗余信息,因此该方法融合除第一个卷积层外的所有尺度特征。
首先,将原Scale3输出端调整为Scale4,以便提取更多的细粒度信息。
其次,将Scale3特征通过最大值池化(
Maxpooling)处理后分别与Scale1和Scale2两个尺度特征相加。
然后,将Scale5特征通过最大值池化(Maxpooling)处理后与Scale4特征相加,并将Scale1特征上采样后与Scale2特征相加。
将融合后的Scale2特征经过上采样后与Scale4相加。
最终把融合后的Scale1、Scale2、Scale4三个尺度特征输入卷积模块处理。
特征融合后,采用YOLOv3的预测方法预测相应的边界框、目标分数和类别。
对于边界框的预测,首先要为每个尺度设置3个锚点框,共9个锚点框。
不同于一般的检测目标,交通标志的真实边界框的横纵比约为1∶1。
因此,本文采用K means聚类算法生成更
适合交通标志的锚点框。
距离度量定义为:
d(box,centroid)=1-IOU(box,centroid)
(5)
式中:IOU(box,centroid)是真实边界框和计算所得的锚点框的交并比(
IntersectionOverUnion,IOU)。
将TT100K数据集的锚点框设置为(17,19)、(24,26)、(30,33)、(38,40)、(47,52)、(60,64)、(75,79)、(96,102)、(141,147)。
将GTSDB数据集的锚点框设置为(22,22)、(27,27)、(33,33)、(38,37)、(42,41)、(48,48)、(58,58)、(76,73)、(108,106)。
3 实 验
实验平台配备双路TITANXpGPU,Intel(R)Core(TM)i7-7800XCPU,3.5GHz×12,32GB内存,Ubuntu16.04操作系统。
选用两个交通标志数据集基准作为训练和测试数据,分别为TT100K和GTSDB。
TT100K是中国交通标志数据集基准,该数据集包含大量中国交通标志图像,每幅图像的分辨率为2048×2048,且涵盖了多种不同光照条件下的交通标志。
与
其他交通数据集相比,该数据集数据丰富,且包含更小的交通标志,因此检测难度更大。
TT100K的训练集包含6105幅图像,测试集包含3071幅图像。
根据交通标志的含义将数据标注为3类:
Prohibitory、Mandatory和Danger。
GTSDB交通标志数据集是德国现实交通标志数据集,该数据集包含600幅训练图像和300幅测试图像,每幅图像的分辨率为1360×800,且覆盖了不同光照条件下的交通标志。
本文将该数据集标注为与T
T100K相同的三类。
实验中采用K
eras深度学习框架搭建模型。
在训练图像输入模型前,首先将图像尺寸都缩放为416×416
,然后对训练数据进行数据增强,如图像翻转、扭曲、旋转等。
在训练时,应用迁移学习的方法来加速训练,将在Imagenet数据集中训练好的Darknet 53的前35层卷积层权重导入模型。
首先冻结前35层,训练35层之后的网络。
在迭代50次之后解除冻结,并微调模型中所有层。
最终训练至损失收敛则停止训练。
表3为训练中超参数的详细配置。
表3 超参数配置
超参数名称冻结解除冻结学习率0.01000.0001动量0.90.9学习率衰减0.00050.0005批量大小
16
8
162
计算机应用与软件
2021年
3.1 准确度评价指标
平均精度均值(mAP)是目前目标检测领域中评估检测准确度最常用的指标之一。
本文采用mAP来评估检测网络的检测精度。
首先,计算精确率(preci sion)和召回率(recall):
precision=TPTP+FP recall=
TP
TP+
FN(6)
式中:TP、FP、FN分别表示正确识别的正样本、错误识
别的正样本和错误识别的负样本。
AP近似等于precision/recall曲线下面积,定义如下:
APi=∑N
k=
1p
(k)Δr(k)(7)
式中:p(k)为召回率变化点k对应的精确率;Δr(k)为变化点k对应的召回率的变化量;N为召回率变化点的数量;不同类别AP不同,i为类别的索引值。
召回率k对应的准确率p(k)为任何召回率在k~
≥k
时的最大准确率,p(k~
)为召回率k~
对应的准确率[17]
,p(k)定
义如下:
p(k)=maxk:k≥k
p(k~
)
(8)
mAP等于所有类别AP的均值,定义如下:
mAP=1
m∑m
i
=1APi
(9)
式中:m为类别数量。
通过计算预测边界框(Bp)和真实边界框(Bgt
)之间的交并比来验证预测的准确度。
IOU定义如下: IOU=area(Bgt∩Bp
)area(Bgt)+area(Bp)-area(Bgt∩Bp)(10)
式中:area(Bgt)、area(Bp)和area(Bgt∩Bp)分别表示真实边界框的面积、预测边界框的面积和真实边界框与预测边界框相交的面积。
与传统检测算法比较曲线下面积(AreaUnderCurve,AUC)来分析改进网络的检测精度。
AUC可通过数值积分直接计算ROC曲线下面积得到。
AUC数值越大,检测网络性能越好,相反则性能越差。
3.2 实验结果分析
(1)TT100K实验结果分析。
由于TT100K交通标志数据集与其他数据集相比目标尺寸更小,图像分辨率更高,因此本节选用TT100K来评估改进网络对小尺寸交通标志的检测能力。
通过对YOLOv3应用消融实验来验证改进方法的有效性。
采用不同方法改进YOLOv3后的检测mAP如表4所示。
由实验结果可知,改进的三部分都能实现对检测网络的性能提升,其中多尺度特征融合网络对检测准确度的影响最大,
mAP约提升5个百分点。
YOLOv3在应用全部改进方法后实现了最佳检测性能。
后文实验中的改进网络即为应用全部改进方案的检测网络。
表4 改进部分有效性分析
基础网络
改进特征
提取网络
多尺度特征
融合网络
更适合的锚点框
mAP/%YOLOv3
×××76.59√
××78.33×√×81.59××√77.62√
√
√
82.73
为了比较改进网络的检测效果,本文分别对改进网络、YOLOv3、FasterR CNNResnet50、RetinaNetRes net50四种模型训练和测试。
四种模型的分数阈值设置为0.3,IO
U阈值为0.5。
图3为三种类别的preci sion/recall曲线图。
改进网络的精确率和召回率都优于其他三个模型。
其中:RetinaNetResnet50的召回率最低,而FasterR CNNResnet50的准确率较差。
改进网络的三种类别的平均精度分别为8
1.73%、80.56%和85.88%,都高于YOLOv3的检测结果。
所以,对于小尺寸的交通标志,改进网络的检测效果更佳。
第2期
刘胜,等:基于多尺度特征融合网络的交通标志检测
163
图3 四种检测网络的precision/recall曲线分析
运行时间对于交通标志检测是非常重要的因素。
在运行时间上,四个网络使用相同设备测试评估。
图4为运行时间与mAP关系。
运行速度最快的为YOLOv3,每幅图像运行时间约为31.4ms,mAP为76.59%。
改进网络的运行时间约为37.2ms,mAP为82.73%。
FasterR CNNResnet50和RetinaNetRes net50检测准确度偏低,且运行速度较慢。
总体来说,
改进网络的整体性能更好。
图4 基于TT100K的运行时间与mAP分析
最后,测试了不同IOU下四种模型的mAP,结果如图5所示,IOU取值范围为[0.1,1.0]。
在IOU∈[0.4,0.6]时四种模型的mAP均已达到最大值。
结合目前目标检测任务中IOU阈值大多取值范围在[0.4,0.6],最终设置四个网络的IOU阈值为0.5,并且其他实验的IOU阈值均设置为0.5。
图5 最佳IOU阈值分析(2)GTSDB实验结果分析。
GTSDB是目前交通标志检测任务中应用最广泛的数据集,应用该数据集原因在于一些优秀的交通标志检测算法或深度网络大多都针对GTSDB数据集训练和测试。
在训练中,使用迁移学习的方法,微调由TT100K数据集训练好的网络。
该方法得到的检测结果要远优于微调Imagenet预训练模型。
实验中设置分数阈值为0.3,IOU阈值为0.5。
表5为深度网络的对比结果。
可以看出改进网络对三种类别的召回率和平均精度均达到最佳。
因此,与其他深度网络相比,改进网络在检测精度上表现
更好。
表5 四种网络准确率对比分析
%检测网络类别精确率召回率平均精度FasterR CNN
ResNet50
[17]
Prohibitory91
.3898.7598.62Mandatory70.0085.7185.15Danger79.4592.0690.78SSDInception
V2
[17]Prohibitory
96.9578.8878.77Mandatory90.0055.1054.46Danger93.1865.0865.05YOLOv3
Prohibitory
94.5597.1296.42Mandatory83.3382.4681.38Danger95.0892.3592.04Ours
Prohibitory
88.8799.3598.75Mandatory86.0088.4585.74Danger
95.16
94.48
93.49
如图6所示,在运行时间上,改进网络运行时间约为32.8ms,mAP约为92.66%。
一阶段检测器的表现优于二阶段检测器,其中表现最好的是SSDInceptionV2模型,但其检测效果最差。
对于综合运行时间和mAP,改进网络的性能优于其他深度网络。
图6 基于GTSDB的运行时间与mAP分析
164
计算机应用与软件2021年
最后,将改进网络与传统检测方法对比分析。
传
统检测方法中对于GTSDB数据集的个别类别的检测
准确度已经达到100%[2],但这些方法的运行时间不
能达到现实应用的要求。
表6为不同检测方法对三种
类别的检测AUC和运行时间。
文献[2]在Prohibitory
类的AUC达到100%,Danger类也已达到98.85%,但
运行时间较慢。
文献[19]中的方法在运行时间上有
所提升,基本达到实时检测的要求,检测AUC也表现
良好。
改进网络的检测精度可达到与文献[19]相当
的检测水平,但运行时间约为文献[19]的1/5。
因此,
与传统检测方法相比,改进网络在保证检测精度的同
时能够实现快速检测。
表6 不同检测方法的AUC及运行时间对比
检测方法类别AUC/%运行时间/s
文献[2]Prohibitory100.00
0.4~1.0Mandatory92.00
Danger98.85
文献[18]Prohibitory99.98
3.032Mandatory95.76
Danger98.72
文献[19]Prohibitory99.29
0.162Mandatory96.74
Danger97.13
本文方法Prohibitory99.44
0.033Mandatory95.09
Danger96.67
4 结 语
交通标志检测是计算机视觉中的一个重要研究方向,对自动驾驶和高级辅助驾驶系统的研究也有重要意义。
交通标志因目标尺寸小、背景复杂、容易受环境因素的影响等特点,与传统的目标相比更难检测。
本文针对传统检测方法检测慢和深度网络检测精度偏低的问题,提出一个基于YOLOv3的端到端检测网络。
通过对YOLOv3中特征提取网络和特征融合网络加以改进,使得检测网络对小尺寸目标检测效果更佳。
采用TT100K和GTSDB两个数据集来评估改进网络的检测性能。
通过与不同检测方法的检测精度和运行时间的对比,验证了改进网络的有效性。
从实验数据可以看出检测网络对Mandatory类检测效果较差,主要原因是GTSDB训练集的类别不平衡。
未来将主要针对检测网络召回率偏低和数据集类别不平衡的问题加以改进,将交通标志分为更详细的类别,从而实现交通标志识别系统的实时检测和识别。
参考文献
[1]Arcos GarcíaA,álvarez GarcíaJA,Soria MorilloLM.Deepneuralnetworkfortrafficsignrecognitionsystems:An
analysisofspatialtransformersandstochasticoptimisation
methods[J].NeuralNetworks,2018,99:158-165.[2]LiangM,YuanM,HuX,etal.TrafficsigndetectionbyROIextractionandhistogramfeatures basedrecognition
[C]//The2013InternationalJointConferenceonNeural
Networks(IJCNN),2013:1-8.
[3]MathiasM,TimofteR,BenensonR,etal.Trafficsignreconition—Howfararewefromthesolution?[C]//The
2013InternationalJointConferenceonNeuralNetworks
(IJCNN),2013:1-8.
[4]WangG,RenG,WuZ,etal.Arobust,coarse to finetraf ficsigndetectionmethod[C]//The2013InternationalJoint
ConferenceonNeuralNetworks(IJCNN),2013:1-5.[5]RenS,GirshickR,GirshickR,etal.FasterR CNN:To wardsreal timeobjectdetectionwithregionproposalnet
works[J].IEEETransactionsonPatternAnalysis&Ma
chineIntelligence,2017,39(6):1137-1149.
[6]DaiJ,LiY,HeK,etal.R FCN:Objectdetectionviare gion basedfullyconvolutionalnetworks[C]//30thInterna
tionalConferenceonNeuralInformationProcessingSystems,
2016:379-387.
[7]RedmonJ,FarhadiA.YOLOv3:Anincrementalimprove ment[EB].arXiv:1804.02767,2018.
[8]LiuW,AnguelovD,ErhanD,etal.SSD:Singleshotmultiboxdetector[C]//EuropeanConferenceonComputer
Vision,2016.
[9]LinTY,GoyalP,GirshickR,etal.Focallossfordenseobjectdetection[J].IEEETransactionsonPatternAnalysis
&MachineIntelligence,2017,99:2999-3007.
[10]ZhuY,ZhangC,ZhouD,etal.Trafficsigndetectionandrecognitionusingfullyconvolutionalnetworkguidedpropos
als[J].Neurocomputing,2016,214:758-766.
[11]AghdamHH,HeraviEJ,PuigD.ApracticalapproachfordetectionandclassificationoftrafficsignsusingConvolu
tionalNeuralNetworks[J].RoboticsandAutonomousSys
tems,2016,84:97-112.
[12]ZhuZ,LiangD,ZhangS,etal.Traffic Signdetectionandclassificationinthewild[C]//IEEEConferenceonComput
erVisionandPatternRecognition,2016.
(下转第249页)
第2期 张晓通,等:基于遗传 狮群算法优化的独立分量分析算法249
4 结 语
本文结合了遗传算法和狮群算法的优点,提出了一种遗传 狮群算法GA_LSO,并应用于优化ICA。
所提算法通过每次迭代中选取遗传算法和狮群算法的最优值,提高了混合算法的性能,较好地减少了遗传算法出现早熟收敛的概率并且克服了狮群算法收敛精度不高等缺点。
通过6个基准测试函数的实验表明,本文提出的GA_LSO具有较高的收敛精度、较快的收敛速度和较好的鲁棒性,且能有效处理高维复杂函数的寻优问题。
通过对混合图像的仿真实验表明,基于GA_LSO优化的ICA算法是一种有效的盲源信号分离算法,能够有效提升盲源信号的分离质量,在信号处理中具有广泛的应用前景。
参考文献
[1]张贤达,保铮.盲信号分离[J].电子学报,2001,39(S1):1766-1771.
[2]MurataN,IkedaS,ZieheA.Anapproachtoblindsourceseparationbasedontemporalstructureofspeechsignals[J].
Neurocomputing,2001,41(1-4):1-24.
[3]RivetB,GirinL,JuttenC.Mixingaudiovisualspeechpro cessingandblindsourceseparationfortheextractionofspeechsignalsfromconvolutivemixtures[J].IEEETransac
tionsonAudio,SpeechandLanguageProcessing,2007,15
(1):96-108.
[4]王川川,曾勇虎.欠定盲源分离算法的研究现状及展望[J].北京邮电大学学报,2018,41(6):103-109.
[5]ComonP.Independentcomponentanalysis,anewconcept?
[J].SignalProcessing,1994,36(3):287-314.
[6]华容,苏中义.基于遗传算法过程信号的盲分离[J].上海交通大学学报,2001,35(2):319-322.
[7]LinCL,HsiehST,SunTY,etal.PSO basedlearningrateadjustmentforblindsourceseparation[C]//2005Inter
nationalSymposiumonIntelligentSignalProcessing&Com
municationSystems.IEEE,2005:181-184.
[8]彭安洪,赖惠成.一种采用云自适应粒子群算法的盲源分离[J].计算机仿真,2013,30(9):340-343,353.
[9]YazdaniM,JolaiF.Lionoptimizationalgorithm(LOA):Anature inspiredmetaheuristicalgorithm[J].JournalofCom
putationalDesign&Engineering,2016,3(1):24-36.
[10]杨福生,洪波.独立分量分析的原理与应用[M].北京:清华大学出版社,2006.
[11]周明,孙树栋.遗传算法原理及应用[M].北京:国防工业出版社,1999.
[12]冯智莉,易国洪,李普山,等.并行化遗传算法研究综述[J].计算机应用与软件,2018,35(11):1-7,80.
[13]RajakumarBR.Thelion salgorithm:Anewnature inspired
searchalgorithm[J].ProcediaTechnology,2012,6:126-
135.
[14]WangB,JinXP,ChengB.Lionprideoptimizer:Anopti mizationalgorithminspiredbylionpridebehavior[J].Sci enceChina:InformationSciences,2012,55(10):2369-
2389.
[15]张聪明,刘立群,马立群.一种新的群智能算法:狮群算法[J].计算机科学,2018,45(S1):114-116.
[16]刘生建,杨艳,周永权.一种群体智能算法———狮群算法[J].模式识别与人工智能,2018,31(5):431-441.
[17]陈雷.基于群智能优化方法的盲信号分离算法研究[D].天津:天津大学,2011.
[18]HyvarinenA,OjaE.Independentcomponentanalysis:algo rithmsandapplications[J].NeuralNetworks,2000,13(4):
411-430.
[19]兰红,金绍斌.粒子群优化的CNN互信息医学图像配准算法[J].计算机应用与软件,2015,32(12):201-205.[20]褚鼎立,陈红,宣章健.基于改进鲸鱼优化算法的盲源分离方法[J].探测与控制学报,2018,40(5):76-81.
[21]尚猛,康建英,曹峻玮,等.基于改进鲸鱼优化算法的物流配送中心选址策略[J].计算机应用与软件,2019,36(6):
254-259.
[22]罗佳,唐斌.基于收敛因子非线性动态变化的灰狼优化算法[J].中国科技论文,2016,11(17):
1991-1997.
(上接第164页)
[13]HoubenS,StallkampJ,SalmenJ,etal.Detectionoftrafficsignsinreal worldimages:TheGermantrafficsigndetection
benchmark[C]//InternationalJointConferenceonNeuralNetworks,2013:1-8.
[14]IoffeS,SzegedyC.Batchnormalization:Acceleratingdeepnetworktrainingbyreducinginternalcovariateshift[C]//32ndInternationalConferenceonInternationalConferenceon
MachineLearning,2015:448-456.
[15]MaasA,HannunA,NgA.Rectifiernonlinearitiesimproveneuralnetworkacousticmodels[C]//30thInternationalCon ferenceonMachineLearning,2013.
[16]LinTY,DollárP,GirshickR,etal.Featurepyramidnet worksforobjectdetection[C]//2017IEEEConferenceon
ComputerVisionandPatternRecognition(CVPR),2017:
936-944.
[17]Arcos GarcíaA,álvarez GarcíaJA,Soria MorilloLM.Evaluationofdeepneuralnetworksfortrafficsigndetection
systems[J].Neurocomputing,2018,316:332-344.
[18]SaltiS,PetrelliA,TombariF,etal.Atrafficsigndetectionpipelinebasedoninterestregionextraction[C]//The2013
InternationalJointConferenceonNeuralNetworks(IJC NN),2013:1-7.
[19]YangY,LuoH,XuH,etal.Towardsreal timetrafficsigndetectionandclassification[J].IEEETransactionsonIntel ligentTransportationSystems,2016,17(7):2022-2031.。