基于RHTC网络的飞机目标检测与精细识别

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第43卷 第12期系统工程与电子技术
Vol.43 No.12
2021年12月SystemsEngineering a
ndElectronicsDecember2021
文章编号:1001 506X(2021)12 3439 13 网址:www.sy
s ele.com收稿日期:20201209;修回日期:20210201;网络优先出版日期:20210323。

网络优先出版地址:http
s:∥kns.cnki.net/kcms/detail/11.2422.TN.20210323.1132.020.htm基金项目:国家自然科学基金(62071474)资助课题 通讯作者.
引用格式:曹旭,邹焕新,成飞,等.基于RHTC网络的飞机目标检测与精细识别[J].系统工程与电子技术,2021,43(12):3439 3451.犚犲犳犲狉犲狀犮犲犳狅狉犿犪狋:CAOX,ZOUHX,CHENGF,etal.Aircrafttargetdetectionandfine grainedrecog
nitionbasedonRHTCnetwork[J].SystemsEngineeringa
ndElectronics,2021,43(12):3439 3451.基于犚犎犜犆网络的飞机目标检测与精细识别
曹 旭,邹焕新 ,成 飞,李润林,贺诗甜
(国防科技大学电子科学学院,湖南长沙410073)
摘 要:飞机目标的方向检测和精细识别是高分辨率光学遥感图像解译领域的一个重要任务。

针对遥感图
像中多方向密集排布飞机的方向检测和识别困难问题,提出一种基于旋转混合任务级联(rotatedhy
bridtaskcas cade,RHTC)网络的飞机检测识别方法。

首先,基于混合任务级联(hy
bridtaskcascade,HTC)网络,扩展分割分支数量,并将分割分支与包围框分支多层级联以不断加强语义特征。

其次,设计了一个新的斜框回归器,将其添加在掩膜分支的最后一层以完成目标方向预测。

最后,增加一个新的方向损失函数以优化训练过程,从而完成
RHTC网络构建。

在数据预处理阶段,
构建了每类型号飞机目标的精细掩膜以增强目标细节和提高掩膜预测精度。

基于DOTA和公开Goog
le图像构建的飞机数据集开展了多组实验。

结果表明,与其他多种先进的方法相比,
所提方法在飞机检测方向精准度和类别平均精准度上性能更优。

此外,所设计的斜框回归器和方向损失函数在嵌入到其他分割网络时也具有良好的性能。

关键词:高分辨率遥感图像;飞机目标;旋转混合任务级联网络;方向检测;精细识别
中图分类号:TN957 文献标志码:A 犇犗犐:10.12305/j.
issn.1001 506X.2021.12.04犃犻狉犮狉犪犳狋狋犪狉犵犲狋犱犲狋犲犮狋犻狅狀犪狀犱犳犻狀犲 犵狉犪犻狀犲犱狉犲犮狅犵
狀犻狋犻狅狀犫犪狊犲犱狅狀犚犎犜犆狀犲狋狑狅狉犽CAOXu,ZOUHuanxin ,CHENGFei,LIRunlin,HEShitian
(犆狅犾犾犲犵犲狅犳犈犾犲犮狋狉狅狀犻犮犛犮犻犲狀犮犲犪狀犱犜犲犮犺狀狅犾狅犵狔,犖犪狋犻狅狀犪犾犝狀犻狏犲狉狊犻狋狔狅犳犇犲犳犲狀狊犲犜犲犮犺狀狅犾狅犵狔,犆犺
犪狀犵狊犺犪410073,犆犺犻狀犪) 犃犫狊狋狉犪犮狋:Directiondetectionandfine gainedrecognitionofaircrafttarg
etsisanimportanttaskinthefieldofhigh resolutionopticalremotesensingimageinterpretation.Aimingatthedifficultyo
fdirectiondetectionandrecognitionofmulti directionaldenselyarrangedaircraftinremotesensingimag
es,anaircraftdetectionandrecognitionmethodbasedonrotatinghy
bridtaskcascade(RHTC)networkisproposed.Firstly,basedonhy
bridtaskcascade(HTC)network,thenumberofsegmentedbranchesisexpanded,andthesegmentedbranchesandboundingboxbranchesarecascadedatmultiplelevelstocontinuouslystreng
thensemanticfeatures.Secondly,an
ewslantframeregressorisdesignedandaddedtothelastlayerofthemaskbranchtocompletethetargetdirectionprediction.Finally,anewdirectionallossfunctionisaddedtooptimizethetrainingprocess,soastocompletetheconstructionofRHTCnetwork.Inthedatapreprocessingstage,thefinemaskofeachtypeofaircrafttargetisconstructedtoenhancethetargetdetailandimprovethemaskpredictionaccuracy.Severalgroupsofexp
erimentswerecarriedoutonaircraftdatasetsconstructedbasedonDOTAandpublicGoogleimag
es.Theresultsshowthatcomparedwithotheradvancedmethods,theproposedmethodhasbetterperformanceinaircraftdetectiondirectionaccuracyandcategoryaverageaccuracy.Inaddition,thedesignedskewframeregressoranddirectionallossfunctionalsohavegoodperformancewhenembeddedintoothersegmentednetworks.犓犲狔狑狅狉犱狊:highresolutionremotesensingimage;aircrafttarget;rotatedhybridtaskcascadenetwork;directiondetection;fine grainedrecog
nition(RHTC)Copyright©博看网 . All Rights Reserved.
 ·3
440 ·系统工程与电子技术
第43卷
0 引 言
在战场态势瞬息万变的情况下,快速精确识别目标是现代战争制胜的关键,因此开展光学遥感图像上的飞机目
标检测与识别,
对国防事业具有极其重要的意义。

该技术在侦查监视对方机场军力部署、有效打击重点空战目标、提
高防空预警能力等方面有着广泛的应用前景外[1]。

此外,
在民用领域中,如民航机场流量管控、航班识别等也具有重要作用。

但是,因为机场背景复杂,利用光学卫星遥感图像对地面上的飞机目标进行自动检测与识别一直以来都是非常具有挑战性的任务[2]。

在光学遥感图像中,飞机目标检测识别具有以下两个主要难点。

(1)方向检测困难:飞机目标尺度小、细节不清晰,在图像中通常比较密集且方向多变,容易造成误检和漏检;相比较于遥感图像舰船方向检测,飞机目标机长、翼展尺寸比
较接近,难以有效利用飞机的长宽比信息准确估计其主轴方向。

(2)精细识别困难:不同型号飞机目标之间尺寸接近、形状类似,类间特征差别较小,难以精细识别;同型号飞机之间受可变掠翼张角不同、自身阴影等影响,容易产生错误分类。

传统飞机目标检测方法通常基于手工提取的特征而设计。

Zhang等人[3]提出了一种通过提取闭合轮廓来识别飞机的方法。

Liu等人[4]提出了一种通过拐角特征识别飞机的方法。

Qiu等人[5]在拐角特征基础上,进一步提出使用边缘信息来检测飞机。

Zhang等人[6]提出将哈里斯拉普拉斯拐角检测器与仿射不变矩结合起来构建特征以检测飞机目标。

此外,还有很多传统检测方法[710]。

然而,由于需要大量参数优化,使得这些传统飞机检测方法泛化性能较差,在利用这些传统方法处理新的数据集时,需要人工经验对参数进行大量调整。

得益于深度学习和区域卷积神经网络(reg
ionconvolu tionalneuralnetwork,
RCNN)的发展,许多方法将目标检测视为根据深度特征提取的感兴趣区域(reg
ionofinterest,ROI)
的分类问题,并在多个领域都表现出优异的检测性能[1116]。

上述方法都是为检测自然场景或舰船目标而设计的,针对遥感图像中飞机多方向密集排布问题,通常无法获得较好的检测结果。

此外,在利用深度学习进行光学遥感图像中飞机目标检测方面,近年来也涌现出较多方案。

Yu等人[17]提出了一种基于全卷积神经网络的飞机检测方法,通过最小化多任务损失直接定位飞机。

Wang等人[18]进一步提出了一种基于RCNN的飞机检测方法,通过K means对不同尺寸的目标进行聚类分析,以聚类中心作为候选锚框尺寸,提高了锚框生成质量。

其后,Li等人[19]提出了一种基于增强学习和卷积神经网络的飞机检测框架,通过增强学习实现对候选区域的动态约简,并限制边缘框范围以提高候选框质量。

除此之外,还有很多其他优秀的遥感飞
机目标检测方法[2024]。

虽然上述方法在遥感图像中飞机目标定位方面取得了很大进展,但当飞机目标方向检测与精
细识别任务同时进行时,
飞机检测与识别结果并不理想。

2019年,Chen等人[25]提出了混合任务级联(hybridtaskcascade,HTC)网络,用于自然图像中的实例分割。

HTC网络包含3个结构分支:目标检测分支、掩膜分支与分割分支,可以精准定位、分类和分割目标。

受HTC网络能够同时完成多种任务的思路启发,本文提出了一种基于旋转HTC(rotatedHTC,RHTC)网络的多方向飞机目标检测与精细识别方法。

主要思路为:首先,在数据预处理阶段,构建每类型号飞机目标的精细掩膜,以形成目标的轮廓编码作为网络输入;其次,RHTC将分割分支与包围框分支多层级联,以不断加强语义特征,并将语义特征与其他特征进行融合,从而提高包围框和掩膜预测精度;最后,在掩膜
预测的最后一层,
设计并增加一个方向损失函数,同时引入一个新的斜框回归器以便从掩膜预测结果中准确预测目标的机头正方向。

本文方法可以准确快速地实现光学遥感图像中飞机目标的定位、分类和掩膜预测,并回归出飞机目标的斜框和机头正方向。

利用DOTA数据集中的飞机目标和自建的Goog
le图像典型军用飞机目标数据集开展了多组飞机目标方向检测和精细识别实验,并将本文方法与其他多种先进算法,包括带有方向性边框F RCNN(faster
RCNNoBB,FRO)[26]、
ROItransformer[16]、旋转区域建议网络(rotatedregionproposalnetwork,RRPN)[27]、旋转RCNN(rotationalRCNN,R2CNN)
[28]、旋转密集特征金字塔网络(rotationaldensefeaturepy
ramidnetworks,RDFPN)[29]进行了算法性能比较和评估分析。

实验结果表明,本文方法在飞机目标检测的方向精准度和精细识别的类别平均精准度上性能更优。

此外,为了评估本文方法中提出的斜框回归器在作为一个单独的模块嵌入到其他分割网络时的性能,将本文设计的斜框回归器和方向损失函数应用于掩膜
RCNN(maskRCNN,M RCNN)[30]和级联M RCNN(cascadeM RCNN,CM RCNN)[31],并基于自建的Goog
le图像典型军用飞机目标数据集进行了训练和测试。

实验结果验证了本文方法设计的斜框回归器和方向损失函数在嵌入到其他分割网络时也具有良好的性能。

1 算法介绍
本文提出的算法框架主要包含3个部分:①分割级联结构:RHTC网络通过分割分支与包围框分支多层级联,增强语义特征,以实现更精确的目标水平框定位、精细分类和掩膜预测;②在预处理阶段,构建每类型号飞机目标精细掩膜和图像的语义分割图,以构建完整的网络训练输入;
③在网络掩膜预测最后一层(
犕3)后,设计并增加一个新的方向损失函数,同时引入一个新的斜框回归器,以优化训练过程和实现飞机目标的方向检测。

本文方法流程图如图1所示。

Copyright©博看网 . All Rights Reserved.
 第12期曹旭等:基于RHTC网络的飞机目标检测与精细识别·3441 ·
图1 本文算法流程图
Fig.1 Flowchartoftheproposedmethod
1.1 犎犜犆网络
为了更好地理解本文RHTC网络结构,下面首先对
CM RCNN的网络结构、无分割分支的HTC网络结构以及
带分割分支的HTC网络结构进行简单的介绍。

1.1.1 CM RCNN网络
CascadeRCNN[32]开创了级联检测网络的经典结构,
M RCNN则是优秀的通用实例分割架构,Cai等人[31]尝试
将CascadeRCNN和M RCNN两个网络结构简单组合为
CM RCNN应用于实例分割任务,通过不断优化预测框的
回归以获得更好的检测结果,但其掩膜分支与预测框分支
在每个阶段均独立运算,二者之间没有信息流通,导致网络
分割能力整体较弱,这是因为掩膜预测精度仅通过预测框
精度的不断提升而获得少量提升。

图2展示了CM RCNN
的网络结构,其中,代表掩膜预测部分,犅代表包围框
(boundingbox,bbox)预测部分,犕和犅后面的数字表示
级联网络阶段数。

图2 CM RCNN结构
Fig.2 ArchitectureofCM RCNN
1.1.2 无分割分支的HTC网络
HTC网络是在CascadeRCNN和M RCNN的基础上
进行融合改进的结果。

为了加强掩膜与预测框之间、掩膜
与掩膜之间的信息流通,HTC网络取消了第一阶段上的掩
膜分支,使其与第一阶段的预测框相关联,以提高第一阶段
的掩膜预测精度,同时套用级联优化思想,在掩膜分支之间
添加信息流(见图3中的红色箭头),实现掩膜级联,掩膜特
征从前一阶段流通到后一阶段,大大提高了掩膜的预测精
度。

无分割分支的HTC网络结构如图3所示。

图3 无分割分支的混合任务级联网络结构
Fig.3 Architectureofhybridtaskcascade(HTC)without
segmentationbranch
1.1.3 带分割分支的HTC网络
为增强网络区分前景和背景的能力,HTC网络额外使
用了上下文信息,将语义特征与掩膜分支、包围框分支特征
进行融合。

其中,语义特征通过分割分支来提取。

分割分
支以特征金字塔网络(featurepyramidnetwork,FPN)[33]
输出的组合特征作为输入,通过全卷积结构得到分割预测
和语义特征。

分割分支结构如图4所示,添加了分割分支
的HTC网络结构如图5所示。

4 
Fig.4 ArchitectureofsegmentationbranchCopyright©博看网 . All Rights Reserved.
 ·3
442 ·系统工程与电子技术
第43卷
图5 带分割分支的混合任务级联网络Fig.5 ArchitectureofHTCwithsegme
ntationbranchHTC网络的语义特征仅由分割分支提取一次,且区域建议网络(regionprop
osalnetwork,RPN)及bbox预测分支未与分割分支形成有效连接,致使语义特征无法充分利用,且分割预测精度较低。

针对上述问题,本文在带有分割分支的HTC网络基础上,充分级联分割分支、RPN和bbox分支(见图1),实现预测框信息与语义信息有效融合,级联过程中不同分支相互促进,提高最终预测效果。

此外,为实现斜框预测功能,本文在掩膜分支最后一层之后引入一个新的斜框回归器,以回归目标斜框和机头正方向。

同时,设计并增加一个方向损失函数,提高方向预测精度,优化整个训练过程。

此外,在数据预处理过程中,构建每类型号飞机目标的精细掩膜,以增强目标掩膜特征细节,辅助提升精细识别精度。

在本文中,改进后的HTC网络称为RHTC网络。

1.2 飞机目标精细掩膜和语义分割图生成
在引言中介绍的其他基于深度学习的飞机目标检测方法中,除了Zuo等人[23]提出的基于深度卷积神经网络分割结果的飞机型号识别方法利用掩膜信息提高了识别精度之外,
其他方法均没有考虑目标掩膜信息和上下文信息的利用。

实际上,精细的目标掩膜含有丰富的目标细节信息,这些特征信息有助于RHTC网络中的斜框回归器更准确地预
测目标斜框及其方向,并辅助提升精细识别精度。

同时,含
有上下文信息的语义分割图可以帮助网络更好地区分前景和背景。

RHTC网络包含3个输入,具体为:飞机目标斜框标注、
飞机目标掩膜信息和训练图像的语义分割图。

本文基于公开的Google图像构建了一个飞机目标数据集,包含了27类型号飞机目标的斜框标注。

此外,为了获得飞机目标的掩膜信息和语义分割图,本文利用图像形态学相关算法处理得到每类型号飞机目标的精细掩膜和每幅训练图像的语义分割图。

1.2.1 飞机目标精细掩膜生成
图像形态学主要用于从图像中提取对描述区域形状有
意义的图像分量,
使后续识别工作能够抓住目标对象最具有区分能力的形状特征,如边界、连通区域等,同时像细化、像素化、修剪毛刺等也常应用于预处理和后处理中,成为深度学习中图像增强新的选择[34]。

本文方法对真实收集的Goog
le图像中的每类型号飞机目标,采用灰度化、阈值分割、连通域处理、中值滤波、剪裁、轮廓提取等操作,获得目标轮廓和形状特征,在此基础上构建每一类型号飞机目标的精细掩膜。

飞机目标精细掩膜生成步骤如下。

步骤1 灰度化。

将目标切片图像转换为灰度图像。

步骤2 阈值分割。

利用OTSU方法[35]计算分割阈值,
或根据灰度直方图统计,设计双阈值分割。

步骤3 区域处理。

查询图像中4连通区域,并对每
个区域进行标记,
计算每个区域面积,设置合适的阈值滤除小尺寸非目标区域和孔洞。

步骤4 中值滤波。

使用3×3滤波窗口对图像进行中值滤波,
以去除目标边缘毛刺。

步骤5 剪裁和轮廓提取。

以目标边缘为界剪裁图像,得到目标精细掩膜,并提取轮廓分割点集。

目标精细掩膜的构建过程如图6所示。

图6 精细掩膜构建过程
Fig.
6 Constructionprocessoffinemask 本文使用上述方法共构建2
7类型号飞机目标的精细掩膜,包含了战斗机、轰炸机、加油机、侦察机、运输机等多个大类中的具体型号(包含“其他”型号),
每类目标型号的精细掩膜如图7所示。

为展示效果,图7中部分型号飞机
目标的尺寸和长宽比略有调整,而在RHTC网络训练中均采用各类型号飞机目标精细掩膜的真实尺寸和形状。

Copyright©博看网 . All Rights Reserved.
 第1
2期曹旭等:基于RHTC网络的飞机目标检测与精细识别
·3443 ·
 图7 不同型号飞机目标的精细掩膜Fig.7 Finemasksfordifferenttypesofaircrafttarg
et1.2.2 飞机目标语义分割图生成
在已经斜框标注的训练图像数据中,根据每个飞机目标标注好的型号和尺寸信息,将生成的精细掩膜自动进行旋转和缩放以贴合相应的飞机目标,从而生成该幅图像的语义分割图。

图8(a)展示了某幅机场图像及其斜框标注,包含了B 1B、KC 135、C 130这3种型号的飞机目标;图8(b)展示了目标精细掩膜与目标的贴合结果;图8(c)展示了该图像的语义分割结果。

图8 语义分割图生成过程
Fig.8 Semanticsegmentationmapg
enerationprocess1.3 犚犎犜犆
RHTC网络,充分级联分割分支、RPN和bbox分支,
以实现预测框信息与语义信息的有效融合。

级联过程中不同分支相互促进,从而综合提升bbox、掩膜和分割的预测效果。

RHTC为实现斜框预测功能,在掩膜分支最后一层之后引入一个新的斜框回归器,以回归目标斜框和机头正方向,并设计和增加一个新的方向损失函数,提高方向预测精度,优化整个训练过程。

1.3.1 分割级联结构
与HTC仅利用分割分支犛提取一次语义特征不同,RHTC将分割分支扩展至4个,犛0、犛1、犛2、犛3,逐级精炼语义特征,并输出更准确的分割预测,具体步骤如下。

首先,训练输入经由骨干网络和FPN提取原始特征,并输入RPN进行建议区域的生成。

此时建议区域经过分配标签和采样后,已经具备粗糙的目标空间位置信息,将建议区域的所有正例(即目标可能存在区域)按置信分数排序,并挑选前50%保留,如图9(a)所示。

然后,制作单个建议区域掩模(singleproposalmask,SPM)。

按训练图像8倍下采样的尺寸生成全0矩阵,以单个建议区域的坐标中心为二维高斯函数的中心,建议区域的边界作为取值边界,在全0矩阵中,从中心开始以标准二
维高斯分布向取值边界赋值,
生成SPM。

最后,将该训练图像的全部SPM按像素位置加和,除以像素最大值进行归一化,乘以权重因子θ并加1,生成最终的建议区域掩膜(proposalmask,PM),该过程可表示为
PM=∑狀犻=1SPM/max(∑狀
犻=1
SPM)θ+1(1) PM结果如图9(
b)所示,亮度可反映出RPN认为该区域的重要程度,亮度越高说明该区域是目标的几率越大。

θ可以控制语义特征权重,本文设置为0.5。

Copyright©博看网 . All Rights Reserved.
 ·3444 ·系统工程与电子技术第43卷
图9 利用RPN提取的建议区域生成建议区域掩膜
Fig.9 UseproposalextractedbyRPNgeneratePM
PM制作完成后,与骨干网络和FPN提取的原始特征相乘,得到包含目标空间信息增强后的原始特征,输入犛0进行分割预测,并提取第一次语义特征。

此时,犛0输出的语义特征,与RPN提取的建议区域,和原始特征共同进行ROI池化,并输入犅1生成第一次候选框预测。

同理,犅1生成的PM会与犛0输出的语义特征进行融合,作为犛1的输入。

犛1输出的语义特征将与犅1输出的预测框和原始特征一同ROI池化,作为犅2和犕1的输入。

级联过程中语义特征不断加强,并指导其他分支更精确地预测,经过三次级联后,犛3将输出最终的分割预测,犕3将输出最终的掩膜预测,犅3将输出最终的水平框定位和分类。

图10和图11展示了不同阶段分割分支输出的语义特征和分割预测对比,可以看出经过逐级加强的语义特征具有更强的目标位置信息,而图11(a)难以区分前景背景,到图11(e)分割预测比较精准。

图10 不同阶段分割分支输出的对比
Fig.10 Comparisonofsemanticfeaturesofsegmentationbranchoutputatdifferentstages
图11 不同阶段分割分支输出的分割预测对比
Fig.11 Comparisonofsegmentationpredictionofsegmentationbranchoutputatdifferentstages
1.3.2 斜框回归器设计
斜框回归器利用最小矩形框拟合方法,提取网络最后一级掩膜预测犕3结果中的目标,该矩形框即为目标斜框预测,且目标斜框中包含了飞机目标的掩膜,但此时斜框中飞机目标的正方向是未知的。

众所周知,在光学遥感图像中的飞机目标具有明显的关于主轴的左右对称特性,估计目标的斜框方向可以通过寻找飞机目标主轴的方式来实现。

本文中设计了一种简单有效的飞机目标主轴提取方法,具体步骤如下。

首先,从图像的分割结果(见图12(a))中按照斜框方式(见图12(a)中红色矩形框)提取出每一个飞机目标掩膜切片,如图12(b)所示。

其次,假定飞机目标包括水平和垂直两个主轴方向,呈十字交叉排布,如图12(c)所示;两条主轴将切片平均划分为4份,水平主轴1(红色)将飞机目标划分为部分1和部分2,垂直主轴2(蓝色)将飞机目标划分为部分3和部分4,如图12(d)所示。

Copyright©博看网 . All Rights Reserved.
 第1
2期曹旭等:基于RHTC网络的飞机目标检测与精细识别
·3445 ·
 图12 不同方向的主轴对飞机目标掩膜的划分示意图Fig.12 Extractthemainaxisdirectionfromthesegme
ntationresult 最后,
令通过不同方向的主轴对飞机目标掩膜进行划分得到的部分1、
部分2、部分3和部分4的面积分别为犛1、犛2、犛3和犛4,
根据飞机目标物理结构的左右对称特性,定义犛12=|犛1-犛2|,犛34=|犛3-犛4|,
若犛12>犛34,则可认为部分3和部分4为目标机翼两侧部分,确定垂直主轴2(蓝色)为目标的真实主轴;相反的,若犛12<犛34,则认为部分1和部分2为目标机翼两侧部分,确定水平主轴1(红色)为目标的真
实主轴。

为了说明本文设计的飞机目标主轴提取方法的有效性,对本文考虑的所有27类型号飞机目标精细掩膜均利用假定的水平和垂直主轴进行了划分。

表1列出了所有27类型号飞机目标精细掩膜的划分结果。

由表1可知,所有飞机目标的犛34皆远小于犛12,验证了本文方法可以提取出正确的主轴。

表1 27类飞机目标精细掩膜划分结果
犜犪犫犾犲1 犉犻狀犲犿犪狊犽犱犻狏犻狊犻狅狀狉犲狊狌犾狋狊狅犳27狋狔狆犲狊狅犳犪犻狉犮狉犪犳狋狋犪狉犵
犲狋狊参数型号
A 50
An 12An 24B 1BB 2B 52C 5C 17C 130
犛1239843521687977215610261005163犛3431154021141644
6313参数型号
E 3EP 3F 15F 16Il 76KC 10KC 135MiG 31P 8A犛128653112561234941303244287164犛34254542722114
12参数型号
RC 135SRQ 4Su 24Su 27Tu 22MTu 95Tu 160Typhoon其他犛124602672053536752188631893272犛34
36
413736967
37
34
通过上述方法得到目标主轴后,进一步采用以下3个步骤判断飞机机头正方向:首先,按照如图13(a)中所示的蓝色箭头方向,统计主轴(即蓝色箭头所在的线段)两侧目标轮廓线上对应的最外侧两个像素点(见图13(a)中的狆犔
和狆犚像素点)与主轴之间的平均距离犱=(犱犔+犱犚)/2(根
据对称特性),绘制出目标凸轮廓剖面曲线,如图13(b)所示;其次,根据飞机的飞行动力学设计特点,机头通常呈现锥形,机尾则带有尾翼结构。

因此,在判断机头正方向时,只利用飞机目标凸轮廓剖面曲线的前20%(大致对应于机
头)和后20%(大致对应于机尾)
,以消除机翼形状、发动机

机载雷达等对机头正方向估计的影响;最后,定义犖犉20表示飞机目标凸轮廓剖面曲线前20%对应的值的和,犖犔20表示飞机目标凸轮廓剖面曲线后20%对应的值的和。

若犖犉20<犖犔20,则判断前20%部分对应机头;反之,犖犉20>
犖犔20,
则判断后20%部分对应机头。

对27类型号飞机目标进行测试的结果表明,利用此方法可以准确判断出飞机机头正方向。

Copyright©博看网 . All Rights Reserved.
 ·3
446 ·系统工程与电子技术
第43卷
图13 利用主轴和轮廓剖面估计机头正方向
Fig.
13 UsemainaxisandconvexprofiletoestimateaircraftheadPositivedirection
1.3.3 方向损失函数设计
损失函数的定义和设计通常与学习准则、优化问题等相关,
即通过最小化损失函数来求解和评估模型。

本文方法通过斜框回归器得到目标方向预测,通过设计并增加一个新的方向损失函数,用于评估预测方向与真值方向的差值,以进一步优化网络参数,提升方向预测性能。

因此,在本文中,RHTC网络的损失函数如下:
犔=∑犜
狋=1
α狋(犔狋bbox+犔狋mask)+β犔seg+γ犔dir(2)式中:犔狋bbox表示预测框损失;犔狋mask表示掩膜损失;犔seg表示分割损失;犔dir表示方向损失;犜为网络总阶段数(网络通常设
置为三阶段网络,即犜=3);狋为当前所处阶段;α、β和γ均
表示损失权重(在本文实验中,α、β
和γ均设置为1)。

其中,预测框损失犔狋bbox为
犔狋bbox(犮,狉狋,犮^狋,狉^狋)=犔cls(犮狋,犮^狋)+犔reg(狉狋,
狉^狋)(3)预测框损失用于评估预测框位置回归和分类效果,由两部分组成,即分类损失犔cls和定位损失犔reg。

其中,犮狋表示真实标签,犮^狋表示预测标签,狉狋表示真实定位,狉^狋表示预测定位。

掩膜损失构成如下:
犔狋mask(犿狋,犿^狋)=BCE(犿狋,犿^狋)(4)
式中:犿狋表示真实掩膜,犿^狋表示预测掩膜。

掩膜损失采用二值交叉熵损失(binarycrossentropyloss,BCELoss)的方式,BCE是交叉熵损失(crossentropyloss,CELoss)的一个特例,在数学中广泛应用于二分类问题。

分割损失构成如下:
犔seg=CE(狊,狊^)(5)
式中:狊表示真实分割结果,狊^表示预测分割结果。

分割损失采用CELoss的方式,其本质上也是实例分割中的多分类问题。

方向损失函数构成如下:
犔dir=Smooth犔1(θ,θ
^)(6)式中:θ表示真实标注中的方向;θ
^表示斜框回归后的预测方向。

方向损失本质上是一个预测数值与一个真实数值之间差异性的度量。

因此,在本文中,方向损失采用平滑犔1(Smooth犔1)
损失函数的方式。

平滑犔1是犔1损失的改进,相比于犔1损失和犔2损失,平滑犔1损失更加稳定,更有利于网络训练。

在计算方向损失之前,需要规范目标预测角度θ^与真实角度θ之间的差值衡量问题。

首先,通过预测角度θ^、真实角度θ始终对360°进行取余操作(mod)
,以保证本文所有角度均在[0°,360°)区间,避免角度周期问题。

定义角度差值狓,如下所示:
狓=[mod(θ^-θ,180°)-180°]/10,(θ
^-θ)>180°mod(θ^-θ,180°)/10,(θ
^-θ)<-180°(
θ^-θ)/10,烅烄烆其他(7)Smooth犔1(狓)=0.5狓2,|狓|<1|狓|-0.5,烅烄烆其他(8) Smooth犔1(狓) 狓=狓,|狓|<1±1,烅烄烆其他(9)平滑犔1损失的计算如式(8)所示。

当方向偏离较大
时,即狓>1,如式(9)所示,
损失函数对狓梯度恒为正负1,而不会像犔2损失导数随损失增大而增大,从而导致在前期训练时因为损失过大出现梯度爆炸问题。

在训练后期,损
失趋于平稳且较小,
损失函数对狓的梯度随狓减小而减小,使用梯度下降法更新参数时更加平滑,而不会出现模型在稳定值附近波动的情况。

图14(a)展示了θ分别取0°、90°、180°、270°时,θ
^由0°~360°取值,角度差值狓的曲线。

结合图14(b)损失函数曲线分析,当狓>0时,损失函数梯度恒大于0,此时减小预测角度θ
^以趋近真实角度θ,当狓<0时,损失函数梯度恒小于0,
增大预测角度θ^以趋近真实角度θ。

上述两种情况不存在矛盾,均满足损失函数要求,可以较好地解决角度周期回归问题。

Copyright©博看网 . All Rights Reserved.。

相关文档
最新文档