基于改进型YOLOv3的SAR图像舰船目标检测
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Vol. 43 No. 4April 2021
第43卷第4期2021年4月
文章编号:1001-506X(2021)04-0937-07
系统工程与电子技术
Systems Engineering and Electronics
网址 :www. sys-ele. com
基于改进型YOLOv3的SAR 图像舰船目标检测
陈冬*
*,
句彦伟收稿日期:2020 -07 - 27
;修回日期:2020 - 08 - 24;网络优先出版日期:2020 - 12 - 01。
网络优先出版地址:https : // kns. cnki. net/kcms/detail/11. 2422. TN. 20201201. 1552. 003. html
基金项目:装发十三五预研项目(14150480303)资助课题
* 通讯作者. E-mail :preston_chen@foxmail, com
引用格式:陈冬,
句彦伟.基于改进型YOLOv3 的 SAR 图像舰船目标检测[J ].系统工程与电子技术,2021, 43(4
)937-943.
Reference format : CHEN D ,
JU Y W. Ship detection in SAR image based on improved YOLOv3[J]. Systems Engineering and Electronics
,
2021, 43(4) 937-943
(南京电子技术研究所,
江苏南京210013
)
摘 要:传统合成孔径雷达(synthetic aperture radar,SAR)图像目标检测的方法依赖于人工设计特征且易受
复杂背景干扰,泛化能力较差。
深度学习的方法可以自动提取特征且具有良好的抗干扰特性,对于未来雷达智能 感知具有重要意义。
不同于其他只能对固定区域进行检测的常规卷积神经网络,本文提出一种改进型YOLOv3
的SAR 图像舰船目标检测方法,该方法基于舰船尺寸与形状自适应采样的可变形卷积、ResNet50变体特征提取
器和ShuffleNelv2轻量化思想等设计YOLOv3模型。
通过SSDD 数据集验证,在检测效果方面,相较于原
YOLOv3模型,平均精度从93. 21%提高至96. 94%,检测概率从95. 51%提高至97. 75% ;在模型大小方面,轻量
化设计模型仅为原YOLOv3模型的八分之一,可实现嵌入式的使用。
关键词:合成孔径雷达;舰船检测;单阶段检测算法;可变形卷积;卷积神经网络
中图分类号:TP751 文献标志码:A DOI : 10.12305/j. issn.1001-506X. 2021.04.10
Ship detection in SAR image based on improved YOLOv3
CHEN Dong * , JU Yanwei
(Nanjing InsLiLuLe of Electronic Technology , Nanjing 210013 , China)
Abstract : Traditional synthetic aperture radar(SAR ) image target detection methods rely on manual design
features and are vulnerable to complex background interference , and their generalization ability is poor. The
deep learning method can automatically extract features and has good anti-jamming characteristics , which is of great significance for future radar intelligent perception. Different from other conventional neural networks that
can only detect fixed areas , an improved YOLOv3 SAR image ship detection method is proposed in this paper.
The new YOLOv3 model is designed based on deforming convolution of adaptive sampling of the ship size and
the shape , the ResNet50 variant feature extractor and the ShuffleNetv2 lightweight idea. Through SSDD dataset
verification , compared with the original YOLOv3 model, the average accuracy increases from 93. 21 % to 96. 94% , and
the detection probability increases from 95. 51 % to 97. 75%. In terms of the model size , the lightweight design model is only one-eighth of the original YOLOv3 model , which can be embedded for use.
Keywords : synthetic aperture radar (SAR ); ship detection ; YOLOv3; deformable convolution ; convolu-
tionalneuralnetwork
o 引言
人工智能的兴起引发了计算机视觉领域的快速发展,
深度学习在光学图像诸多任务(如分类、检测、分割等)上取
得了突破性的进展,而其在合成孔径雷达(synthetic aper ture radar,SAR )图像上的运用远未普及,在精度、速度等方
面均存在着严重的限制。
SAR 图像舰船目标检测具有极广的应用,在民用领域
上,有助于海运检测与管理;在军事领域上,有利于战术部 署,提高海防预警能力。
传统的SAR 图像舰船目标检测方
法多采用恒虚警率法⑴、模板匹配法⑵、尾迹检测法⑶等。
这些方法多依赖于人工手动设计提取复杂的特征,且取得
的效果泛化能力较差。
神经网络的优点在于自动提取特征而不需要手动设
计,这对于未来的雷达智能感知来说具有重要的意义。
基 于深度学习的新兴SAR 图像舰船检测依赖于计算机视觉
・938・
系统工程与电子技术第43卷
已取得的成果,然而SAR 图像与光学图像特性存在诸多不 同,因此研究基于神经网络的SAR 图像舰船检测仍有许多
科学问题需要解决。
当前光学图像中目标检测方法主要有以下两种:双阶段 检测、单阶段检测。
以R-CNN 系列为代表的双阶段检测 方法具有非常高的检测精度,主要思想是先对输入的图像进
行区域划分,获取候选框,对每个候选框分类,相同类别的合 并,回归出最终每个目标的检测框。
其存在的主要问题是区
域划分耗时耗力‘Faster R-CNN 页通过卷积网络实现区域划 分,第一次实现了 R-CNN 4系列的端到端训练,降低了检测 时间。
尽管如此‘Faster R-CNN 检测速依旧较慢。
单阶段的检测方法具有非常高的检测速度,典型代表有
SSD 系列口切与YOLO 系列口°吨。
其主要思想通过神经网络
直接回归出目标的类别、可信度以及坐标框,由于未采用二 阶段候选框生成的概念,虽然检测速度取得了很大的提升,
但检测精度却有所下降。
而YOLOv3[囚检测方法的出现改 变了这一状况,其在取得快速检测的同时保证了检测精度。
以上提及的方法大部分基于锚框(anchor )的思想,即预先 设定大小的框。
这一 anchor 的设定亦成为了检测速度再次提 高的桎梏,当前,已有研究提出无锚框(anchor free)的概念。
最
先提及该概念并用于检测中的是百度提出的人脸检测方法 DenseBox [13],现如今出现的方法有FCOS 】】4、CornerNet [⑸。
虽然其是未来检测的趋势,但当前其发展运用远不及基于
anchor 的方法。
深度学习在SAR 图像上的检测目前已取得相当的成 果,基于Faster R-CNN 的思想,文献[16]提出了改进模型,检 测精度达到了 78.8% ;基于SSD 的思想,文献[17]提出了一 个改进型模型,适用于小舰船目标检测,精度可达到88. 1% ;
基于轻量化模型、注意力机制等思想,文献[18]设计了一个 新的舰船检测模型,降低了参数量,可实现检测的实时性。
相较于光学图像,SAR 图像中不包含丰富的特征信 息,舰船目标尺寸变化大、干扰源多,这些对检测都会产生
一定的影响。
YOLO v 3的方法在光学图像中取得了很好的 效果,但光学图像和SAR 图像的成像原理存在着本质上的
区别,直接将该方法运用到SAR 图像中存在识别不准确、 召回率低、检测框偏移较大等问题。
基于常规卷积方案的
原YOLOv3模型无法对舰船目标尺寸适应性地调整且网
络过深不适用于SAR 图像,同时可能会引起过拟合问题,
因此很有必要对其特征提取部分进行改进。
本文的创新点主要如下:
(1) YOLOv3的方法本身对于小目标检测有很好的效
果,本文将该方法引入到SAR 图像舰船目标检测中,重新
设计了特征提取网络,有效地提高了检测精度,降低了虚警
概率和漏检概率。
(2) 本文采用参数量较少的ResNet50来实现特征提
取并防止过拟合,避免无用以及重复特征的提取。
为进一 步降低参数以及提高性能,在跳跃连接过程中使用了平均
池化,具有计算量更少、检测更快的优点。
(3) 为在特征提取过程中引入更多的舰船形状等信
息,本文在特征提取网络部分加入了可变形卷积,通过与检
测任务的共同学习,适应性地改变采样点,使其获得类舰船 目标形状的感受野范围,能够更好地帮助网络实现检测。
(4) 使用ShuffleNetv2对YOLOv3特征提取网络进行
轻量化设计,在牺牲些许精度的情况下,拥有了更快的检测
速度,为轻量化研究提供参考。
1基于改进YOLOv3的舰船检测
本文的改进方案对于YOLOv3网络效果很好的部分
进行保留:其一,融合了特征金字塔结构[9]可以在多尺度 进行预测,有助于识别不同尺度的舰船目标;其二,损失函 数对小目标的偏重思想,可以防止小舰船目标预测错误对
整体损失函数并没有太大影响,使网络注意到小舰船目标。
本文的网络结构如图1所示,其可大体分为两部分:特征自 动提取网络与目标检测分类(特征解码)网络。
图1本文网络结构
Fig. 1 The proposed network
structure
第4期陈冬等:基于改进型YOLO v3的SAR图像舰船目标检测
・939・
1.1特征提取网络
1.1.1舰船ResNel50-d特征提取
对于光学图像采用的神经网络而言,一般情况下,网络越深,提取特征的能力越强,感受视野范围越大,获取的高级语义信息越多。
但由于网络过深,梯度反向传播过程中过小以致网络难以迭代更新,因此不能简单的对神经网络进行堆叠。
Res-Nel20]网络采用残差连接的方式解决了神经网络增加深度的同时梯度消失的问题,使得训练数百层的神经网络成为了可能。
ResNel按照网络层数不同主要分为5类,其中最常用的是50层结构的ResNel50<见图2)。
由于ResNel50网络具有比较好的特征提取能力,且网络相对于Darknel53而言层数少,参数量更小,运用也更加灵活;同时考虑到SAR 图像不同于包含丰富特征信息的光学图像,本文最终采用ResNel50网络的基本结构作为特征提取网络,相比较于原YOLO v3可以有效地降低参数量和重复特征数量。
类型卷积个数卷积大小输出尺寸
卷积647x7/2128x128
最大池化64x64
stage1
3x 1.1.2适用于舰船检测的可变形卷积
舰船目标尺度不统一,目标形状多变,采用普通的卷积神经网络对于大尺度和未知形状的舰船目标检测存在固有的缺陷,该缺陷来源于卷积神经网络固有的几何结构:卷积核对输入特征图的固定位置进行采样;池化层以固定的比例进行池化。
本文采用的可变形卷积「22]对普通卷积进行修改,其基本思想对采样点学习一个偏移,使卷积核专注于感兴趣区域或者目标而不是固定位置的采样。
普通卷积采样和可变形卷积采样的对比如图4所示。
stage2 4x
stage3 6x
stage4 3x
卷
卷
卷
积
积
积
卷
卷
卷
卷
卷
卷
积
积
积
卷
卷
卷
64
64
256
32x32
(a)普通卷积
(a)Ordinary convolution
积
积
积
8
8
2
2
2
1
16x16
256
256
102
积
积
积
1
3
1
X
X
X
1
3
1
8x8
图2ResNet50结构
Fig.2Structure of ResNet50
另外,本文参照文献「21]使用了ResNel50-d的思想,将在跳跃连接过程中使用的通过步长进行降维的方法更改为平均池化形式(对比见图3)平均池化即对邻域内的特征点求平均值,往往能够很好地保留背景信息,有助于网络对特征的提取,另一方面也可以有效地降低参数量,节约算力。
输入
输入
卷积
(1X1,尸2)卷积
(1X1)
输出
(a)ResNet50降维
(a)Down sampling ofResNet50
卷积
(IE
池化
(2x2,s=2)
卷积
(1X1,尸2)
输出
(b)ResNet50-d降维
(b)Down sampling ofResNet50-d
图3ResNet50与ResNet50-d降维对比
Fig.3Comparison of down sampling between ResNet50and ResNet50-d
(b)可变形卷积
(b)Deformable convolution
图4普通卷积与可变形卷积对比
Fig.4Comparison between ordinary convolution and deformable convolution
定义膨胀率为1的普通3X3卷积,R={(—1,—1),(―1,0),•••,(,1),(1,1)}。
对于输入特征图",对应的特征图位置狆0的输出y有
狔(狆0)=艺狑(狆”)•狓(狆0+狆”)(1)
狆狀W R
式中,狑为每个采样值的权重。
而对于可变形卷积来说,额外增加了一个偏移值:
狔(狆0)=为狑(狀)•狓(0+狆狀+△狆狀)(2)实际操作中,对得到的非规则抽样位置进行限定,使其保持在特征图内。
由于偏移值△狆通常是小数,可采用双线性插值法进行实现。
可变形卷积的实现依赖于不规则的抽样位置,可通过平行的卷积网络对特征图进行偏移位置的学习,再通过双线性插值实现端到端的训练。
由于可变形卷积打破了常规的抽样区域形状,在模型运用过程中可能会将采样点拓展至感兴趣区域之外的部分,纳入更多的无关信息与上下文信息,影响模型的性能。
因此,可变形卷积v2「22]提岀改进方案,平行网络不仅仅学习每个位置的偏移值,还学习每个采样点的权重,避免极端抽样点对网络特征提取的影响。
通过权重的控制可以有效地降低过多上下文信息的影响,曾加了更大的自由度,对于可能不需要的采样点权重可以学习成为零。
其计算公式变为狔(狆0)=另狑(狆狀)•狓(狆+狆狀+△狆狀)•5狀(3)通过平行的卷积神经网络可将采样点偏移值和权重值纳入网络学习的过程中,由最终检测的损失函数监督学习最佳的偏移值和权重值。
假设平行网络的输入特征图为犖通道,采样点偏移部分对应于两个维度的偏移值,因此输岀通道数对应于2N;而权重网络是每个采样点的权重值,通道数对应于输入通道数N,其实现的框图见图5。
・940・
系统工程与电子技术
第43卷
可变形卷积虽能适应性地提取特征信息,旦引入一个 平行网络加入了很多额外的计算量。
若全采用可变形卷积
设计网络,会导致参数量的巨大、网络难以训练等问题。
综合考虑,本文对改进的ResNel50-d 特征提取网络最 后一个降采样阶段(见图1特征提取部分)使用可变形卷积 (DCNv2),在特征提取与参数量之间取得一个比较好的
平衡。
1.2舰船检测网络解码
在网络实现过程中,目标检测分类网络可分为3部分:
类别解码、置信度解码和坐标框解码。
SAR 图像舰船检测仅 为舰船一类可不考虑类别解码;置信度解码可在输岀维度中
占据固定位置,使用sigmoid 函数激活,限制在区间0
〜1。
检测的关键点在于坐标框的解码,本文采用YOLOv3 方案的解码结构,通过网络得到的坐标值(狋,狋,L ,狋
)并
不是最终的坐标框结果,而是经过网络编码的形式,因此需
要对该形式进行解码。
解码公式如下:
犫狓■(狋)+犮狓 (4)
犫=0■(狋)+C y ()
犫狑=狆狑犲狑 (6)犫犺=狆犺犲犺
(7)
式中C 和C y 代表的是检测中心点所处网格区域的左上角 坐标;狑和狆
h 代表的是anchor 的宽和高,o (狓)和)代表的
是检测中心点和左上角的偏移值(使用sigmoid 激活函数将范 围限定在当前网格区域内);犲狑和犲
犺代表预测的宽高偏移量。
得到的犫狑和犫
犺即为最终坐标框的宽和高,再将检测 的犫和犫
乘以所采用的采样率(8、16、32)即得到坐标框的
中心坐标。
1.3损失函数
单阶段目标检测过程中的损失函数由3部分组成:框位置 损失、目标性损失以及分类损失。
对于SAR 图像舰船目标检
测不需要对其进行分类,因此损失函数应由前两者组成。
框位置损失即检测框位置带来的损失,由检测框相较
于特征图位置的损失和高宽损失组成,前者损失为
S x S B
式中
,狓和y i 是第i 个真实框相对于网格的坐标值,狓和
狔;是对应的网络预测值;当第j 个网格中包含舰船目标时, 犐o ,j =1,否则犐o ,=0;S 为划分的网格数目,B 为生成的检测
框数目。
宽度和高度损失为
S X S B
l 狑=
另另犐;b j ((狑i —狑i )2 + (h i — h i )2)
(9)
i 0 j 0
式中
,狑i 和h i 代表的是真实的宽高缩放量;狑和h 代表的
是对应的网络预测值。
为了提升小目标所占比重,权衡大框和小框之间的框 坐标损失,最终采用的框位置损失函数乘以一个系数,即
狑=2. 0 —狋” X t h (10)
式中,狑为框位置损失函数的系数;狋和狋分别代表网络模
型预测的编码宽和高(见式(6)和式(7))。
编码宽和高越大 对应检测框越大,框损失函数系数越小;编码宽和高越小,框
损失函数系数越大,由此动态调整大框和小框的不同比重。
目标性损失即置信度带来的误差,损失函数形式为
S X S
B
i 0 j 0
S X S B
另 艺 z noo bj (— C i log ( C ) —(1 — C i )iog (1 — C ))(11)
i 0 j 0
式中,当第j 个网格中不包含舰船目标时,= 1,否则 z noo bj =0;是C i 第i 个真实框的置信度(取值为0或者1);C
是对应的预测框的置信度。
最终的损失函数形式为
l = w X (Z y +l h )+ l °bj (12)
2实验验证
本文基于百度AI Studio 云端实验室,采用百度pad
dlepaddle 的深度学习框架,在jupyler notebook 中完成实
验。
实验的云端硬件配置为8核CPU,内存为32 GB ,显卡 为 Nvidia Tesla V100,显存为 16 G 。
2.1实验数据
本文方法主要采用的数据集是海军航空大学李健伟教授 等公开的SSDD 2326]。
该数据集包含1 160张图像、2 358只 舰船目标,单张图像包含舰船数从1到29,平均每张图像
中有2.03只舰船,包含7像素X7像素的小目标舰船到
211像素X 298像素的大目标舰船。
该数据集中的图像具
有多种极化模式、不同分辨率、远近海场景等,能够较好地 验证算法有效性。
由于当前该数据集并没有统一的划分形
式,诸多其他文献提供的算法均依照其本身实验需要对数 据集进行划分。
本文所提算法均采用统一划分方式,可提
现算法效果的提升。
2.2训练策略
SSDD 数据集按照7:2:1的比例随机划分为训练集、验
证集和测试集,其中测试集包含267个舰船目标,相较于其 他文献提及的数据划分,训练目标更少且包含更多的测试
目标。
训练过程中,采用RMSProp [27]优化器,设置的初始
i 0 j 0
S x
S B
另 另犐0, (— y i log(y i )—(1 — y i )log(1 —狔i )
(8)
i 0 j
第4期陈冬等:基于改进型YOLO v3的SAR图像舰船目标检测・941
学习率为0.001。
该优化器的特点是可以自适应地调整学习率,用于解决使用Adagrad28]后,模型训练中后期学习率急剧下降的问题。
所有模型训练过程中均采用了迁移训练中预训练模型[9],训练200个epoch,训练的batch size取32。
训练过程中epoch为4的倍数或者超过150时,对模型进行验证,保存验证结果最优的模型直至训练完成。
另外,保存最后一次训练模型,可加载进行再训练。
所有模型均使用了数据增广方法,其主要增加训练数据集,使得数据尽可能的多样化,有助于训练所得模型具有更强的泛化能力,主要采用了翻转、旋转、缩放、裁剪、平移、加噪声、改变对比度等随机方案。
2.3实验结果
图6展示的是本文改进之后的方案ResNet50-d-DCN在SSDD数据集上的部分预测结果,图中的绿色框是真实标注的目标框,红色框是算法检测的结果。
图6(a)展示了近海岸检测情况,图6(b)展示了远海小目标检测情况,图6(c)展示了远海大目标检测情况。
可以看出,本文的算法能够很好地检测出目标,在远海小目标、近海小目标、陆地背景干扰下依旧取得很好的效果。
⑻近海目标
(a)Offshore targets
(b)远海小目标
(b)Open sea small targets
(c)远海大目标
(c)Open sea big targets 图6基于本文方案的SSDD数据集检测结果
Fig.6SSDD dataset detection results of our improvement scheme
表1和表2中的模型即是本文逐步改进提升的验证结果,其中Darket53指的是原YOLOv3模型,ShuffeNetv2即轻量化设计YOLOv3模型,ResNet50以及ResNet50-d是本文最终方法ResNet50-d-DCN的中间模型。
表1展示了在数据测试集上检测的基本情况,表2展示了评价指标结果。
表1各模型检测效果统计结果
Table1Statistical results of detection effect of each model
模型GT TP FN FP Darknet532672551232
Shufflenetv22672571029
ResNet50267259838
ResNet50-d267258931 ResNet50-d-DCN267261629
表2SSDD数据集检测结果评价指标
Table2Evaluation index of SSDD detection results%模型P d P MA P la Precision mAP大小/MB Darknet5395.51 4.4911.1588.8593.21234 Shufflenetv296.25 3.7510.1489.8692.8427 ResNet5097.00 3.0012.7987.2195.02172 ResNet50-d96.63 3.3710.7389.2795.23172 ResNet50-
97.75 2.2510.0090.0096.64173 d-DCN
表1中TP(true positives)为正确检测数目,FN(false negatives)为漏检数目,FP(false positives)为虚警数目, GT(ground truth)为真实数目。
表2中P d为检测概率,犘ma为漏检概率,犘fa为虚警概率,Recall为召回率,Precision为精确度,MAP(mean average precision)为平均精度。
此处采用的MAP为积分形式:
MAP=AP=『P(R)d R(13)式中,P(R)指的是精度-召回率曲线。
由于此处只有舰船一种检测目标,不需要对各类别AP求平均,因此MAP=AP。
2.4实验分析
从表1中可以看出,本文改进算法在SSDD测试集中,共有125张图像,267个舰船目标,正确检测出261个目标,漏检6个目标,虚警29个目标;而原YOLOv3模型正确检测出255个目标,漏检12个目标,虚警32个目标。
从表2中可以清楚地看出,一方面,相较于采用Darknet53的原YOLOv3模型,本文使用的算法ResNet50-d-DCN在SSDD测试集上mAP提高至96.64%,模型大小降低至172MB;另一方面,同样可以清楚地看到,通过Shu££leNetv2轻量化设计的模型在检测效果上稍微下降了些,但考虑到模型大小仅为27MB,对比于大小为234MB的原YOLOv3模型,
・942・系统工程与电子技术第43卷
其可实现移动端嵌入式的使用。
对比Darknet53与ResNet50的模型可以发现,参数量较多的Darknet53检测效果反而比ResNet50的效果差,这与光学图像中检测的结果是截然相反的。
一方面考虑到可能是数据集划分以及训练集目标过少的原因,使得参数量大的模型难以更好的训练;另一方面,考虑到SAR图像本身的特性以及图像中所包含的有用信息,光学图像检测方法运用于SAR图像中应该适当地降低参数,避免重复以及无用的特征提取,这也是本文接下来的主要研究内容。
为了进一步验证算法的有效性,本文额外使用了中国科学院空天信息研究院王超研究员团队公开的SAR图像船舶检测数据集[26](SAR-Ship-Dataset)进行检测效果的验证,部分检测结果如图7所示。
图7(a)展示了近海岸多目标检测情况,图7(b)展示了远海多目标检测效果,图7(c)展示了复杂背景下舰船目标检测情况,而图7(d)展示了多尺度目标检测效果。
从图7(c)中可以看出,本文算法具有很好的抗干扰特性,在复杂背景情况下依旧能正确识别舰船目标;从图7(d)中可以看出,本文方法即使在舰船目标与背景不成比例情况下,对于小目标检测效果依旧非常好。
(a)近海多目标(a)Offshore multiple targets
(b)远海多目标(b)Open sea multiple targets
(c)强干扰下目标(c)Targets under strong interference
(d)多尺度目标(d)Multiscale targets
图7基于本文方案的SAR-Ship-Dataset检测结果
Fig.7SAR-Ship-Dataset detection results of our improvement scheme
图8显示了本文ResNet50-d-DCN算法在两个测试集检
测中的漏检与虚警情况,图8(a)为SSDD数据集,图8(b)为
SAR-Ship-Dataset数据集,对于近海岸目标和岛屿等目标
存在着识别问题。
(a)SSDD数据集(a)SSDD dataset (b)SAR-Ship-Dataset数据集(b)SAR-Ship-Dataset dataset
图8虚警与漏检情况
Fig.8False alarm and missed detection
分析原因可知:一方面,近海岸目标背景过于复杂,且目标和远海目标数据类型不均衡,对检测训练造成一定的影响;另一方面,部分岛屿与舰船目标具有相似的特征,神经网络无法忽略部分相似岛屿是不是舰船目标,对置信度阈值的设置会导致识别的最终不同结果:过低的阈值导致虚警,而过高的阈值导致漏检。
3结束语
本文基于深度学习的方法提出用于SAR图像舰船检测的改进型YOLO v3模型,不同于常规卷积的方法,采用了可依据舰船形状与尺寸自适应采样的可变形卷积等方法。
经SSDD数据集验证,相比较于原YOLO v3模型,在检测效果方面,有效地降低了虚警概率和漏检概率,提高了检测精度;在模型大小方面,基于ShuffleNetv2的思想,对原YOLO v3进行轻量化设计,该模型大小仅为27MB,对于未来网络的轻量化研究具有重要的意义。
本文的下一步工作,将考虑如何在非直接迁移光学图像检测方法的前提下,将轻量化与精度统一起来,在有效提取目标特征的同时保持模型的轻便结构。
进一步探讨小样本学习情况下,如何基于有限的数据集提升SAR图像舰船检测的效果并使其具有良好的泛化能力。
第4期陈冬等:基于改进型YOLO v3的SAR图像舰船目标检测
・943・
参考文献
[1]LI W,ZOU B,XIN Y,et al.An improved CFAR scheme for man-made target detection in high resolution SAR images[C]/ Proc,of the IEEE International Geoscience and Remote Sensing Symposium,2018:2829-2832.
[2]ZHU J,QIU X,PAN Z,et al.Projection shape template-based ship target recognition in TerraSAR-X images]〕].IEEE Geoscience and Remote Sensing Letters,2017,14(2):222-226.
[]杨国铮,禹晶,肖创柏,等.基于形态字典学习的复杂背景SAR 图像舰船尾迹检测[]•自动化学报,2017,43(10):1713-1725.
YANG G Z,YU J,XIAO CB,et al.Ship wake detection in sar images wth complex background using morphological dictionary learn-ing[J].Acta Automatica Sinica,2017,43(10):1713-1725.
[]GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic seg-mentation[C]/Proc,of the Computer Vision and Pattern Recognition,2014:580-587.
[5]GIRSHICK R.Fast R-CNN[C]/Proc.of the International Con
ference on Computer Vision,2015:1440-1448.
[]REN S,HE K,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection wth region proposal networks[J].
IEEE Trans,on Pattern Analysis&Machine Intelligence,2017, 39(6):1137-1149.
[7]LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot
MultiBox detector[C]//Proc.of the European Conference on Computer Vision,2016:21-37.
[]LI Z,ZHOU F.FSSD:feature fusion single shot multibox detec-tor[J].Computer Vision and Pattern Recognition,2018,36(7):356-366.
[]FU C,LIU W,RANGA A,et al.DSSD:deconvolutional single shot detector[EB/OL].[2020-07-16].http://abs/ 170106659
[10]REDMON J,DIVVALA S K,GIRSHICK R,et al.You only
look once:unified,real-time object detection[C]//Proc,of the Computer Vision and Pattern Recognition,2016:779-788. [11]REDMON J,FARHADI A.YOLO9000:better,faster,
stronger[C]//Proc,of the Computer Vision and Pattern Recognition,2017:6517-6525.
[12]REDMON J,FARHADI A.YOLOv3:an incremental improve-
ment[EB/OL].[020-07-16].http:///abs/1804.02767.
[13]HUANG L C,YANG Y,DENG YF,et al.DenseBox:unifying
landmark localization wth end to end object detection^EB/OL].
[020-07-16].http:/e xport,/abs/1509.04874.
[14]TIAN Z,SHEN C H,CHEN H,et al.FCOS:fully convolu
tional one-stage object detection[EB/OL].[2020-07-16].
http:///abs/1904.01355,.
[15]LAW H,DENG J.CornerNet:detecting objects as paired key-
points[C]//Proc,of the European Conference on Computer Vision,2018:765-781.
[16]李健伟,曲长文,彭书娟,等.基于卷积神经网络的SAR图像
舰船目标检测[].系统工程与电子技术,2018,40(9):1953-1959
LIJW,QU C W,PENG SJ,et al.Ship detection in SAR im
ages based on convolutional neural network[J].Systems Engineering and Electronics,2018,40(9) :1953-1959. [17]苏娟,杨龙,黄华,等.用于SAR图像小目标舰船检测的改进
SSD算法[].系统工程与电子技术,2020,42(5):1026-1034.
SU J,YANG L,HUANG H,et al.Improved SSD algorithm for sma ll-scale SAR ship detection[J].Systems Engineering and Electronics,2020,42(5) :1026-1034.
[18]张晓玲,张天文,师君,等.基于深度分离卷积神经网络的高速
高精度SAR舰船检测[].雷达学报,2019,8():841-851.
ZHANG X L,ZHANG T W,SHI J,et al.High-speed and high-accurate SAR ship detection based on a depthwise separable convolution neural network[J].Journal of Radars,2019, 8(6):841-851.
[19]LIN T,DOLLAR P,GIRSHICK R,et al.Feature pyramid
networks for object detection[C]/Proc,of the Computer Vision and Pattern Recogntion,2017:936-944.
[20]HE K,ZHANG X,REN S,et al.Deep residual learning for
image recognition[C]/Proc,of the Computer Vision and Pattern Recognition,2016:770-778.
[21]HE T,ZHANG Z,ZHANG H,et al.Bag of tricks for image
classification wth convolutional neural networks[C]/Proc,of the Computer Vision and Pattern Recogntion,2019:558-567. [2]DAI J,QI H,XIONG Y,et al.Deformable convolutional net-
works[C]/Proc,of the International Conference on Computer Vision,2017:764-773.
[23]ZHU X,HU H,LIN S,et al.Deformable ConvNets V2:
more deformable,better results[C]/Proc,of the Computer Vision and Pattern Recognition,2019:9308-9316.
[4]MA N,ZHANG X,ZHENG H,et al.ShufeNet V2:practical
guidelines for efficient CNN archtecture design[C]/Proc,of the European Conference on Computer Vision,2018:122-138. [25]LI J,QU C,SHAO J.Ship detection in SAR images based on
an improved faster R-CNN[C]/Proc,of the IEEE SAR in Big Data Era:Models,Methods and Applications,2017:1-6. [6]WANG Y,WANG C,ZHANG H,et al.A SAR dataset of ship
detection for deep learning under complex backgrounds]】].Remote Sensing,2019,11(7):765-769.
[7]MCMAHAN B,STREETER M J.Delay-tolerant algorithms for a
synchronous distributed online learning[C]//Proc,of the Neural Information Processing Systems,2014:2915-2923.
[8]DUCHIJ,HAZAN E,SINGER Y.Adaptive subgradient methods
for online learning and stochastic optimizationHJ].Journal of Machine Learning Research,2011,12(7):257-269.
[29]TAN C,SUN F,KONG T,et al.A survey on deep transfer
learning[C]//Proc,of the International Conference on Artificial Neural Networks,2018:270-279.
作者简介
陈冬(1997-:男,硕士研究生,主要研究方向为SAR图像目标检测。
E-mail:preston_chen@foxmail,com
句彦伟(1978-:男,研究员级高级工程师,博士,主要研究方向为ISAR成像、图像处理与目标识别。
E-mail:juyanwei@126com。