复杂场景下基于CNN的轻量火焰检测方法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第34卷第5期2021年5月
模式识别与人工智能
Pattern Recognition and Artificial Intelligence Vol. 34 No. 5May 2021
复杂场景下基于CNN 的轻量火焰检测方法
李欣健1,2
张大胜3
孙利雷4 徐 勇1,2
4.贵州大学计算机科学与技术学院 贵阳550025
1. School of Computer Science and Technology , Harbin Institute
of Technology( Shenzhen) , Shenzhen 518055
2. Shenzhen Key Laboratory of Visual Object Detection and Re ­cognition , Harbin Institute of Technology ( Shenzhen ) , Shen ­
zhen 518055
3. Liangjiang Artificial Intelligence Academy , Chongqing Uni ­versity of Technology, Chongqing 401135
4. College of Computer Science and Technology, Guizhou Uni ­versity ,Guiyang 550025
摘要已有的火灾检测方法往往依赖高性能的机器,在嵌入式端和移动端检测速度较慢、误检率较高,尤其是无 法解决小尺度火焰漏检问题.针对上述问题,文中提出基于YOLO 的火焰检测方法.使用深度可分离卷积改进火焰 检测模型的网络结构,并使用多种数据增强技术与基于边框的损失函数以提高精度.通过参数调优,在保证检测准
确率的情况下,实现在嵌入式移动系统上21 ms 的实时火灾探测.实验表明,文中方法在火焰数据集上的精度和速 度都有所提高.
关键词 火焰检测,目标检测,YOLO 算法,数据增强,深度可分离卷积
引用格式 李欣健,张大胜,孙利雷,徐勇.复杂场景下基于CNN 的轻量火焰检测方法.模式识别与人工智能,
2021, 34(5) : 415-422.
DOI 10.16451/ki. issn1003-6059. 202105004
中图法分类号 TP 389. 1
CNN-Based Lightweight Flame Detection Method in Complex Scenes
LI Xinjian * 1,2 3
4, ZHANG Dasheng 3, SUN Lilei 4 , XU Yong 1,2ABSTRACT The existing fire detection methods rely on high-performance machines , and therefore the
speeds on the embedded terminals and the mobile ones are not satisfactory. For most of the detection
methods , the speed is low and the false detection rate is high , especially for small-scale fires missed
detection problems. To solve these problems , a fire detection method based on you only look once is proposed. Depthwise separable convolution is employed to improve its network structure . Multiple data augmentation and bounding box based loss function are utilized to achieve a higher accuracy. The real ­time 21ms fire detection on embedded mobile system is realized through parameter tuning with the
detection accuracy ensured . Experimental results show that the proposed method improves accuracy and speed on the fire dataset.
Key Words Fire Detection , Object Detection , You Only Look Once ( YOLO ) Algorithm , Data Aug ­
mentation ,Depthwise Separable Convolution
Citation LI X J, ZHANG D S , SUN L L, XU Y. CNN-Based Lightweight Flame Detection Method in
Complex Scenes. Pattern Recognition and Artificial Intelligence , 2021 , 34(5) : 415-422.
收稿日期:2020-12-16 ;录用日期:2021-04-14
Manuscript received December 16, 2020 ;accepted April 14, 2021
深圳市科技计划项目(No. ZDSYS20190902093015527)资助
Supported by Shenzhen Science and Technology Project( No. ZDS
YS20190902093015527)
本文责任编委兰旭光
Recommended by Associate Editor LAN Xuguang
1. 哈尔滨工业大学(深圳)计算机科学与技术学院 深圳
5180552. 哈尔滨工业大学(深圳)深圳市目标检测与判别重点实验
室深圳518055
3. 重庆理工大学两江人工智能学院 重庆401135
火灾是威胁人类社会的主要灾害之一,对社会
安全及人的生命财产危害巨大,不起眼的一点火星
416模式识别与人工智能(PR&AI)第34卷
也可能导致非常严重的火灾.目前广泛应用的火灾报警器都是基于传感器识别的,如温度传感器、烟雾传感器等,当温度或烟雾达到定值时,才会触发报警茁,这通常会错过灭火的最佳时间.随着深度学习和计算机视觉的迅速发展,视频监控逐渐普及,火灾视频监控技术[2]也相应出现.此技术精度较高,不受温度、气流等因素影响,但是现有大部分基于视频的火焰监测方法需要依赖高性能、高功耗、价格昂贵的服务器,只有使用图形处理器(Graphics Proce­ssing Unit,GPU)才能达到实时监测的要求.因此,将火焰检测应用在低成本、低功耗的嵌入式设备上具有重要意义.
传统的火焰检测技术主要依赖于特征.Chen 等⑶提出使用颜色静态特征模型,基于RGB三颜色通道,结合火焰的无序度对火焰进行分析并检测. Wang等⑷除使用颜色静态模型,同时使用火焰图像连续帧的相似性进行火焰识别.陈磊等[5]使用帧间差分法分离火焰像素与背景,使用分块处理的方法进行火焰判别.传统的火焰检测在一定程度上解决火焰检测的问题,但在复杂的火焰场景中仍存在着疑似火焰物体误检率较高、火焰漏检率较高的问题.
基于深度学习的方法表达能力较强[6],可学习 到火焰图像的深、浅层信息.Muhammad等[7]提出卷积神经网络(Convolutional Neural Network,CNN)监控视频架构,使用CNN进行火焰探测.邓军等[8]提出基于优化InceptionV1的视频火焰像素检测方法,对火焰进行像素级检测.赵飞扬等⑼提出改进YOLOv3的深度学习网络结构,用于火焰检测和提取.基于深度学习的火焰检测方法改善传统火焰检测技术存在的误检率和漏检率较高等问题,具有较好的泛化性和鲁棒性.但是,上述深度学习火焰检测技术需要依赖高性能的平台完成,例如:基于YOLOv3的火焰检测框架[9]需要使用Titan Xp显卡才能达到25帧/秒的速度,InceptionVl火焰检测方法[8]同样依赖昂贵的计算资源完成实时火焰检测.
基于此问题,本文基于性能优异的YOLO(You Only Look Once)系列框架[l0-l3]进行网络结构改进,提出基于YOLO的火焰检测方法(Improved-YO-LO).为了减少火焰检测网络存在参数量和计算量过大的问题,使用深度可分离卷积[14]替换其中的部分卷积层.由于训练集样本较小,为了增强方法的鲁棒性,使用MS COCO数据集[15]进行预训练,收敛后 再将方法参数应用于火焰检测数据集.为了减少方法训练过程中的过拟合,使用马赛克数据增强技术(Mosaic Data Augmentation,Mosaic)[13]、混类数据增强技术(Mixup Data Augmentation,Mixup)[16],丰富火焰检测的背景,增加数据的多样性和神经网络的鲁棒性.本文还使用CIoU(Complete Intersection over Union)[17]作为损失函数,直接优化目标框之间的距离,使目标框更贴近真实目标.综上所述,本文方法的参数量和所需储存空间远小于YOLO系列方法,精度与之相当,能在嵌入式平台上实时运行,使深度学习的火焰检测技术可应用在价格低廉的小型嵌入式设备中.
1基于YOLO的火焰检测方法
基于YOLO的火焰检测方法流程如图1所示,主要步骤如下.
算法基于YOLO的火焰检测方法
step1从原始火焰、火灾视频数据集等间距抽取10帧.
step2对抽取的帧图像保存在本地,使用标注工具labelimage对火焰进行人工标注.
step3将Improved-YOLO在MS COCO数据集上进行预训练.
step4针对step3中训练好的预训练模型提取前109层网络参数,Improved-YOLO加载此预训练参数,使用step2标注好的火焰数据集对Improved-YOLO进行训练.
step5将Improved-YOLO转换为深度学习框架NCNN(https:///Tencent/ncnn).
step6将NCNN部署至嵌入式端.
原始视频视频分帧提取火焰标注
step4
step^step3
神经
U网络
step6
NCNN<-
转为NCNN
部署
ImprovedY O LO
MS
COCO
数据集
预训练
图1本文方法流程图
Fig.1Flowchart of the proposed method
1.1基于YOLO的方法改进
YOLO通用目标检测系列算法是当前性能最优的单阶段目标检测方法[18]之一.方法核心是目标检测的建模方法,由分类问题转化为回归问题,大幅提升检测速度.以YOLOv3为例,使用较多性能表现较
第5期李欣健 等:复杂场景下基于CNN 的轻量火焰检测方法417
优的1伊1和3伊3卷积层保证目标检测算法的精度.借 鉴残差网络(Residual Network , ResNet)[19]的残差块 结构,解决层数变深后带来的模型退化问题,保证目
标检测网络的深度.使用k -means 算法预先计算不同 尺度的先验框,完成跨尺度的边框预测,提升目标检 测算法的性能.YOLOv3的结构见图2.
尽管YOLO 系列模型推理速度在目标检测领域
较优,但模型复杂性及密集计算的特性使其无法在
嵌入式平台达到实时效率.通过图2可发现,YOLO 使用大量的卷积块提取相应特征,计算量和参数量
主要集中在卷积层,因此减少卷积层的计算和参数, 是加速目标检测的关键.本文利用深度可分离卷
积[14],优化YOLO 系列模型,提出Improved-YOLO 网络结构,实现嵌入式端的实时火焰检测.
图2 YOLOv3网络结构图
Fig. 2 Network structure of YOLOv3
I 上层输入F
残差模块
|相加*
丨卷积层1X1y
I 批归一坐+Rezu I 卷积层3 x 3|
丨批归一化丨
I
1.1.1深度可分离卷积传统卷积是直接运算图像的色道、通道,得出结
果,而深度可分离卷积拆分为深度卷积和逐点卷积 两部分,深度卷积使用单个二维卷积核对图像通道 进行卷积操作,逐点卷积使用1伊1卷积核对深度卷
积后的特征图进行组合.深度可分离卷积的过程如
图3所示.
N 维输岀特征图
M 维特征图
_ 深度卷积 M 维输入特征图
逐点卷积
M 维逐层卷积
N 个1 卷积核
图3 深度可分离卷积过程
Fig. 3 Illustration of depthwise separable convolution process
由图3可看出,在深度卷积中,M 个输入特征图 分别使用单个二维卷积单元进行卷积,输出依旧是 M 个特征图.对于逐点卷积过程,主要关注深度卷积 后特征图的组合,使用N 个1伊1卷积进行特征图组
合,用于空间像素级特征提取,输出结果为N 个特征
图.相对传统卷积方式,深度可分离卷积的过程只改 变内部算法方式,并未改变输入、输出尺寸.因此,可 使用深度可分离卷积替换部分传统卷积,达到减少 参数量、提升运算速度的效果.
假设图像输入为D f x D f x M ,卷积核的尺寸为
D k x D k xM ,输出特征图的尺寸为D f 伊D f xN ,深 度可分离卷积的参数量为(D k XD k XM) xN ,其中,
D f 表示输入特征图的尺寸,D k 表示卷积核的大小,
M 表示输入特征图的数量,N 表示输出特征图的数
量.若使用深度可分离卷积,深度卷积负责滤波,尺 寸为D k XD k X 1,逐点卷积负责特征图组合,尺寸为
Nx 1 x 1 x M ,则深度可分离卷积的参数量为D k x
D k xM+MxN.使用深度可分离卷积与传统卷积的 参数量差异比值为
D k x D k xM+MxN 1 1D k x D k x M x N = N + D K '
以YOLOv3中使用最频繁的3 x 3卷积为例,如
果N = 32,则深度可分离卷积的参数量约为传统卷
积参数量的11 %.
1. 1. 2 模型架构
YOLO 系列模型使用DarkNet 作为主干网络进
行特征提取,性能良好.本文借鉴YOLO 系列模型的
思路,使用深度可分离残差块作为主干网络组件,结 构如图4所示.
相比DarkNet 中的特征提取网络,首先将原本 的ReLU 层更换为LeakyReLU,原因是ReLU 的思想 来源于生物学启发,即只有超出阈值的神经元才会 被激活,当输入权重为负值时,使用ReLU 会使当前
的梯度为0 ,从而使权重无法更新,学习速度很慢, 甚至会出现神经元失效的结果.使用LeakyReLU 可
以较好解决这类问题,当输入值为负值时,具有较小 的梯度,能有效减少静默神经元的出现.
在网络结构
418模式识别与人工智能(PR&AI)第34卷
中,将3伊3的卷积核替换为深度可分离卷积,使用 逐层深度卷积与点卷积完成卷积过程,使模型参数
量缩小至原来的11% •此外,在深度可分离卷积后,
加入失活层[20],对于神经网络层设定一个概率,按
照设定的概率随机舍弃部分神经元,使模型参数不
过度依赖训练集,达到抑制过拟合的目的.
|上层输入|
1 X1卷积层
用匕 归一化+LeakyReLU |*
| 3x3深度可分离卷积层
1x1卷积层_ 丁 _
I 层 I 相-加图4深度可分离残差块结构图
Fig. 4 Structure of depthwise separable residual block
Improved-YOLO 网络整体结构如图5所示.
输入
类型 通道数卷积核输岀大小
|320x320x3» 卷积层 8 3x3/2 160x160x8「
网络前109层使用深度可分离残差块,用于特
征提取.第109层至124层为YOLO 层,主要是用于
对火焰图像提取的特征进行解码,最终可以得到火 焰图像预测尺寸边框的中心点坐标、宽高值,完成火
焰检测.
1. 2 数据增强技术
真实火焰数据较复杂,不同场景、距离都会形成
不同的火焰类型,单纯使用有限的数据集训练的模
型难以具有良好的泛化性,只能较好地拟合已有数
据集的类型,对于从未出现的场景图像具有较低的 辨识度.本文采用Mixup 数据增强方法[16]对火焰样
本进行数据增强,提升火焰检测模型的泛化能力. Mixup 数据增强方法计算公式为
X =姿X i + (1 -入)Xj , y =姿y i + (1 -入 ”j .
其中:入控制图像融合比例,取值范围是(0,1)内的 随机浮点数;x 八X j 为输入的图像向量;y ,、丹为编码
过后的图像标签;分别表示经过Mixup 数据增强 后的图像向量和标签向量.
Mixup 数据增强方法从训练样本中随机抽取2
个样本进行随机加权求和,同时样本标签也进行对 应加权求和,Mixup 数据增强效果如图6(a)所示.
采用对不同类别之间进行建模的方式实现数据增
强,有效增加模型的泛化性.
卷积层 8 1x1 160x160x8叽离 8
3x3 160x160x8
卷积层 4 1x1 160x160x4
卷积层8
11160 160 8深度可分离
卷积层
833
160 160 8卷积层411
160 160 4
失活层ResNet
卷积层2411160 160 24
深度可分离
卷积层
24
3 3/2 80 80 24卷积层81180 80 8卷积层
32
11
80 80 32深度可分离
卷积层32
33
80 80 32卷积层811
80 80 8
失活层ResNet
YOLO 卷积层961110 10 96深度可分离
卷积层
965x5
10 10 96
卷积层1281110x10x128深度可分离
卷积层128
55
10 10 128卷积层1281110 10 128
卷积层
1811
10 10 18

深度可分离残差块
(a) Mixup
(b) Mosaic
图5 Improved-YOLO 网络结构图
Fig. 5 Network structure of improved-YOLO
图6 2种数据增强方法效果
Fig. 6 Illustration of 2 data augmentation
methods
第5期李欣健等:复杂场景下基于CNN的轻量火焰检测方法419
Mosaic数据增强策略L13J是随机取出4幅图像进行基础数据增强,例如翻转、色域变化、缩放等,再将基础数据增强后的4幅图像进行组合拼接,极大丰富火焰检测的背景,让神经网络更好地学习火焰图像与背景的差异‘Mosaic数据增强效果图如图6(b)所示.
1.3损失函数
在目标检测的任务中,交并比(Intersection over Union,IoU)是应用广泛的图像目标检测损失函数,不仅能确定正负样本,还能评估输出预测框和实际标注框的距离.IoU计算公式如下:
其中,A疑B表示A候选框与B候选框的交集区域,A U B表示A候选框与B候选框的并集区域.IoU损失函数存在多个明显的缺点:IoU不能反映预测框和实际标注框的距离,假如两者直接没任何交集,则IoU 值为0,没有梯度回传,无法进行学习;同样不能准确反映预测框和实际标注框重合度大小,虽然有时IoU值是相同的,但回归效果不同.
因此,本文使用损失函数CIoU[17J,可有效解决上述问题.CIoU计算公式如下:
CIoU=1-IoU+籽(b2沪)+琢v.
c
CIoU在IoU的基础上,加入惩罚项
p2(b,b gt)
2+琢v.
p2(b2be,)可有效解决2个框之间距离被忽略的问c
题,其中,b表示预测框的中心点,b gt表示实际标注框的中心点,p(•,•)表示欧氏距离,c表示预测框和实际标注框组成外接矩形的对角线长度.琢v可有效解决重合度与真实框的长宽比的问题,琢作为平衡预测框长宽比的平衡参数,
1-IoU+v
v作为衡量长宽比一致性的参数,
w gt、胪t表示真实框的宽、高,w、h表示预测框的宽、咼.
1.4参数调优
本文使用迁移学习策略进行模型参数的初始化•首先在MS COCO数据集上进行训练,训练收敛后将参数加载至模型中继续训练火焰数据集.使用 模型预训练的方式,弥补火焰数据集较少的问题,提升模型的泛化性与鲁棒性.
YOLO系列模型使用锚机制(Anchor),即训练前预设不同尺寸的候选框,约束预测对象的范围,有助于增加模型收敛的速度.针对火焰数据集,使用k-means算法对火焰标注框的长宽比进行聚类计算,计算得出6个尺寸的先验候选框,先验候选框符合火焰本身的形态特征,可避免模型盲目搜索预测框尺寸的问题,达到提升精度、加快收敛速度的目的.
使用多尺度训练策略,由于火焰数据存在不同的尺寸图像中,设置多尺度训练策略能增强对不同尺寸火焰数据的鲁棒性,尺寸以32为间隔,在160伊160至480伊480内采样.
2实验及结果分析
2.1实验环境
由于各大比赛与高校未开源火焰检测数据集,因此作者进行数据集采集与标注.数据集使用Huttner等[21J公布火焰视频数据,在各种场景下采集火焰视频数据,对视频数据进行分帧,每隔10帧将图像保存在本地.通过python代码从百度图库中得到400余幅火焰图像数据.使用人工标注火焰位置,得到最后的火焰数据集.数据集共包含2688幅火焰图像,有3273个火焰目标,火焰数据包含较多复杂场景,涵盖白天、夜间、室内、室外、森林、房屋等,数据集中部分样本如图7所示.本文收集与标注的火焰数据集已开源(下载地址:http://www.yongxu. org/databases.html).
(a)夜间户外场景
(a)Outdoor night scene
(b)夜间室内场景
(b)Indoor night scene
(c)垃圾站(d)房屋
(c)Garbage station(d)
House
420模式识别与人工智能(PR&AI)第34卷
(e)街道(f)森林
(e)Street
(g)车祸(g)Traffic accident
(f)Forest
(h)打火机(h)Lighter
图7火焰数据集样本
Fig.7Samples of fire dataset
由于火焰数据集数量较小,为了提升火焰检测模型的泛化性与鲁棒性,将本文方法在MS COCO数据集上进行预训练.MS COCO数据集是微软公司发布的大型数据集,数据来源于日常生活场景,超过30万幅图像,其中超过20万幅图像有标注信息,包含目标检测、实例分割等任务.
实验使用的评价指标包含准确率(Precision, P),平均准确率(Average Precision,AP),多类别AP的平均值(mean AP,mAP),召回率(Recall, R),准确率与召回率加权均值(F1-score,FJ.具体指标计算公式如下:
P=J-,-
T p+F p T p+F n F=2x
AP=S pr,mAP=AP.
其中:T p为真实标签为正样本、预测结果为正样本的数量;F p为真实标签为负样本、预测结果为正样本的数量;F N为真实标签为负样本、预测结果为负样本的数量;S”为不同阈值下组成的准确率-召回
率(Precision-Recall,P-R)曲线的面积;Ap为不同类别的AP均值.
本文方法复杂度使用的评价指标为每秒浮点运算次数(Floating-Point Operations per Second,FLO-Ps),表示模型的计算量与计算次数.
本文方法训练时使用的参数如下.动量参数为0.949,权重衰减正则项为0.0005,学习率为0.01,输入图像尺寸为320x320.设置饱和度为1.5、曝光率为1.5、色调为0.1进行数据增强.Mixup选取文献[16]中设置的参数.迭代次数为20000,保存Loss值最低时对应的方法.
2.2实验结果
实验使用如下对比方法:轻量级的简化版YOLO目标检测器(简记为YOLO-tiny)[11J,轻量级的YOLOv3目标检测器(简记为YOLOv3-tiny)[12J、轻量级的YOLOv4目标检测器(简记为YOLOv4- tiny)[13J、高度紧凑的目标检测卷积神经网络(简记为YOLO-Nano)[22J A Improved-YOLO-large.其中,Im-proved-YOLO-large是将本文方法卷积核的数量扩大为2倍后的模型.
各方法在MS COCO数据集上的性能对比如表1所示.由表可见,Improved-YOLO的mAP值与YOLOv2-tiny相差无几,模型大小由42.9MB降至3.3MB,计算量由5.41GFLOPs降至0.23GFLOPs,意味着Improved-YOLO在只有1/13的存储空间和1/23的计算量的情况下,mAP和YOLOv2-tiny相当.Improved-YOLO-large与YOLOv3-tiny的mAP值保持一致,储存空间与计算量分别降低至1/9和1/8. Improved-YOLO占用更少的存储空间,具有更小的计算量,更适合在功耗较低、价格低廉的机器上运行.
表1各方法在MS COCO数据集上的性能
Table1Performance of different methods on MS COCO dataset 方法
推理mAP模型大小速度
尺寸/%/MB/GFLOPs YOLOv2-tiny416x41623.742.9 5.41
YOLOv3-tiny416x41633.133.8 5.56
YOLOv4-tiny416x41640.223.1 6.90
YOLO-Nano416x416- 4.0 4.57
Improved-YOLO320x32023.691.40.23 Improved-Y O LO-large320x32032.47 3.50.71
Improved-YOLO使用深度可分离卷积改进3维卷积核,并使用锚聚类对火焰数据进行预处理. Improved-YOLO的mAP值为58.41%.使用预训练参数后,1m proved-YOLO的mAP值增至79.32%,较大幅度提升方法性能.数据增强策略从数据源层面增加数据的多样性,使方法的泛化能力得以提升, mAP值增至80.27%.使用CIoU损失函数,使方法预测更有效地拟合真实结果,mAP值增至80.73%.结合数据增强技术与高效损失函数,可使方法效果达到最佳,mAP值为82.58%.
各方法在火焰数据集上的性能对比如表2

第5期李欣健等:复杂场景下基于CNN的轻量火焰检测方法421
示.由表可知,使用大型数据集的预训练参数能增强
方法的精度和泛化性.Improved-YOLO在火焰数据
集上表现更优,在使用更少的储存空间与计算量的
情况下,mAP和F1值优于YOLOv2-tiny和YOLOv3-
tiny,接近于YOLOv4-tiny.
表2各方法在火焰数据集上的性能对比
Table2Performance comparison of different methods on Fire dataset (c)打火机(d)车祸现场(c)Lighter(d)Traffic accident
%
方法使用预训练
参数mAP P R F
YOLOv2-tiny是77.78777676
YOLOv3-tiny是79.85847479
YOLOv4-tiny是86.07858283 Improved-YOLO是82.58837980 Improved-YOLO否72.31677169
各方法在性能较低的嵌入式设备上的推理时间对比如表3所示.在表中,M1表示机器1,为win­dows机器,推理使用的CPU型号为i7-8700K;M2表示机器2,为小米10手机,使用NCNN进行推理, CPU型号为骁龙865处理器;M3表示机器3,为华为Mate30,使用NCNN进行推理,CPU型号为麒麟990.由表可知,Improved-YOLO不论在windows设备上,还是在安卓设备上,速度都最优.
表3各方法的推理时间对比
Table3Inference time comparison of different methods 方法推理尺寸Ml/ms M2/m s M3/ms YOLOv2-tiny416x416201--
YOLOv3-tiny416x4161163537
YOLOv4-tiny416x4161294345
Improved-YOLO320x3201022126 Improved-YOLO-large320x3201523135
Improved-YOLO火焰检测效果如图8所示.从 整体来看,Improved-YOLO可在保持良好性能的前提下,达到更快的速度,拥有更高的效率.
(a)消防现场(b)垃圾焚烧
(a)Fire fighting site(b)Waste incineration
图8Improved-YOLO火焰检测效果图
Fig.8Results of improved-YOLO fire detection
3结束语
本文使用深度可分离卷积构建网络主干,结合一系列数据增强方法和一个鲁棒性较强的损失函数,设计基于YOLO的火焰检测方法(Improved-YOLO),有效提升性能.实验表明,本文方法在火焰数据集上实现准确性和速度的提升,将其移植到嵌入式平台后可实现实时检测功能.今后将考虑探究更轻量、更高效的火焰检测方法.
参考文献
[1J ZHOU XL,YUFX,WEN Y C,et al.Early Fire Detection Based on Flame Contours in rmation Technology Journal, 2010,9(5):899-908.
[2J SEEBAMRUNGSAT J,PRAISINGS,RIYAMONGKOL P.Fire De­tection in the Buildings Using Image Processing//Proc of the3rd ICT International Student Project Conference.Washington,USA: IEEE,2014:95-98.
[3J CHEN T H,WU P H,CHIOU Y C.An Early Fire-Detection Method Based on Image Processing//Proc of the International Conference on Image Processing.Washington,USA:IEEE,2004,III:1707­1710.
[4J WANG T,SHI L,YUAN P,et al.A New Fire Detection Method Based on Flame Color Dispersion and Similarity in Consecutive Frames//Proc of the Chinese Automation Congress.Washington, USA:IEEE,2017:151-156.
[5J陈磊,黄继风•基于视频的火焰检测方法•计算机工程与设计, 2014,35(9):3143-3147,3195.
(CHEN L,HUANG J F.Flame Detection Method Based on Video.
Computer Engineering and Design,2014 ,35(9):3143-3147, 3195.)
[6J王浩,单文静,方宝富•基于多层上下文卷积神经网络的目标检测算法•模式识别与人工智能,2020,33(2):113-120.
(WANGH,SHAN W J,FANG B F.Multi-layers Context Convolu­tional Neural Network for Object Detection.Pattern Recognition and Artificial Intelligence,2020,33(2):
113-120.)
422模式识别与人工智能(PR&AI)第34卷
[7]MUHAMMAD K,AHMAD J,MEHMOOD I,et al.Convolutional
Neural Networks Based Fire Detection in Surveillance Videos.IEEE Access,2018,6:18174-18183.
[8]邓军,姚涵文,王伟峰,等.基于优化InceptionV1的视频火焰超
像素检测方法[J/OL].[2020-12-12].https:/// kcms/detail/31.1690.TN.20200819.1059.012.html.
(DENG J,YAO H W,WANG W F,et al.Detection Method for Video Flame Based on Optimized InceptionVl[J/OL].[2020-12­12].https:///kcms/detail/31.1690.TN.20200819.
1059.012.html.)
[9]赵飞扬,罗兵,林国军,等•基于改进YOLOv3的火焰检测.中国
科技论文,2020,15(7):820-826.
(ZHAO F Y,LUO B,LIN G J,et al.Flame Detection Based on Improved YOLOv3.China Sciencepaper,2020,15(7):820-826.)
[10]REDMON J,DIVVALA S,GIRSHICK R,et al.You Only Look
Once:Unified,Real-Time Object Detection//Proc of the IEEE Conference on Computer Vision and Pattern Recognition.Washing­ton,USA:IEEE,2016:779-788.
[11]REDMON J,FARHADI A.YOLO9000:Better,Faster,Stronger
//Proc of the IEEE Conference on Computer Vision and Pattern Recognition.Washington,USA:IEEE,2017:6517-6525. [12]REDMON J,FARHADI A.YOLOv3:An Incremental Improve­
ment[C/OL].[2020-12-12].https:///pd^1804.
02767v1.pdf.
[13]BOCHKOVSKIY A,WANG C Y,LIAO H Y M.YOLOv4:Opti­
mal Speed and Accuracy of Object Detection[C/OL].[2020-12­
12].https:///pd》2004.10934.pdf.
[14]HOWARD A,SANDLER M,CHU G,et al.Searching for Mobi-
lenetv3//Proc of the IEEE/CVF International Conference on Computer Vision.Washington,USA:IEEE,2019:1314-1324.
[15]LIN T Y,MAIRE M,BELONGIE S,et al.Microsoft COCO:
Common Objects in Context//Proc of the European Conference on Computer Vision.Berlin,Germany:Springer,2014:740-755. [16]ZHANG H Y,CISSE M,DAUPHIN Y N,et al.Mixup:Beyond
Empirical Risk Minimization[C/OL].[2020-12-12].https:// /pd》1710.09412.pdf.
[17]ZHENG Z H,WANG P,LIU W,et al.Distance-IoU Loss:Faster
and Better Learning for Bounding Box Regression//Proc of the AAAI Conference on Artificial Intelligence.Palo Alto,USA:AAAI Press,2020:12993-13000.
[18]王延召,彭国华,延伟东.基于流形排序和联合连通性先验的显
著性目标检测.模式识别与人工智能,2019,32(1):82-93.
(WANG Y Z,PENG G H,YAN W D.Salient Object Detection Based on Manifold Ranking and Co-connectivity.Pattern Recogni­tion and Artificial Intelligence,2019,32(1):82-93.)[19]TARG S,ALMEIDA D,LYMAN K.Resnet in Resnet:Generali­
zing Residual Architectures[C/OL].[2020-12-12].https:// /pd》1603.08029.pdf.
[20]SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al.Dropout:
A Simple Way to Prevent Neural Networks from Overfitting.The
Journal of Machine Learning Research,2014,15(56):1929-1958.
[21]HUTTNER V,STEFFENS C R,DA COSTA BOTELHO S S.First
Response Fire Combat:Deep Leaning Based Visible Fire Detection //Proc of the Latin American Robotics Symposium and Brazilian Symposium on Robotics.Washington,USA:IEEE,2017.DOI:10.
1109/SBR-LARS-R.2017.8215312.
作者简介
李欣健,硕士研究生,主要研究方向为计算
机视觉、目标检测.E-mail:894504231@qq.
com.
(LI Xinjian,master student.His research
interests include computer vision and object
detection.)
张大胜,硕士研究生,主要研究方向为计算
机视觉、目标检测.E-mail:2598768905@qq.
com.
(ZHANG Dasheng,master student.His re­
search interests include computer vision and
object detection.)
孙利雷,博士研究生,主要研究方向为模式
识别、生物特征识别.E-mail:sunlileisun@
.
(SUN Lilei,Ph.D.candidate.His research
interests include pattern recognition and bio­
metric recognition.)
徐勇(通信作者),博士,教授,主要研究方
向为模式识别、图像处理、深度学习、生物
特征识别、生物信息学.E-mail:laterfall@
.
(XU Yong(Corresponding author),Ph.D.,
professor.His research interests include pa­ttern recognition,image processing,deep learning,biometric recognition and bioinformatics.
)。

相关文档
最新文档