工作面刮板输送机煤流状态识别方法
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
工作面刮板输送机煤流状态识别方法
吴江伟, 南柄飞
(北京天玛智控科技股份有限公司,北京 101300)
摘要:煤矿井下工作面刮板输送机场景中存在的刮板输送机姿态多变、煤料形状不规则、设备安装位置受限、高粉尘、异物遮挡等不利因素,导致现有针对带式输送机场景的煤流状态识别方法无法有效在刮板输送机场景下进行工程化应用。
针对上述问题,提出了一种基于时序视觉特征的工作面刮板输送机煤流状态识别方法。
该方法首先利用DeepLabV3+语义分割模型获取工作面煤流视频图像中粗略煤流区域,并在此基础上通过线性拟合方法进行精细煤流区域定位与分割,实现煤流图像提取;然后将煤流图像按视频时序进行排列,构成煤流图像序列;最后采用C3D 动作识别模型针对煤流图像序列进行特征建模,实现煤流状态自动识别。
实验结果表明:该方法能准确获取煤流图像并自动、实时识别煤流状态,煤流状态平均识别准确率达92.73%;针对工程化部署应用,利用TensorRT 对模型进行加速处理,对于分辨率为1 280×720的煤流视频图像,整体处理速度为42.7帧/s ,满足工作面煤流状态智能监测实际需求。
关键词:刮板输送机;煤流状态识别;时序视觉特征;语义分割;动作识别中图分类号:TD634.1 文献标志码:A
Method for recognizing coal flow status of scraper conveyor in working face
WU Jiangwei, NAN Bingfei
(CCTEG Beijing Tianma Intelligent Control Technology Co., Ltd., Beijing 101300, China)
Abstract : The various poses of scraper conveyors, irregular coal material shapes, limited equipment installation positions, high dust, and foreign object obstruction in the scene of scraper conveyors in underground coal mines have led to the inability of existing coal flow status recognition methods for belt conveyor scenarios to be applied in engineering. In order to solve the above problems, a method for recognizing the coal flow status of a scraper conveyor in a working face based on temporal visual features is proposed. This method first utilizes the DeepLabV3+semantic segmentation model to obtain rough coal flow regions in the coal flow video image of the working face. Then the method uses linear fitting method to locate and segment fine coal flow regions, achieving coal flow image extraction. Then the method arranges the coal flow images in video sequence to form a sequence of coal flow images. Finally, a convolutional 3D (C3D) action recognition model is used to model the features of coal flow image sequences and achieve automatic recognition of coal flow status. The experimental results show that this method can accurately obtain coal flow images and automatically and real-time recognize coal flow status, with an average recognition accuracy of 92.73% for coal flow status. For engineering deployment applications, TensorRT is used to accelerate model processing. For the coal flow video image with a resolution of 1 280×720, the overall processing speed is 42.7 frames/s, which meets the actual demand for intelligent monitoring of coal flow status at the working face.
收稿日期:2023-08-28;修回日期:2023-11-19;责任编辑:盛男。
基金项目:天地科技股份有限公司科技创新创业资金专项面上项目(2021-TD -MS013);中国煤炭科工集团有限公司科技创新创业资
金专项国际科技合作项目(2022-3-KJHZ005)。
作者简介:吴江伟(1988—),男,浙江金华人,工程师,硕士,现从事计算机视觉、图像处理和深度学习方面的研究工作,E -mail :
wujw@tdmarco .com 。
引用格式:吴江伟,南柄飞. 工作面刮板输送机煤流状态识别方法[J ]. 工矿自动化,2023,49(11):60-66.
WU Jiangwei, NAN Bingfei . Method for recognizing coal flow status of scraper conveyor in working face [J ]. Journal of Mine Automation ,2023,49(11):60-66
.
第 49 卷 第 11 期工 矿 自 动 化
Vol .49 No .112023 年 11 月
Journal of Mine Automation
Nov . 2023
文章编号:1671−251X (2023)11−0060−07DOI :10.13272/j.issn.1671-251x.2023080101
Key words: scraper conveyor; recognition of coal flow status; temporal visual features; semantic segmentation; action recognition
0 引言
随着煤矿智能化无人开采进程的纵深推进,构建AI视觉感知、自动决策、设备协同控制三大环节一体化的生产管理系统已经成为业界共识。
在井下工作面中,利用刮板输送机上煤流状态的视觉感知结果,联动控制采煤机和刮板输送机进行生产作业管理,从而实现工作面煤流负载平衡,不仅可以降低工作面堆煤事件发生率,提升工作面自动化生产率,同时可以降低井下能源消耗。
目前矿井煤流状态识别方法大多针对带式输送机场景,其实现方式大致分为两类。
第一类是基于图像的方法,如文献[1-2]通过传统图像处理方法获取带式输送机轮廓及煤料边界,并由此计算煤料横截面积和体积,但该方法严重依赖于边缘检测方法,受光照等环境因素影响较大,精度和稳定性差。
文献[3]将图像中煤流量大小划分为5个级别并利用深度学习模型直接对图像进行分类,该方法逻辑简单、部署方便,但对全图进行操作时没有排除非煤流区域的影响,且该方法只对单幅图像进行分类,并没有对煤流的时序特征进行建模。
第二类是基于特殊传感装置(如超声波传感器、激光扫描仪等[4-7])的方法,通过计算煤料截面积进而获得煤料体积。
此类方法中虽然也可能用到图像信息,但关键在于其引入的硬件设备能够给算法增加诸如深度、超声回波、煤流速度、激光条纹等信号,使得煤流量计算结果更加精确;但此类方法的问题在于处理的数据量较大,相关算法模型实时性、可靠性较差,且硬件设备大幅增加了成本开销。
然而,上述方法无法有效应用于工作面刮板输送机场景中的煤流状态识别,这是因为工作面刮板输送机与带式输送机场景存在巨大差异。
① 带式输送机有固定外形且运输的煤料经过破碎后形状相对规则、大小相对均衡,这些场景特征使得准确计算煤料横截面积及煤流体积成为可能;而在工作面刮板输送机场景中,刮板输送机姿态易受地质条件影响且煤料形状不规则、大小差异巨大,导致无法准确计算煤料横截面积,煤料间存在的空隙导致无法简单根据体积公式获得煤流体积。
② 带式输送机场景中相机、灯具等设备的安装条件相对较好,可将其安装在理想位置使得算法鲁棒性更好;而在空间局促的工作面刮板输送机场景中,由于需要考虑相机、灯具等设备是否会与滚筒、采煤机、护帮板发生干涉,造成其安装位置受限甚至无法安装,进而导致摄像仪视角、可见度等无法满足已有算法要求。
③ 在生产过程中,工作面刮板输送机场景中存在高粉尘、采煤机遮挡、刮板输送机位置改变等不利因素,影响采集数据的质量,导致算法识别精度下降。
针对工作面刮板输送机场景,本文提出了一种基于时序视觉特征的煤流状态识别方法。
该方法具有以下优势:① 无需计算准确煤量,用空载煤流、正常煤流和饱和煤流3种状态描述刮板输送机上煤量大小,在满足应用要求的前提下大大降低了算法复杂度。
② 仅需以现有工作面中部署的摄像仪作为数据采集设备,避免了设备安装受限问题;同时,只需处理图像数据,数据处理量较小,具有很好的实时性。
③ 采用深度学习语义分割模型确定煤流区域,有效缓解传统方法易受光照、粉尘影响导致算法精度下降的问题;同时,能够精确定位煤流区域,排除无关图像区域影响。
④ 采用深度学习动作识别模型进行煤流特征建模,不仅能够学习到煤流的纹理特征,而且能够学习到煤流的时序特征。
1 方法原理
基于时序视觉特征的刮板输送机煤流状态识别方法原理如图1所示。
针对工作面煤流视频帧图像,首先利用深度学习语义分割模型获得粗略煤流区域,在此基础上通过线性拟合方法定位精细煤流区域坐标并裁剪出煤流图像;然后将煤流图像按视频时序排列形成煤流图像序列;最后通过动作识别模型对煤流图像序列进行特征建模,获得煤流状态识别结果。
输入视频语义分割
煤流图像
序列
煤流状态识别
煤流图像提取
图 1 基于时序视觉特征的刮板输送机煤流状态识别方法原理Fig. 1 Principle of method for recognizing coal flow status of scraper conveyor based on temporal visual features
2 刮板输送机煤流图像提取
刮板输送机煤流图像提取整体流程:针对视频帧图像进行图像语义分割,获得线缆槽边缘;针对线缆槽边缘进行曲线拟合;根据视频帧图像中刮板输
2023 年第 11 期吴江伟等: 工作面刮板输送机煤流状态识别方法• 61 •
送机特点及线缆槽边缘拟合曲线获取煤流区域边界;从视频帧图像中裁剪出煤流区域形成煤流图像。
2.1 煤流视频图像语义分割
针对煤流视频帧图像进行语义分割的主要目的:① 获取视频帧图像中局部煤流区域,从而排除大量非煤流区域图像对后续动作识别模型的影响,使得煤流状态识别结果更加准确。
② 受限于安装条件,监控摄像仪往往只能安装在液压支架顶板上,当支架顶板与刮板输送机相对位置不变时,煤流区域处于图像中的固定位置;然而,采煤过程中频繁性推刮板输送机动作使得支架顶板与刮板输送机相对位置发生变化,导致煤流区域在图像中的位置也随之发生变化。
因此,需要利用语义分割结果动态定位煤流区域。
语义分割是图像分割的一个分支,可实现图像中不同语义区域的分割。
经典的深度学习语义分割模型有SegNet [8],Mask R−CNN [9],U−Net [10],DeepLab 系列[11-13]等。
本文采用DeepLabV3+语义分割模型,如图2所示,DeepLabV3+语义分割模型将空间金字塔池化模块(Atrous Spatial Pyramid Pooling ,ASPP )与编解码结构相结合,既能够使模型获得多尺度上下文信息,又能够保证图像分割结果中物体的边缘分割更加准确。
同时,DeepLabV3+语义分割模型采用了Xception [14]框架,使得模型分割处理速度更快,满足实际应用的实时性要求。
编码器
Concat 图 2 DeepLabV3+语义分割模型网络结构
Fig. 2 Network structure of DeepLabV3+ semantic segmentation model
如图2中DeepLabV3+语义分割模型输出的分割结果所示,本文将视频帧图像以线缆槽底部为界划分为2个部分:① 线缆槽底部到煤壁为粗略煤流区域,是后续动作识别模型的候选输入数据。
② 线缆槽底部到支架为非煤流区域。
2.2 煤流区域定位获取
由于语义分割获得的粗略煤流区域中仍包含较多非煤流区域(如煤壁、浮煤等),且该分割区域形状不规则,所以不能直接作为后续动作识别模型的输入图像。
为获得精细煤流区域,需确定煤流区域的4个边界,选取原则为尽可能包含更多煤流区域且排除非煤流区域。
本文直接选取图像高度的一半处作为上边界,选取图像的下边界作为煤流区域下边界。
对于右边界,本文先提取线缆槽边界点并对其进行分段直线拟合,获得拟合曲线,然后取拟合曲线与视频帧图像下边缘交点横坐标作为煤流区域右边界。
分段直线拟合计算公式为
ˆθ=arg min θ
n ∑
i =1
(f (x i |θ)−y i )2
(1)
ˆθ
θf (x i |θ)式中:为求解参数结果;为待求参数集合;为待求直线方程;x i 和y i 分别为线缆槽边界点中第i (i =1,2,···,n ,n 为线缆槽边界点总数)个点的横坐标
和纵坐标。
对于左边界,由于刮板输送机在图像中大小不会发生变化,所以当右边界确定时,可通过线性拟合方法根据右边界值预测出左边界值,计算公式为
x l =kx r
(2)
式中:x l 为煤流区域左边界值;k 为线性系数,本文对推刮板输送机动作前后2种情况分别进行线性拟合,推刮板输送机动作前k 取0.57, 推刮板输送机动作后k 取0.4;x r 为煤流区域右边界值。
3 刮板输送机煤流状态识别
3.1 问题建模
通常煤流实际是指煤料随刮板输送机运动而形成的流体,煤量由刮板输送机上煤料横截面积与刮板输送机长度积分获得:
V = L 0
ρF (x )d x
(3)
ρF (x )式中:V 为待求煤量;L 为刮板输送机长度;为煤料密度;为刮板输送机上x 处的煤料横截面积。
这种方法要求精确计算刮板输送机上煤料横截面积。
但在工作面刮板输送机场景下精确计算煤料横截面积面临极大挑战。
因此,本文采用一种新的
• 62 •工矿自动化
第 49 卷
方法:煤量可由刮板输送机上某一点在某一时刻的煤量与时间积分获得:
V =
T
G (t )d t (4)
G (t )式中:T 为时间;为刮板输送机某一位置在t 时刻的瞬时煤量。
G (t )与式(3)相比,式(4)虽然不需要计算煤料横截面积,但其中的瞬时煤量同样无法计算。
为避免精确煤量计算,本文将煤量离散化,分为空载煤流、正常煤流及饱和煤流3个状态。
同时,为避免煤流状态随着刮板输送机上煤料分布变化而频繁变化,对一个时间段内的煤流状态进行融合:
S =H (g (t 1),g (t 2),···,g (t T ))
(5)
g (t )g (t )=0,1,2H (g (t 1),g (t 2),···,g (t T ))式中:S 为t 1到t T 时刻刮板输送机上煤流状态;
为t 时刻刮板输送机上煤流状态,,
分别表示空载煤流、正常煤流、饱和煤流状态;
为对t 1到t T 时刻的煤流状态进
行融合操作。
3.2 煤流状态识别
如式(5)所示,求解刮板输送机煤流状态就是求解函数H (·)。
求解函数H (·)可采用多种方法,最简单的是加权平均法,即先求得各个时间点煤流状态,然后对其进行加权平均,但该方法忽略了邻近煤流状态在时序上的内在联系。
因此,本文采用动作识别模型直接对不同煤流状态图像序列的时空特征进行建模。
动作识别通常是指通过某种算法识别出视频中人的行为,并对其进行分类,其本质是对视频图像序列中呈现的行为模式进行建模。
经典的动作识别模型有TSN (Temporal Segment Networks )[15],TSM (Temporal Shift Module )[16],SlowFast (SlowFast Networks )[17],I3D (Two-Stream Inflated 3D convNet )[18],R (2+1)D (Residual Spatial and Temporal Factorized Block )[19],C3D (Convolutional 3D )[20],TimeSformer (Time-Space Transformer )[21]等。
其中TSN ,TSM 使用2D 卷积用于提取图像特征,并通过光流、时序漂移等方法补充时序信息;SlowFast 通过快慢2路视频流分别对时序信息和空间信息进行建模;I3D ,R (2+1)D ,C3D 则使用3D 卷积直接对视频进行时空特征建模,有更强的时空特征表示能力;TimeSformer 采用Transformer 结构完成特征提取,模型识别准确率优于前三者,但模型处理耗时较大,无法满足实时性要求。
本文采用C3D 动作识别模型对煤流视频帧图像序列进行建模和煤流状态分类,模型结构如图3所示。
将煤流图像按时序组成新的图像序列,再将图像序列输入到C3D 动作识别模型中,从而计算并输出煤流状态识别结果。
3D Conv1a
Max Pool
3D Conv2a
Max Pool
3D Conv3a Max Pool
3D Conv3b Max Pool
3D Conv4b
Max Pool
Avg Pool 3D Conv5a
Max Pool
FC62 0483D Conv5b
FC81
Softmax
FC72 048
Backbone
Head
3D Conv4a
Max Pool
图 3 C3D 动作识别模型网络结构
Fig. 3 Network structure of convolutional 3D action recognition model
在实际使用过程中,由于工作面工况场景中存在导致监控摄像仪无法观测到煤流的情况,为使模型能力更加完备且符合现场实际情况,本文在空载煤流、正常煤流及饱和煤流3种状态之外还增加了“未检测煤流”,用于表示视频帧图像中未出现煤流的情况。
另外,由于煤流状态识别任务相对比较简单,所以需要减少模型参数量,以防止模型过拟合情况发生。
本文一方面将原始C3D 动作识别模型主干网络中最后2个全连接层FC6,FC7维度从原来的
4 096修改为2 048,从而极大地减少模型参数量;另一方面,在全连接层FC7之后添加自适应平均池化层(Avg Pool ),将最终特征层缩小为1×1×1,以扩大感受野,并进一步减少了模型参数量。
4 实验结果及分析
4.1 实验设定
4.1.1 硬件设备
实验所用设备配置:操作系统,Ubuntu20.04;显
2023 年第 11 期吴江伟等: 工作面刮板输送机煤流状态识别方法• 63 •
卡,NVIDIA GeForce RTX 3 090;CPU,Intel(R)Xeon(R) Gold 6258R 2.7 GHz;CUDA,版本11.4;TensorRT,版本8.2;训练框架,PyTorch 1.10。
4.1.2 数据集
实验所用数据来自国内某煤矿井下工作面视频监控系统,视频帧速率为25帧/s,图像分辨率为1 280×720。
对于语义分割,本文人工采集、筛选并标注图像总数量为1 867幅,其中训练集1 767幅,测试集100幅;每幅样本图像标注2个类别:煤流区域、非煤流区域。
在C3D动作识别模型训练构建阶段,本文先采集工作面煤流视频数据并进行人工筛选,获得共5.3 h
的训练视频数据,对筛选视频进行4个类别标注,然后按3帧/s的速率对训练视频数据进行采样,形成图像序列。
对于较长图像序列,将其切分为多个片段,每段长度为32幅图像;对于较短图像序列,用序列尾部图像进行补齐,最终长度为16幅图像。
最终训练数据包含1 728个视频片段,总共58 568幅样本图像。
在C3D动作识别模型测试阶段,本文采集工作面采煤工况条件下1刀的煤流视频数据,时长约52 min,按1 s/段对视频进行分段,总共3 138个片段,对每个片段煤流状态进行标注并形成最终测试样本数据。
4.1.3 训练参数设置
DeepLabV3+语义分割模型的主要训练参数:模型输入图像尺寸为513×513;初始学习率为0.02,学习率按多项式曲线进行下降,最小学习率为10−6;使用随机梯度下降(Stochastic Gradient Descent,SGD)优化器,设置动量参数为0.9,权重衰减因子为10−4;设置批处理大小为32,共迭代6 000次。
C3D动作识别模型的主要训练参数:模型输入视频片段长度为16,图像尺寸为112×112;初始学习率为0.002,学习率采用阶梯下降方法,分别在第30,60轮下降为原来的1/10;使用SGD优化器,设置动量参数为0.9,权重衰减因子为10−4;设置批处理大小为96,共训练80轮。
4.2 煤流图像提取实验
煤流图像提取结果如图4所示,其中淡黄色和淡蓝色2个区域为语义分割结果,红色曲线为线缆槽底部边界经过分段直线拟合后结果,深蓝色点表示待裁剪煤流图像的4个顶点。
从图4(a)可看出,在液压支架推刮板输送机动作后,本文方法能够准确定位线缆槽边缘并获取煤流区域;从图4(b)可看出,煤流视频帧图像中存在大量粉尘,导致图像中物体纹理模糊,在此情况下本文方法仍能准确定位线缆槽边缘并获取煤流区域;从图4(c)可看出,在采煤机进入监控视野并遮挡住刮板输送机时,虽然无法直接观察到煤流区域,但通过采煤机边缘同样能够获取煤流区域;从4(d)可看出,与前3幅图像相比,该图中刮板输送机和煤流区域在图像中位置发生明显变化,在此情况下本文方法同样能够自适应地准确获取煤流区域。
这表明本文方法能够针对工作面复杂工况场景准确定位煤流区域。
为验证DeepLabV3+语义分割模型的准确性,在测试集上计算分割结果与真实值的IoU(Intersection over Union,交并比):
I=
A gt
∩
A pred
A gt
∪
A pred
(6)式中:A gt为真实区域;A pred为预测区域。
IoU计算结果:线缆槽底部到煤壁区域IoU为0.976,线缆槽底部到支架区域IoU为0.946,平均IoU为0.961。
这表明DeepLabV3+语义分割模型的预测准确率较高,能够准确分割出煤流区域。
为验证煤流图像裁剪框的准确性,需要标注理想裁剪框并将其与预测裁剪框进行比较,然后计算2个裁剪框的IoU,但由于理想裁剪框没有明确标准,所以无法实现。
裁剪框边界中最重要的是右边界的确定,即线缆槽底部边缘与图像下边缘的交点横坐标。
因此本文对每幅测试图像进行右边界标注并将其与预测的右边界进行比较,计算得到平均偏差为8.4像素(图像宽度的0.66%),标准差为3.3像素。
表明误差较小,不会导致煤流图像缺失关键区域。
4.3 煤流状态识别实验
刮板输送机煤流状态识别结果如图5所示。
(a)液压支架推刮板输送机
动作后场景
(b)高粉尘场景
(c)遮挡场景(d)液压支架推刮板输送机
动作前场景
图 4 煤流图像提取结果
Fig. 4 Coal flow image extraction results
• 64 •工矿自动化第 49 卷
图5(a )由于刮板输送机被采煤机遮挡导致煤流不可见,所以显示未检测煤流状态;图5(b )为空载煤流状态,其中左图为无粉尘情况,右图为存在粉尘干扰情
况;图5(c )为正常煤流状态,左图为液压支架推刮板输送机动作后情况,右图为液压支架推刮板输送机动作前情况;图5(d )为饱和煤流状态。
(a ) 未检测煤流状态
(b ) 空载煤流状态
(c ) 正常煤流状态
(d ) 饱和煤流状态
煤流: 未检测煤流: 未检测煤流: 空载煤流: 正常煤流: 正常煤流: 饱和煤流: 饱和煤流: 空载图 5 刮板输送机煤流状态识别结果
Fig. 5 Recognition results of coal flow status of scraper conveyor
在采煤作业1刀52 min 的3 138个测试视频片段中,煤流状态平均识别准确率为92.73%,其中未检测煤流状态识别准确率为99.05%,空载煤流状态识别准确率为96.13%,正常煤流状态识别准确率为90.04%,饱和煤流状态识别准确率为90.30%。
4.4 模型加速实验
为提升整体处理速度,将PyTorch 训练生成的模型使用TensorRT 进行转换。
对DeepLabV3+语义分割模型和C3D 动作识别模型分别进行转换,转换前后模型推理耗时对比见表1。
可看出:DeepLabV3+语义分割模型推理耗时从39.5 ms 下降到14.1 ms ,处理速度提升1.8倍;C3D 动作识别模型推理耗时从15.1 ms 下降到5.7 ms ,处理速度提升1.6倍。
经过TensorRT 加速后,整体处理速度为42.7帧/s ,满足实时处理要求。
表 1 模型加速前后推理耗时对比
Table 1 Comparison of inference time before and
after model acceleration
ms
模型框架DeepLabV3+
C3D PyTorch 39.515.1TensorRT
14.1
5.7
5 结论
1) 基于图像语义分割的刮板输送机煤流图像提取方法能够准确定位煤流区域并获取煤流图像,为后续煤流状态自动识别提供可靠数据输入。
针对高粉尘、采煤机遮挡、刮板输送机位置改变等不同工况,该方法都能够自适应获得煤流图像。
2) C3D 动作识别模型能够有效提取煤流图像视
觉特征和图像序列的时序特征,并进行准确表征,实现煤流状态自动识别,煤流状态平均识别准确率达92.73%,满足工作面刮板输送机煤流状态智能监测实际应用需求。
3) 针对工程化部署应用,利用TensorRT 对模型进行加速处理,整体处理速度达42.7帧/s ,满足现场工程化应用的实时性要求。
参考文献(References ):
李纪栋,蒲绍宁,翟超,等. 基于视频识别的带式输送
机煤量检测与自动调速系统[J ]. 煤炭科学与技术,2017,45(8):212-216.
LI Jidong ,PU Shaoning ,ZHAI Chao ,et al. Coal quantity detection and automatic speed regulation system of belt conveyor based on video identification [J ]. Coal Science and Technology ,2017,45(8):212-216.[ 1 ]
李瑶,王义涵. 带式输送机煤流量自适应检测方法[J ].
工矿自动化,2020,46(6):98-102.
LI Yao ,WANG Yihan. Adaptive coal flow detection method of belt conveyor [J ]. Industry and Mine Automation ,2020,46(6):98-102.[ 2 ]
李学晖. 基于机器视觉和深度学习的带式输送机煤量
识别方法研究[D ]. 邯郸:河北工程大学,2022.LI Xuehui. Research on coal quantity identification method of belt conveyor based on machine vision and deep learning [D ]. Handan :Hebei University of Engineering ,2022.[ 3 ]
汪心悦,乔铁柱,庞宇松,等. 基于TOF 深度图像修复
的输送带煤流检测方法[J ]. 工矿自动化,2022,48(1):40-44,63.
WANG Xinyue ,QIAO Tiezhu ,PANG Yusong ,et al.Coal flow detection method for conveyor belt based on TOF depth image restoration [J ]. Industry and Mine
[ 4 ]
2023 年第 11 期吴江伟等: 工作面刮板输送机煤流状态识别方法• 65 •
Automation ,2022,48(1):40-44,63.陈湘源. 基于超声波的带式输送机多点煤流量监测系
统设计[J ]. 工矿自动化,2017,43(2):75-78.
CHEN Xiangyuan. Design of multipoint coal flow monitoring system of belt conveyor based on ultrasonic [J ]. Industry of Mine Automation ,2017,43(2):75-78.[ 5 ]
郝洪涛,王凯,丁文捷. 基于超声阵列的输送带动态煤量检测系统[J ]. 工矿自动化,2023,49(4):120-127.HAO Hongtao ,WANG Kai ,DING Wenjie. A dynamic coal quantity detection system for conveyor belt based on ultrasonic array [J ]. Journal of Mine Automation ,2023,49(4):120-127.[ 6 ]
郭伟东,李明,亢俊明,等. 基于机器视觉的矿井输煤
系统优化节能控制[J ]. 工矿自动化,2020,46(10):69-75.
GUO Weidong ,LI Ming ,KANG Junming ,et al.Optimal energy saving control of mine coal transportation system based on machine vision [J ].Industry and Mine Automation ,2020,46(10):69-75.[ 7 ]
BADRINARAYANAN V ,KENDALL A ,CIPOLLA R.
SegNet :
a
deep convolutional encoder-decoder
architecture
for
image
segmentation [J ].
IEEE
Transactions on Pattern Analysis and Machine Intelligence ,2017,39(12):2481-2495.[ 8 ]
HE Kaiming ,GKIOXARI G ,DOLLAR P ,et al. Mask
R-CNN [C ]. IEEE
International
Conference
on
Computer Vision ,Venice ,2017:2961-2969.
[ 9 ]
RONNEBERGER O ,FISCHER P ,BROX T. U-Net :
convolutional
networks
for
biomedical
image
segmentation [C ]. International Conference on Medical image Computing and Computer-Assisted Intervention ,Munich ,2015:234-241.[10]
CHEN L C ,PAPANDREOU G ,SCHROFF F ,et al.Rethinking atrous convolution for semantic image segmentation [J/OL ]. [2023-11-19]. https:///abs/1706.05587.[11]
CHEN L C ,PAPANDREOU G ,KOKKINOS I ,et al.DeepLab :semantic image segmentation with deep
convolutional nets ,atrous convolution ,and fully
[12]
connected CRFs [J ]. IEEE Transactions on Pattern Analysis and Machine Intelligence ,2017,40(4):834-848.
CHEN L C ,ZHU Yukun ,PAPANDREOU G ,et al.
Encoder-decoder with atrous separable convolution for semantic image segmentation [C ]. European Conference on Computer Vision ,Munich ,2018:801-818.[13]
CHOLLET F. Xception :deep learning with depthwise
separable convolutions [C ]. IEEE Conference on Computer Vision and Pattern Recognition ,Hawaii ,2017:1251-1258.[14]
WANG Limin ,XIONG Yuanjun ,WANG Zhe ,et al.
Temporal segment networks for action recognition in videos [J ]. IEEE Transactions on Pattern Analysis and Machine Intelligence ,2019,41(11):2740-2755.[15]
LIN Ji ,GAN Chuang ,HAN Song. TSM :temporal shift
module for efficient video understanding [C ]. IEEE/CVF International Conference on Computer Vision ,Seoul ,2019:7083-7093.[16]
FEICHTENHOFER C ,FAN Haoqi ,MALIK J ,et al.
SlowFast networks for video recognition [C ]. IEEE/CVF International Conference on Computer Vision ,Seoul ,2019:6202-6211.
[17]
CARREIRA J ,ZISSERMAN A. Quo vadis ,action
recognition? a new model and the kinetics dataset [C ].IEEE Conference on Computer Vision and Pattern Recognition ,Honolulu ,2017:6299-6308.[18]
TRAN D ,WANG Heng ,TORRESANI L ,et al. A
closer look at spatiotemporal convolutions for action recognition [C ]. IEEE/CVF Conference on Computer Vision and Pattern Recognition ,Salt Lake City ,2018:6450-6459.[19]
TRAN D ,BOURDEV L ,FERGUS R ,et al. Learning
spatiotemporal
features
with
3D
convolutional
networks [C ]. IEEE International Conference on Computer Vision ,Santiago ,2015:4489-4497.[20]
BERTASIUS G ,WANG Heng ,TORRESANI L. Is
space-time attention all you need for video understanding?[C ].
International
Conference
on
Machine Learning ,Vienna ,2021:813-824.
[21]
(上接第52页)
王灏文,朴燕,王鈅,等. 改进YOLOv7的无明火森林
烟雾检测算法[J/OL ]. 计算机工程与应用:1-11[2023-01-30].
/kcms/detail/11.2127.TP.
20231025.1637.020.html .
WANG Haowen ,PU Yan ,WANG Yue ,et al. Forest smoke detection method without open flames based on improved YOLOv7 [J/OL ]. Computer Engineering and
[20]
Applications :1-11[2023-01-30]. h ttp:///kcms/detail/11.2127.TP.20231025.1637.020.html .高新阳,魏晟,温志庆,等. 改进YOLOv5轻量级网络
的柑橘检测方法[J ]. 计算机工程与应用,2023,59(11):212-221.
GAO Xinyang ,WEI Sheng ,WEN Zhiqing ,et al. Citrus detection method based on improved YOLOv5lightweight network [J ]. Computer Engineering and Applications ,2023,59(11):212-221.
[21]
• 66 •
工矿自动化第 49 卷。