一种基于YOLO算法的智能监控系统
基于YOLOv8的智慧校园安防检测功能

基于YOLOv8的智慧校园安防检测功能
李倩;孙伟;翟剑锟
【期刊名称】《今日自动化》
【年(卷),期】2024()3
【摘要】智慧校园包含园区内设备设施、智能系统、集成平台、大数据技术平台、业务平台、决策和计划平台,应用于园区管理、教学管理、后勤保障、日常办公、
园区安全、文化宣传等方面。
智慧校园包含数字视频监控系统、电子巡更系统、周界防范系统3部分,其中电子巡更系统存在人员排班,无法实现24 h覆盖巡更线路
和非巡更线路的巡检任务,而周界防范系统误报率高,设备故障多,无法实现稳定持续的周界监控功能。
文章采用视频流作为输入媒体,采用先进的识别分类模型,实现电子巡更系统24 h全覆盖业务功能,解决周界防范系统误报率高和人为破坏的缺点,
加强校园周边和重要区域的安防业务功能。
【总页数】3页(P139-141)
【作者】李倩;孙伟;翟剑锟
【作者单位】广西电力职业技术学院;北京中关村智酷双创人才服务股份有限公司【正文语种】中文
【中图分类】TP183
【相关文献】
1.基于ZigBee的高校智慧校园安防监控系统的关键技术研究
2.基于深度学习算法的改进型人脸识别系统实现——以智慧校园安防系统为例
3.基于无人机的安防监
控系统在智慧校园的应用前景与实现4.基于云边端架构的智慧校园安防管控体系构想5.基于物联网的智慧校园安防管理系统的设计与应用--以常德职业技术学院为例
因版权原因,仅展示原文概要,查看原文内容请购买。
《2024年基于YOLOv5和DeepSORT的多目标跟踪算法研究与应用》范文

《基于YOLOv5和DeepSORT的多目标跟踪算法研究与应用》篇一一、引言随着计算机视觉技术的不断发展,多目标跟踪技术已成为众多领域研究的热点。
多目标跟踪算法在智能监控、无人驾驶、行为分析等领域有着广泛的应用。
近年来,基于深度学习的多目标跟踪算法取得了显著的进展,其中,YOLOv5和DeepSORT算法的结合在多目标跟踪领域表现出强大的性能。
本文将介绍基于YOLOv5和DeepSORT的多目标跟踪算法的研究与应用。
二、YOLOv5算法概述YOLO(You Only Look Once)是一种实时目标检测算法,而YOLOv5是该系列中最新的版本。
该算法通过将目标检测任务转化为单次前向传递的回归问题,实现了较高的检测速度和准确率。
YOLOv5采用卷积神经网络(CNN)进行特征提取,通过非极大值抑制(NMS)等后处理技术,实现了对多个目标的准确检测。
三、DeepSORT算法概述DeepSORT是一种基于深度学习的多目标跟踪算法,它通过结合深度学习和SORT(Simple Online and Realtime Tracking)算法,实现了对多个目标的准确跟踪。
DeepSORT利用深度神经网络进行特征提取,并采用匈牙利算法进行数据关联,从而实现了对目标的稳定跟踪。
四、基于YOLOv5和DeepSORT的多目标跟踪算法基于YOLOv5和DeepSORT的多目标跟踪算法将两种算法的优势相结合,实现了对多个目标的实时检测和跟踪。
具体而言,该算法首先利用YOLOv5进行目标检测,得到每个目标的边界框和类别信息;然后,利用DeepSORT进行数据关联和目标跟踪,实现了对多个目标的稳定跟踪。
在特征提取方面,该算法采用深度神经网络进行特征提取,从而提高了对目标的识别能力。
在数据关联方面,该算法采用匈牙利算法进行最优匹配,从而实现了对目标的稳定跟踪。
此外,该算法还采用了级联匹配和轨迹管理等技术,进一步提高了跟踪的准确性和稳定性。
基于yolo算法的智慧车辆监控系统的设计与应用

I. 概述智慧交通系统是目前智能城市建设中的重要组成部分,而智慧车辆监控系统则是其中的重要一环。
基于yolo算法的智慧车辆监控系统通过实时监测和识别车辆及其行为,能够有效提升交通管理的效率和安全水平,为城市交通管理提供了新的可能性。
本文将从系统架构设计、yolo算法原理、系统应用场景等方面进行详细介绍,并探讨其在智慧交通系统中的潜在应用。
II. 系统架构设计1. 数据采集层智慧车辆监控系统的数据采集层包括摄像头、传感器、雷达等设备,通过这些设备可以实时获取路面车辆的信息数据。
2. 数据处理层数据处理层主要通过数据预处理和特征提取等方法,对原始数据进行处理和分析,为后续的车辆识别和行为分析提供支持。
3. 车辆识别层车辆识别层采用yolo算法进行实时车辆检测和识别,能够快速准确地识别路面车辆的类型和位置信息。
4. 数据存储与分析层数据存储与分析层主要对识别出的车辆信息进行存储和分析,并可以根据需要生成相应的报表或分析结果。
III. yolo算法原理yolo(You Only Look Once)算法是一种基于卷积神经网络的目标检测算法,采用单个神经网络直接在全图上预测边界框和类别概率。
相较于传统的目标检测算法,yolo算法能够实现实时高效的目标检测和识别。
1. 网络结构yolo算法的网络结构主要由卷积层、池化层和全连接层组成,其中卷积层用于提取图像特征,池化层用于降低数据维度,全连接层用于进行目标的分类和定位。
2. 目标检测yolo算法通过将整个图像划分为多个网格单元,每个网格单元负责检测图像中的目标,同时预测目标的边界框和类别概率,从而实现对目标的快速检测和识别。
IV. 系统应用场景1. 交通管理智慧车辆监控系统可以通过对路面车辆的监测和识别,实现对交通状况的实时监控和分析,为交通管理部门提供有力的数据支持。
2. 交通安全系统可通过实时监测车辆的行为,及时发现危险驾驶行为,预防交通事故的发生,提升交通安全水平。
一种基于YOLOv4的改进DeepSort目标跟踪算法

桂林电子科技大学学报
Journal of Guilin University of Electronic Technology
Vol.41,No.2 Apr.2021
一种基于 YOLOv4的改进 DeepSort目标跟踪算法
陈紫强,张雅琼
(桂林电子科技大学 信息与通信学院,广西 桂林 541004)
图1 YOLOV4网络结构图Байду номын сангаас
142
桂林电子科技大学学报
2021年4月
1.2 改进 DeepSort目标跟踪算法
DeepSort是 多 目 标 跟 踪 (multiobjecttracking, 简称 MOT)常用的一种算法,在 SORT 的基础上引 入 了 表 观 特 征 ,能 更 好 地 处 理 遮 挡 问 题 。 本 算 法 基 于 YOLOv4目标检测器,通过卡尔曼滤波算法预测 和 更 新 目 标 轨 迹 ,并 利 用 匈 牙 利 算 法 对 预 测 轨 迹 和 当前帧中 的 检 测 结 果 进 行 匹 配。改 进 DeepSort算
Abstract:Toaddresstheproblem ofmisseddetectioninthecaseofweakilluminationandocclusioninvehicledetection, proposedanimprovedDeepSorttrackingalgorithm basedontheYOLOv4algorithm.Firstly,theYOLOv4algorithmis usedtoextractfeaturesfromtheinputimagetoobtainthetargetinformation,thenestimateandupdatethevehicle’strack conditionusingtheKalmanfilteringalgorithm,andfinallythematchingrelationshipbetweenthedetectionframeandthe predictionframeisprocessedusingHungarianmatchingalgorithm.TheGIOUvalueofthedetectionandpredictionresults isusedasmeasurementparametersinsteadofIOU value.ThematchingperformanceofDeepSorttrackingalgorithmis paringtheeffectofvehicledetectionwiththesingledetectionalgorithmandtheoneafteraddingthe trackingalgorithm,theresultsshowthattherearefewermisseddetectionsafteraddingthetrackingalgorithm,thevehicle detectioneffectisimproved,andtherobustisenhanced,andtheMOTAisincreasedby7.55%,provingtheeffectivenessof theimprovedmethod. Keywords:vehicledetectionandtracking;YOLOv4;DeepSort;generalizedintersectionoverunion(GIOU);Hungarian
基于YOLOv5和DeepSORT的多目标跟踪算法研究与应用

基于YOLOv5和DeepSORT的多目标跟踪算法研究与应用一、本文概述随着计算机视觉技术的飞速发展,多目标跟踪(Multi-Object Tracking, MOT)作为其中的一项关键技术,已广泛应用于智能监控、自动驾驶、人机交互等领域。
本文旨在研究基于YOLOv5(You Only Look Once version 5)和DeepSORT(Deep Simple Online and Realtime Tracking)的多目标跟踪算法,并探讨其在实际应用中的性能表现。
本文将对YOLOv5算法进行详细介绍。
作为一种先进的实时目标检测算法,YOLOv5凭借其高效的速度和优异的检测性能,在众多目标检测算法中脱颖而出。
本文将对YOLOv5的基本原理、网络结构、训练过程等进行深入剖析,为后续的多目标跟踪算法研究奠定基础。
本文将重点研究DeepSORT算法在多目标跟踪中的应用。
DeepSORT算法结合了深度学习和SORT(Simple Online and Realtime Tracking)算法的优点,通过提取目标的深度特征并进行数据关联,实现了对多个目标的准确跟踪。
本文将详细介绍DeepSORT算法的实现过程,包括特征提取、目标匹配、轨迹管理等关键步骤,并分析其在实际应用中的优势与不足。
本文将探讨基于YOLOv5和DeepSORT的多目标跟踪算法在实际应用中的性能表现。
通过设计实验,对比不同算法在不同场景下的跟踪效果,评估所提算法在准确性、鲁棒性、实时性等方面的性能。
本文将结合具体的应用场景,对所提算法进行实际应用案例分析,展示其在智能监控、自动驾驶等领域的应用潜力。
本文旨在深入研究基于YOLOv5和DeepSORT的多目标跟踪算法,通过理论分析和实验验证,评估其在实际应用中的性能表现,为推动多目标跟踪技术的发展和应用提供有益的参考。
二、YOLOv5目标检测算法介绍YOLOv5,全称为You Only Look Once version 5,是一种先进的实时目标检测算法。
智能视频监控系统中改进YOLO算法的实现

智能视频监控系统中改进YOLO算法的实现刘㊀君ꎬ谢颖华(东华大学信息科学与技术学院ꎬ上海201620)摘㊀要:智能视频监控主要采用了人工智能㊁图像处理等先进技术对监控摄像头获得的图像进行分析和处理ꎬ在各行各业中得到了广泛的应用ꎬ成为当今社会研究的热点ꎮ介绍了智能视频监控系统的架构ꎬ针对数字化车间的特点ꎬ提出一套基于深度学习的检测方法ꎬ将YOLO检测算法用于数字化车间中人员和安全帽的检测ꎮ为了提高YOLO算法检测小物体的能力ꎬ设计了一种改进的YOLO网络结构ꎬ将RPN检测算法融入到YOLO算法中ꎬ并借鉴R ̄FCN算法ꎬ去掉一个全连接层ꎬ在卷积层上进行滑动窗口操作ꎬ采用先池化再卷积的方法ꎬ以减少图片特征丢失ꎮ将改进后的算法用于视频监控中ꎬ有效地减少了检测过程中图片特征的丢失ꎬ系统检测的实时性和准确率均满足实际工程的需求ꎬ实现了车间的智能检测ꎮ关键词:智能视频监控ꎻ深度学习ꎻYOLOꎻ数字化车间中图分类号:TP39㊀㊀㊀㊀㊀㊀文献标识码:A㊀㊀㊀㊀㊀㊀DOI:10.19358/j.issn.2096 ̄5133.2019.04.022引用格式:刘君ꎬ谢颖华.智能视频监控系统中改进YOLO算法的实现[J].信息技术与网络安全ꎬ2019ꎬ38(4):102 ̄106.ImplementationofanimprovedYOLOalgorithmforintelligentvideosurveillancesystemLiuJunꎬXieYinghua(SchoolofInformationScienceandTechnologyꎬDonghuaUniversityꎬShanghai201620ꎬChina)Abstract:Intelligentvideosurveillancemainlyusesartificialintelligenceandimageprocessingtechnologiestoanalyzeanddealwiththeimagesobtainedbysurveillancecameras.Intelligentvideosurveillancehasbeenwidelyusedinvariousindustriesanditisahottopicnowadays.Thispaperintroducesthearchitectureofintelligentvideosurveillancesystemandproposesasetofdetectionmethodsbasedondeeplearningforthecharacteristicsofdigitalworkshop.AndthispaperappliesYOLOalgorithmtothedetectionofpersonandhelmetintheworkshop.InordertoimprovetheabilityofYOLOalgorithmtodetectsmallobjectsandreducethelossofpicturefeaturesduringdetectionꎬweintegratetheRPNde ̄tectionalgorithmsintoYOLOalgorithmanddesignanimprovedYOLOnetworkstructure.ThisstructureremovesafullyconnectedlayerlearningfromR ̄FCNalgorithmandperformsaslidingwindowoperationontheconvolutionallayerdirectlyusingpoolinglayerfirstlyandconvolutionlat ̄ertoreducepicturefeatureloss.Usingtheimprovedalgorithmstothevideosurveillancerealizestheintelligentdetectionoftheworkshop.Andboththereal ̄timeperformanceanddetectionaccuracyofthesystemcanmeettheneedsofpracticalengineering.Keywords:intelligentvideosurveillanceꎻdeeplearningꎻYOLOꎻdigitalworkshop0㊀引言智能视频是一项安全监控的手段ꎬ是当今社会研究的热点[1]ꎮ传统的视频监控仅提供视频捕获㊁存储和回放功能ꎬ智能视频监控系统可以起到报警预警㊁实时监控的作用ꎮ智能视频监控的最显著特点为在视频分析中应用了计算机视觉算法[2]ꎮ新一代的数字化车间智能视频监控系统ꎬ不同于传统监控硬件架构ꎬ硬件上采取了最新研发的边缘计算摄像机和深度学习计算服务器ꎬ不仅嵌入了常规单个摄像头智能监控功能ꎬ还能实现多个摄像头之间的联动以达到覆盖范围更广泛的效果[3]ꎮ通过不断优化的深度学习算法ꎬ系统串联起多个摄像头ꎬ记录整个车间人员的行为轨迹[4]本文设计的智能视频监控系统可以实现车间内工作人员安全帽的佩戴检查㊁外来人员的定位跟踪等智能视频监控功能ꎬ可以在很大程度上节约人工检查的人力和时间成本ꎬ有效降低事故发生的风险ꎬ节约生产成本ꎮ1㊀系统总体架构及工作原理1.1㊀总体架构智能视频监控系统主要功能为:远程监控㊁自动报警㊁智能监控[4]ꎮ系统可以自动实现监控功能ꎻ出现异常情况时ꎬ自动报警ꎬ工作人员可以通过手机端或PC端随时接收报警信息ꎮ智能视频监控系统总体架构由数据采集端㊁数据处理单元㊁报警输出端三层构成ꎮ数据采集端可以支持不同视频流输入ꎬ包括监控专网下的海康威视球机㊁枪机㊁半球机以及门禁系统中的抓拍机等ꎬ可以连接多个摄像头ꎬ实时监控车间场景ꎻ数据处理单元由GPU㊁服务器㊁智能监控软件HES构成ꎮGPU可以实现视频监控的智能化ꎬ分析多帧视频的监控情况ꎬ进行异常画面的捕捉和分析ꎬ并进行推送ꎻ服务器将做分布式处理ꎬ其硬盘为磁盘阵列ꎬ以便后续扩展ꎻ智能视频监控软件采用B/S架构ꎬ可利用网页和客户端软件发布监控信息ꎬ充分利用QT对实时监控的优化嵌入ꎻ报警输出端可以及时将报警信息推送给客户端[4]ꎮ1.2㊀系统工作原理智能视频监控技术的核心在于对视频中运动目标进行自动检测㊁提取特征㊁识别和行为分析[5]ꎮ智能视频监控系统可以实现多摄像头联动工作ꎬ四种摄像头分别为全局摄像头㊁人脸摄像头㊁行为摄像头㊁跟踪摄像头ꎮ该系统包括5个模块ꎬ分别为图像获取模块㊁图像预处理模块㊁数据压缩编码处理模块㊁图像分析模块以及图像理解模块[6]ꎮ图像采集模块主要用于获得四种摄像头拍摄的图像ꎻ图像预处理模块可以减少光照等因素的影响ꎬ提高图片质量ꎻ数据压缩编码处理模块用来融合多源图像信息ꎻ图像分析模块主要对图像中的目标进行检测跟踪ꎻ图像理解模块主要是研究图像中不同对象的性质以及它们之间的关系[7]ꎮ图1所示为系统工作原理图ꎮ图1㊀系统工作原理图2㊀YOLO算法及其改进2.1㊀YOLO算法YOLO(YouOnlyLookOnce)实时目标检测算法由JosephRedmon等于2016年5月提出[7]ꎮ该算法可同时预测目标物体的位置和类别ꎬ采用端到端的检测方法ꎬ检测速度快ꎮ本文中智能视频监控系统采用了YOLO是一种基于深度学习卷积神经网络的目标检测模型ꎮ卷积神经网络主要利用卷积层对输入的图片进行卷积运算ꎬ进而降低图片数据的维度ꎬ进行特征提取[8]ꎮ图2所示为深度卷积神经网络的构成ꎮ图2㊀深度卷积神经网络的构成YOLO检测具体实现过程如下:将图片分为SˑS个网格ꎬ当目标物体中心落在某一个格子时ꎬ该格子就负责预测目标物体ꎮ如图3所示ꎮ图3㊀网格图每个格子会预测B个边界框(boundingbox)以及边界框的置信度(confidencescore)ꎮ其中包括边界框的中心坐标(xꎬy)ꎬ边界框的长宽w㊁hꎬ以及边界框的准确度ꎮ置信度表示格子内是否有检测物体ꎬ定义置信度为:Pr(Object)ˑIOUtruthpred(1)其中ꎬIOU表示交集与并集的比值ꎬ为系统预测出来的边界框与物体实际的边界框的重合程度ꎮ若格子内存在目标物体ꎬ则Pr(Object)=1ꎬ置信度为IOUtruthpredꎻ若格子内不存在目标物体ꎬ则Pr(Object)=0ꎬ置信度为0ꎮ每个格子在输出边界框的同时还要输出各个网格存在物体所属分类的概率ꎬ记为:Pr(Classi|Object)(2)按照以下公式可以计算整张图片中ꎬ各个格子物体类别的概率:Pr(Classi|Object)ˑPr(Object)ˑIOUtruthpred=Pr(Classi)ˑIOUtruthpred(3)设定合适的概率阈值ꎬ高于概率阈值的就是识别出来的目标分类ꎬ利用非极大值抑制的方法ꎬ去掉概率较低的边界框ꎬ输出概率最高的边界框作为最后的预测结果ꎮ所以每个网格输出Bˑ(4+1)+C个预测值ꎬ卷积神经网络输出一个维度为SˑSˑ(Bˑ5+C)的固定张量ꎮS为划分网格数量ꎬB为每个网格预测的边界框数ꎬC为每个网格预测的物体类别个数ꎮYOLO的网络结构包括24个卷积层㊁4个池化层ꎬ以及2个全连接层ꎬ如图4所示ꎮ其中卷积层提取图像特征ꎬ全连接层预测目标物体位置以及物体类别概率ꎬ池化层负责压缩图片像素ꎬ利用Softmax回归分析输出目标类别概率ꎮ图4㊀YOLO网络结构图YOLO的损失函数计算公式为:λcoordðS2i=0ðBj=0Ιobjij[(xi-x^i)2+(yi-y^i)2]+λcoordðS2i=0ðBj=0Ιobjij[(wi-w^i)2+(hi-h^i)2]+ðS2i=0ðBj=0Ιobjij(ci-c^i)2+λnoobjðS2i=0ðBj=0Ιnoobjij(ci-c^i)2+ðS2i=0Ιobjiðcɪclasses(pi(c)-p^i(c))2(4)式(4)由3部分组成ꎬ第一部分为前两行ꎬ表示边界框的损失函数ꎻ第二部分为第三行ꎬ表示置信度损失函数ꎻ第三部分为最后一行ꎬ表示分类损失函数ꎮIobjij表示单元格i中第j个边界框负责检测目标物体ꎬ该边界框与物体实际的边界框交并比最大ꎻ(xiꎬyi)表示单元格i预测的边界框的中心点坐标ꎬ(x^iꎬy^i)表示目标物体实际边界框的中心点坐标ꎻwi表示单元格i预测的边界框的宽度ꎬw^i表示目标物体实际边界框的宽度ꎻhi表示单元格i预测的边界框的高度ꎬh^i表示目标物体实际边界框的高度ꎻInoobjij表示单元格i预测的第j个边界框未检测到目标物体ꎻci表示预测的边界框中单元格i的置信度ꎬc^i表示实际的边界框中单元格i的置信度ꎻΙobji表示单元格i中是否出现目标物体ꎻpi(c)和p^i(c)分别表示预测的和真实的边界框中单元格i中包含第c类对象的条件概率ꎮ因为一个单元格只负责预测一个物体ꎬ当多个物体的中心落在同一个格子中时ꎬ该格子很难区分物体类别ꎬ因此对于距离较近的物体识别效果不佳[9]ꎻ在图像预处理阶段ꎬ训练集图片经过卷积层后由高分辨率压缩为低分辨率ꎬ用于分类特征提取ꎬ在压缩过程中ꎬ图片中小物体的特征将很难保存ꎮ应用在车间中时ꎬ安全帽相对来说是较小的目标ꎬ当工作人员较近ꎬ或安全帽重叠时ꎬ识别效果较差ꎮ2.2㊀改进后的网络结构为了能够准确快速检测车间工作人员以及其佩带的工作帽子ꎬ需要提高YOLO算法检测小物体的能力ꎮ本文将目标检测方法RPN融入到YOLO算法中ꎬ并借鉴R ̄FCN方法设计了一种新型卷积神经网络结构ꎬ该网络结构中采用先池化再卷积的特征提取模式减少信息的丢失ꎬ将原先的两个全连接层变为一个ꎬ进而形成了一种具有较好的小目标检测能力的改进的YOLO算法[10]ꎮ最邻近的目标检测算法RPN(RegionProposalNet ̄works)的显著特点为利用滑动窗口提取特征[8]ꎮ神经网络对输入的图片进行卷积和池化操作ꎬ在最后的卷积层中ꎬ利用滑动窗口提取图片特征ꎬ输出图片的特征向量ꎬ利用softmax输出物体分类和边框回归ꎮ该算法对于单一目标检测速度快ꎬ准确率较高ꎮ全卷积神经网络R ̄FCN由卷积层和池化层组成ꎬ没有全连接层ꎬ具有良好的全局检测效果ꎬ可以保留更多的图像信息ꎬ因此本文中改进的网络结构借鉴R ̄FCN结构移除一个全连接层ꎬ只保留一个全连接层ꎬ以减少特征信息的丢失[9]ꎮ改进后的网络结构包含18个卷积层㊁6个池化层㊁1个全连接层与1个softmax输出层ꎮ其中卷积层用来提取图像特征ꎬ池化层用来压缩图片像素ꎮ如图5所示为改进后的网络结构ꎮ图5㊀改进后的网络结构输入图片后先采用2∗2最大池化层缩小图片尺寸ꎬ再进入卷积层ꎬ这样可以尽量保留图片的特征ꎻ图片经过多层卷积与池化后ꎬ输出的网格由7∗7变为14∗14ꎬ检测范围变广ꎮ图6为不同网格尺寸目标检测效果对比ꎬ7∗7网格只能检测到一个工作人员和一个安全帽ꎬ而改进后14∗14的网格可以检测到两个工作人员和一个安全帽ꎮ因此这种扩大了输出图片网格尺寸的结构具有更好的检测小目标的能力ꎮ图6㊀网格对比图2.3㊀改进后的算法流程将输入的图片集用图片打标工具labelImg打标ꎬ将图片中的人和安全帽标注出来ꎬ获得目标物体的真实坐标ꎬ制作数据集的标签ꎬ生成xml文件ꎻ之后进行图片预处理ꎬ运用基于RPN的滑动窗口算法获得每张图片的若干个目标边界框的矩阵向量ꎻ矩阵向量进入之后的神经网络进行卷积池化操作ꎻ之后输入全连接层ꎬ最后利用softmax分类函数ꎬ输出目标物体的类别ꎮ具体流程如图7所示ꎮ图7㊀改进后的算法流程3㊀实验分析基于卷积神经网络的目标检测方法需要从大量的样本中学习待检测物体的特征ꎮ本文采用的数据集为车间中四种摄像头采集到的图像数据集ꎬ四个摄像头各取1万张图片ꎬ每个图片的大小为500ˑ500ꎬ使用图片打标工具labelImg对数据集进行打标ꎮ数据集的40%作为训练集ꎬ10%用于验证ꎬ50%作为测试集ꎮ训练过程采用小批量梯度下降法和冲量ꎬ这样可以使训练过程更快收敛[11]ꎮ运用反向传播法使参数不断更新ꎬ直至损失函数收敛ꎮ网络训练参数设置:学习批次64ꎬ学习率0.001ꎬ冲量常数0.9ꎬ权值衰减系数0.0005ꎮ本文实验环境为:设备型号:DELLPowerEdge ̄R740ꎻCPU:Intel(R)Xeon(R)Silver4114CPU@2.20GHzꎻ内核版本:Linuxversion4.15.0 ̄32 ̄genericꎻ系统版本:Ubuntu16.04.03LTSꎻ内存:32GBꎻGPU:NVIDIAGe ̄ForceGTX1080TiꎻCUDA版本:9.0ꎻcuDNN版本:7.4.2ꎮ设置对照实验ꎬ使用Keras框架分别利用YOLO与改进YOLO进行检测ꎬ统计对象为工作人员与安全帽ꎮ本文选取召回率㊁准确率和检测速度作为算法性能衡量指标ꎮ两种算法召回率㊁准确率与检测速度对比如表1㊁表2ꎮ表1㊀工作人员检测对比结果表检测算法召回率/%准确率/%平均每帧处理时间/msYOLO88.3294.7422.421改进YOLO89.8695.2321.357表2㊀安全帽检测对比结果表检测算法召回率/%准确率/%平均每帧处理时间/msYOLO83.5788.8522.411改进YOLO87.9193.4220.659由实验结果看出ꎬ改进后的检测算法在召回率㊁准确率㊁快速性方面较原算法有所优化ꎮ尽管原算法检测速度较快ꎬ但是改进后速度也有了小幅度提高ꎬ可以更好地满足生产需求ꎻ在工作人员检测上ꎬ由于工作人员目标较大ꎬ故检测的召回率和准确率提高幅度较小ꎻ在安全帽检测上ꎬ召回率由83.57%提高到87.91%ꎬ准确率由88.85%提高到93.42%ꎬ有比较明显的优化ꎬ证明改进后的算法检测小物体的能力有了一定提高ꎮ4㊀结束语为了提高视频监控系统检测小物体的能力以及检测速度ꎬ更高效地实现车间监控ꎬ减少人力检查成本ꎬ本文提出了改进后的YOLO算法ꎬ将RPN算法与YO ̄LO算法相结合ꎬ借鉴R ̄FCN算法去掉一个全连接层ꎬ构成一种新的网络结构ꎬ更多地保留了图像特征ꎬ提高了检测小物体的能力ꎬ也提高了系统的综合检测能力ꎮ该算法应用于数字化车间智能视频监控系统中ꎬ具有较快的检测速度和较高的检测准确率ꎬ满足实时性要求ꎬ具有一定的应用价值ꎮ参考文献[1]刘佳.智能视频监控系统发展及应用研究[J].电子测试ꎬ2018(2):69ꎬ72.[2]TANAKAMꎬHORIUCHITꎬTOMINAGAS.ColorcontrolofalightingsystemusingRGBWLEDs[C].InternationalSocietyforOpticsandPhotonicsꎬ2011.[3]罗聪.基于人脸检测YOLO算法的专用型卷积神经网络推理加速器的研究与设计[D].广州:华南理工大学ꎬ2018. [4]王显龙ꎬ方明.一种智能视频监控系统架构方案设计[J].长春理工大学学报(自然科学版)ꎬ2018ꎬ41(1):123 ̄126. [5]朱明凌.面向智能视频监控系统的运动目标检测与异常行为分析[D].杭州:中国计量学院ꎬ2015.[6]康彬.面向智能监控的目标检测㊁追踪及图像融合算法研究[D].南京:南京邮电大学ꎬ2015.[7]REDMONJꎬDIVVALASꎬGIRSHICKRꎬetal.YouOnlyLookOnce:unifiedꎬreal ̄timeobjectdetection[C].ProceedingsoftheComputerVision&PatternRecognitionꎬ2016:779 ̄788.[8]RENSꎬHEKꎬGIRSHICKRꎬetal.FasterR ̄CNN:towardsreal ̄timeobjectdetectionwithregionproposalnetworks[C].Pro ̄ceedingsoftheInternationalConferenceonNeuralInformationProcessingSystemsꎬ2015:91 ̄99.[9]DAIJꎬYILꎬHEKꎬetal.R ̄FCN:objectdetectionviaregion ̄basedfullyconvolutionalNetworks[J].arXiv:160506409v2ꎬ2016.[10]杨观赐ꎬ杨静ꎬ苏志东ꎬ等.改进的YOLO特征提取算法及其在服务机器人隐私情境检测中的应用[J].自动化学报ꎬ2018ꎬ44(12):2238 ̄2249.[11]王宇宁ꎬ庞智恒ꎬ袁德明.基于YOLO算法的车辆实时检测[J].武汉理工大学学报ꎬ2016ꎬ38(10):41 ̄46.(收稿日期:2019 ̄02 ̄27)作者简介:刘君(1993-)ꎬ女ꎬ硕士研究生ꎬ主要研究方向:深度学习㊁目标检测ꎮ谢颖华(1972-)ꎬ女ꎬ硕士ꎬ副教授ꎬ主要研究方向:大数据㊁数据挖掘等ꎮ。
基于改进的Yolov8商业渔船电子监控数据中鱼类的检测与识别

基于改进的Yolov8商业渔船电子监控数据中鱼类的检测与识别一、本文概述随着全球渔业资源的日益紧张,商业渔船的监管和资源保护变得尤为重要。
电子监控作为一种高效、实时的监管手段,正逐渐成为渔业管理的关键技术。
传统的电子监控数据分析主要依赖于人工审核,效率低下且易受主观因素影响。
开发一种自动化的鱼类检测与识别系统对于提高监管效率和保护渔业资源具有重要意义。
本文提出了一种基于改进的Yolov8算法的商业渔船电子监控数据中鱼类的检测与识别方法。
我们对Yolov8算法进行了改进,以适应复杂多变的海洋环境和渔船监控视频的特点。
改进包括网络结构的优化、损失函数的调整以及数据增强策略的应用。
我们构建了一个大规模的商业渔船监控视频数据集,用于模型的训练和测试。
数据集涵盖了多种海洋环境和鱼类种类,提高了模型的泛化能力。
实验结果表明,我们的方法在商业渔船电子监控数据中鱼类的检测与识别方面表现出色,显著提高了识别的准确率和效率。
本文的方法还具有较强的鲁棒性,能够适应不同的海洋环境和鱼类种类。
本研究的成功为商业渔船的电子监控数据分析提供了新的思路,有望为渔业资源的保护和管理提供有力支持。
二、商业渔船电子监控数据的概述随着现代渔业管理对可持续性和资源保护要求的不断提升,商业渔船已广泛采用先进的电子监控系统(Electronic Monitoring, EM)来替代或补充传统的船上观察员制度。
这些系统集成了多种传感器设备和视频记录技术,实时捕获并传输渔船作业过程中的丰富数据,为精确评估捕捞活动、保障海洋生物多样性及合规性监控提供了有力支持。
本节旨在对商业渔船电子监控数据进行概述,揭示其核心组成部分、采集方式以及在鱼类检测与识别中的关键作用。
船载摄像头:安置于渔船的关键作业区域,如甲板、渔获处理区、放网与收网处等,全天候记录高清晰度视频,直观展现捕捞操作、渔获种类与数量、尺寸分布等关键信息。
GPS定位系统:持续追踪渔船地理位置,确保捕捞活动发生在合法渔区,并记录渔船航行轨迹,用于分析捕捞行为的空间分布与时间模式。
一种多摄像头车辆实时跟踪系统

第14期2023年7月无线互联科技Wireless Internet TechnologyNo.14July,2023作者简介:崔瑞(1997 ),男,山东德州人,硕士研究生;研究方向:计算机科学技术㊂∗通信作者:贾子彦(1981 ),男,山西太原人,副教授,博士;研究方向:计算机科学,物联网㊂一种多摄像头车辆实时跟踪系统崔㊀瑞,贾子彦∗(江苏理工学院,江苏常州213000)摘要:随着城市人口的增加,越来越多的车辆使得城市的交通状况越来越复杂㊂针对传统的车辆检测中出现的跟踪车辆易丢失㊁跟踪精度低等问题,文章提出一种基于多摄像头的车辆实时跟踪检测方法,从多角度对运动车辆进行跟踪㊂在分析YOLOv5算法的基础结构后,文章针对车辆尺度变化大的特点,充分利用YOLOv5算法检测轻量化㊁速度快㊁实时性强的性质,并在此基础上利用多个摄像头之间的单应性矩阵来确定车辆位置的变化㊂结合颜色特征识别和车辆特征识别对车辆进行重识别,不仅提高了运行速度,而且满足了实时性和准确性的要求,有效解决跟踪车辆易丢失的问题,获得了较为成功的车辆实时跟踪效果㊂关键词:多摄像头;YOLOv5;单应性矩阵;特征识别中图分类号:TP391㊀㊀文献标志码:A0㊀引言㊀㊀随着城市现代化㊁智慧化进程不断加快,城市车辆的使用也越来越普遍,监控摄像随处可见㊂与此同时,车辆的系统管理正在向智能化过渡㊂多摄像头环境下的目标车辆的检测和跟踪已经日益引起高度重视,成为当下的研究热点㊂目前,智能视频监控主要有两大关键技术:一是对运动目标的识别跟踪;二是对目标行为的定义[1-2]㊂多摄像头车辆识别与跟踪是现代智能交通系统中研究的重点内容㊂在多摄像头的切换过程中,可能出现因目标车辆的外形检测发生变化导致错检㊁漏检的情况㊂尤其是在十字路口等事故高发地点,监控视频背景复杂㊁目标车辆遮挡等问题也对识别跟踪的准确度及误检率提出了巨大的挑战[3-4]㊂对于同一车辆在多摄像头重叠监控区域下的定位,不仅是区别于单一摄像头车辆的识别与定位,而且也是多个摄像头车辆的识别与定位的难点所在㊂对于同一车辆的识别既包括对同一车辆在不同摄像头监控区域下的匹配确定[5],同时也包括对车辆出现被遮挡状态时的判断,通过对车辆的行驶状态和被遮挡情况的分析判断,完成同一车辆在不同监控区域下的连续识别与跟踪㊂针对上述问题,本文提出一种多摄像头车辆实时跟踪系统㊂该方法首先采用车辆检测算法进行车辆的识别,同时结合多个摄像头之间的单应性矩阵来确定多个摄像头重叠区域下同一车辆的位置,然后结合HSV 颜色空间和车辆特征来进行车辆的匹配,提高车辆的识别匹配精度,最后将特征识别和全卷积网络的跟踪算法结合起来,实现多角度对车辆的实时跟踪㊂本文的应用场景以十字路口为主㊂本文提出的车辆跟踪流程如图1所示㊂图1㊀车辆跟踪流程1 多摄像头车辆识别与定位1.1㊀车辆检测模型㊀㊀YOLO算法系列在车辆检测方面有着非常显著的识别能力㊂近些年来,随着科技的发展和变迁, YOLO算法系列不断地更新换代,而YOLO系列近几年最新推出的YOLOv5模型则是更加适合当代工程和实际应用的需求㊂目前,YOLOv5算法有4个不同的版本,每个版本之间的网络结构有些许的差别[6]㊂本文采用的YOLOv5s算法是4个版本中网络最小的版本,主要以检测像车辆等之类的大目标为主㊂相对于其他的版本,YOLOv5s的检测速度快,识别准确度比其他算法高,非常适合在嵌入式设备中应用㊂本文对出现在交通视频中的各种交通车辆进行检测,选择YOLOv5s 结构进行研究㊂YOLOv5s网络主要有3个组成部分㊂(1)Backbone:提取特征的主干网络,主要用来提取图片中的信息以供后面的网络使用㊂常用的Backbone有resnet系列(resnet的各种变体)㊁NAS网络系列(RegNet)㊁Mobilenet系列㊁Darknet系列㊁HRNet系列㊁Transformer系列和ConvNeXt㊂主要结构包括focus㊁conv㊁bottle-neckcsp和空间金字塔层㊂(2)Neck(空间金字塔池化):它是通过将图像特征进行糅合并重新组合成一个新的网络结构,将提取到的图像特征传递到预测层㊂(3)Head:主要是针对图像的特征进行预测,然后生成检测框并且预测其类别㊂本文的车辆检测方案使用改进后的YOLOv5s检测算法对车辆数据集进行训练,并引入CA注意力机制,用改进后的检测模型对相关的车辆数据集进行测试,经过实验验证提高了检测精度,更好地完成车辆检测目标㊂1.2㊀多摄像头空间模型的确立㊀㊀单应性矩阵能够将十字路口4个摄像头之间的相互关系形象生动地表达出来,通过将拍摄到的同一车辆不同角度的图片进行像素坐标之间的变换,能够实现车辆在不同监控角度下的像素位置的转换,从而实现同一车辆在不同监控视角下的车辆位置的定位㊂在通常情况下,单应性矩阵一般采用人工标定的方法来进行特征点之间的匹配,但是由于人工标定会产生一定的误差,导致得出的单应性矩阵也存在一定的误差㊂因此,鉴于这一问题,本文采用精确的棋盘格来求取匹配点,结合张正友棋盘标定的方法,求取相对准确的单应性矩阵㊂首先,打印一张8ˑ8的黑白相间的棋盘方格;其次,将打印好的棋盘格放置在十字路口的中间,用4个方向的摄像头对其进行拍摄;然后,对4个视角下的棋盘格图片进行特征点的检测;最后,根据棋盘格中获取的匹配点求取4个摄像头之间的单应性矩阵㊂通过模拟十字路口4个摄像头同时对视野区域内的棋盘格上特征点求取单应性矩阵,对同一标定点在4个摄像头之间的空间位置进行定位㊂本文根据实际十字路口的环境,按照一定的比例搭建了十字路口的实际模型进行研究㊂本文采用UA-detrac车辆检测数据集与自建数据集进行三维空间模型构建,求取单应性矩阵㊂在自建数据库中,在模型上放置标记物进行标记,按照东西南北4个方向分别标定为1㊁2㊁3㊁4号摄像头,同时以第3摄像头为基准,分别求取1㊁2㊁4号摄像头与该摄像头的转换矩阵H13㊁H23㊁H43㊂自建数据库的标定如图2所示,红圈表示选取的特征匹配点㊂图2㊀人工标定图其他视角到该视角的转换矩阵为:H13=0.00020.00140.0025-0.00140.00840.0011-0.00120.00040.0001éëêêêùûúúúH23=0.0015-0.00230.0028-0.00430.00550.0012-0.0020-0.00280.0010éëêêêùûúúúH43=-0.00580.00140.0063-0.00940.00660.0066-0.001000.0010éëêêêùûúúú经过本文实验证明,与人为标定特征点求取单应性矩阵的方法相比,用棋盘标定通过特征点之间的匹配进行单应性矩阵的求取精度会更高,这是由于相对于人工标定,采用棋盘标定的方法,匹配点的数量更多,相互之间匹配点的位置关系会更加准确,减少了人为标定方法产生的误差,同时还提高了求取单应性矩阵的准确性㊂1.3㊀车辆颜色特征匹配㊀㊀车辆的颜色特征能够更加直观地反映车辆的外部整体信息,通常采用RGB颜色空间与HSV颜色空间来提取车辆的颜色特征㊂RGB 颜色空间和HSV 两个颜色空间虽然都是用来表示图像的颜色特性㊂相比而言,RGB 颜色空间获取车辆的颜色特征更加准确㊂HSV 颜色空间更容易被人眼所接受,从而更方便人们观察㊂因此,本文首先通过RGB 颜色空间获取车辆的全局外观颜色特征,之后再转换到HSV 颜色空间进行颜色特征的量化,车辆的颜色特征可以直观地反映车辆的全区信息,由于HSV 颜色空间可以对颜色空间进行量化,降低颜色空间的特征维数,从而减少提取匹配的计算量,提高算法的运算效率㊂HSV 颜色空间具有自然性,与人类的视觉神经感知接近,反映了人类对于色彩的观察,同时有助于查找图像㊂由此分析,本文采用了基于HSV 颜色空间模型对车辆的全局外观进行颜色提取㊂通常来说,拍摄到的车辆图像基本都是以RGB 的方式保存㊂图像从RGB 颜色空间转换到HSV 空间㊂RGB 颜色空间将图片进行R㊁G㊁B 的3种通道的划分,设(r ,g ,b )分别是一个颜色的红㊁绿和蓝颜色的坐标,他们的值是0~1的实数,令max 等于r ㊁g ㊁b 3个分量中的最大值,min 等于r ㊁g ㊁b 3个分量中的最小值,则从RGB 颜色空间到HSV 颜色空间的变换过程可用如下公式来表示:h =00if max =min 600ˑg -b max -min +00,if max =r and g ȡb 600ˑg -b max -min+3600,if max =r and g <b 600ˑg -b max -min +1200,if max =g 600ˑg -b max -min +2400,if max =b ìîíïïïïïïïïïïïïs =0,if max =0max -min max =1-minmax,otherwise{ν=max输入的车辆图片的颜色特征通常用颜色直方图来表示,它的算法简单,速度较快㊂它具有尺度平㊁平移和旋转不变形的特征,在特征提取㊁图像分类方面有着非常好的应用㊂本文通过HSV 颜色空间对多组相同车型不同颜色和相同颜色不同车型的车辆分组图片进行颜色特征的提取和匹配㊂本研究对UA -detrac 车辆检测数据集和自建模型拍摄的多角度下不同颜色的车辆进行颜色特征提取,并计算其颜色相似度㊂对比结果如表1所示㊂表1㊀颜色特征相似程度对比结果测试数据颜色特征相似度第一组红色车辆车辆1-车辆20.975车辆1-车辆30.964车辆1-车辆40.834车辆1-车辆50.435第二组蓝色车辆车辆1-车辆20.954车辆1-车辆30.963车辆1-车辆40.945车辆1-车辆50.364第三组橙色车辆车辆1-车辆20.986车辆1-车辆30.963车辆1-车辆40.895车辆1-车辆50.382通过表1的颜色特征相似度的结果可以看出,颜色特征相似度越大,表示两辆车之间的相似程度越高㊂相同的一辆车在4个方向下的相似度的范围均在0.8以上,颜色相似的两辆车之间的相似度均在0.8以下㊂颜色不同但是车型相同的两辆车之间的相似度均在0.6以下㊂由此可知,颜色特征可以用来区分车型相同或相似但颜色差别大的车辆㊂同一辆车在不同摄像头的监控视野内由于拍摄角度的问题会出现导致同一辆车的颜色特征存在一定的差异的情况发生㊂若是直接将相似度设置为0.8可能会存在在不同的监控角度下,同一车辆被漏检的情况㊂若阈值设置得过低又可能误检一些颜色相近的车辆㊂只是颜色特征识别并不能满足不同角度下车辆的匹配,存在一定的缺陷,因此还需要通过局部特征的匹配来提高匹配的精度㊂1.4㊀SURF 特征匹配㊀㊀鉴于颜色特征能针对局部特征对于颜色信息不区分这一缺点进行补充,而SURF 的特点是具备光线照射㊁角度的调整以及尺寸不变性,速度比较快而且相对比较稳定㊂由于仅是局部特征或者仅是全局特征很容易发生在多摄像头切换角度时出现跟踪错误的信息,从而导致跟踪失败㊂因此,本文将全局特征和局部特征结合起来,从而提高匹配的准确性㊂相对而言,SURF 特征提取的数量虽然比SIFT 特征提取少很多,但还是存在错误匹配的情况㊂因此,本文根据SURF 的算法特性,特征匹配点之间的欧式距离越近,相似度越高,匹配得越准确㊂对匹配点之间的欧氏距离进行筛选,选择合适的阈值,对欧式距离进行排序,从而选出最优的SURF 特征匹配点,减少匹配的误差,降低错误匹配的概率㊂2 融合多特征与全卷积孪生网络的跟踪算法㊀㊀因为在多摄像头切换角度时对同类型的车辆误检㊁漏检的情况时有发生,所以本文对全卷积孪生网络跟踪算法中的图像特征向量相似度与多特征融合进行改进,并引入注意力通道机制网络结构,针对错检㊁漏检的情况进行改进,提升准确度㊂使用上述提到的HSV颜色特征提取和SURF特征作为匹配的特征,与全卷积孪生网络跟踪模型计算的相似度进行结合,即使在发生目标车辆部分遮挡的情况下,在切换到另一角度的摄像头时仍然能对同一车辆继续进行定位跟踪㊂在出现完全遮挡的情况或者在多摄像头角度切换后,目标车辆短时间内未再次出现的情况下仍然继续工作,在等待目标车辆再次出现时,继续对目标车辆进行定位检测与跟踪,以保证目标车辆的持续跟踪㊂跟踪模块首先利用全卷积网络训练的跟踪模型提取目标车辆图片,通过提取检测车辆图像的特征向量,计算目标车辆与待检测车辆之间的相似度,然后通过HSV颜色空间得出车辆的全局特征的相似度,最后对SURF特征进行车辆的局部特征匹配,过滤掉错误的匹配点,提高准确度,因为SURF特征点之间的距离长短表示特征点之间匹配值的高低,所以在所有检测到的车辆中选择特征点之间距离最短的也就是匹配值最小的目标车辆,对目标车辆进行定位,并利用上述计算的3种目标车辆判断的值对初定位的目标车辆进行阈值比较处理,从而最终定位目标车辆㊂目标车辆实验结果如表2所示㊂表2㊀在自建数据库上的实验结果(单位:%)车辆ID Car1Car2Car3Car4Car5定位成功率96.8497.2393.4297.2689.73跟踪成功率94.1593.5889.5694.4588.533 结语㊀㊀本文提出的多摄像头车辆实时跟踪系统,通过多个摄像头之间的单应性矩阵对十字交通路口的车辆进行定位,并结合颜色特征和SURF特征进行匹配,利用多特征和全卷积孪生网络相结合的跟踪模型,得到最终的检测结果,在车辆的检测和跟踪程度上有一定的提高㊂该系统在一定程度上解决了因遮挡问题造成的误检㊁漏检的问题,提高了检测精度和跟踪的准确性㊂根据实践表明,本文提出的方法效果比单一摄像头的检测方法更加可靠㊂参考文献[1]刘建.基于多摄像头的视频跟踪智能算法研究[D].上海:东华大学,2017.[2]罗凡波,王平,梁思源,等.基于深度学习与稀疏光流的人群异常行为识别[J].计算机工程,2020 (4):287-293.[3]李成美,白宏阳,郭宏伟,等.一种改进光流法的运动目标检测及跟踪算法[J].仪器仪表学报,2018 (5):249-256.[4]王朝卿.运动目标检测跟踪算法研究[D].太原:中北大学,2019.[5]张富凯,杨峰,李策.基于改进YOLOv3的快速车辆检测方法[J].计算机工程与应用,2019(2):12-20.[6]鲍金玉.基于视频分析的车辆智能检测技术研究[D].北京:北方工业大学,2019.(编辑㊀王永超)A real time vehicle tracking system with multiple camerasCui Rui Jia Ziyan∗Jiangsu University of Technology Changzhou213000 ChinaAbstract With the increase of urban population year by year more and more vehicles make urban traffic conditions more and more complicated.Aiming at the problems of tracking vehicles easy to lose low tracking rate and poor real-time performance in traditional vehicle detection a multi-camera based vehicle real-time tracking detection method is proposed to track moving vehicles.After analyzing the basic structure of the YOLOv5algorithm and considering the large scale variation of vehicles the YOLOv5algorithm is fully utilized to detect the properties of lightweight fast speed and strong real-time.On this basis the homography matrix between multiple cameras is used to determine the changes of vehicle bining color feature recognition and vehicle feature recognition vehicle rerecognition not only improves the running speed but also meets the requirements of real-time and accuracy effectively solves the problem that tracking vehicles are easy to lose and finally achieves a more successful real-time vehicle tracking effect.Key words multiple cameras YOLOv5 monography matrix feature recognition。
YOLO算法在交通监控目标检测中的研究与应用

第10卷㊀第6期Vol.10No.6㊀㊀智㊀能㊀计㊀算㊀机㊀与㊀应㊀用IntelligentComputerandApplications㊀㊀2020年6月㊀Jun.2020㊀㊀㊀㊀㊀㊀文章编号:2095-2163(2020)06-0199-04中图分类号:TP391.4文献标志码:AYOLO算法在交通监控目标检测中的研究与应用陈小娥(福建船政交通职业学院信息工程系,福州350007)摘㊀要:为了促进智能交通的快速建设与发展,实现机器自动准确快速对交通监控抓拍的静态图像进行目标检测显得尤为重要㊂近年来,基于深度学习的目标检测研究发展十分迅速,各种检测算法及其改进算法不断涌现㊂主要采用YOLOv3算法对交通监控中各种车辆和行人等目标进行检测,通过实验分析了算法在交通监控目标中的准确率和召回率等性能指标,对同类应用场景的目标检测提供了参考㊂关键词:目标检测;交通监控;YOLOv3;深度学习ResearchandApplicationofYOLOinTrafficMonitoringTargetDetectionCHENXiaoe(DepartmentofInformationEngineering,FujianChuanzhengCommunicationsCollege,Fuzhou350007,China)ʌAbstractɔInordertopromotetherapidconstructionanddevelopmentofintelligenttransportation,itisveryimportanttorealizeautomatic,accurateandfasttargetdetectionofstaticimagescapturedbytrafficmonitoring.Inrecentyears,theresearchoftargetdetectionbasedondeeplearningdevelopsrapidly,variousdetectionalgorithmsandtheirimprovedalgorithmsareemerging.yolov3algorithmisusedtodetectvariousvehiclesandpedestriansintrafficmonitoring.Theaccuracyandrecallrateofthealgorithmintrafficmonitoringtargetareanalyzedbyexperiments,whichprovidesareferencefortargetdetectioninsimilarapplicationscenarios.ʌKeywordsɔobjectdetection;trafficmonitoring;YOLOv3;deeplearning哈尔滨工业大学主办专题设计与应用●基金项目:福建省教育厅中青年教师科研项目(JZ180353)㊂作者简介:陈小娥(1984-),女,硕士,副教授,主要研究方向:人工智能㊂收稿日期:2020-04-080㊀引㊀言随着我国社会经济的快速发展以及城市化进程的加快,道路上车辆和行人数量不断增多,交通问题也随之变得日益严重㊂道路交通目标种类繁多,对不同车辆和行人进行快速检测和识别是计算机研究者近年来面对的挑战性任务之一,也是智能交通监控系统和自动驾驶技术等应用的关键㊂目标检测是计算机视觉技术的一项重要研究课题,是指通过相关算法来实现客观世界中对象的分类和定位㊂主要分为传统目标检测和近阶段基于卷积神经网络的目标检测㊂传统目标检测主要先通过手工提取特征,然后针对特定检测对象设计和训练分类器,该方法很大程度上依赖于提取的特征的准确性,然而手工提取的特征往往对目标的表达能力不足,鲁棒性低㊂近阶段基于卷积神经网络的目标检测,又分为两大类,包括Two-Stage和One-Stage的两种不同的方法和路线㊂其中,Two-Stage方法主要通过利用RPN网络来对候选区域进行推荐,其中具有代表性的是R-CNN㊁FasterRCNN系列方法,如2014年R-CNN框架[1]被提出,通过大容量卷积神经网络来提取特征,而后接连出现了一系列改进框架,如SPP-Net[2]㊁Fast-R-CNN[3]㊁FasterR-CNN[4]㊁R-FCN[5]等算法㊂而OneStages主要通过直接回归目标的位置来进行目标的检测,比较典型的有YOLO和SSD系列方法,能够对目标检测的速度进行进一步的提升,如2015年JosephRedmon等[6]提出的YOLO,用一个卷积神经网络实现定位分类一体化,是一个不基于区域算法的代表㊂接着,刘维等[7]借用了区域目标检测的思想,将提取候选框的网络和目标分类的网络进行合并,提升了准确率㊂2017年和2018年,YOLOv2[8]和YOLOv3[9]版本相继被提出,它们在保持高效检测速度的基础上,引入了anchorbox和多尺度等思想,进一步改进了网络结构,特别是YOLOv3引进了ResNet思想,进一步提高了网络的检测精度和速度㊂本文采用基于YOLOv3深度学习网络,对道路交通中的行人㊁自行车㊁小汽车㊁公共汽车㊁卡车等目标进行检测㊂首先,对采集的数据集进行预处理,然后利用YOLOv3对交通监控对象进行目标检测,最后进行实验结果分析㊂1㊀YOLOv3网络结构YOLOv3采用Darknet-53作为骨干网络,进一步地提高了目标检测的定位和分类精度㊂Darknet-53包含53个卷积层,大量采用3∗3和1∗1的卷积核㊂为了训练53层的深度网络,借鉴了ResNet的思想,在卷积层之间构建残差模块,设置跳跃连接㊂YOLOv3通过借鉴特征金字塔网络,设计多尺度特征提取结构,提升了小目标的检测效果㊂YOLOv3模型结构如图1所示㊂D a r k n e t -53I n p u t o u t p u t s h a p e :(b a t c h s i z e ,h ,w ,3)C B L ?1f i l t e r n u m :32f e a t u r e s h a p e :(h ,w )R e s i d u a l B l o c k ?1f i l t e r n u m :64f e a t u r e s h a p e :(h /2,w /2)R e s i d u a l B l o c k ?2f i l t e r n u m :128f e a t u r e s h a p e :(h /4,w /4)R e s i d u a l B l o c k ?8f i l t e r n u m :256f e a t u r e s h a p e :(h /8,w /8)R e s i d u a l B l o c k ?8f i l t e r n u m :512f e a t u r e s h a p e :(h /16,w /16)R e s i d u a l B l o c k ?4f i l t e r n u m :1024f e a t u r e s h a p e :(h /32,w /32)C o n v 2D ?1f i l t e r n u m :n u m _a n c h o r s *(n u m _c l a s s e s +5f e a t u r e s h a p e :(h /16,w /16)C B L ?1f i l t e r n u m b :512f e a t u r e s h a p e :(h /16,w /16)f e a t u r e m e rg ef i l t e r n u m b :256f e a t u r e s h a p e :(h /16,w /16)C B L ?1w i t h u p s a m p l i n gf i l t e r n u m :128f e a t u r e s h a p e :(h /8,w /8)C o n c a t e n a t e o u t p u t c h a n n e l n u m :384f e a t u r e s h a p e :(h /8,w /8)f e a t u r e m e rg ef i l t e r n u m :128f e a t u r e s h a p e :(h /8,w /8)C B L ?1f i l t e r n u m b :256f e a t u r e s h a p e :(h /8,w /8)C o n v 2D ?1f i l t e r n u m :n u m _a n c h o r s *(n u m _c l a s s e s +5f e a t u r e s h a p e :(h /8,w /8)C B L ?1w i t h u p s a m p l i n g f e a t u r e s h a p e :(h /16,w /16)C o n c a t e n a t eo u t p u t c h a n n e l n u m :768f e a t u r e s h a p e :(h /16,w /16)f e a t u r e m e rg ef i l t e r n u m :512f e a t u r e s h a p e :(h /32,w /32)C B L ?1f i l t e r n u m :1024f e a t u r e s h a p e :(h /32,w /32)C o n v 2D ?1f i l t e r n u m :n u m _a n c h o r s *(n u m _c l a s s e s +5)f e a t u r e s h a p e :(h /32,w /32)C B Lf i l t e r s i z e :1?1f i l t e r n u m :nC B Lf i l t e r s i z e :3?3f i l t e r n u m :n *2C B Lf i l t e r s i z e :1?1f i l t e r n u m :nf e a t u r e m e rg e (n )C B Lf i l t e r s i z e :3?3f i l t e r n u m :n *2C B Lf i l t e r s i z e :1?1f i l t e r n u m :nL e a k R e l uB a t c h N o r mC o n v 2Dn o b i a sC B L :C o n v 2DB a t c h N o r mL e a k y R e l u Z e r oP a d d i n gC B Lf i l t e r s i z e 3?3f i l t e r n u m :n C B Lf i l t e r s i z e 1?1f i l t e r n u m :n /2C B Lf i l t e r s i z e 3?3f i l t e r n u m :nA d dr e p e a tn u m _b l o c k s t i m e s ?R e s i d u a l B l o c k (n u m _f i l t e r s ,n u m _b l o c k s )Y e sN o图1㊀YOLOv3模型结构Fig.1㊀Yolov3modelstructure2㊀实㊀验2.1㊀实验环境及步骤本实验采用的硬件配置参数如下:Intel(R)Core(TM)i7-8750HCPU@2.20GHz处理器㊁16GB内存㊁6GNVIDIAGeForceGTX1060GPU㊂实验的主要步骤如下:(1)数据集的采集㊂实验中数据集一部分来自网络上搜集到的交通监控视频,一部分通过爬虫程序直接爬取网络上交通监控目标图像㊂(2)数据预处理㊂数据预处理包括对采集到的监控视频分解出视频帧㊁对视频帧和直接爬取的目标图像进行清洗等,以及对它们进行标注㊂(3)采用Yolov3对测试数据集进行目标检测,并进行结果分析㊂2.2㊀数据预处理实验中的数据集包含提取的视频帧和爬取的监控目标图像,以及扩充后的图像,共4490幅㊂提取视频帧的核心代码如下所示,按照每秒取1帧图像进行保存,crop_vertices存放待保存的图像的裁剪范围,可以根据实际情况设定,提取的帧也可002智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第10卷㊀不裁剪㊂图2㊀提取视频帧核心代码Fig.2㊀Corecodeofextractingvideoframe㊀㊀提取的视频帧和直接爬取的图片,经过一定的筛选,过滤到没有目标的样本,使用labelme进行标注㊂数据集的样本示例如图3所示,上方两图是交通监控视频提取的帧,下方两图是网上直接爬取的交通监控图像㊂表1中主要包含了数据集所有图片中小汽车㊁自行车㊁公共汽车㊁卡车和行人的目标数量㊂表2中显示了这些目标像素大小的分布情况,尺寸介于(0,32∗32]之间的属于小物体,(32∗32,96∗96]属于中物体,大于96∗96的属于大物体㊂图3㊀数据集的样本示例图Fig.3㊀Samplepicturesofdataset表1㊀数据集中目标数Tab.1㊀Targetnumberindataset目标carbicyclebustruckperson数量21140390088014306950表2㊀目标像素大小分布Tab.2㊀Targetpixelsizedistribution目标尺寸占总目标数的比重/%(0,32∗32]42.27(32∗32,96∗96]44.63>96∗9613.102.3㊀结果分析实验过程中,使用原Yolov3权重文件[9],其训练参数中批次大小batch_size为64,初始学习率为0.001㊂对标注好的数据集进行测试㊂YOLOv3算法对交通监控目标检测的结果如下图所示㊂图4㊀检测结果示例图Fig.4㊀Somepicturesoftestresult㊀㊀通过实验结果定量评估YOLOv3算法对于交通监控目标检测识别的效果㊂从准确率Precision和召回率Recall对算法进行评价㊂具体地,precision=TPTP+FP,recall=TPTP+FN,㊀㊀其中,TP表示本身是正样本,分类器也认为它是正样本;FP表示本身是负样本,分类器认为它是正样本;FN表示本身是正样本,分类器认为它是负样本;Precision表示的是分类器认为是正类并且确实是正类的部分占所有分类器认为是正类的比例;Recall表示的是分类器认为是正类并且确实是正类的部分占所有确实是正类的比例㊂IOU交并比衡量监测框和标签框的重合程度㊂表3中显示了对应不同交并比阈值的平均精度,AP表示AveragePrecision,第1个AP对应的IoU=0.5:0.95,第2个(下转第205页)102第6期陈小娥:YOLO算法在交通监控目标检测中的研究与应用㊀㊀虽然课堂教学型手机智能教学平台具有很多的优势,也给教师和学生带来了很多的便利,但是整体评价不是很高,具体平分见表1,其中1-5表示评分等级,数值越大评价越高㊂由表1可以看出关于课堂教学型手机智能教学平台的评价集中在3-4分,通过进一步访谈发现网络不稳定㊁利用手机上课容易分心以及手机的持续使用时间较多等是拉低课堂教学型手机智能教学平台评价的主要因素㊂表1㊀关于学习软件,请给微信小程序和手机APP打分Tab.1㊀PleaserateWeChatappletsandmobileappsregardinglearningsoftware%题目\选项12345微信小程序2.991.4932.8440.322.39手机APP07.4619.444.7828.363㊀结束语雨课堂㊁学习通等智能教学平台科学地覆盖了正常授课的正常教学环节,同时可以搜集和统计教室授课记录和学生学习记录,为师生提供定制化化报表㊁自动作业批改和任务提醒等,让教与学的过程和结果更直观㊂目前很多高校学生使用了至少一学期的课堂教学型手机智能教学平台,通过调研和访谈提出以下建议:(1)因材施教,视课程特征使用课堂教学型手机智能教学平台㊂课堂教学型手机智能教学平台不能仅作为授课内容的呈现㊁学生的考勤,作业的检查等,要以提高实际教学效果和提升学生能力为目标,依据课程特征个性化设计课堂教学型手机智能教学平台授课内容㊂(2)不要过于使用课堂教学型手机智能教学平台,课堂教学型手机智能教学平台与传统授课结合㊂鉴于手机上还会有各种聊天信息及弹窗广告等,使用课堂教学型手机智能教学平台难免会受到干扰,另外长使用手机也存在导致头部和手臂不舒服,以及缺乏师生的一线交流等,因此仍建议课堂教学型手机智能教学平台与传统授课结合的授课方式㊂参考文献[1]中华人民共和国教育部.国家中长期教育改革和发展规划纲要(2010-2020年)[EB/OL].http://old.moe.gov.cn/publicfiles/business/htmlfiles/moe/info_list/201407/xxgk_171904.html.[2]姚洁,王伟力.微信雨课堂混合学习模式应用于高校教学的实证研究[J].高教探索,2017(9):50-54.[3]FITRININGTIYAS'DA,NUMAMAH,SUMARDI.Googleclassroom:asamediaoflearninghistory[J].IOPConferenceSeriesEarthandEnvironmentalScience,2019,243(1):012156.[4]姚洁,王伟力.微信雨课堂混合学习模式应用于高校教学的实证研究[J].高教探索,2017,9:50-54.[5]张国培.论 互联网+ 背景下的雨课堂与高校教学改革[J].中国成人教育,2017,19:96-98.[6]杨芳,张欢瑞,张文霞.基于MOOC与雨课堂的混合式教学初探 以 生活英语听说 MOOC与雨课堂的教学实践为例[J].现代教育技术,2017,5:34-40.(上接第201页)和第3个AP对应的IoU分别为0.5㊁0.75,后3个AP的下标分别对应小㊁中㊁大目标㊂另外,对应大㊁中㊁小目标在IoU=0.5:0.95的AR(averagerecall)值分别为0.279㊁0.468㊁0.584㊂表3㊀实验结果分析Tab.3㊀Analysisofexperimentalresults网络APAP50AP75APSAPMAPLYolov30.2900.5010.3100.1520.3490.4903㊀结束语本文自行设计标注了交通监控目标的数据集,使用Yolov3算法对交通监控对象进行了目标检测,最后进行了实验结果分析㊂下一步可以增加样本的多样性㊁同时针对自己的数据集进行模型的训练,进一步提高准确率㊂参考文献[1]GIRSHICKR,DONAHUEJ,DARRELLT,etal.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation[C]//IEEEConferenceonComputerVision&PatternRecognition.2014.[2]HEK,ZHANGX,RENS,etal.Spatialpyramidpoolingindeepconvolutionalnetworksforvisualrecognition[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2014,37(9):1904.[3]GIRSHICKR.Fastr-cnn[C]//ProceedingsoftheIEEEinternationalconferenceoncomputervision.2015:1440-1448.[4]RENS,HEK,GIRSHICKR,etal.Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks[C]//Advancesinneuralinformationprocessingsystems.2015:91-99.[5]DAIJ,LIY,HEK,etal.R-fcn:Objectdetectionviaregion-basedfullyconvolutionalnetworks[C]//Advancesinneuralinformationprocessingsystems.2016:379-387.[6]REDMONJ,DIVVALAS,GIRSHICKR,etal.Youonlylookonce:Unified,real-timeobjectdetection[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:779-788.[7]LIUW,ANGUELOVD,ERHAND,etal.Ssd:Singleshotmultiboxdetector[C]//Europeanconferenceoncomputervision.Springer,Cham,2016:21-37.[8]REDMONJ,FARHADIA.YOLO9000:better,faster,stronger[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2017:7263-7271.[9]REDMONJ,FARHADIA.Yolov3:Anincrementalimprovement[J].arXivpreprintarXiv:1804.02767,2018.[10]陈正斌,叶东毅,朱彩霞,等.基于改进YOLOv3的目标识别方法[J].计算机系统应用,29(1).502第6期阎瑞霞,等:课堂教学型手机智能教学平台应用现状及问题分析。
基于YOLOv4的多路视频实时检测技术

基于YOLOv4的多路视频实时检测技术近年来,随着计算机视觉技术的不息进步,人们对于实时检测的需求也日益增加。
对于视频监控、交通管制等领域,实时准确地检测并识别出视频中的目标物体分外重要。
为了满足这一需求,YOLOv4(You Only Look Once)算法应运而生。
本文将探讨,包括其原理、优势以及应用情景。
一、YOLOv4算法原理YOLOv4是YOLO系列算法的最新版本,它基于深度进修和目标检测技术,能够实现实时的目标检测和识别。
与传统的目标检测算法相比,YOLOv4具有以下几个特点:1. 单阶段检测:YOLOv4接受单个神经网络来同时猜测边界框和类别概率,防止了传统两阶段检测算法的复杂性和计算量。
2. 实时性:YOLOv4能够以很快的速度进行目标检测,实时性较高,尤其对于多路视频的实时检测分外有优势。
3. 大规模数据训练:YOLOv4利用大规模的数据集进行深度进修训练,提高了模型的准确性和泛化能力。
4. 目标多样性:YOLOv4能够同时检测多个不同类别的目标,对于多路视频实时检测来说分外适用。
二、多路视频实时检测技术主要包括以下几个步骤:1. 视频输入与解码:将多路视频输入系统,通过解码器将视频数据转换为可供算法处理的格式。
2. 视频帧划分与分配:将视频划分为多个视频帧,并将每帧分配给不同的处理线程,以实现并行处理。
3. 目标检测与识别:每个处理线程利用YOLOv4算法进行目标检测,即利用神经网络模型对每帧图像进行目标识别和位置猜测。
4. 目标跟踪与关联:对于相邻的视频帧,需要进行目标跟踪和关联,以保证目标的连续性和稳定性。
常用的目标跟踪算法包括卡尔曼滤波器、深度关联滤波器等。
5. 结果输出与显示:将检测到的目标信息输出,并可通过可视化界面或其他方式进行显示,以便用户进行后续处理和分析。
三、的优势相比于传统的多路视频实时检测技术,基于YOLOv4的方法具有以下优势:1. 高效性:YOLOv4能够以较快的速度进行目标检测,适用于实时场景,能够处理多路视频数据,提高检测效率。
基于YOLO算法的智能交通灯控制系统模型

1 总体方案
基于 YOLO 识别的智能交通灯 控 制 模 型 控 制 器 选 用 STM32系列单片机,使用 YOLO 神 经 网 络 检 测 每 个 路 口 不同车道的车流量,并 且 加 载 该 道 路 的 历 史 数 据,通 过 智 能 化 算 法 得 到 交 通 信 号 灯 的 理 论 工 作 时 间 。 [3] 本 文 所 设 计的智能交通控制系统模型的组成如图1所示。
2.1.1 YOLOV3 识别模型 YOLO(You OnlyLook Once)[4]2015 年 由 Redmon
等人创建,其创新性 地 使 用 了 端 到 端 的 神 经 网 络 结 构,将 传统的目标检测问题转化成了回归问题。运用基础网络 Darknet 53,通过将图 片 划 分 为 S×S 个 网 格,在 每 个 网 格上由不同大小的预选框预测,对每个预选框预测出 的 类 别概率和坐标进行判断。通过规定阈值范围筛除概率低 的预选框,然后通过 非 极 大 值 抑 制 去 除 冗 余 预 选 框,最 终 得出结果。
(SchoolofArtificialIntelligenceandDataScience,HebeiUniversityofTechnology,Tianjin300132,China)
Abstract:Inthepaper,anewdevicebasedonYOLOalgorithmisdesignedtocontroltrafficlightsandstreetlightsinembeddedsystem. Thedevicecapturesvideobycamera,preprocessesthevideobyOpenCV,detectsanddeterminestherelativepositionandnumberofvehiclesintheimageusingYOLO V3algorithmasrecognitionalgorithmandlocationalgorithm,andchangesthetimeofleftturnanddirect travel by single chip computer,so as to realize intelligent control.The simulation results show that the equipment can improve the current road capacity and relieve traffic pressure.
基于yolo的智能交通信号控制算法设计与实现的主要内容

基于yolo的智能交通信号控制算法设计与实现的主要内容基于YOLO的智能交通信号控制算法设计与实现的主要内容如下:1. 交通信号控制算法设计:结合YOLO(You Only Look Once)目标检测算法,设计一种适用于智能交通信号控制的算法。
该算法需要具备以下功能:a. 实时监测道路上的车辆和行人情况;b. 准确识别交通信号灯、交通标志、交通信号等交通元素;c. 分析交通流量的时空分布特征,预测交通状况;d. 自动调整交通信号控制策略,实现智能化交通指挥。
2. 硬件设计:搭建适用于智能交通信号控制的硬件平台,包括传感器、控制器、显示屏等组件。
传感器负责收集道路上的实时数据,如车辆数量、速度等;控制器负责处理算法和控制信号;显示屏用于显示实时的交通信息。
3. YOLO算法优化:针对交通信号控制的实际需求,对YOLO算法进行优化,提高算法在实时视频数据上的检测性能和准确性。
具体包括:a. 数据预处理:对实时视频数据进行预处理,如降噪、缩放等,提高检测精度;b. 网络结构优化:调整YOLO网络的结构,提高检测速度和准确性;c. 算法参数调整:根据实际交通情况,调整算法的参数,如检测阈值、分类器等。
4. 智能交通信号控制实现:将优化后的YOLO算法应用于智能交通信号控制系统中,实现以下功能:a. 实时监测道路上的交通情况,准确识别交通信号灯、交通标志、交通信号等交通元素;b. 根据交通流量和流向,自动调整信号灯的时序和绿灯时长;c. 实现与其他交通管理系统的数据交换和协同工作;d. 实时发布交通信息,提醒驾驶员注意交通状况。
5. 系统集成与测试:将硬件平台和软件算法集成到一起,进行系统测试和调试,确保系统功能的完整性和稳定性。
6. 系统优化与升级:根据实际应用中的反馈,对系统进行优化和升级,提高性能和智能化水平。
通过以上内容,可以实现基于YOLO的智能交通信号控制算法设计与实现。
这种算法具有较高的实时性、准确性和智能化水平,有助于改善城市交通状况,提高交通效率。
基于YOLOv5s的头盔和反光背心实时检测算法研究

基于YOLOv5s的头盔和反光背心实时检测算法研究作者:***来源:《计算机时代》2023年第10期关键词:YOLOv5s-GC算法;CARAFE;GhostNet;YOLOv5s0 引言智能施工现场[1],目标检测技术在智能监控系统中起着至关重要的作用,其中安全帽和反光背心检测成为研究热点[2]。
目前,安全帽和反光背心检测已经从传统的机器学习方法转向深度学习方法。
许多学者提出将YOLO 算法应用于头盔和反光背心的实时检测。
目前,利用YOLO 算法对头盔和反光背心进行检测时,精度还无法满足实时性要求,容易出现漏检,同时存在精度和速度无法兼顾等问题。
为了解决这些问题,本文提出了一种头盔和反光背心的检测模型,选择YOLOv5s 网络模型作为主体,采用GhostNet 模块代替原始的卷积Conv,以及采用C3Ghost 替换C3 模块,这样可以极大减少冗余,提高检测速度;用CAFAFE 模块替代原上采样Upsample,来提高模型的检测精度。
1 融入CARAFE、GhostNet 模块的YOLOv5s算法1.1 原始YOLOv5s 算法YOLOv5 是由Ultralytics 提出的,其在YOLOv4基础上进行了改进。
YOLOv5 吸收了先前版本和其他网络(例如CSPNet 和PANet[3-4])的优点,并在准确性和速度之间取得了良好的效果。
YOLOv5 利用深度倍数和宽度倍数来控制网络的宽度和深度。
YOLOv5s是这个系列中深度最小,特征图宽度最小的网络,其他网络版本也在这个基础上不断深化和拓宽。
YOLOv5s 主要由以下几个部分构成:①输入(马赛克数据增强、自适应anchorbox 计算和自适应图像缩放);②骨干网络(CSPNet 和Focus 模块);③颈部网络(FPN和PANet);④检测端(CIoU 损失函数)。
如图1 所示。
1.2 基于CARAFE 算子的特征重组上采样YOLOv5s 中有很多上采样方法,其中最近邻法和双线性插值法通过现有像素的空间关系进行插值,实现简单,但前者会改变图像元素值的几何连续性,后者会导致边缘被平滑,都不能有效地保持特征。
基于Yolo算法的智能视频监控安防系统设计

基于Yolo算法的智能视频监控安防系统设计近年来,随着人工智能技术的快速发展,设备智能化的需求日益增长,智能安防系统也随之受到了广泛关注。
智能视频监控系统是其中的重要组成部分,通过视频监控对目标进行实时、精准的检测和分析,可以帮助保障公共安全和节省人力物力资源。
本文将介绍一种基于Yolo算法的智能视频监控安防系统设计。
一、安防系统的设计架构智能视频监控安防系统的设计主要涉及硬件、软件和算法三个层面。
其中,硬件层面主要包括摄像头、服务器、存储器等,软件层面主要包括操作系统、应用程序、网络协议等,而算法层面则涉及到目标检测、跟踪、分类等技术。
在本系统中,我们需要采用高质量的摄像头来获取高清晰度的视频流,并需要使用高性能的服务器进行数据处理和存储。
此外,还需要搭建一套网络架构来实现数据传输。
软件层面主要需要使用Linux操作系统和Python编程语言,通过OpenCV库实现对视频流的处理和分析。
网络协议方面则可以采用TCP/IP协议进行数据传输。
算法层面我们选用了Yolo算法作为目标检测的核心技术,这是一种高效、准确的实时目标检测算法,可以在CPU上实现实时目标检测,甚至可以在手机上进行目标检测。
二、基于Yolo算法的目标检测Yolo算法是You Only Look Once的缩写,它采用单个神经网络实现目标检测,并将检测任务转化为一个回归问题,将检测框的坐标和类别作为网络输出,从而实现了实时目标检测的高效性。
相对于传统的目标检测算法,Yolo算法明显具有更快的检测速度和更高的检测准确率。
Yolo算法的实现流程如下:首先对输入图像进行预处理,然后输入到神经网络的输入层,经过多层卷积网络进行特征提取,最后输出检测框的坐标和类别信息。
在输出层中,采用了置信度阈值和非极大值抑制等技术,过滤掉置信度低和重复的检测框。
三、智能视频监控系统的应用在智能视频监控系统中,我们可以通过Yolo算法实现如下应用:1. 行人检测与统计:在公共场所如商场、车站等场所中,通过检测行人的位置信息来对人流量进行统计和预测,进而提高管理效率和优化管理资源。
一种面向车间作业安全的智能监控系统[发明专利]
![一种面向车间作业安全的智能监控系统[发明专利]](https://img.taocdn.com/s3/m/2adb5bff5f0e7cd1852536b7.png)
专利名称:一种面向车间作业安全的智能监控系统专利类型:发明专利
发明人:鲍劲松,许开州,王佳铖,郑小虎,王燕华
申请号:CN202011361477.4
申请日:20201127
公开号:CN112766034A
公开日:
20210507
专利内容由知识产权出版社提供
摘要:本发明公开了一种面向车间作业安全的智能监控系统,其特征在于包括基于轻量化openpose的人体关键点检测模块、基于YOLOv3的安全帽检测模块、基于交并比的人与安全帽匹配模块以及基于关节与区域位置匹配的危险区域检测模块四部分。
该系统包含的模块功能丰富,各模块由轻量化模型搭建,可满足可间的通用监控需求,为车间安全生产提供了保障。
申请人:东华大学
地址:201600 上海市松江区人民北路2999号
国籍:CN
代理机构:上海申汇专利代理有限公司
代理人:徐俊
更多信息请下载全文后查看。
基于YOLOv5算法的农业机器人设计

基于YOLOv5算法的农业机器人设计
易思含;李丹;蓝欣晨;梁滔;柯宇;赵越
【期刊名称】《电子制作》
【年(卷),期】2024(32)11
【摘要】在农业发展中,虫害和环境等因素导致农作物受损,引发对生态保护和食品安全的关切,生产效率急剧下降,农业陷入低谷。
为解决这一问题,设计了一款基于YOLOv5算法的智能监控识别机器人,以STM32C8T6最小系统板和树莓派为主控,结合蓝牙和USB摄像头进行信息采集与传输,并运用YOLOv5算法进行数据分析。
通过轻量级网络设计、剪枝技术和量化方法[1],降低模型计算需求,解决小平台算力不足的问题。
实验证明,该机器人在农田中识别植物和害虫方面具有高级视觉识别
能力,实时监控环境,智能管理与控制,显著提升农业生产安全性和工作效率,为农业发展做出积极贡献。
【总页数】4页(P58-61)
【作者】易思含;李丹;蓝欣晨;梁滔;柯宇;赵越
【作者单位】电子科技大学成都学院工学院
【正文语种】中文
【中图分类】TP3
【相关文献】
1.基于YOLOv5的移动机器人目标检测算法的研究
2.基于改进YOLOv5的服务机器人目标识别算法
3.基于YOLOv5算法的名优茶采摘机器人
4.基于改进YOLOv5的服务机器人目标检测算法
5.基于改进yolov5的悬轨机器人控制系统设计与实现
因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Automatic Control •
自动化控制Electronic Technology & Software Engineering 电子技术与软件工程• 121【关键词】图像识别 YOLO 算法 智能监控 校
园安全
1 当前校园监控存在的问题
在当今社会中,校园安全一直是每个学
校最为重视的一点,学校的安全工作,是全社
会安全工作的一个十分重要的组成部分。
他直
接关系到学生能否安全、健康地成长,关系到
许多家庭的幸福安宁和社会的稳定。
要时刻保
证学生安全,但学院里存在的安全隐患十分的
多,比如车辆,流浪猫狗等。
校园内的监控摄
像头的作用就是加强对校园的监控,但是目前
校园中广泛采用的监控系统只能实现监控视频
的录制,不能对安全隐患及时做出预警,一旦
发生诸如学生进入禁区、攀爬栏杆等情况,警
卫人员如未能及时发现等事后赶到现场就为时
已晚。
所以需要加强监控对安全隐患的探查与
预警,将隐患扼杀在摇篮中。
2 改进的实时监控系统
针对现有监控系统不能及时发现潜在安
全隐患的问题,本文提出一种改进的智能监控
系统:
(1)制作人物及潜在安全隐患事物(猫、
狗、自行车、汽车等)的数据集;
(2)训练YOLO 神经网络,提取各类别
物体的特征;
(3)在现有的监控系统基础上通过摄像
头采集监控录像传入监控系统;
(4)智能监控系统划分敏感区域,同时
对采集到的监控视频中的物体进行分类标注;
(5)一旦有人物进入该区域,即将之标
注为红色,将该条记录写入数据库,同时在监
控系统的界面中显示该条日志;
(6)警卫人员在接到预警信息及时赶往一种基于YOLO 算法的智能监控系统
文/杨玉棋 邱虎鸣 王子龙 王跃进
现场。
迁移学习也就是所谓的有监督预训练,我们通常把这个称为迁移学习。
就是把一个任务提前训练好的参数,拿到另外一个任务中,作为神经网络的初始参数值,这样以来相比于直接去采用随机初始化的方法,它的精度可以大大的提高。
图片的分类和已经注释好的数据十分多,但是物体检测的标注数据却十分少,尽量去使用较少的标注数据,来训练高质量的一种模型。
对象检测需要确定对象的边界框。
我们不光要找到对象的边界框。
同时我们还需要认识到边界框内的对象是我们要找的这个对象。
YOLO 的CNN 网络将输入的图像分成S×S 的网格,然后其中每个单元负责检测中心点落在网格内的地点。
每个单元格都存在预测边界框和边界框的置信度。
所谓的置信度实际上包括两个方面,一个是包括目标边界框的可能性,另一个是边界框的精确性。
前者表示为Pr (对象),当边界框作为背景时,不包括此对象。
这时,Pr= 0。
当边界框含有目标的时候,Pr= 1。
边界框的精确性可以通过预测框和实际框的IOU 来表示出,表示为IOUpredtruth 。
因此,可以将置信度定义为Pr (对象)* IOUpredtruth 。
边界框的大小以及位置可以用四个数值来表示:(x ,y ,w ,h ),其中(x ,y )是边界框的中心坐标,w 和h 是边界框的宽度和高度。
同样重要的是要注意,中心坐标(x ,y )的预测值是相对于每个单元的左上角的坐标点的偏移值,并且该单位是相对于单元尺寸的。
边界框的w 和h 预测值是相对于整个图像的宽度和高度的,因此理论上四个元素的大小应该在[0,1]的范围内。
因此,每个边界框的预测值实际上包含5个元素:(x ,y ,w ,h ,c ),其中前4个表示边界框的大小和位置,最后一个值是置信度。
根据提取的对象的特征执行识别,并且识别的结果显示在由相机捕获的图片或视频中由YOLO 算法构成的边界框上,并且呈现项目名称。
在学校的一些存在安全问题,较容易发生危险事故的地点,如危险品仓库,化学实验室等地方。
将这些区域设置划为一个敏感区域,每一个敏感区域设置一个数据库,根据边界框的中心坐标(x ,y )是否在禁区坐标范围内判定是否有标记物体进入禁区,将物体类别计入
该禁区所对应的数据库中,在敏感区域内,矩形框标注出的事物的名称采用不同的颜色来表示,用来着重强调。
通过提前设定的数据集,系统将识别我们所规定的一些在校园内具有危险性的物体,将其识别后并保存到数据库。
当系统识别出物体,并将它们存到数据库中时,同时将当前系统时间一起写入数据库中,由于画面拍摄和系统的物体识别基本上是同步进行的,所以可以将系统识别的时间看做成画面拍摄时间,将这些信息保存到数据库中,并作为日志实时输出到系统的操作界面。
且在系统刚开始检测视频的同时即保存标注后的视频,方便事后调出查询。
3 总结通过监视、分类、检测坐标、数据库读写、监控保存等一系列流程,弥补当前校园监控系统普遍采用的监视、保存模式,实时对视频做一次筛选,既可以减少警力巡逻的人力资源消耗,又可以在学生误入敏感区域情况及时发出预警,极大弥补了校园安全在监控方面的不足。
(指导老师:王梦晓)参考文献[1]RedmonJ, Divvala S, Girshick R, et al. You Only Look Once: Unified, Real-Time Object Detection[J]. 2015.[2]Shafiee M J, Chywl B, Li F, et al. Fast YOLO: A Fast You Only Look Once System for Real-time Embedded Object Detection in Video[J]. 2017.[3]李茂晖,吴传平,鲍艳,房卓群.论YOLO 算法在机器视觉中应用原理[J].教育现代化,2018.作者简介杨玉棋,大学本科学历。
职称:学生。
研究方向为机器学习图像识别。
作者单位东南大学成贤学院电子与计算机工程学院 江苏省南京市 210088。