移动机器人的目标跟随控制方法与相关技术
移动机械手运动目标检测与跟踪技术研究
![移动机械手运动目标检测与跟踪技术研究](https://img.taocdn.com/s3/m/82ee29c4dbef5ef7ba0d4a7302768e9951e76e25.png)
移动机械手运动目标检测与跟踪技术研究一、内容概要随着科技的不断发展,移动机械手在工业生产中的应用越来越广泛。
然而由于环境复杂、目标多变以及机械手运动的特殊性,给移动机械手的运动目标检测与跟踪技术带来了很大的挑战。
为了提高移动机械手的自主性和智能化水平,本文对移动机械手运动目标检测与跟踪技术进行了深入研究。
本文首先介绍了移动机械手的基本概念和工作原理,分析了其在工业生产中的重要性和应用前景。
接着针对移动机械手运动目标检测与跟踪技术的现状,提出了一种基于深度学习的目标检测与跟踪方法。
该方法结合了传统目标检测算法和深度学习技术的优势,能够有效地识别和跟踪移动机械手运动过程中的各种目标。
为了验证所提出方法的有效性,本文通过实验对比分析了不同方法在移动机械手运动目标检测与跟踪任务上的表现。
实验结果表明,所提出的基于深度学习的目标检测与跟踪方法具有较高的检测率和跟踪精度,能够满足移动机械手在复杂环境下的实时监控需求。
1. 研究背景和意义随着科技的不断发展,移动机械手在工业生产、物流配送等领域的应用越来越广泛。
然而由于移动机械手的特殊性,如高度灵活、操作空间有限等,使得其在实际应用过程中面临着诸多挑战,如运动目标检测与跟踪技术的研究尤为重要。
本文旨在通过对移动机械手运动目标检测与跟踪技术研究,提高移动机械手的自动化水平,降低人工干预的需求,从而提高生产效率和质量。
近年来随着人工智能技术的快速发展,机器人技术在各个领域取得了显著的成果。
特别是在工业生产、物流配送等领域,机器人技术的应用已经逐渐成为一种趋势。
然而由于移动机械手的特殊性,如高度灵活、操作空间有限等,使得其在实际应用过程中面临着诸多挑战,如运动目标检测与跟踪技术的研究尤为重要。
本文通过对移动机械手运动目标检测与跟踪技术研究,具有以下几个方面的研究意义:提高移动机械手的自动化水平。
通过研究运动目标检测与跟踪技术,可以实现对移动机械手周围环境的实时感知和精确控制,从而提高移动机械手的自动化水平。
《轮式移动机器人轨迹跟踪智能控制》范文
![《轮式移动机器人轨迹跟踪智能控制》范文](https://img.taocdn.com/s3/m/e1ca3f122a160b4e767f5acfa1c7aa00b52a9da4.png)
《轮式移动机器人轨迹跟踪智能控制》篇一一、引言随着科技的不断进步,轮式移动机器人在各个领域的应用越来越广泛,如工业自动化、军事侦察、服务机器人等。
在这些应用中,轨迹跟踪的准确性和智能性成为评价机器人性能的重要指标。
本文旨在研究轮式移动机器人轨迹跟踪的智能控制技术,探讨其应用与优势,并提出相应的解决方案。
二、轮式移动机器人概述轮式移动机器人是一种常见的移动机器人类型,具有结构简单、移动灵活、运动速度快等优点。
其运动主要依靠电机驱动的轮子实现。
根据不同的需求,轮式移动机器人可分为单轮驱动、双轮驱动等不同类型。
此外,其内部控制系统也是机器人正常运行的关键。
三、轨迹跟踪的挑战与需求轨迹跟踪是轮式移动机器人的核心功能之一。
然而,在实际应用中,轨迹跟踪面临诸多挑战。
如复杂的外部环境和内部分布式控制系统可能导致机器人轨迹偏离设定路线,使得任务无法准确完成。
因此,我们提出了一个高质量的轨迹跟踪智能控制方案,以解决这些问题。
四、智能控制方案的设计与实现为了实现准确的轨迹跟踪,我们采用了先进的传感器技术和机器学习算法。
首先,通过高精度的传感器实时获取机器人的位置和姿态信息。
然后,利用机器学习算法对数据进行处理和分析,以实现智能决策和控制。
具体来说,我们采用了以下步骤:1. 传感器数据采集:通过激光雷达、摄像头等传感器实时获取环境信息,包括障碍物位置、道路情况等。
2. 路径规划:根据获取的传感器数据,利用算法进行路径规划,为机器人制定合理的运动路线。
3. 反馈控制:将实际位置与目标轨迹进行比较,计算偏差并进行反馈控制,调整电机的输出力矩以使机器人回到正确的轨迹上。
4. 机器学习:利用深度学习等算法对历史数据进行学习,以提高轨迹跟踪的准确性和鲁棒性。
五、实验结果与分析为了验证我们的智能控制方案的有效性,我们在不同环境下进行了实验。
实验结果表明,我们的方案在各种复杂环境下均能实现准确的轨迹跟踪。
此外,我们还对不同算法进行了对比分析,发现我们的方案在准确性和鲁棒性方面均具有显著优势。
移动机器人运动目标检测与追踪方法研究
![移动机器人运动目标检测与追踪方法研究](https://img.taocdn.com/s3/m/3405bf297f21af45b307e87101f69e314332fad5.png)
移动机器人运动目标检测与追踪方法研究移动机器人运动目标检测与追踪方法研究近年来,移动机器人技术在人们的日常生活和工业生产中得到了广泛的应用。
其中,移动机器人的运动目标检测与追踪是一个重要的研究领域。
本文将对移动机器人运动目标检测与追踪方法进行详细探讨。
一、引言移动机器人的运动目标检测与追踪在实际应用中具有重要意义。
通过检测和追踪目标可以实现很多实际的任务,比如智能家居系统中的人体检测、工业生产中的物体识别等。
因此,研究高效准确的检测和追踪方法对于提高机器人的智能化程度具有重要的意义。
二、运动目标检测方法1. 图像处理方法图像处理方法是目标检测的常用方法之一。
它基于计算机视觉技术,通过对图像进行处理,提取目标的特征并进行分类。
常见的图像处理方法包括边缘检测、模板匹配、颜色空间分割等。
这些方法通常可以提取出目标的轮廓和颜色特征,从而实现目标的检测。
2. 深度学习方法深度学习方法是目前目标检测和追踪领域的热门研究方向。
通过使用深度神经网络,可以有效地提取目标的特征,从而实现高精度的目标检测和追踪。
常见的深度学习方法包括卷积神经网络(CNN)、循环神经网络(RNN)等。
这些方法在目标检测和追踪领域取得了显著的进展。
三、运动目标追踪方法1. 单目标追踪方法单目标追踪方法是最基础的追踪方法。
它通过对目标进行跟踪,来实现目标的追踪任务。
常见的单目标追踪方法包括卡尔曼滤波器、粒子滤波器等。
这些方法可以根据目标的运动状态进行预测,并进行目标的追踪。
2. 多目标追踪方法多目标追踪方法是在单目标追踪方法基础上发展而来的。
它可以同时追踪多个目标,并对目标之间的关系进行建模。
常见的多目标追踪方法包括多目标卡尔曼滤波器、多目标粒子滤波器等。
这些方法可以实现对多个目标的高效追踪。
四、实验结果与分析本文使用了基于深度学习的目标检测和追踪方法,并在真实场景下进行了实验。
实验结果显示,所提出的方法在目标检测和追踪任务中取得了较好的效果。
移动机器人路径规划和轨迹跟踪算法
![移动机器人路径规划和轨迹跟踪算法](https://img.taocdn.com/s3/m/ed72c5e7b8d528ea81c758f5f61fb7360b4c2bcd.png)
移动机器人路径规划和轨迹跟踪算法在当今科技飞速发展的时代,移动机器人已经在众多领域得到了广泛的应用,从工业生产中的自动化物流搬运,到家庭服务中的智能清洁机器人,再到医疗领域的辅助手术机器人等等。
而要让这些移动机器人能够高效、准确地完成各种任务,关键就在于其路径规划和轨迹跟踪算法的有效性。
路径规划,简单来说,就是为移动机器人找到一条从起始点到目标点的最优或可行路径。
这就好像我们在出门旅行前规划路线一样,要考虑距离、路况、时间等诸多因素。
对于移动机器人而言,它所面临的环境可能更加复杂多变,比如充满障碍物的工厂车间、人员密集的商场等。
因此,路径规划算法需要具备强大的计算能力和适应能力。
常见的路径规划算法有很多种,比如基于图搜索的算法,像 A 算法。
A 算法通过对地图进行网格化,并为每个网格节点赋予一个代价评估值,从而逐步搜索出最优的路径。
它的优点是能够快速找到较优的路径,但在处理大规模地图时,计算量可能会较大。
还有基于采样的算法,如快速扩展随机树(RRT)算法。
RRT 算法通过在空间中随机采样,并逐步扩展生成树的方式来探索路径。
这种算法在高维空间和复杂环境中的适应性较强,但可能得到的路径不是最优的。
另外,基于人工势场的算法也是一种常用的方法。
它将目标点视为吸引源,障碍物视为排斥源,通过计算合力来引导机器人运动。
这种算法计算简单,但容易陷入局部最优。
轨迹跟踪则是在已经规划好路径的基础上,让机器人能够准确地按照预定的路径进行运动。
这就要求机器人能够实时感知自身的位置和姿态,并根据与目标轨迹的偏差进行调整。
在轨迹跟踪中,PID 控制器是一种常见的方法。
它通过比例、积分和微分三个环节的作用,对偏差进行修正。
PID 控制器简单易用,但对于复杂的非线性系统,其控制效果可能不够理想。
为了提高轨迹跟踪的精度和鲁棒性,现代控制理论中的模型预测控制(MPC)也得到了广泛应用。
MPC 通过预测未来一段时间内的系统状态,并优化控制输入,来实现更好的跟踪性能。
移动机器人的全局轨迹跟踪控制
![移动机器人的全局轨迹跟踪控制](https://img.taocdn.com/s3/m/3661d0af70fe910ef12d2af90242a8956becaa66.png)
移动机器人的全局轨迹跟踪控制的报告,800字
移动机器人全局轨迹跟踪控制是一种实现机器人移动目标的技术,它可以帮助机器人以更高效的方式达到目的地。
本报告将介绍机器人全局轨迹跟踪控制的原理、具体应用及其在工业机器人中的重要性。
首先,我们来介绍机器人全局轨迹跟踪控制的原理。
这种控制技术是通过对机器人的移动路径和导航系统进行计算和控制,帮助机器人以最优的方式完成目标任务。
它能够收集周围环境信息,并通过精确的移动路径计算和定位,使机器人避免和检测障碍物等,以达到机器人最佳的定位效果。
全局轨迹跟踪控制技术广泛应用于各个领域,其应用也有很大不同。
例如,该技术可用于无人机的飞行路径计算和控制,也可以用于实现机器人精确的定位。
在工厂自动化系统中,通过这项技术可以帮助机器人精确定位,以实现精确的目标控制。
此外,在服务机器人领域,该技术也可以应用于服务机器人路径规划和控制,保证服务机器人准确地完成任务。
机器人全局轨迹跟踪控制是自动化技术发展的核心,它能够帮助机器人准确地定位,保证机器人的最优移动效果。
在工业机器人领域,全局轨迹跟踪控制技术应用十分广泛,它不仅可以帮助机器人准确定位,而且还可以实现精确的机器人路径跟踪和控制,保证机器人准确地执行任务。
综上所述,机器人全局轨迹跟踪控制是当前自动化技术发展的重要组成部分,其应用非常广泛,在但工业机器人领域尤为重
要。
未来,随着自动化技术的进一步发展,机器人全局轨迹跟踪控制将会发挥越来越重要的作用,带来更多更好的机器人服务和技术应用。
《轮式移动机器人轨迹跟踪智能控制》范文
![《轮式移动机器人轨迹跟踪智能控制》范文](https://img.taocdn.com/s3/m/cf026395f71fb7360b4c2e3f5727a5e9846a2774.png)
《轮式移动机器人轨迹跟踪智能控制》篇一一、引言随着科技的进步和人工智能的飞速发展,轮式移动机器人在工业、军事、医疗、服务等领域的应用越来越广泛。
其中,轨迹跟踪智能控制是轮式移动机器人研究的重要方向之一。
本文将深入探讨轮式移动机器人的轨迹跟踪智能控制技术,包括其原理、方法、应用和挑战等方面。
二、轮式移动机器人轨迹跟踪的基本原理轮式移动机器人的轨迹跟踪主要依赖于其运动学模型和控制系统。
运动学模型描述了机器人的运动状态与输入之间的关系,而控制系统则根据设定的轨迹和当前状态,通过算法计算出控制指令,使机器人能够准确跟踪目标轨迹。
三、智能控制方法在轨迹跟踪中的应用1. 传统控制方法:传统的轨迹跟踪方法主要包括PID控制、模糊控制等。
这些方法简单易行,但在复杂环境下效果不佳,容易受到外界干扰。
2. 智能控制方法:随着人工智能技术的发展,越来越多的智能控制方法被应用于轮式移动机器人的轨迹跟踪。
如基于神经网络的控制方法、基于强化学习的控制方法等。
这些方法能够根据环境变化自适应调整控制策略,提高机器人的轨迹跟踪性能。
四、智能控制算法的优化与实现针对轮式移动机器人的轨迹跟踪问题,本文提出一种基于深度学习的智能控制算法。
该算法通过训练神经网络模型,使机器人能够学习并适应各种复杂环境下的轨迹跟踪任务。
具体实现步骤包括:1. 数据集准备:收集大量轮式移动机器人的轨迹数据,包括正常环境下的数据和复杂环境下的数据。
2. 神经网络模型构建:设计合适的神经网络结构,包括输入层、隐藏层和输出层。
输入层接收机器人的当前状态和目标轨迹信息,输出层输出控制指令。
3. 训练过程:使用收集的数据集对神经网络模型进行训练,使模型能够学习并掌握各种环境下的轨迹跟踪技能。
4. 优化与调整:根据训练结果对模型进行优化和调整,提高其性能和鲁棒性。
五、应用与挑战轮式移动机器人的轨迹跟踪智能控制在许多领域都有广泛的应用前景。
例如,在无人驾驶汽车中,智能控制算法可以使汽车在复杂道路环境下准确跟踪行驶轨迹;在工业生产中,轮式移动机器人可以准确完成物料搬运、装配等任务。
移动机器人5大常见定位技术
![移动机器人5大常见定位技术](https://img.taocdn.com/s3/m/40eeba07f08583d049649b6648d7c1c708a10bbe.png)
移动机器人5大常见定位技术移动机器人目前已经遍布军事、工业、民用等各大领域,并还在不断的发展中,目前移动机器人技术已获得了可喜的进展,研究成果令人鼓舞,但对于实际中的应用需求还需要长时间的发展,相信随着传感技术、智能技术和计算技术等的不断提高,智能移动机器人一定能够在生产和生活中扮演人的角色。
那么移动机器人定位技术主要涉及到哪些呢?经总结目前移动机器人主要有这5大定位技术。
一、移动机器人超声波导航定位技术超声波导航定位的工作原理也与激光和红外类似,通常是由超声波传感器的发射探头发射出超声波,超声波在介质中遇到障碍物而返回到接收装置。
通过接收自身发射的超声波反射信号,根据超声波发出及回波接收时间差及传播速度,计算出传播距离S,就能得到障碍物到机器人的距离,即有公式:S=Tv/2式中,T—超声波发射和接收的时间差;v—超声波在介质中传播的波速。
当然,也有不少移动机器人导航定位技术中用到的是分开的发射和接收装置,在环境地图中布置多个接收装置,而在移动机器人上安装发射探头。
在移动机器人的导航定位中,因为超声波传感器自身的缺陷,如:镜面反射、有限的波束角等,给充分获得周边环境信息造成了困难,因此,通常采用多传感器组成的超声波传感系统,建立相应的环境模型,通过串行通信把传感器采集到的信息传递给移动机器人的控制系统,控制系统再根据采集的信号和建立的数学模型采取一定的算法进行对应数据处理便可以得到机器人的位置环境信息。
由于超声波传感器具有成本低廉、采集信息速率快、距离分辨率高等优点,长期以来被广泛地应用到移动机器人的导航定位中。
而且它采集环境信息时不需要复杂的图像配备技术,因此测距速度快、实时性好。
同时,超声波传感器也不易受到如天气条件、环境光照及障碍物阴影、表面粗糙度等外界环境条件的影响。
超声波进行导航定位已经被广泛应用到各种移动机器人的感知系统中。
二、移动机器人视觉导航定位技术在视觉导航定位系统中,目前国内外应用较多的是基于局部视觉的在机器人中安装车载摄像机的导航方式。
轮式移动机器人轨迹跟踪的pid控制方法
![轮式移动机器人轨迹跟踪的pid控制方法](https://img.taocdn.com/s3/m/a691147468eae009581b6bd97f1922791688be80.png)
轮式移动机器人轨迹跟踪的pid控制方法随着轮式移动机器人自主导航技术的发展,轨迹跟踪成为了一个重要的问题。
PID控制器是一种常用的控制器,在轮式移动机器人的轨迹跟踪中也有着广泛的应用。
本文将介绍一种基于PID控制的轮式移动机器人轨迹跟踪方法。
首先,我们需要确定轮式移动机器人的轨迹跟踪目标,即期望路径。
一般情况下,期望路径可以是一条直线或者一条曲线。
在本文中,我们以一条曲线为例进行说明。
其次,我们需要获取轮式移动机器人的当前位置信息。
这可以通过机器人上安装的传感器实现,如GPS、陀螺仪等。
在获取到当前位置信息后,我们需要将其与期望路径进行比较,得到偏差值。
然后,我们利用PID控制器对偏差值进行控制,从而使机器人能够跟随期望路径行驶。
PID控制器的输入是偏差值,输出是校正量,其计算公式如下:
校正量 = Kp ×偏差值 + Ki ×积分项 + Kd ×导数项
其中,Kp、Ki、Kd是PID控制器的参数,需要通过实验进行调整。
积分项和导数项分别表示偏差值的累积量和变化率,可以有效地消除偏差值的漂移和抖动。
最后,我们将校正量转化为机器人的控制指令,如电机驱动信号。
这样,机器人便可以根据PID控制器的输出实现轨迹跟踪。
综上所述,基于PID控制的轮式移动机器人轨迹跟踪方法能够实现精准的路径控制,具有较高的应用价值。
移动机器人视觉跟踪及控制算法
![移动机器人视觉跟踪及控制算法](https://img.taocdn.com/s3/m/eaa18a55fbd6195f312b3169a45177232f60e4f0.png)
移动机器人视觉跟踪及控制算法一、引言移动机器人是一种在工业和服务领域中广泛使用的机器人,其具有较强的自主性和智能化程度。
视觉系统(相机)是移动机器人中最重要的传感器之一,能够提供丰富的环境信息。
视觉跟踪及控制算法可让该机器人实现自主的行动,根据环境变化对机器人进行控制。
本篇文章将介绍移动机器人视觉跟踪及控制算法的工作原理和实现方法。
二、基础知识2.1 移动机器人移动机器人是一种自动化机器人,具有移动能力。
它可以自由的按照人的命令或者独立完成任务而移动。
目前移动机器人的应用范围覆盖了工业、医疗、物流、保安、教育等领域。
2.2 视觉系统视觉系统是机器人中最常用的感知系统之一,其核心是摄像头组件,它提供丰富的环境信息,可以用来进行识别、跟踪、定位和避障。
三、视觉跟踪算法3.1 物体检测物体检测是视觉跟踪的第一步,其目的在于从图片中找出需要跟踪的物体。
常用的物体检测算法有卷积神经网络(CNN)、边缘检测、颜色检测等。
3.2 物体描述物体描述及其特征是对需要跟踪的物体进行精确定位的关键。
常用的物体描述算法有SIFT、SURF、ORB等。
3.3 相似度匹配相似度匹配是指将前一帧中物体的描述与当前帧中物体描述进行比较,找出相似度最高的物体。
常用的相似度匹配算法有模板匹配、最近邻算法、机器学习算法等。
四、视觉控制算法目前视觉控制算法比较常用的有基于视觉伺服控制方法、基于视觉反馈控制方法和基于视觉动态控制方法。
4.1 基于视觉伺服控制方法基于视觉伺服控制方法是指直接对机器人进行控制,实现跟踪物体的运动。
其中的关键要素包括控制系统的设计、伺服控制器的设计、位姿估计和实时闭环控制等。
4.2 基于视觉反馈控制方法基于视觉反馈控制方法是指通过视觉传感器进行前瞻性运动估计和控制的方法。
在进行跟踪时,机器人会通过感知到的环境信息进行运动估计,再通过反馈控制对机器人进行速度和方向的调整。
4.3 基于视觉动态控制方法基于视觉动态控制方法是指直接利用机器人的动态模型进行状态反馈控制或非线性控制,并通过视觉传感器获取其位置和速度信息来进行后继控制的方法。
移动机器人自主跟随技术
![移动机器人自主跟随技术](https://img.taocdn.com/s3/m/2793354f854769eae009581b6bd97f192279bfd2.png)
挪动机器人自主跟随技术关键词:挪动机器人,自主跟随,计算机视觉,深度进修,路径规划,人机交互,智能物流,家庭服务,医疗护理一、探究现状目前,挪动机器人自主跟随技术已经成为人工智能技术领域的重要探究方向之一。
近年来,国内外学者和探究机构在该领域的探究和应用方面取得了丰硕的效果。
例如,美国麻省理工学院推出的“Cheetah”机器人就是一款接受了自主跟随技术的挪动机器人,它可以实现对人类进行追踪和交互;国内的清华高校、北京高校、中科院等一批高校和科研机构也在挪动机器人自主跟随技术的探究和应用方面进行了乐观的探究和尝试。
二、关键技术挪动机器人自主跟随技术的实现需要涉及多个关键技术,这些技术包括机器人感知和运动控制、机器人路径规划和任务分配、机器人人机交互等方面。
1. 机器人感知和运动控制机器人感知和运动控制是实现自主跟随技术的基础。
机器人感知系统需要能够准确地识别目标并跟踪其运动轨迹,同时能够在复杂的环境中自适应地调整行动路线。
机器人运动控制系统需要能够控制机器人的运动方向和速度,实现机器人的跟随操作。
2. 机器人路径规划和任务分配机器人路径规划和任务分配是实现自主跟随技术的关键环节。
机器人路径规划需要思量机器人的运动速度、障碍物的位置、目标物体的运动轨迹等多个因素。
机器人任务分配需要思量不同机器人的特点和能力,合理分配不同的任务,以实现最优的跟随效果。
3. 机器人人机交互机器人人机交互是实现跟随操作的重要手段。
通过机器人人机交互的方式,可以实现裁定目标物体的运动轨迹、调整机器人的运动路径和速度、异常状况的处理等多个功能。
三、应用领域挪动机器人自主跟随技术可以应用于多个领域,包括智能物流、家庭服务、医疗护理等方面。
1. 智能物流在智能物流领域,可以利用挪动机器人实现物品的自动采集、自动运输和自动分拣等功能,通过自主跟随技术,可以实现机器人与人类的协同操作,提高物流的效率和准确度。
2. 家庭服务在家庭服务领域,挪动机器人可以实现一系列家庭服务功能,例如指挥孩子外出游玩、给老人做家务、与宠物互动等。
基于改进YOLOX的移动机器人目标跟随方法
![基于改进YOLOX的移动机器人目标跟随方法](https://img.taocdn.com/s3/m/fc00ea9029ea81c758f5f61fb7360b4c2e3f2a98.png)
基于改进YOLOX 的移动机器人目标跟随方法万 琴 1, 2李 智 1李伊康 1葛 柱 1王耀南 2, 3吴 迪1摘 要 针对移动机器人在复杂场景中难以稳定跟随目标的问题, 提出基于改进YOLOX 的移动机器人目标跟随方法, 主要包括目标检测、目标跟踪以及目标跟随三个部分. 首先, 以 YOLOX 网络为基础, 在其框架下将主干网络采用轻量化网络 MobileNetV2X, 提高复杂场景中目标检测的实时性. 然后, 通过改进的卡尔曼滤波器获取目标跟踪状态并采用数据关联进行目标匹配, 同时通过深度直方图判定目标发生遮挡后, 采用深度概率信息约束及最大后验概率(Maximum a posteri-ori, MAP)进行匹配跟踪, 确保机器人在遮挡情况下稳定跟踪目标. 再采用基于视觉伺服控制的目标跟随算法, 当跟踪目标丢失时, 引入重识别特征主动搜寻目标实现目标跟随. 最后, 在公开数据集上与具有代表性的目标跟随方法进行了定性和定量实验, 同时在真实场景中完成了移动机器人目标跟随实验, 实验结果均验证了所提方法具有较好的鲁棒性和实时性.关键词 移动机器人, YOLOX, 重识别, 目标跟随引用格式 万琴, 李智, 李伊康, 葛柱, 王耀南, 吴迪. 基于改进YOLOX 的移动机器人目标跟随方法. 自动化学报, 2023,49(7): 1558−1572DOI 10.16383/j.aas.c220344Target Following Method of Mobile Robot Based on Improved YOLOXWAN Qin 1, 2 LI Zhi 1 LI Yi-Kang 1 GE Zhu 1 WANG Yao-Nan 2, 3 WU Di 1Abstract A target following method of mobile robot based on improved YOLOX is proposed to solve the problem that mobile robots are difficult to follow the target stably in complex scene. This method mainly includes three parts: Target detection, target tracking and target following. Firstly, the lightweight MobileNetV2X network is ad-opted under the YOLOX framework to improve the real-time performance of target detection in complex scene.Then, the improved Kalman filter is proposed to obtain the tracking state and data association is used for target matching. When the target is judged by depth-histogram, the depth probability constraint and maximum a posteri-ori (MAP) probability are utilized for matching, which ensure that the robot tracks the target stably under occlu-sion. Moreover, target-following algorithm based on servo control is proposed, and re-id feature is introduced to act-ively search for disappeared targets. Finally, qualitative and quantitative experiments on public data set and in real-world environments demonstrate the efficiency of the proposed method.Key words Mobile robot, YOLOX, re-id, target followingCitation Wan Qin, Li Zhi, Li Yi-Kang, Ge Zhu, Wang Yao-Nan, Wu Di. Target following method of mobile robot based on improved YOLOX. Acta Automatica Sinica , 2023, 49(7): 1558−1572移动机器人在安防、物流和医疗等领域应用广泛[1−2], 其中机器人目标跟随算法引起了广泛关注,但移动机器人目标跟随算法的鲁棒性和实时性仍是亟待解决的关键问题[3−4].机器人目标跟随算法分为生成式模型方法和检测跟踪方法两大类[5−6]. 生成式模型主要通过构建目标模型实现跟随, 如Yoshimi 等[7]利用视觉传感器获取行人颜色和纹理特征, 机器人在视野范围内寻找与之相匹配的区域, 融合行人与位置速度信息构建模型, 采用基于生成式的目标跟踪算法跟随行人.然而, 此类算法关注目标本身, 忽略背景信息, 经常出现跟踪丢失的情况.为同时考虑目标与背景信息, 检测跟踪方法得收稿日期 2022-04-27 录用日期 2022-09-26Manuscript received April 27, 2022; accepted September 26,2022国家自然科学基金 (62006075), 湖南省自然科学杰出青年基金(2021JJ10002), 湖南省重点研发计划(2021GK2024), 湖南省教育厅重点项目(21A 0460), 湖南省自然科学基金面上项目(2020JJ4246, 2022JJ30198)资助Supported by National Natural Science Foundation of China (62006075), Foundation Project for Distinguished Young Schol-ars of Hunan Province (2021JJ10002), Key Research and Devel-opment Projects of Hunan Province (2021GK2024), Key Projects of Hunan Provincial Department of Education (21A0460), and General Project of Hunan Natural Science Foundation (2020JJ 4246, 2022JJ30198)本文责任编委 程龙Recommended by Associate Editor CHENG Long1. 湖南工程学院电气与信息工程学院 湘潭 4111042. 湖南大学机器人视觉感知与控制技术国家工程研究中心 长沙 4100823. 湖南大学电气与信息工程学院 长沙 4100821. College of Electrical and Information Engineering, Hunan Institute of Engineering, Xiangtan 4111042. National Engin-eering Research Center for Robot Visual Perception and Control Technology, Hunan University, Changsha 4100823. College ofElectrical and Information Engineering, Hunan University,Changsha 410082第 49 卷 第 7 期自 动 化 学 报Vol. 49, No. 72023 年 7 月ACTA AUTOMATICA SINICAJuly, 2023到了越来越多的关注, 此方法通过构建分类器区分目标及背景, 其跟踪效果普遍优于生成式模型方法.余铎等[3] 通过快速判别尺度空间切换相关滤波算法与卡尔曼滤波算法实现稳定跟踪. 另外, 移动机器人在跟随控制过程中常受到背景杂斑、光照变化、目标遮挡、尺度变化等干扰, 导致跟随目标丢失. 因此传统的检测跟踪方法不适用于移动机器人在复杂多变场景中的目标跟随[2].基于深度学习的移动机器人目标跟随算法具有鲁棒性强等优势[8]. Zhang等[9] 通过基于目标轮廓带采样策略来提高移动机器人跟踪性能, 但未对遮挡、行人消失等情况进行处理. Pang等[10] 提出一种基于深度学习的目标检测器, 引入卡尔曼滤波来预测目标位置, 加入重识别模块处理遮挡问题, 但此类算法需先获取精度较高的目标检测结果. 鉴于上述问题, JDE (Jointly learns the detector and em-bedding model)检测模型可用来融合重识别与检测分支[11], 提高目标检测精度. YOLO (You only look once) 系列算法则是一类基于JDE检测模型的一阶段框下的目标检测算法, 具有高效、灵活和泛化性能好的优点.YOLO算法包括了YOLOV1 ~ YOLOV7系列算法以及一系列基于改进YOLO的目标检测算法. Redmon等[12] 提出YOLO算法进行目标检测,直接采用回归的方法进行坐标框的检测以及分类,使用一个端到端的简单网络实现坐标回归与分类,能够极大地提升目标的检测速度. 此后, YOLO的网络结构不断优化, 已经成为目标检测领域主流的算法. Hsu等[13]引入比率感知机制, 动态调整YOLOV3的输入层长度和宽度超参数, 从而解决了长宽比差异较大的问题, 能够有效地提高平均跟踪精度. Huang等[14] 引入改进的YOLOV3模型, 此模型将预测尺度从3个增加到4个, 并使用额外的特征图来提取更多的细节. YOLOV3的目标位置识别精度较差, 在目标分布密集、尺寸差异较大的复杂场景中, 检测效果较差. YOLOV4[15] 开发了Darknet53目标检测模型, 此模型具有更高的网络输入分辨率,网络层参数多, 计算复杂度高, 对小目标检测效果较差. 对此, YOLO-Z[16] 提出了一系列不同尺度的模型, 提高YOLOV5检测小目标的性能. Cheng等[17]提出一种单阶段SSD (Single shot multibox de-tector) 微小目标检测方法, 此方法可提高微小目标检测的实时性, 但其使用的两阶段式目标检测器使目标定位精度有所下降. YOLOV6[18]设计了更高效的主干网络和网络层. YOLOV7[19]扩展了高效长程注意力网络, 加入了基于级联的模型缩放方法,均可一定程度提高检测精度和推理效率, 但由于未引入重识别分支, 无法提取浅层特征用于后续跟踪. YOLOX[20]在YOLO系列的基础上做出了一系列改进, 相比于YOLO系列目标检测算法, 其最大的不同是采用了无锚框检测器. 而YOLOV1 ~ YOLOV5采用有锚框的检测器, 由于可能会被多个锚框同时检测且与检测框中心存在误差, 并不适用于JDE 检测模型. 因此, 采用无锚框的YOLOX目标检测算法更加适合于JDE检测模型.移动机器人检测与跟踪跟随目标的核心问题是其在运动过程中, 复杂场景干扰影响其检测精度以及跟随性能. YOLOX以Darknet53网络结构为主干, 有较高的检测精度, 但模型较大、推理速度较慢, 不适用于移动机器人实时跟随. 在YOLOV5的网络模型中, 虽然网络的特征提取能力随着深度的增加而增强, 但下采样次数的增加会导致梯度的消失, 这极大影响了移动机器人的检测精度[21]. 为了提升移动机器人的检测精度, DeepSORT目标跟踪算法[22]采用卡尔曼滤波更新目标位置, 并与当前检测目标关联匹配, 但未解决因遮挡跟踪造成的目标丢失问题. Han等[23]提出PSR (Peak side-lobe rate)目标跟踪算法, 引入深度信息来评估跟踪可信度,并可主动检测跟踪丢失目标. 但其采用相关滤波法实现目标跟踪, 在复杂场景下的跟踪鲁棒性低. 可见, 改进网络结构的同时引入深度信息, 是提升移动机器人检测跟随性能的一种亟待探索的方法.综上所述, 基于YOLO系列的移动机器人目标跟随算法的鲁棒性强且精度高, 但对于变化环境迁移和泛化能力弱, 且运行速率低. 传统移动机器人目标跟随算法速度快, 但是当目标发生形变、尺度变化和严重遮挡等情况时, 跟踪过程容易出现目标跟踪丢失. 因此, 为实现复杂场景下移动机器人稳定跟随目标, 本文提出改进YOLOX的移动机器人目标跟随方法(Improved YOLOX target-follow-ing algorithm, IYTFA). 主要工作如下:1)为提高目标检测精度和速度, 提出基于YOLOX-MobileNetV2X网络 (YOLOX-M2X) 的目标检测算法, 使用交叉熵损失、回归损失以及重识别损失函数, 共同训练检测与重识别分支.2)为提高目标预测与更新速率, 采用改进的卡尔曼滤波器获取目标跟踪状态. 同时加入基于深度直方图的遮挡检测机制, 并通过深度概率约束帧间目标匹配, 提高遮挡跟踪准确率.3)在目标跟随过程中, 提出基于视觉伺服控制的主动搜寻策略, 并在目标消失时引入重识别特征进行跟踪跟随, 保证移动机器人稳定跟随目标.本文内容安排如下: 第1节介绍IYTFA算法,7 期万琴等: 基于改进YOLOX的移动机器人目标跟随方法1559包括目标检测部分、目标跟踪部分和目标跟随控制部分; 第2节为实验验证, 简要说明移动机器人和深度学习平台, 定性、定量分析目标跟踪算法, 并进行移动机器人目标跟随实验; 第3节对本文工作进行总结与展望.1 IYTFA 算法IYTFA 移动机器人目标跟随方法的结构框图如图1所示, 主要由目标检测、目标跟踪及目标跟随控制三部分组成. 首先, 将YOLOX 的主干网络Darknet53替换为MobileNetV2X, 通过获取的RGB 视频序列输入训练完成的MobileNetV2X 网络得到特征图, 再将重识别损失函数和检测损失函数分别训练重识别分支及检测分支, 从而得到目标检测结果. 然后采用改进的卡尔曼滤波器获取跟踪状态, 通过轨迹关联实现目标匹配, 同时引入遮挡判别机制, 如判断目标被遮挡则加入深度概率约束进行遮挡目标跟踪匹配. 最后采用基于视觉伺服控制的主动搜寻策略完成移动机器人目标跟随.1.1 改进YOLOX 的目标检测算法目标检测是移动机器人目标跟随的关键问题,目标检测精度很大程度上决定了移动机器人跟随的稳定性. 本文以YOLOX 体系架构为基础进行改进, 优化网络结构与损失函数, 提高检测实时性. 主干网络使用MobileNetV2X 网络, 再通过检测分支与重识别分支得到检测结果.1.1.1 YOLOX-MobileNetV2X 网络YOLOX 算法[20]将解耦头、数据增强、无锚框以及标签分类等算法与传统的YOLO 算法进行融合, 算法泛化能力强, 检测小目标精度高.YOLOX 算法网络主要分为三个部分, 分别为主干网络、网络层和预测层. 其主干网络采用Darknet53特征提取网络, 网络层采用特征金字塔网络, 预测层使用了3个解耦头. 输入图片在主干网络部分进行浅层特征提取, 输出3个特征层传入网络层进行深层特征提取, 输出分别传入3个解耦头进行目标检测. 但是YOLOX 主干网络通常使用Darknet53网络, 存在模型尺寸大、推理速度慢等问题. 因此为实现移动机器人实时目标检测, 本文提出YOLOX-M2X 网络, 将YOLOX 主干网络采用轻量级的特征提取网络MobileNetV2X, 该网络的卷积核心层是深度可分离卷积层, 可将输出的特征图的通道数缩减至一半, 并再与原卷积层提取的特征图合并,与仅使用一组深度可分离卷积的MobileNetV2[24]相比, 该网络可获得更多特征图的语义信息.330×103220×103250×103在YOLOX-M2X 网络上, 先采用COCO2017训练集训练得到网络参数, 再移植至移动机器人平台进行实时检测. COCO2017数据集是一个可用于图像检测的大规模数据集, 包含超过 幅图像(其中 幅是有标注的图像), 涵盖150万个目标及80个目标类别(行人、汽车、大象等)、91种材料类别(草、墙、天空等), 每幅图像包含5句语句描述, 且有 个带关键点标注的行人.RGB 视频序列深度视频序列跟踪结果检测结果重识别分支分支分支目标分支网络层重识别头解耦头相机ZED 相机坐标系图像坐标系跟随行人移动机器人坐标系世界坐标系 M前景机器人跟随运动学模型MobileNetV2X主干网络ZED 相机模型浅层特征深层特征特征图F R F R F F f (t )X X Y Y Z R = O −z XYOww q q O R =x y z P = ∑ w f (x x 重识别−低维向量改进卡尔曼滤波器图 1 本文方法结构框图Fig. 1 Structure block diagram of our method1560自 动 化 学 报49 卷H ×W H W F ∈R H ×W ×C H W C MobileNetV2X 网络将目标检测时的分类分为7个阶段, 输入图片分辨率为 ( 为图片高度, 为图片宽度). 假设输入特征图表示为 , 其中 为高度、 为宽度、 为通道数.每个阶段的核心层为瓶颈层, 每个阶段的瓶颈层中包括4个步骤.F 1×1∈R H ×W ×C ′步骤 1. 使用1×1卷积核扩展特征图为 , 大幅减少计算量.F 1×1∈R H ×W ×C ′F 3×3∈R H ′×W ′×C ′步骤 2. 特征图 进行逐点卷积,再采用3×3深度可分离卷积得到特征图 .F 3×3∈R H ′×W ′×C ′F (3×3)/2∈R H ′×W ′×(C ′/2)F ′(3×3)/2∈R H ′×W ′×(C ′/2)F ′(3×3)/2∈R H ′×W ′×(C ′/2)F ′′(3×3)/2∈RH ′′×W ′′×(C ′/2)F ′′(3×3)/2∈R H′′×W ′′×(C ′/2)F ′(3×3)/2∈R H′×W ′×(C ′/2)F ′3×3∈RH ′′′×W ′′′×C ′步骤 3. 为进一步获得更多的语义信息, 将特征图 一分为二, 首先通过普通卷积将特征映射减少到原始通道数的一半, 得到特征图和 ,再将特征图 进行深度可分离卷积得到 , 然后将 与 两者结合在一起得到新的特征图 .F ′3×3∈RH ′′′×W ′′′×C ′F ′∈R H ′′′×W ′′′×C ′′步骤 4. 将新特征图 使用卷积核为1×1的投影卷积层再次卷积, 得到特征图为 , 即得到每个瓶颈层的输出特征图.F 7∈R 15×15×320F 1∈R 240×240×15在MobileNetV2X 网络中的第7个阶段得到深层特征图 , 在第1个阶段得到浅层特征图 , 经网络层后得到检测分支和重识别分支的输入特征图.1.1.2 目标检测分支及损失函数F 7∈R 15×15×320F detction ∈R H d ×W d ×C d F obj ∈R H ′o ×W ′o ×1F reg ∈R H ′r ×W ′r ×4(x y w h )F cls ∈R H ′c ×W ′c ×1F detection ∈R H ′d ×W ′d ×6MobileNetV2X 网络输出的检测分支特征图, 经网络层后得到特征图 , 再经过解耦头后得到检测分支, 包括目标、分类和回归三个分支. 输入目标分支的特征图为 , 分支中每个特征点代表对应预测框内被检测目标属于前景的概率, 据此判断目标是前景还是背景. 为稳定训练过程并加快收敛速度、精确定位目标, 该分支估计每个像素相对于目标中心的连续漂移, 以减少下采样的影响; 输入回归分支的特征图为 , 该分支对目标框的中心坐标点及高度宽度 , , , 进行预测; 输入分类分支的特征图为 ,该分支得到对目标所属类别的预测评分, 如目标属于行人、车辆、动物等不同类别的评分, 其代表目标属于各个类别的概率值. 最后将三个分支的输出结果合并相加得到特征图 , 即为目标检测分支的信息.L obj L reg L cls L detection 为度量目标检测信息和真实目标信息之间的差值, 进一步定义损失函数, 损失函数值越小则差值越小, 训练模型准确度越高. 由于MobileNetV2X 网络中的目标检测分支包括目标分支、回归分支和分类分支, 其对应损失函数由目标损失函数 、回归损失函数 和分类损失函数 三部分组成,总的训练损失函数 表示为λ1λ2λ3L obj L cls L reg 其中, , 和 是损失平衡系数. 和 采用二值交叉熵损失函数(Binary cross entropy,BCE), 采用交并比 (Intersection over union,IoU) 损失函数.L obj 在目标检测中, 需首先判定预测的目标属于前景或者背景, 目标损失函数 采用Focal 交叉熵损失函数度量其与真实值的差值, 即N obj L obj y s s p s s 其中, 代表用于计算 损失函数的视频帧目标总个数; 表示测试样本 的标签, 前景标为1,背景标为0; 表示测试样本 预测为前景的概率.L reg IoU IoU IoU 回归损失函数使用 损失函数来度量预测检测框与真实目标框的交并比(面积重叠度). 指标范围为[0, 1], 当面积重叠率越大时, 指标数值越大, 即IoU 其中, 表示当前帧目标预测框和目标真实框的面积重叠率,即交并比.为评判当前视频帧目标所属的类别与真实值的差值, 分类损失函数采用多分类交叉熵损失函数对目标所属类别的预测进行评分, 即N cls L cls M y dc d c y dc p dc d c 其中, 代表用于计算 损失函数的视频帧目标总个数; 表示类别的数量; 为符号函数, 如果当前视频帧目标 的真实类别等于 , 为1,否则取0; 为当前帧目标 属于类别 的预测概率.1.1.3 重识别分支及损失函数为在目标消失再出现时完成视频连续帧间的目标匹配识别(即目标重识别), 在YOLOX-M2X 网络中加入重识别分支提取目标的颜色、纹理等浅层外观特征作为重识别特征.MobileNetV2X 网络输出的重识别分支特征图7 期万琴等: 基于改进YOLOX 的移动机器人目标跟随方法1561F 1∈R 240×240×16F re-id ∈R H ri ×W ri ×C riF ′re-id∈R H ′ri ×W ′ri ×C ri F ′′re-id∈R H ′′ri ×W ′′ri ×128x y C ={c (b ),b ∈[1,B ]} 经网络层得到 ,首先使用3×3卷积核依次与输入特征图卷积, 得到特征图 , 再通过128组1×1的卷积, 得到具有128个通道的特征图 , 则在特征图中提取对应的目标框中心点( , )处的浅层外观特征作为该目标重识别特征. 同时使用全连接层和归一化操作将其映射到特征分布向量 .L id 为评判重识别特征图准确度, 定义重识别损失函数, 其值越小, 表示重识别特征图越准确. 并将重识别损失函数 定义为L la (b )B N re-id 其中, 目标真实框的标签编码为 , 是训练数据中所有身份(ID)的编号, 使用特征图对应的目标中心点重识别特征在YOLOX-M2X 网络进行训练, 表示当前帧中目标所属类别的总数.L id L detection 最后, 将检测和重识别损失函数相加, 同时使用不确定性损失函数[11]来自动平衡检测和重识别损失函数. 与单独使用 和 训练模型相比, 训练效果得到提升, 同时减少了计算复杂度, 可达到实时性要求.1.2 基于改进卡尔曼滤波的目标跟踪首先使用第1帧检测的目标框初始化目标轨迹及跟踪状态, 然后通过改进的卡尔曼滤波器预测下一帧目标位置, 最后采用连续帧间的数据关联确定目标跟踪状态.t M i =1,···,M t N j =1,···,N t i x t,i j z t,j 在当前视频帧下, 设 时刻检测到 个目标,, 时刻跟踪 个目标, ,每一帧检测及跟踪结果实时更新, 则当前 时刻的第 个检测目标状态为 , 第 个跟踪目标状态为.x t,i =(β,˙β)T β={u,v,γ,h }β(u,v )γh (˙u,˙v )˙γ˙h本文使用改进的卡尔曼滤波器对行人轨迹的状态进行预测和更新, 设目标状态为 ,. 其中 表示目标的观测值, 表示边界框中心位置, 高宽比为 , 高度为 . 目标中心点变化速率为 , 高宽比变化速率为 , 高度变化速率为 . 考虑带非加性噪声的一般非线性系统模型w t −1v t w t −1v t 其中, 和 分别是过程噪声序列和量测噪声序列, 并假设 和 是均值为0的高斯白噪声, 其Q t R t w t −1Q t V t R t 方差分别为 和 , 即 ~(0, ), ~(0, ).为详细说明改进卡尔曼滤波器预测与更新的过程, 算法1给出此部分的伪代码. 算法1. 改进卡尔曼滤波算法x 0,i P Q t R t 输入. , , , .x t +1输出. .x 0,i P Q tR t t =0初始化. 和协方差矩阵 , 确定噪声协方差矩阵 和 , 并且设置时间 .[1,t +1]1) for .ψ=V √DV [V,D ]=eig (P )ψP 2) , 其中, , eig 表示矩阵特征值分解, 为正半定平方根矩阵, 为协方差矩阵.φP i ρi =|⟨φ,P i ⟩|/(|φ|×|P i |)3) 计算均值 和协方差矩阵 之间余弦相似度 .ξt,i =φ+√∑M i =1ρi /(λρi )ψt 4) 计算容积点 .ωt,i (ε)=λρi /(4∑Mi =1ρi )5) 计算权重 .ξt,i ωt,i 6) 生成容积点 和 .ˆx t +1,i P t +17) 通过以下公式估计一步状态预测 和 方差.ˆx t +1,i =M ∑i =1w t,i f (ξt ,i) P t +1=n ∑i =1w t,i f (ξt,i )f T (ξt,i )−ˆx t +1,i ˆx T t +1,i +Q t ξt +1,i ωt +1,i 8) 与步骤3)类似, 生成容积点 和 .ˆz t +1,j P z t +19) 估计输出预测 , 协方差 .ˆx t +1,i =ˆx t +1,i +K t +1(z t +1,j −ˆz t +1,j ) K t +1=P z t +1 P t +1=P t +1−K t +1P z t +1K T t +1 .10) end for .i z t,j F ′′t,re-id ∈R H ′′ri ×W ′′ri ×128F ′′t −1,re-id ∈R H ′ri ×W ′ri ×128q (i,j )F ′′t,re-id∈R H ′′ri ×W ′′ri ×128F ′′t −1,re-id ∈R H ′ri ×W ′ri ×128采用改进卡尔曼滤波器获取上一帧目标 的中心点在当前帧的预测位置 , 同时通过重识别特征图 中对应该预测中心位置, 得到上一帧目标在当前帧的预测外观特征. 移动机器人在跟随过程中, 会出现遮挡、快速移动等情况, 余弦距离具有快速度量的优点. 采用余弦距离 [19]判别当前帧中心点对应的外观特征向量 与上一帧在当前帧的预测外观特征向量 是否关联.b i,j λb i,j λi j b i,j λ其中, 为正确关联轨迹集合. 在训练数据集上训练网络参数得到余弦距离, 并与训练集基准之间的余弦距离进行比较, 得到阈值 . 式(7)中, 当 小于阈值 , 表示当前帧检测目标 与上一帧跟踪目标 关联, 则跟踪正常; 当 大于阈值 , 表示未成功关联, 则继续判断目标是否遮挡或消失.1562自 动 化 学 报49 卷1.3 基于深度概率约束的遮挡目标跟踪跟踪目标由于被遮挡, 目标外观会发生显著变化, 导致目标特征减少, 移动机器人跟踪目标丢失.本文提出一种有效的遮挡处理机制, 当判断遮挡发生时, 采用深度概率对目标周围区域进行空间约束,并通过最大后验概率(Maximum a posteriori,MAP)关联匹配实现遮挡跟踪.1)遮挡判断由于多个目标相互遮挡时, RGB 外观被遮挡,只可从深度信息区分不同遮挡目标, 而ZED 相机获取的深度信息为多个遮挡目标中离该相机最近的目标深度信息. 因此将目标框在RGB 图中的位置区域映射到深度图中并设定为深度遮挡区域, 若判定其他目标进入此区域表示发生遮挡, 具体判定如图2所示.(a) 遮挡前(a) Before occlusion(b) 遮挡后(b) After occlusionRGB 图深度图深度直方图深度遮挡区域目标1目标2RGB 图深度图深度直方图图 2 遮挡前后深度直方图Fig. 2 Depth histogram before and after occlusion目标1遮挡前深度直方图最大峰值为4 000, 目标2遮挡前深度直方图的最大峰值为2 500, 发生遮挡后深度遮挡区域深度直方图最大峰值为2 500, 深度直方图的峰值从4 000下降到2 500. 显然, 此时目标1的深度遮挡区域的深度直方图出现新的上升峰值2 500, 且小于遮挡前的峰值4 000, 则可见目标被遮挡后的深度直方图峰值明显减少.j t −1t (d j t −d j t −1)N (w t ,ξ2t )因此, 可根据深度变化大小判定是否发生遮挡.设跟踪目标 在 帧和 帧之间的深度变化均值可以近似为高斯分布 ~ , 在此基础上判定是否发生遮挡.,d j t t j M j |(d jt −d j t −1)|t −1t |(ωt −ξt )/(ωt −1−ξt −1)|t t −1∑w t −ξt j|(d jt −d jt −1)|w t −ξt 式中 是第 帧中跟踪目标 的深度值; 表示第 与第 帧之间所有目标深度差之和; 表示第 帧与第 帧之间深度值变化率, 其值足够大表示发生遮挡. 代表小于 的所有跟踪目标深度值差之和. 其遮挡判断准则为d j t D jt T j T j 当目标未被遮挡时, 接近 , 接近于1; 当目标被遮挡时, 则 接近于0.2)遮挡匹配跟踪S 当目标发生遮挡时, 通过最大后验概率关联当前帧检测目标与上一帧跟踪目标, 可有效解决遮挡跟踪问题. 假设所有运动目标之间相互独立, 设单个目标轨迹组成为 , 似然概率具有条件独立性,则关联遮挡目标的目标函数为P (z t −1,j )P (x t,i |z t −1,j )式中, 是所有跟踪目标的先验概率; 表示当前检测目标属于跟踪目标的条件概率, 该条件概率通过检测目标与上一帧跟踪目标框的重叠率计算得到.x t,i b (x t,i )z t −1,j b (z t −1,j )b (x t,i )b (z t −1,j )设当前帧检测目标 的深度图对应的边界框为 , 跟踪目标 的深度图对应的边界框为 , 通过判断 与 的重叠率来表示跟踪置信度, 式(11)用于求目标框的重叠率, 即σC σx t,j z t −1,j 式中, 为重叠区域, 若 大于 , 表示 与 关联匹配.1.4 基于视觉伺服控制的目标跟随在获取目标跟踪结果后, 选定感兴趣的一个目标作为移动机器人的跟随目标. 为使移动机器人实7 期万琴等: 基于改进YOLOX 的移动机器人目标跟随方法1563现目标跟随, 本文采用基于视觉伺服控制的目标跟随算法, 使跟随目标框的中心点保持为视野范围中心点. 如目标消失, 则移动机器人按照目标运动轨迹进行主动搜索, 重新识别目标并使移动机器人继续跟随目标.1.4.1 基于ZED 相机的移动机器人运动学模型由于ZED 相机具有成像分辨率高、可获取远距离深度图像等优点, 本文采用ZED 相机作为移动机器人视觉传感器, 其内参已标定.Y P =(x cn ,y cn ,z cn )z n 假设ZED 相机的镜头畸变小到可以忽略, 相机固有参数用针孔模型表示, ZED 相机成像原理图如图3所示. 在图像坐标系 的跟踪目标坐标为, 是从图像坐标和ZED 相机的固有参数中获得f b f b d x l x r 其中, 为相机焦距, 为左右相机基线, 和 是通过先验信息或相机标定得到. 其中由极线约束关系, 视差 可由左相机中的像素点 与右相机中的像素点 对应关系计算得到.YXX rX lX − bZf像平面相机基线左相机右相机P = (x cn , y cn , z cn )图 3 ZED 相机成像图Fig. 3 ZED camera imageryG P R Z Y C (x,y )D θ本文算法将移动机器人平台简化为基于ZED相机的两轮差速模型, 如图4所示. 图4中包括世界坐标系 、机器人坐标系 、ZED 相机坐标系 和图像坐标系 . 图中, 为移动机器人运动中心点, 为两轮之间的距离, 为方向角.G O T O M R rw =O T −O M Z TM O T O M 在世界坐标系 中, 跟踪目标位置 与机器人位置 之间的距离可表示为 .在ZED 相机坐标系中, 目标到机器人的距离 是由跟踪目标位置 和机器人位置 通过式(13) 得到R (θQ ,θC )Q Z δd M 其中, 表示从世界坐标系 到ZED 相机坐标系 旋转矩阵. 表示在世界坐标系 中,移动机器人与摄像机的距离.1.4.2 机器人主动控制策略前述跟踪算法完成目标跟踪, 并获取目标跟踪框的深度信息, 但直接使用目标跟踪框的深度信息来计算机器人与跟随目标的距离, 会引入大量的背景信息. 因此需要对目标中心进行重定位, 为跟踪区域找到合适的位置, 提高机器人跟随精度.(x l ,y l )∈ˆβˆβˆβˆkr ˆβ⊙∗目标跟踪框中心设为 , 表示目标跟踪框区域内所有像素坐标. 区域的精确位置在 内重定位, 利用循环矩阵 与 进行同或 运算得ˆy ∗ˆy ∗j (∆x,∆y )(x ∗,y ∗)(x l ,y l )(x ∗,y ∗)在 中最大值的位置 即为精确目标跟踪中心 与 之间的位置偏差. 跟踪区域的精确位置 计算为(x ∗,y ∗)(x ∗,y ∗)f (t )f ∗(t )得到精确位置 后, 获取以 为中心区域框的4个顶点坐标, 计算中心点和顶点对应深度信息平均值 , 其值表示为移动机器人与目标的距离. 设移动机器人期望到达位置为 , 误 X control =[U (t )=v t ,W (t )=w t ]v t w t 机器人控制变量为 , 代表移动机器人的线速度,代表移动机器人的角速度, PID 控制器设计为k P k I k D λ其中, , 和 为PID 系数, 是调整因子.G目标位置w M T = x cny cnz cn图 4 基于ZED 相机的两轮差速驱动模型Fig. 4 Two-wheel differential drive model based on ZED1564自 动 化 学 报49 卷。
机器人视觉系统中的目标跟踪与识别技术研究
![机器人视觉系统中的目标跟踪与识别技术研究](https://img.taocdn.com/s3/m/e452713777c66137ee06eff9aef8941ea76e4b88.png)
机器人视觉系统中的目标跟踪与识别技术研究近年来,机器人技术飞速发展,机器人已经成为现代工业生产的重要组成部分。
机器人可以完成许多需要重复性工作的任务,也可以完成那些危险或难以人为操作的任务。
然而,机器人需要具备视觉能力才能完成更加复杂的任务。
在机器人视觉系统中,目标跟踪与识别技术是非常关键的一环。
在本文中,我们将对机器人视觉系统中的目标跟踪与识别技术进行研究探讨。
一、目标跟踪技术目标跟踪是机器人视觉系统中的一个重要技术,它可以让机器人追踪并定位移动物体。
目标跟踪技术可以分为基于颜色、基于特征、基于模型、基于深度学习等多种类型。
其中,基于颜色的目标跟踪技术是最常用的一种。
基于颜色的目标跟踪技术通过识别物体的颜色来实现跟踪。
该技术的基本原理是通过摄像头实时采集场景信息,提取出物体的颜色特征,并将目标物体的颜色与其他物体的颜色进行区分,然后追踪目标物体的移动。
该技术的优点是易于实现,但是对光照、背景等条件有一定要求,同时对于复杂的场景可能出现跟踪误差。
基于特征的目标跟踪技术通过识别物体的特征来实现跟踪。
该技术的基本原理是在图像中提取出目标物体的一些特征属性,如边缘、纹理等,然后通过不断迭代的方式得到目标物体的在图像中的位置,实现目标跟踪。
该技术的优点是对于复杂的光照、背景等条件具有一定的鲁棒性,但是对于多物体的场景可以出现误识别问题。
基于模型的目标跟踪技术是一种基于目标形状和外观的跟踪技术。
该技术的基本原理是先通过给定的目标物体建立模型,然后通过模型对摄像头采集的图像进行匹配,从而得到目标物体的移动轨迹。
该技术的优点是具有较高的精度和鲁棒性,但是需要先建立目标物体的模型。
基于深度学习的目标跟踪技术是近年来出现的一种新型跟踪技术。
该技术的基本原理是通过深度神经网络学习目标物体的运动规律和外观特征,然后将学习到的知识应用到目标跟踪任务中。
该技术的优点是具有较高的鲁棒性和精度,但是需要大量的样本和计算资源。
机器人视觉系统的目标跟踪算法
![机器人视觉系统的目标跟踪算法](https://img.taocdn.com/s3/m/8d700cadb9f67c1cfad6195f312b3169a451eab1.png)
机器人视觉系统的目标跟踪算法目标跟踪是机器人视觉系统中一个重要的问题,它在自动驾驶、机器人导航、监控等领域都有广泛的应用。
目标跟踪的主要任务是通过分析图像或者视频序列,确定并跟踪感兴趣的目标。
在本文中,将介绍几种常见的机器人视觉系统的目标跟踪算法。
一、基于卡尔曼滤波的目标跟踪算法卡尔曼滤波是一种经典的线性状态估计算法,它通常用于预测目标的位置和速度。
在目标跟踪中,卡尔曼滤波可以通过对目标的位置和速度进行建模,实现对目标的跟踪。
具体而言,卡尔曼滤波将目标的状态表示为一个准确的估计值和一个误差项,通过不断更新估计值来跟踪目标的运动。
二、基于粒子滤波的目标跟踪算法粒子滤波是一种非线性和非高斯的滤波方法,经常用于目标跟踪。
相比于卡尔曼滤波,粒子滤波更适用于处理非线性运动模型或者非高斯噪声的情况。
粒子滤波通过随机采样的方式来表示目标的可能状态,然后通过粒子的权重来计算目标的位置。
三、基于深度学习的目标跟踪算法近年来,深度学习在计算机视觉领域取得了巨大的成功,也在目标跟踪中得到了广泛的应用。
深度学习基于神经网络的模型可以通过大量的训练数据来学习目标的特征表示,从而实现高精度的目标跟踪。
常用的深度学习模型包括卷积神经网络(CNN)、循环神经网络(RNN)、长短时记忆网络 (LSTM) 等。
四、基于多传感器融合的目标跟踪算法为了提高目标跟踪的精度和鲁棒性,可以使用多传感器融合的方法。
多传感器融合将多个传感器(如摄像头、激光雷达、红外传感器等)的数据进行融合,从而得到更准确的目标位置估计。
常用的多传感器融合方法包括卡尔曼滤波、粒子滤波、扩展卡尔曼滤波等。
综上所述,机器人视觉系统的目标跟踪算法有卡尔曼滤波、粒子滤波、深度学习和多传感器融合等多种方法。
不同的算法适用于不同的场景和需求,选择适合的目标跟踪算法是实现精确跟踪的关键。
随着技术的不断进步,相信未来机器人的目标跟踪算法会越来越智能和高效。
机器人视觉中的目标跟踪技术
![机器人视觉中的目标跟踪技术](https://img.taocdn.com/s3/m/703070070812a21614791711cc7931b765ce7bdc.png)
机器人视觉中的目标跟踪技术人类一直以来都在努力地改变生活,让世界更加美好。
而现在,随着科技的飞速发展,智能机器人逐渐成为我们生活中的一部分。
智能机器人使用多种技术来实现自我感知和环境感知,其中机器人视觉技术就是其中之一。
机器人视觉技术是将相机或传感器等信息采集装置与计算机视觉技术相结合,使机器人具有视觉感知能力的重要技术之一。
其中目标跟踪技术是机器人视觉技术的重要分支,下面将详细阐述机器人视觉中的目标跟踪技术。
一、目标跟踪技术的常见应用1. 智能家居:智能家居中的摄像头可以实现对家人和宠物的监控,同时可以保护家人的财产和安全。
目标跟踪技术使得摄像头可以识别家庭成员,防止陌生人进入家庭或设立虚假警报。
2. 工业制造:机器人在工业制造中的应用越来越广泛,例如在汽车工厂、电子生产线、钢铁、航空航天等领域。
使用目标跟踪技术可以使机器人更好地进行操作,达到更加优质、高效的生产制造。
3. 交通物流:自动驾驶汽车、清洁机器人、物流机器人等都需要具备目标跟踪技术。
这些机器人可以根据目标跟踪识别不同的障碍物和行人等。
4. 医疗科技:医院内的机器人可以帮助医生进行手术等,提高手术精度和安全性,为患者提供更好的治疗效果。
目标跟踪技术可以帮助机器人感知患者的身体,并更好地完成手术任务。
二、目标跟踪技术的原理目标跟踪技术是对画面中的目标进行跟踪和控制。
在机器人视觉技术中,通过对像素的处理,将画面中的目标分离出来。
可以根据目标的信息特征对目标进行跟踪,例如目标的颜色、形状、尺寸等。
在目标跟踪的过程中,需要不断地进行目标识别和位置变化的检测,并对目标的移动、旋转、缩放等变化进行实时的跟踪和调整。
三、目标跟踪技术的常见分类目标跟踪技术根据不同的应用场景和目标特征可以分为不同的分类。
1. 基于传统图像处理的跟踪技术:基于传统图像处理的跟踪技术通常是通过对目标的颜色和形状进行分析,从而在图像上进行标记和跟踪。
这种技术效果较好,但是对于场景和目标的变化比较敏感。
基于目标跟踪算法的移动机器人控制策略研究
![基于目标跟踪算法的移动机器人控制策略研究](https://img.taocdn.com/s3/m/4a7de826c381e53a580216fc700abb68a982ad39.png)
基于目标跟踪算法的移动机器人控制策略研究移动机器人技术在工业自动化、家庭服务、医疗康复等领域得到了广泛的应用。
移动机器人的控制策略是其能否准确执行任务的关键。
而基于目标跟踪算法的控制策略能够使机器人实现高效、准确、自适应的任务执行。
本文将针对基于目标跟踪算法的移动机器人控制策略进行研究。
一、相关技术分析目标跟踪技术是指利用移动机器人的传感器和控制系统,对机器人所感知到的目标进行跟踪以及目标的定位和移动。
目标跟踪技术是移动机器人控制策略中最为基础的核心技术。
在现代技术发展中,目标跟踪技术已经得到了广泛的应用,包括智能巡航、卫星控制、无人机技术等。
目标跟踪技术有许多种实现方法,其中最主要的有基于视觉技术的目标跟踪技术、基于蓝牙耳塞的目标跟踪技术和基于雷达系统的目标跟踪技术。
其中,视觉技术的目标跟踪方法被广泛应用,可以使用视觉传感器实现目标跟踪,视觉跟踪无需依赖目标表面的标记或者附加设备,可以实现实时跟踪。
二、基于视觉的目标跟踪方法基于视觉的目标跟踪方法是一种成本低廉且操作简单的目标跟踪技术。
该技术可以利用单目摄像头、双目摄像头、全景相机等各种类型的视觉传感器实现。
相比于其他目标跟踪技术,基于视觉的目标跟踪方法具有精度高、灵敏度高等优点,可以实现准确的目标跟踪。
基于视觉的目标跟踪方法可以包括以下步骤:图像获取、特征提取、特征匹配、目标跟踪以及目标估计等步骤。
图像获取是基于视觉的目标跟踪方法的最基本步骤,主要是利用视觉传感器获取目标图像。
特征提取是从图像中提取目标特征的过程,根据图像与目标形状、颜色、纹理、边缘等特征对目标进行特征提取。
特征匹配是将目标特征与已知目标库进行匹配的过程,利用特征匹配方法实现目标的定位和识别。
目标跟踪是持续跟踪特定目标,利用增量式目标跟踪方法实现目标跟踪。
目标估计是预估目标未来位置以及执行轨迹,使机器人能够及时进行路径规划以实现目标的追踪。
三、基于目标跟踪算法的移动机器人控制策略基于目标跟踪算法的移动机器人控制策略是在机器人运动的过程中,根据机器人所感知的环境状态,采用控制方法实现机器人的移动和执行实际任务,以满足任务需求和机器人的运动能力。
智能机器人运动控制和目标跟踪
![智能机器人运动控制和目标跟踪](https://img.taocdn.com/s3/m/0db9325302020740be1e9be8.png)
XXXX大学《智能机器人》结课论文移动机器人对运动目标的检测跟踪方法学院(系):专业班级:学生学号:学生姓名:成绩:目录摘要 (1)0、引言 (1)1、运动目标检测方法 (1)1.1 运动目标图像HSI差值模型 (1)1.2 运动目标的自适应分割与提取 (2)2 运动目标的预测跟踪控制 (3)2.1 运动目标的定位 (3)2.2 运动目标的运动轨迹估计 (4)2.3 移动机器人运动控制策略 (6)3 结束语 (6)参考文献 (7)一种移动机器人对运动目标的检测跟踪方法摘要:从序列图像中有效地自动提取运动目标区域和跟踪运动目标是自主机器人运动控制的研究热点之一。
给出了连续图像帧差分和二次帧差分改进的图像HIS 差分模型,采用自适应运动目标区域检测、自适应阴影部分分割和噪声消除算法,对无背景图像条件下自动提取运动目标区域。
定义了一些运动目标的特征分析和计算 ,通过特征匹配识别所需跟踪目标的区域。
采用 Kalrnan 预报器对运动目标状态的一步预测估计和两步增量式跟踪算法,能快速平滑地实现移动机器人对运动目标的跟踪驱动控制。
实验结果表明该方法有效。
关键词:改进的HIS 差分模型;Kahnan 滤波器;增量式跟踪控制策略。
0、引言运动目标检测和跟踪是机器人研究应用及智能视频监控中的重要关键技术 ,一直是备受关注的研究热点之一。
在运动目标检测算法中常用方法有光流场法和图像差分法。
由于光流场法的计算量大,不适合于实时性的要求。
对背景图像的帧问差分法对环境变化有较强的适应性和运算简单方便的特点,但帧问差分不能提出完整的运动目标,且场景中会出现大量噪声,如光线的强弱、运动目标的阴影等。
为此文中对移动机器人的运动目标检测和跟踪中的一些关键技术进行了研究,通过对传统帧间差分的改进,引入 HSI 差值模型、图像序列的连续差分运算、自适应分割算法、自适应阴影部分分割算法和图像形态学方法消除噪声斑点,在无背景图像条件下自动提取运动 目标区域。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
本技术公开了一种移动机器人的目标跟随控制方法,包括步骤:在移动机器人上设置三角摄像机组,且分配对应ID号和视角范围;采集获得跟随目标身份特征,及将其上传和存储;检测待跟随目标的身份特征及上传至云服务器,由云服务器特征匹配,匹配成功时确定和锁定该待跟随目标为跟随目标;人对所锁定跟随目标跟踪,获得跟随目标与移动机器人的相对方向;对所锁定跟随目标实时检测,计算获得相对距离;根据所获得跟随目标与移动机器人的相对方向、相对距离确定运动路线,及根据运动路线控制移动机器人向跟随目标运动。
本技术具备更高的特征检测功能和更高程度的自动化控制功能,可更好地用于机器人跟随过程。
权利要求书1.一种移动机器人的目标跟随控制方法,其特征在于,包括步骤:在移动机器人上设置三角摄像机组,且为每个摄像机分配对应ID号和视角范围;采集获得跟随目标身份特征,及将其上传和存储至云服务器;所述移动机器人利用三角摄像机组检测待跟随目标的身份特征及上传至云服务器,由云服务器根据上传的身份特征与所存储跟随目标身份特征匹配,在匹配成功时确定和锁定该待跟随目标为跟随目标;所述移动机器人对所锁定跟随目标实时跟踪,提取跟随目标所在摄像机的ID号和视角范围;对所提取视角范围进行分区设置,确定跟随目标所在分区位置;由所述摄像机的ID号和跟随目标所在分区位置获得跟随目标与移动机器人的相对方向;所述移动机器人对所锁定跟随目标实时检测,计算获得跟随目标与移动机器人的相对距离;根据所获得跟随目标与移动机器人的相对方向、相对距离确定运动路线,及根据运动路线控制移动机器人向跟随目标运动,以实现对跟随目标的跟随;以及,还包括判断所提取视角范围中跟随目标的位置是否发生偏离,及在发生偏离时控制移动机器人向跟随目标所偏离的方向转动;在发生偏离时,判断跟随目标是否出现在其他摄像机的视角范围中,及在出现于其他摄像机的视角范围中时进行跟随任务交接。
2.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法采用窗口自适应的CamShift核密度估计算法对待跟随目标的人脸进行跟踪。
3.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法采用基于Harr特征的Adaboost人脸检测算法对待跟随目标的人脸进行检测。
4.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法还包括所述身份特征匹配失败时,由移动机器人发出提示警告。
5.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法中移动机器人采用射频距离检测方法对所锁定跟随目标检测获得相对距离。
6.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法还包括设置阈值,所述移动机器人根据阈值与相对距离的大小控制移动机器人运动。
7.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法采用PID控制算法控制移动机器人根据运动路线向跟随目标运动。
8.根据权利要求1所述移动机器人的目标跟随控制方法,其特征在于:所述方法还包括利用超声波距离检测方法判断移动机器人的运动路线中是否存在障碍物,及当存在障碍物时重新计算确定运动路线。
技术说明书一种移动机器人的目标跟随控制方法技术领域本技术涉及一种移动机器人的目标跟随控制方法,属于机器人应用技术的领域。
背景技术随着人工智能技术的发展,机器人越来越多地应用到各种场景中。
例如,目前已经出现了作为娱乐用的机器人,无人驾驶车,机器狗以及平衡度极高的人形机器人等。
但更多的是,现在的机器人都开始进入平常生活中,并为人类提供服务了,如餐厅中的送餐机器人等。
在很多情况下,机器人提供服务时,通常要求机器人本身能定位自己所在的位置以及服务对象的位置。
例如,在博物馆中,可能会出现一种可以提供讲解服务的机器人,这时就需要一种能让机器人实时跟随客户的方法。
而目前的跟踪技术,首先必须定位,通常的定位有基站定位,惯性定位等技术,但这些技术都需要依赖多种外设,实现成本高,而且要求对场所进行网络布线,布线结构复杂,信号传输不稳定。
因此,现有的移动机器人在跟随过程中,无法利用摄像功能,对跟随目标进行特征提取和检测,使得移动机器人需要依赖复杂的布线网络结构,不利于快速且精准地实现跟随目标的跟随。
技术内容本技术所要解决的技术问题在于克服现有技术的不足,提供一种移动机器人的目标跟随控制方法,解决现有的移动机器人依赖复杂的布线网络结构,无法利用摄像功能对跟随目标进行特征提取和检测,不利于实现跟随目标的跟随的问题。
本技术具体采用以下技术方案解决上述技术问题:一种移动机器人的目标跟随控制方法,该方法基于移动机器人和云服务器,包括步骤:在移动机器人上设置三角摄像机组,且为每个摄像机分配对应ID号和视角范围;采集获得跟随目标身份特征,及将其上传和存储至云服务器;所述移动机器人利用三角摄像机组检测待跟随目标的身份特征及上传至云服务器,由云服务器根据上传的身份特征与所存储跟随目标身份特征匹配,由匹配成功时确定和锁定该待跟随目标为跟随目标;所述移动机器人对所锁定跟随目标实时跟踪,提取跟随目标所在摄像机的ID号和视角范围;对所提取视角范围进行分区设置,确定跟随目标所在分区位置;由所述摄像机的ID号和跟随目标所在分区位置获得跟随目标与移动机器人的相对方向;所述移动机器人对所锁定跟随目标实时检测,计算获得跟随目标与移动机器人的相对距离;根据所获得跟随目标与移动机器人的相对方向、相对距离确定运动路线,及根据运动路线控制移动机器人向跟随目标运动,以实现对跟随目标的跟随。
进一步地,作为本技术的一种优选技术方案:所述方法采用窗口自适应的CamShift核密度估计算法对待跟随目标的人脸进行跟踪。
进一步地,作为本技术的一种优选技术方案:所述方法采用基于Harr特征的Adaboost人脸检测算法对待跟随目标的人脸进行检测。
进一步地,作为本技术的一种优选技术方案:所述方法还包括所述身份特征匹配失败时,由移动机器人发出提示警告。
进一步地,作为本技术的一种优选技术方案:所述方法还包括判断所提取视角范围中跟随目标的位置是否发生偏离,及在发生偏离时控制移动机器人向跟随目标所偏离的方向转动。
进一步地,作为本技术的一种优选技术方案:所述方法还包括在发生偏离时,判断跟随目标是否出现在其他摄像机的视角范围中,及在出现于其他摄像机的视角范围中时进行跟随任务交接。
进一步地,作为本技术的一种优选技术方案:所述方法中移动机器人采用射频距离检测方法对所锁定跟随目标检测获得相对距离。
进一步地,作为本技术的一种优选技术方案:所述方法还包括设置阈值,所述移动机器人根据阈值与相对距离的大小控制移动机器人运动。
进一步地,作为本技术的一种优选技术方案:所述方法采用PID控制算法控制移动机器人根据运动路线向跟随目标运动。
进一步地,作为本技术的一种优选技术方案:所述方法还包括利用超声波距离检测方法判断移动机器人的运动路线中是否存在障碍物,及当存在障碍物时重新计算确定运动路线。
本技术采用上述技术方案,能产生如下技术效果:本技术所提供的移动机器人的目标跟随控制方法,通过对移动机器人所设置的摄像机组改进,利用三角摄像机组同时设置的方式,扩大视角范围,且便于计算跟随目标与移动机器人的相对方向,同时基于检测获得相对距离,由此确定移动机器人的运动路线,控制移动机器人根据运动路线进行移动,使得机器人能实时跟随所需要的目标,并提供服务,增强移动机器人的目标跟随功能,具备更高的特征检测功能和更高程度的自动化控制功能,使得该方法可以广泛地运用于各领域中。
可以有效解决现有的移动机器人依赖复杂的布线网络结构,无法利用摄像功能对跟随目标进行特征提取和检测,不利于实现跟随目标的跟随的问题。
附图说明图1为本技术的移动机器人的目标跟随控制方法的流程示意图。
图2为本技术中移动机器人所设置三角摄像机组的结构示意图。
图3为本技术中单个摄像机的视角范围的示意图。
图4为本技术中三角摄像机组的视角范围的示意图。
具体实施方式下面结合说明书附图对本技术的实施方式进行描述。
如图1所示,本技术设计了一种移动机器人的目标跟随控制方法,该方法基于移动机器人和云服务器,移动机器人和云服务器依靠无线传输技术建立通信,对于本方法具体包括如下步骤:步骤1、在移动机器人上设置三角摄像机组,且为每个摄像机分配对应ID号和视角范围;其中,如图2所示,图中圆圈表示移动机器人本体,三个不同方向的矩形表示三个摄像机构成三角摄像机组,其中三个摄像机沿移动机器人的不同方向设置;以及,单个摄像机的视角范围如图3所示,单个摄像机的视角范围可以进行分区设置,被分成若干个区域。
对于三个摄像机的视角范围,如图4所示,区域A、B、C分别是三个摄像机的视角范围,它们的视角范围之间可以重叠或不重叠,各重叠部分可分别视为CA和AB区域。
以及,三个摄像机可采用广角摄像机,组合起来可以监测超过120度的视角范围,但本技术不限于该种范围内,其他视角范围同样适用于本技术中。
步骤2、采集获得跟随目标身份特征,及将其上传和存储至云服务器。
具体地,可利用移动机器人所设置三角摄像机组中任意一个摄像机,即选择三角摄像机组中的一个,利用该摄像机对跟随目标进行身份特征包括人脸或衣着、性别等信息的采集,并上传到云服务器对跟随目标的身份特征进行建模;同时,设定其作为移动机器人的跟随目标,确立跟随与被跟随的关系,本技术中并不限于利用移动机器人上的摄像机,还可以利用其他摄像机采集获得跟随目标身份特征,本技术不对其进行限定。
步骤3、所述移动机器人利用三角摄像机组检测待跟随目标的身份特征及上传至云服务器,由云服务器根据上传的身份特征与所存储跟随目标身份特征匹配,由匹配成功时确定和锁定该待跟随目标为跟随目标。
在进行待跟随目标的身份特征提取过程中,本技术优选采用窗口自适应的CamShift核密度估计算法对待跟随目标的人脸进行跟踪。
该检测算法检测待跟随目标的人脸特征过程如下:步骤21:将移动机器人的摄像机组采集到待跟随目标身份特征的RGB图像转化为HSV图像。
步骤22:根据HSV图像计算人脸目标区域的色彩直方图。
步骤23:根据所计算的色彩直方图,计算确定HSV图像中色彩的概率分布,获得颜色概率直方图。
步骤24:通过颜色直方图选取搜索窗的大小与初始位置,采用窗口自适应的CamShift核密度估计算法对人脸进行跟踪。
窗口自适应的CamShift核密度估计算法其基本原理是对视频序列的所有图像帧都作MeanShift运算,并将上一帧的结果即搜索窗口的中心位置和窗口大小,作为下一帧MeanShift算法的搜索窗口的初始值,如此迭代下去,就可以算出每一帧中目标窗口的中心位置和大小,从而实现对待跟随目标的人脸跟踪。
在此基础上,获得待跟随目标的身份特征及上传至云服务器;云服务器根据上传的身份特征与所存储跟随目标身份特征匹配,由匹配成功时确定和锁定该待跟随目标为跟随目标,若匹配失败则由所述移动机器人发出提示警告,提示跟随目标引导机器人重新锁定跟随目标。