视觉里程计算法研究综述

合集下载

单目视觉惯性里程计的研究

单目视觉惯性里程计的研究

单目视觉惯性里程计的研究摘要:随着机器视觉技术的发展,单目视觉惯性里程计成为了不可或缺的技术。

本文针对单目视觉惯性里程计的研究问题,分别从测量状态、建立状态转移矩阵、全局优化以及误差分析等几个方面展开了探讨。

通过对比实验和结果分析,证明该算法能够较准确地计算机器人位移和方向,达到了比较良好的效果,为机器人导航和定位提供了可靠的技术支持。

关键词:单目视觉惯性里程计、测量状态、状态转移矩阵、全局优化、误差分析一、引言随着机器人技术的应用日益广泛,机器人导航和定位的需求越来越强烈。

而其中一个关键问题就是如何准确地测量机器人的位移和方向。

在传统的制导技术中,位置和方向信息通常是通过全球定位系统(GPS)或惯性导航系统(INS)来获得的。

但是,GPS在室内或在建筑物内的使用效果较差,而INS的复杂度和成本较高。

因此,如何在不依赖GPS和INS的情况下实现机器人的位移和方向测量成为了一个研究热点。

单目视觉惯性里程计技术可以利用机器人上搭载的相机,通过观察相邻帧之间物体的位置或方向变化,来估计机器人的位移和方向。

同时,该技术还可以结合机器人搭载的惯性测量单元(IMU)对运动过程中的姿态进行估计和纠正。

由于其系统简单、成本低廉和适用范围广等优点,单目视觉惯性里程计成为一种非常有前途的测量技术。

二、单目视觉惯性里程计的研究问题2.1 测量状态在单目视觉惯性里程计中,测量状态是指机器人通过相机获取的当前帧的像素坐标信息和IMU的姿态信息。

然而由于图片受到光照、遮挡等因素的影响,相邻帧之间的变化很难被准确测量。

因此,如何准确地测量状态是这项技术的关键之一。

2.2 建立状态转移矩阵在单目视觉惯性里程计中,状态转移矩阵用于描述相邻帧之间的位移和方向变化。

具体来说,状态转移矩阵包括相机相对于IMU的变换矩阵和相邻帧之间的变换矩阵。

然而,由于IMU和相机之间存在运动误差,这些误差会严重影响状态转移矩阵的准确性。

因此,如何准确地建立状态转移矩阵也是这项技术的重点之一。

视觉里程计

视觉里程计

视觉里程计来源 | ADAS视觉里程计(Visual Odometry)在机器人学与计算机视觉领域,视觉里程计是一个通过分析相关图像序列,来确定机器人位置和朝向的过程。

在导航系统中,里程计(odometry)是一种利用致动器的移动数据来估算机器人位置随时间改变量的方法。

例如,测量轮子转动的旋转编码器设备。

里程计总是会遇到精度问题,例如轮子的打滑就会导致产生机器人移动的距离与轮子的旋转圈数不一致的问题。

当机器人在不光滑的表面运动时,误差是由多种因素混合产生的。

由于误差随时间的累积,导致了里程计的读数随着时间的增加,而变得越来越不可靠。

视觉里程计是一种利用连续的图像序列来估计机器人移动距离的方法。

视觉里程计增强了机器人在任何表面以任何方式移动时的导航精度。

视觉里程计算法:大多数现有的视觉里程计算法都是基于以下几个步骤:1、图像获取:单目照相机、双目照相机或者全向照相机;2、图像校正:使用一些图像处理技术来去除透镜畸变;3、特征检测:确定感兴趣的描述符,在帧与帧之间匹配特征并构建光流场;(1)、使用相关性来度量两幅图像间的一致性,并不进行长时间的特征跟踪;(2)、特征提取、匹配(Lucas–Kanade method);(3)、构建光流场;4、检查光流场向量是否存在潜在的跟踪误差,移除外点;5、由光流场估计照相机的运动;(1)、可选方法1:使用卡尔曼滤波进行状态估计;(2)、可选方法2:查找特征的几何与3D属性,以最小化基于相邻两帧之间的重投影误差的罚函数值。

这可以通过数学上的最小化方法或随机采样方法来完成;6、周期性的重定位跟踪点;我选择的视觉里程计算法是:“ sift特征匹配点——基本矩阵——R和T”。

第一步:由特征点计算基本矩阵F。

一般而言,sift点是存在误匹配的情况,因此,采用ransac鲁棒方法计算基本矩阵F。

这个过程已经实现,但是还有一个小问题:同样的一组sift点,进行两次基本矩阵计算,得到的基本矩阵差异很大,因此,我在ransac方法的基础上,根据得到的inliers点,采用常规的8点基本矩阵计算方法,这样得到的基本矩阵能保持不变第二步:由基本矩阵计算R和T方法1:奇异值分解E = KK'*F*KK; %%这是真实的本质矩阵E[U,S,V] = svd(E); %奇异值分解。

室内移动机器人视觉里程计研究

室内移动机器人视觉里程计研究
2 6
传感器 与微 系统 ( rndcr n coytm T cnl i ) Tasue dMi ss eh o g s a r e oe
21 02年 第 3 卷 第 2期 1
室 内移 动 机 器 人视 觉 里 程计 研 究
高云峰 , 李伟超 , 李建辉
( 哈尔 滨 工 业 大 学 机 电工 程 学 院 。 龙 江 哈 尔 滨 100 ) 黑 5 0 1
T et nf m t nm tx f a r oria s f daetr e r gt ytenaet e ho et - a h g h as r ai a i o me codnt jcn a sa o b ers ni br c r t i r o o r c a eoa fm e h g v om cn
1 视觉里程计 工作模型 里程计装在室 内移动机 器人底部 拍摄地 面 , 置合适 配
光源进行照 明。 里 程 计 用 到 的坐 标 系 有 :
1 世界坐标 系 ( ) 0
Z ) 原 点位 于标 定 时棋 盘 图 ,
GS P 定位不适
G u — n ,L ic a ,L in h i AO Y n f g IWe—h o IJa —u e
( c ol f c arnc E g er g HabnIs tt f eh ooy Ha b 5 0 1 C ia S h o o h to i n i ei , r i tueo c n lg , ri 1 00 , hn ) Me s n n ni T n
l o i m a d t e p e iin i n u e . to f o o t c l ai s p o o e o o ti h ip a e n ag r h n h r cso s e s r d A meh d o d me r ai rt n i r p s d t b an t e d s l c me t t y b o if r  ̄in u d rt e r b tsat g p i tc od n t n hs meh d c u d ma e s r ft e p e i o h n t e no m o n e h o o tr n on o r ia e a d t i i t o o l k u e o h r cs n w e h i p su e o o o h n e . h e sbl y o iin o o t s v r e y te r u d t c x e i n s o t r r b t a g d T e f a ii t vso d mer i e f d b h o n r e e p r f c i f y i i a me t . Ke r s iin o o t ;S F a g rtm ;RAN AC ag r h ;sa t o r cin y wo d :vso d mer y UR lo h i S lo i m t ln re t c o

MEMS惯导-单目视觉里程计组合导航技术研究

MEMS惯导-单目视觉里程计组合导航技术研究

MEMS惯导-单目视觉里程计组合导航技术研究MEMS惯导/单目视觉里程计组合导航技术研究摘要:本文主要研究了MEMS惯导和单目视觉里程计组合导航技术。

MEMS惯导是一种高精度、低成本的惯性导航技术,而单目视觉里程计是一种基于相机视觉的位姿估计技术。

MEMS惯导和单目视觉里程计的组合可以互补各自的优点,提高导航的精度和鲁棒性。

首先,本文对MEMS惯导和单目视觉里程计的原理和特点进行了介绍,并对其存在的问题进行了分析。

然后,本文提出了一种基于卡尔曼滤波器的MEMS惯导/单目视觉里程计组合导航算法。

该算法将MEMS惯导和单目视觉里程计的位姿估计结果进行融合,得到更加准确和可靠的导航结果。

最后,本文进行了实验验证,结果表明,该算法在多种复杂环境下均能取得较好的导航精度和鲁棒性。

关键词:MEMS惯导;单目视觉里程计;组合导航;卡尔曼滤波器;导航精度;鲁棒性。

Abstract:This paper mainly studies the MEMS inertial navigation and monocular visual odometry combined navigation technology. MEMS inertial navigation is a high-precision and low-cost inertial navigation technology, while monocular visual odometry is a position and attitude estimation technology based on camera vision. The combination of MEMS inertial navigation and monocular visual odometry can complement each other's advantages and improve the accuracy and robustness of navigation.Firstly, this paper introduces the principles and characteristics of MEMS inertial navigation and monocular visual odometry, and analyzes the problems existing in them. Then, this paper proposes a MEMS inertial navigation/monocular visual odometry combined navigation algorithm based on Kalman filter. The algorithm fuses the position and attitude estimation results of MEMS inertial navigation and monocular visual odometry to obtain more accurate and reliable navigation results. Finally, this paper conducts experimental verification, and the results show that the algorithm can achieve good navigation accuracy and robustness in various complex environments.Keywords: MEMS inertial navigation; monocular visualodometry; combined navigation; Kalman filter; navigation accuracy; robustnessIn recent years, MEMS inertial navigation and monocular visual odometry have become popular among researchers as they provide accurate and low-cost navigation solutions. However, each approach has its limitations. MEMS inertial navigation suffers fromdrift errors, while monocular visual odometry is susceptible to lighting changes, occlusions, andmotion blur. To overcome these limitations,researchers have proposed a combined navigation approach that fuses the results of the two methods.One such approach is the Kalman filter-based algorithm, which integrates the measurements from MEMS inertial sensors and monocular vision to estimate the position and attitude of the system. The algorithm caneffectively suppress the drift errors of the inertial navigation system using the visual measurements as a reference, while compensating for the scale drifterror of the monocular visual odometry using theinertial measurements. Additionally, the algorithm can handle the nonlinearities and uncertainties of the navigation system and provide a more accurate and reliable navigation solution.To verify the effectiveness of the proposed algorithm, experimental tests were conducted in various complex environments. These tests included indoor and outdoor environments with different lighting conditions, as well as environments with obstacles and sudden movements. The results showed that the algorithm could achieve good navigation accuracy and robustness even in these challenging conditions.In conclusion, the combination of MEMS inertial navigation and monocular visual odometry using a Kalman filter-based algorithm is a promising approach to provide accurate and reliable navigation solutions. The algorithm can effectively address the limitations of both methods and is suitable for various complex environments. Future research should explore the application of this approach in specific fields, such as autonomous driving and robotics, to further evaluate its potentialOne potential application of this approach is in the field of autonomous driving. With the increasing demand for self-driving cars, accurate navigation becomes crucial for ensuring the safety and efficiency of the vehicle. By combining MEMS inertial navigation and monocular visual odometry, the proposed algorithm can provide precise location and orientationinformation for the autonomous vehicle. With the help of the Kalman filter, the algorithm can effectively correct errors and improve the overall accuracy of the navigation system.Another potential application is in the field of robotics. Many robotic systems require accurate positioning and orientation information to perform tasks such as mapping, exploration, and manipulation. By using the proposed approach, robotic systems can achieve higher precision and reliability in navigation, leading to improved performance and efficiency.However, there are still some challenges that need to be addressed. For example, the accuracy of the visual odometry system can be affected by external factors such as lighting conditions and camera calibration. The MEMS IMU system can also suffer from drift due to the accumulation of errors over time. To overcomethese challenges, researchers can explore the use of advanced sensor fusion techniques and machine learning algorithms.In summary, the combination of MEMS inertialnavigation and monocular visual odometry using a Kalman filter-based algorithm holds great potentialfor providing accurate and reliable navigationsolutions in various applications. Further researchand development in this area are needed to address the challenges and fully exploit the benefits of this approachOne area where the combination of MEMS inertial navigation and monocular visual odometry could prove particularly valuable is in autonomous vehicles.Autonomous vehicles rely on accurate and reliable navigation to operate safely and efficiently. While GPS is the primary navigation system used today, ithas limitations, such as poor performance in urban environments and susceptibility to jamming or spoofing.MEMS inertial navigation and monocular visual odometry offer an alternative or complementary approach to GPS-based navigation for autonomous vehicles. By using highly accurate inertial sensors and cameras to measure vehicle motion and track landmarks, these systems can provide precise and reliable position and orientation information.One of the key advantages of using these technologiesin combination is their redundancy. MEMS inertial navigation can provide accurate position andorientation estimates over short periods of time, buterrors can accumulate over longer periods due to drift. Monocular visual odometry can help correct theseerrors by providing additional position andorientation estimates based on image data.However, using these technologies in an autonomous vehicle setting presents several challenges. For example, the vehicle may encounter scenarios where the camera cannot see sufficient landmarks to track its position accurately. Additionally, environmentalfactors such as lighting conditions and weather can also affect the performance of visual odometry.To overcome these challenges, advanced algorithms and sensor fusion techniques, such as deep learning and Kalman filtering, can be used to optimize the performance of the system. For example, a deeplearning-based object recognition algorithm could be trained to identify and track specific landmarks that are more robust to changes in environmental conditions.Another potential application for MEMS inertial navigation and visual odometry is in robotics. For example, in warehouse automation, robots that can navigate accurately and efficiently can help improve the speed and productivity of operations whilereducing costs.Overall, the combination of MEMS inertial navigation and monocular visual odometry has significantpotential for a wide range of applications. Continued research and development in this area will be critical to realizing the full benefits of these technologies in practical settingsIn conclusion, MEMS inertial navigation and monocular visual odometry are powerful technologies that can be used together for various applications, such as autonomous vehicles, drones, virtual reality, and robotics. They can improve accuracy, reliability, and efficiency while reducing costs. Continued research and development in this area is essential to fully unlock the potential of these technologies inpractical settings。

图优化的Kinect三维视觉里程计设计分析

图优化的Kinect三维视觉里程计设计分析

图优化的Kinect三维视觉里程计设计分析随着计算机视觉和深度学习技术的不断发展,三维视觉里程计成为了机器人导航、自动驾驶、增强现实等领域的重要技术之一。

而在这一技术中,图优化则是其中的一个重要环节,它能够通过优化相机位姿和地图的方法,提高三维视觉里程计的准确性和稳定性。

本文将以Kinect为例,对图优化的三维视觉里程计设计进行深入分析。

一、Kinect三维视觉里程计概述Kinect是由微软公司推出的一款深度摄像头,它通过红外传感器和RGB摄像头可以实时获取环境的深度和颜色信息。

这使得Kinect成为了在机器人导航和增强现实等领域中广泛应用的重要设备。

而Kinect三维视觉里程计则是利用Kinect所获取的深度信息和RGB 图像,通过计算每一帧之间的位姿变换,来实现机器人导航和SLAM(Simultaneous Localization and Mapping)等应用。

在Kinect三维视觉里程计中,传统的基于特征点的匹配方法在低纹理区域和长时间运动的情况下容易出现漂移现象,导致测量结果不准确。

而图优化技术则可以通过优化位姿和地图之间的关系,来提高里程计的准确性和稳定性。

具体来说,图优化技术可以将Kinect所获取的深度信息和RGB图像转化为点云地图,然后通过优化算法对这些点云地图进行处理,得到相机在空间中的精确位姿。

3.1、基于图优化的位姿估计在Kinect三维视觉里程计中,图优化算法通常采用基于非线性优化的方法来估计相机位姿。

一个常用的图优化算法是基于最小二乘法的优化算法。

该算法可以通过最小化地图点云与相机位姿之间的重投影误差,来得到相机在三维空间中的准确位置。

为了提高算法的速度和鲁棒性,一些研究者还通过加速技术和自适应权重策略等方法来改进基于最小二乘法的图优化算法。

除了优化相机位姿外,图优化算法还可以对点云地图进行优化,以进一步提高三维视觉里程计的精度。

通常来说,地图优化可以通过最小化地图点云之间的关系来实现。

视觉里程计IMU辅助GPS融合定位算法研究

视觉里程计IMU辅助GPS融合定位算法研究

视觉里程计/IMU辅助GPS融合定位算法研究不同的传感器用于导航定位各有其优势与不足,需要依据不同的应用场景对各传感器进行组合以获取最优导航定位性能。

在城市、桥梁等遮挡环境下,GPS 信号容易发生中断或卫星信号质量不佳,导致室外定位精度不够。

为此,本文将主要研究视觉里程计/IMU辅助GPS融合定位算法,提高室外受限环境下导航定位精度与可靠性。

本文的主要研究内容有:(1)分别研究了视觉里程计和IMU的关键技术。

针对视觉里程计中特征点匹配计算量大及误匹配的现象,集成图像处理领域中基于欧式距离阈值设定的预处理算法,提出视觉里程计前端特征点匹配优化算法。

通过实验证明,提升了特征点提取的质量。

(2)讨论视觉里程计/IMU组合导航算法理论基础,建立视觉里程计/IMU紧耦合模型。

针对实验中的多传感器时间同步问题,使用软件算法估计硬件设备之间的时间偏差。

(3)提出基于抗差自适应卡尔曼滤波的GPS/视觉里程计/IMU组合算法。

通过手持接收设备采集GPS数据,进一步融合视觉里程计/IMU信息解算载体位置。

在遮挡环境下,单GPS的精度E、N、U三个方向的RMS值分别为:9.7653m、31.8248m、20.8644m,而基于抗差的多系统融合位置精度E、N、U三个方向的RMS 值分别为4.48m、7.55m、5.62m,分别提高了54%、76%和73%。

视觉里程计技术综述

视觉里程计技术综述

视觉里程计技术综述李宇波;朱效洲;卢惠民;张辉【期刊名称】《计算机应用研究》【年(卷),期】2012(029)008【摘要】视觉里程计是通过视觉信息估计运动信息的技术,其中采用了里程计式的方法.该技术作为一种新的导航定位方式,已成功地运用于自主移动机器人中.首先介绍了常用的两种视觉里程计即单目视觉里程计和立体视觉里程计,然后从鲁棒性、实时性和精确性三个方面详细讨论了视觉里程计技术的研究现状,最后对视觉里程计的发展趋势进行了展望.%Visual odometry(VO) is a technology which aims to estimate the motion by using visual information,and used the odometry method in the process. As a new method for navigation and localization .this technology has been applied in the autonomous mobile robots successfully. This paper introduced two of the most popular VO which were monocular VO and stereo VO, and it analyzed the current research status of VO from robustness, real-time and accuracy. At last, it also prospected the development trend of VO.【总页数】6页(P2801-2805,2810)【作者】李宇波;朱效洲;卢惠民;张辉【作者单位】国防科学技术大学机电工程与自动化学院,长沙410073;国防科学技术大学机电工程与自动化学院,长沙410073;国防科学技术大学机电工程与自动化学院,长沙410073;国防科学技术大学机电工程与自动化学院,长沙410073【正文语种】中文【中图分类】TP393.04【相关文献】1.单目视觉里程计研究综述 [J], 祝朝政;何明;杨晟;吴春晓;刘斌2.移动机器人视觉里程计综述 [J], 丁文东;徐德;刘希龙;张大朋;陈天3.基于深度学习的智能车辆视觉里程计技术发展综述 [J], 陈涛;范林坤;李旭川;郭丛帅4.视觉里程计研究综述 [J], 胡凯;吴佳胜;郑翡;张彦雯;陈雪超;鹿奔5.移动机器人中视觉里程计技术综述 [J], 马科伟;张锲石;康宇航;任子良;程俊因版权原因,仅展示原文概要,查看原文内容请购买。

基于深度学习的智能车辆视觉里程计技术发展综述

基于深度学习的智能车辆视觉里程计技术发展综述

2021年第1期【摘要】针对基于模型的视觉里程计在光照条件恶劣的情况下存在鲁棒性差、回环检测准确率低、动态场景中精度不够、无法对场景进行语义理解等问题,利用深度学习可以弥补其不足。

首先,简略介绍了基于模型的里程计的研究现状,然后对比了常用的智能车数据集,将基于深度学习的视觉里程计分为有监督学习、无监督学习和模型法与深度学习结合3种,从网络结构、输入和输出特征、鲁棒性等方面进行分析,最后,讨论了基于深度学习的智能车辆视觉里程计研究热点,从视觉里程计在动态场景的鲁棒性优化、多传感器融合、场景语义分割3个方面对智能车辆视觉里程计技术的发展趋势进行了展望。

主题词:视觉里程计深度学习智能车辆位置信息中图分类号:U461.99文献标识码:ADOI:10.19620/ki.1000-3703.20200736Review on the Development of Deep Learning-Based Vision OdometerTechnologies for Intelligent VehiclesChen Tao,Fan Linkun,Li Xuchuan,Guo Congshuai(Chang ’an University,Xi ’an 710064)【Abstract 】Visual odometer can,achieve with deep learning,better performance on robustness and accuracy through solving the problems such as the weak robustness under poor illumination,low detection accuracy in close loop and insufficient accuracy in dynamic scenarios,disability in understanding the scenario semantically.Firstly,this paper briefly introduces the research status of the model-based odometer,then compares the commonly-used intelligent vehicle datasets,and then divides the learning-based visual odometer into supervised learning,unsupervised learning and hybrid model which combines model-based with deep learning-based model.Furthermore,it analyzes the learning-based visual odometer from the aspects of network structure,input and output characteristics,robustness and so on.Finally,the research hotspots of learning-based visual odometer for intelligent vehicle are discussed.The development trend of learning-based visual odometer for intelligent vehicle is discussed from 3aspects which respectively are robustness in dynamic scenarios,multi-sensor fusion,and scenario semantic segmentation.Key words:Visual odometer,Deep learning,Intelligent vehicle,Location information陈涛范林坤李旭川郭丛帅(长安大学,西安710064)*基金项目:国家重点研发计划项目(2018YFC0807500);国家自然科学基金面上项目(51978075)。

视觉里程计研究综述

视觉里程计研究综述

胡凯,等.视觉里程计研究综述.
270
HU Kai,et al.A survey of visual odometry.
本文第 1 节介绍传统视觉里程计框架的算法.
其中包括特征点法 VO 的关键技术和直接法视觉里
程计中的相关算法. 第 2、第 3 节综述最新的视觉里
程计研究方法,包括第 2 节中惯性视觉传感器融合
Simultaneous Localization and Mapping) 的
一部分,主要通过相机传感器获取一系
列拥有时间序列图像的信息,从而预估
机器人的姿态信息,建立局部地图,也被
称为前端,已经被广泛应用在了多个领
域,并取得了丰硕的实际成果,它对于无
人驾驶、全自主无人机、虚拟现实和增强
现实等方面有着重要意义. 本文在介绍
(2018YFC1405703) ;2020 年江苏省大学生创
新创业省级重点项目(2020103000492)
作者简介
胡凯,男,博士,副教授、高级实验师,研究
方向为机器人.nuistpanda@ 163.com
吴佳胜( 通信 作者) , 男, 硕士生,研究方
向 为 机 器 人 同 步 定 位 与 地 图 构 建.
近年来有代表性的或取得比较显著效果的方法进行详细的原理介绍
和优缺点分析.根据是否需要提取特征点大致分为特征点法和直接
法.也可以根据是否脱离经典的位姿估计模块方法分为经典视觉里程
计和新颖视觉里程计.最后总结并提出未来的发展前景.
Copyright©博看网 . All Rights Reserved.
所谓视觉里程计就是从一系列图像流中恢复出相机的运动位
姿,这一思想最早是由 Moravec [4] 提出的,他们不仅在论文中第一次

视觉SLAM中的视觉里程计算法研究

视觉SLAM中的视觉里程计算法研究

视觉SLAM中的视觉里程计算法研究随着现代科技的不断发展,人们对机器视觉的研究也日益深入。

其中,视觉SLAM技术就是机器视觉领域中的一项重要研究内容。

在视觉SLAM系统中,视觉里程计算法是实现实时位姿估计的核心部件,其基本功能是通过分析传感器所采集的图像序列,计算出相机的运动轨迹和位姿信息。

本文将从视觉里程计算法的原理、发展历程以及研究现状三个方面对该技术进行介绍和探讨。

一、原理视觉里程计是一种利用相邻图像之间的像素运动来估计相机位姿和运动的技术。

它通常基于对图像两两之间的相似性进行分析,从而确定相邻图像之间运动的向量,并进一步累积运动向量以计算相机的运动。

其核心思想是通过优化所构建的矩阵,最小化估计值与观测值之间的误差差距,从而得到最优的位姿和轨迹。

二、发展历程1. 基于特征点的方法最早的视觉里程计方法是基于特征点的匹配。

该算法利用特征点在图像上的唯一性和高可重复性,通过图像特征的匹配推导出相机位姿。

该算法最早应用于微软Kinect深度相机和Leap Motion手势控制器等设备中。

2. 基于直接法的方法直接法是近年来兴起的一种视觉里程计算法。

该方法利用像素强度值之间的变化关系来计算相邻图像之间的运动。

与基于特征点的方法不同,直接法不需要进行前期特征提取,从而可以克服特征提取的不稳定性和局限性。

该方法在2014年首次被应用于自主驾驶汽车,大大提高了车辆的行驶安全性和精度。

3. 基于深度学习的方法深度学习的发展为视觉里程计的研究提供了新的思路和方法。

基于深度学习的方法通过构建深度神经网络模型,利用深度感知技术提取图像的深度信息,在视觉里程计的计算中发挥重要作用。

该方法在场景重建、运动估计和位姿估计等方面都取得了不俗的成果,是未来研究的重点方向之一。

三、研究现状视觉里程计是视觉SLAM系统中的一个关键技术,也是目前研究的热点领域之一。

国内外学者在该领域开展了大量的深入研究,并取得了一系列重要的进展。

移动机器人视觉里程计技术研究综述

移动机器人视觉里程计技术研究综述

移动机器人视觉里程计技术研究综述
陈明方;黄良恩;王森;张永霞;陈中平
【期刊名称】《农业机械学报》
【年(卷),期】2024(55)3
【摘要】随着移动机器人技术不断发展,里程计技术已经成为移动机器人实现环境感知的关键技术,其发展水平对提高机器人的自主化和智能化具有重要意义。

首先,
系统阐述了同步定位与地图构建(Simultaneous localization and
mapping,SLAM)中激光SLAM和视觉SLAM的发展近况,阐述了经典SLAM框架及其数学描述,简要介绍了3类常见相机的相机模型及其视觉里程计的数学描述。

其次,分别对传统视觉里程计和深度学习里程计的研究进展进行系统阐述。

对比分
析了近10年来各类里程计算法的优势与不足。

另外,对比分析了7种常用数据集的性能。

最后,从精度、鲁棒性、数据集、多模态等方面总结了里程计技术面临的问题,从提高算法实时性、鲁棒性等方面展望了视觉里程计的发展趋势为:更加智能化、小型化新型传感器的发展;与无监督学习融合;语义表达技术的提高;集群机器人协同技术的发展。

【总页数】20页(P1-20)
【作者】陈明方;黄良恩;王森;张永霞;陈中平
【作者单位】昆明理工大学机电工程学院
【正文语种】中文
【中图分类】TP242.6;TP391.41
【相关文献】
1.室内移动机器人视觉里程计研究
2.移动机器人视觉里程计综述
3.移动机器人中视觉里程计技术综述
4.融合运动约束的轮式机器人视觉里程计研究
5.移动机器人视觉里程计综述与研究展望
因版权原因,仅展示原文概要,查看原文内容请购买。

视觉里程计技术综述

视觉里程计技术综述
滤波完成运动估计 。
1 3 总结 .
Nsr i6 的方法为 :) t a 在一个 确定 数 目的 图像 帧 问跟踪 特征 , 在
三 帧图像 中 利用 五 点算 法 估 计 相 对位 姿 , 随后 利 用 优先 R NA A S C的方法迭代提纯 ;) b 利用每一跟踪特征中的第一个和 最后一个观测值 , 将观察 的特征跟踪通过三角测量法转换为三
A s at i a oo e y V b t c :V s l d m t ( O)i at h o g hc i s oet a em t nb s gv u l n r ai ,n sdte r u r s c n l yw i a s m t t oi yu i i a if m t n a d ue e o h m t i eh o n s o o h
体视 觉里程计 , 然后从 鲁棒性 、 实时性 和精确 性三 个方 面详细讨 论 了视 觉里 程计技 术 的研 究现 状 , 最后 对 视 觉里
程 计 的发展趋 势进行 了展 望 。
关键词 :视 觉里程计 ; 自主移动机 器人 ;单 目视 觉里程计 ;立体 视 觉里程计 ;鲁棒 性 ;实 时性 ;精确 性 中图分 类号 :T 3 3 0 P 9.4 文 献标 志码 :A 文章 编号 :10 — 6 5 2 1 ) 8 2 0 . 5 0 13 9 ( 0 2 0 . 8 10
lpme tte d o o n r n fVO.
Ke r s iu lo o t ; a t n mo s mo i o os mo o u a y wo d :v s a d mer y u o o u bl r b t ; e n c l rVO;se e O ;r b s e s e lt ; a c r c tr o V o u t s ;r a — me c u a y n i

移动机器人视觉里程计综述与研究展望

移动机器人视觉里程计综述与研究展望

移动机器人视觉里程计综述与研究展望摘要:移动机器人基于激光和视觉SLAM导航可实现环境的智能感知和非固定路径行走,其中视觉SLAM导航是指机器人利用视觉系统实现自主定位与地图创建,其优势为结构简单、成本低,信息量丰富。

而视觉里程计作为移动机器人视觉SLAM导航的前端,能为机器人自主导航提供廉价、可靠的位姿估计。

本文对移动机器人视觉里程计的概念与发展历程进行了简述,总结了实现视觉里程计的不同方法并分别对比了其优缺点,同时也分析了视觉里程计在移动机器人领域的应用以及未来研究展望。

关键词:视觉里程计、位姿估计、移动机器人、导航1、引言在移动机器人系统中,要进行目标探测和定位,对于自身位姿的估计非常重要。

传统的里程计,如轮式里程计因为轮子打滑空转而容易导致漂移;精确的激光传感器价格昂贵;惯性传感器虽然可以测量传感器瞬时精确的角速度和线速度,但是随着时间的推移,测量值有着明显的漂移,使得计算得到的位姿信息不可靠等。

而视觉里程计(Visual Odometry,VO)由于视觉传感器低廉的成本和长距离较为精准的定位在众多传统里程计中脱颖而出。

世界顶级的视觉传感器(工业相机)产品售价约为人民币3000元,是同等级的激光雷达产品售价的10%~20%。

而较低的制造成本意味着较低的产品价格,对提升企业产品竞争力或终端客户投资回报周期都更加利好。

2、视觉里程计发展简述所谓视觉里程计,就是从一系列图像流中恢复出相机的运动位姿,这一思想最早是由Moravec等人[1]提出的,他们首次提出了单独利用视觉输入的方法估计运动,并给出了一种最早期的角点检测算法,将其应用在行星探测车上,这体现了现阶段视觉里程计的雏形,包括特征点检测及匹配、外点排除、位姿估计三大块,使得视觉里程计从提出问题阶段过渡到了构建算法阶段。

Nister等[2]在CVPR上发表的论文中提出了一种利用单目或立体视觉相机来获取图像的视觉里程计系统,宣告VO技术进入了优化算法阶段。

图优化的Kinect三维视觉里程计设计分析

图优化的Kinect三维视觉里程计设计分析

图优化的Kinect三维视觉里程计设计分析【摘要】本文针对图优化的Kinect三维视觉里程计进行了设计分析。

在我们探讨了研究背景、研究意义和研究目的。

在正文中,我们概述了图优化的Kinect三维视觉里程计,讨论了基于图优化的三维位姿估计、环境建模、数据融合以及性能分析和效果评估。

结论部分总结了研究成果,展望了未来的研究方向,并强调了本研究的创新点。

通过本文的分析,我们希望为图优化的Kinect三维视觉里程计的设计与优化提供一定的参考和指导。

【关键词】图优化、Kinect、三维视觉、里程计、概述、位姿估计、环境建模、数据融合、性能分析、效果评估、研究总结、未来展望、创新点1. 引言1.1 研究背景本文将针对基于Kinect传感器的三维视觉里程计进行设计和分析,结合图优化技术和Kinect传感器的特点,探讨如何提高三维位姿估计的精度和稳定性,同时实现环境建模和数据融合,从而为无人车、无人机和机器人等自主导航系统的研究和应用提供一种新的解决方案。

1.2 研究意义三维视觉里程计在机器人导航、虚拟现实、增强现实等领域具有重要的应用价值,对于实现精准定位、建图和导航至关重要。

而基于图优化的Kinect三维视觉里程计设计极大地提高了传统视觉里程计的精度和稳定性,可以在复杂环境下实现高效、准确的定位和建图。

通过将Kinect深度相机与图优化算法相结合,能够有效地提高机器人的定位和导航能力,为智能机器人的发展提供了有效的技术支持。

1.3 研究目的研究目的的内容如下所述:研究目的是为了探讨如何通过图优化的方法来改善Kinect三维视觉里程计的精度和稳定性,提高其在实际应用中的性能表现。

通过对图优化的理论和算法进行深入理解和分析,我们希望能够提出一种有效的三维位姿估计方法,实现对环境的精确建模,并有效地融合Kinect传感器的数据。

在研究过程中,我们将重点关注图优化在三维视觉里程计中的应用,并探讨其对系统性能的影响。

视觉里程计综述

视觉里程计综述

视觉里程计综述
视觉里程计(Visual Odometry,简称VO)是一种从连续的图像序列中恢
复相机运动的方法。

它通过分析相机拍摄的图像,利用计算机视觉和图像处理技术,估计相机的位置、速度和方向等信息。

视觉里程计在无人驾驶、机器人、航空航天、虚拟现实等领域有广泛的应用前景。

视觉里程计的基本原理是利用图像特征点的匹配和跟踪,以及相机姿态的估计,来恢复相机的运动状态。

具体来说,它通过提取图像中的特征点,并使用某种匹配算法将这些特征点与前一帧图像中的特征点进行匹配,然后利用这些匹配信息来计算相机的运动参数,包括平移向量和旋转矩阵等。

这些参数可以帮助确定相机的位置和方向,从而实现对相机运动的估计。

视觉里程计的研究重点在于特征点的检测和匹配、相机姿态的估计以及优化算法的设计等。

目前,许多学者和研究机构都在致力于视觉里程计的研究,并已经取得了一些重要的成果。

例如,一些研究者提出了一种基于深度学习的视觉里程计方法,该方法能够利用深度神经网络自动地检测和匹配特征点,并实现高精度的相机姿态估计。

此外,随着技术的不断发展,视觉里程计的应用场景也在不断扩大。

例如,在无人驾驶汽车领域,视觉里程计可以用于实现车辆的自主导航和路径规划;
在航空航天领域,视觉里程计可以帮助无人机和无人飞机进行自主飞行和目标跟踪;在虚拟现实领域,视觉里程计可以用于实现虚拟场景的动态渲染和交互控制等。

总之,视觉里程计是一种非常重要的计算机视觉技术,它能够从图像序列中恢复相机的运动状态,为许多领域提供了重要的技术支持。

未来,随着技术的不断发展,视觉里程计的应用前景将会更加广阔。

单目视觉里程计算法研究与优化

单目视觉里程计算法研究与优化

单目视觉里程计算法研究与优化近年来,单目视觉里程计算法在机器人导航、自动驾驶、增强现实等领域得到广泛应用。

单目视觉里程计算法的原理是根据图像序列计算相邻帧之间的运动量,进而估计相机在空间中的运动轨迹。

然而,由于单目视觉里程计算法存在的问题,如误差积累、运动模型不准确等,导致其实际应用中存在诸多限制。

因此,针对这些问题,研究与优化单目视觉里程计算法具有重要的现实意义。

一、单目视觉里程计算法的基本原理单目视觉里程计算法是通过在不同时间拍摄的图像序列中提取特征点,进而计算相邻帧之间的位移,并根据位移信息估计相机运动轨迹的一种方法。

具体步骤包括以下几个方面:1.图像预处理:将输入的图像序列进行预处理,主要包括去噪、灰度化等。

2.特征提取:对于每一帧图像,在图像上提取一些关键特征点。

常用的特征点提取算法包括SIFT、SURF以及ORB等。

3.特征匹配:特征点匹配是计算两幅图像之间的位移信息的关键步骤。

常用的特征匹配算法有基于描述子的匹配算法、FLANN算法等。

4.相机运动估计:相机运动估计是基于特征点的位移信息计算相机空间运动轨迹的过程。

常用的运动估计算法有基于特征点匹配的本质矩阵估计算法、基于特征点的运动估计算法等。

5.运动轨迹的优化:优化是为了提高单目视觉里程计算法的精度和准确性。

常用的优化算法有基于滤波器的优化算法、基于非线性优化的算法等。

二、单目视觉里程计算法存在的问题尽管单目视觉里程计算法在实际应用中具有广泛的应用前景,但其在实际应用中也存在一些问题,如误差积累、运动模型不准确等。

1.误差积累:由于单目视觉里程计算法基于特征点匹配来计算相邻帧之间的运动量,因此在匹配过程中的误差会积累到最终估计的运动量中,从而导致估计的相机运动轨迹偏差较大,甚至不可用。

2.运动模型不准确:在单目视觉里程计算法中,相机的运动模型是根据前一个时刻的状态和当前时刻的输入来估计的。

然而,由于相机运动过程中的加速度和姿态变化等因素,相机的运动模型难以完全准确的表示,因此会影响单目视觉里程计算法的精度和准确性。

基于深度学习的机器人视觉里程计技术研究

基于深度学习的机器人视觉里程计技术研究

基于深度学习的机器人视觉里程计技术研究第一章:引言随着人工智能的快速发展,机器人技术也越来越成熟,特别是机器人视觉技术的改进使得机器人在复杂环境中的感知和定位能力得到大幅提升。

机器人视觉里程计技术作为机器人导航中的关键问题之一,一直受到广泛的关注和研究。

近年来,基于深度学习的机器人视觉里程计技术因其出色的性能和鲁棒性而备受瞩目。

本文将重点研究基于深度学习的机器人视觉里程计技术,并对其原理、方法和应用进行深入探讨。

第二章:深度学习介绍与相关技术2.1 深度学习基本原理深度学习是一种通过构建和训练多层神经网络来实现自动数据分析和模式识别的机器学习方法。

本节将介绍深度学习的基本原理,包括神经网络结构、反向传播算法和常用的激活函数等内容。

2.2 卷积神经网络卷积神经网络是深度学习中常用的一种神经网络结构,其通过使用局部连接和权值共享来实现对图像和视频等数据的高效处理。

本节将介绍卷积神经网络的基本原理、结构和训练方法,并探讨其在机器人视觉里程计技术中的应用。

2.3 循环神经网络循环神经网络是一种能够对序列数据进行建模和处理的神经网络结构,其具有记忆功能,能够有效处理时间序列数据。

本节将介绍循环神经网络的基本原理、结构和训练方法,并讨论其在机器人视觉里程计技术中的应用。

第三章:基于深度学习的机器人视觉里程计技术原理3.1 传统视觉里程计技术介绍传统的视觉里程计技术主要基于特征点匹配的方法,通过提取图像的特征点并计算其在不同图像间的几何变换来估计机器人的运动。

本节将介绍传统视觉里程计技术的基本原理和方法,并分析其存在的问题和限制。

3.2 深度学习在机器人视觉里程计中的应用深度学习在机器人视觉里程计技术中具有很大的潜力,能够通过学习图像和运动数据之间的映射关系,实现对机器人运动轨迹的准确估计。

本节将介绍基于深度学习的机器人视觉里程计技术的原理和方法,并讨论其相对于传统方法的优势和不足。

第四章:实验与结果分析4.1 实验设置为了验证基于深度学习的机器人视觉里程计技术的性能,我们设计了一系列实验,并选择了合适的数据集和评价指标。

无人机视觉导航系统设计中的算法研究

无人机视觉导航系统设计中的算法研究

无人机视觉导航系统设计中的算法研究引言随着无人机应用领域的拓宽,视觉导航系统越来越受到关注。

无人机视觉导航系统能够利用摄像头获取周围环境信息,将图像信息通过算法处理后,实现定位和导航的功能。

本文将探讨无人机视觉导航系统设计中的算法研究。

第一章常见的无人机视觉导航算法1.1 视觉里程计算法通过对摄像头采集到的图像信息进行处理,计算出机器人在建筑内的运动过程中的位置、方向和速度等信息。

常用的视觉里程计算法有基于特征点匹配的方法、基于直接法的方法和基于深度学习的方法等。

1.2 无人机姿态估计算法无人机姿态估计算法可以通过运用惯性测量单元和无人机姿态传感器对无人机的运动姿态和位移进行估算。

根据不同的传感器选择,可分为基于磁力计和陀螺仪、基于加速度计和陀螺仪、基于激光测距和IMU等。

1.3 飞行控制算法飞行控制算法的目的是通过无人机姿态估计算法计算出的姿态信息和视觉里程计算法计算出的位置和速度信息,做出控制无人机的控制动作。

常用的飞行控制算法有PID控制器、模型预测控制算法和基于深度学习的控制算法等。

第二章无人机视觉导航系统设计流程2.1 硬件选型无人机视觉导航系统设计过程中的第一步是选取合适的硬件。

硬件的选取应根据无人机的任务需求和应用场景。

比如,不同的千万像素的摄像头能满足不同的拍摄要求,不同的传感器能让我们获取更为准确的位置和姿态信息。

2.2 软件设计软件设计包含算法编写和软件架构设计等。

算法编写是指编写视觉里程计算法、无人机姿态估计算法和飞行控制算法等算法。

架构设计主要考虑软件系统的模块化和可扩展性,以及不同模块之间的数据传递和交互。

2.3 实验测试实验测试是验证算法和软件设计的重要步骤。

应在不同场景进行实验测试,对不同算法进行对比验证,确定系统的稳定性和可靠性。

第三章无人机视觉导航算法存在的问题3.1 对环境光照的敏感度视觉导航系统的算法对亮度变化和环境光照变化敏感,这可能导致飞行器在不同光照条件下飞行时,无法准确地获取位置和姿态信息。

智能车辆视觉里程计算法研究进展

智能车辆视觉里程计算法研究进展

摘要 :对 智 能车辆 视 觉里程 计 算法进 行 了综述 , 首先说 明 了视 觉 里程 计 的基本 原 理 , 后 从 所 然
使 用 的信 息特征 、 机 配置 、 帧或 多帧计 算框 架 等方 面 对视 觉里 程 计 系 统进 行 了分 类 与 比 较 , 相 两 其 次 详细 介 绍 了视 觉 里程计 算 法 中的关键 技 术 问题 , 括特 征 选 择 与 匹配 、 包 鲁棒 运 动估 计 等 , 后 讨 最
第3 3卷 第 2期
20 12年 2月




Vo . 3 1 3 NO. 2
AC TA ARM AM ENTARI I
Fe . b
201 2
智 能车辆视觉 里程计算法研究进展
江 燕 华 ,熊光 明 , 岩 ,龚 建 伟 ,陈 慧岩 姜
( 京 理 工 大 学 机 械 与 车 辆 学 院 ,北 京 10 8 ) 北 0 0 1
论 了视 觉里 程计未 来 发展 方 向。 关键 词 : 息处 理技 术 ; 能车辆 ;视 觉 里程 计 ;运 动估 计 信 智 中 图分 类号 : P 4 . T 22 6 文献标 志码 : A 文章编 号 : 0 0 19 ( 0 2 0 .2 40 1 0 —0 3 2 1 ) 20 1 -7
基 金 项 目 :国 家 自然 科 学 基 金 项 目 (0 2 34)北 京 理 工 大 学 科 研 基 地 科 技 支 撑 计 划 9 9 00 ; 作 者 简 介 :江 燕华 ( 9 7 ) 女 , 士 研 究 生 。E m i:pie bteu c 18 一 , 博 — al r @ i d .“; c . 熊 光 明 ( 9 5 ) 男 , 士 。E m i:x ngag n@ bteu c ; 17 一 , 博 —a l i gu nmig i d . n a 陈慧岩(91 ) 16 一 ,男 , 授 ,博 士 生 导 师 。Ema : hn h y 6 . e 教 — i c e— — @2 3 nt l

自动驾驶中的视觉里程计技术研究与优化

自动驾驶中的视觉里程计技术研究与优化

自动驾驶中的视觉里程计技术研究与优化自动驾驶技术的发展成为近年来科技界的热点话题之一。

随着传感器、计算能力和人工智能等技术的不断进步,自动驾驶汽车逐渐成为现实而非遥远的未来。

视觉里程计技术在自动驾驶系统中扮演着重要的角色,它通过分析摄像头捕捉到的图像,推测车辆在空间中的位置和姿态。

本文将探讨自动驾驶中的视觉里程计技术研究现状,并提出一些优化方法以提高其准确性与可靠性。

视觉里程计是自动驾驶系统中的一项核心技术,其主要目标是通过分析连续的图像序列来估计车辆在实际空间的运动轨迹。

一般而言,视觉里程计可以分为两种方法:基于特征的方法和直接方法。

基于特征的方法通过提取图像中的特征点,并利用这些特征点的位置变化来计算运动轨迹。

这种方法相对成熟且广泛应用,但在特征提取、匹配和跟踪过程中容易受到光照变化、遮挡和动态物体等因素的影响。

此外,由于特征点的数量和质量对于计算结果至关重要,该方法对于图像质量的要求较高。

直接方法则直接利用图像灰度值的变化来计算运动轨迹。

与基于特征的方法相比,直接方法不需要进行特征提取和匹配,因此具有更强的鲁棒性,可以应对光照变化和遮挡等挑战。

然而,由于直接法需要对图像的大量像素进行计算,运行效率较低,并且对图像质量和相机参数的要求也较高。

为了提高视觉里程计的准确性和可靠性,研究人员采取了一系列的优化策略和方法。

其中之一是使用多传感器融合技术。

通过将摄像头与其他传感器(如激光雷达和惯性测量单元)进行融合,可以有效地提高定位和姿态估计的准确性。

激光雷达可以提供精确的距离信息,而惯性测量单元则可以提供车辆的运动状态。

融合这些数据可以弥补单个传感器的不足,提高系统的鲁棒性。

除了传感器融合技术外,研究人员还提出了许多优化方法来改善视觉里程计的性能。

例如,立体视觉可以提供更丰富的深度信息,通过使用立体图像进行视差计算,可以提高运动轨迹的准确性。

此外,使用图像语义分割技术可以将图像分割为不同的语义区域,可以将这些信息与运动轨迹进行关联,提高定位的准确性和鲁棒性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
从连续的图像序列中估计相机自运动的思想最早由 Moravec[2]提出。他利用一个可滑动的相机获取视觉信息完成 了机器人的室内导航。1987年,Matthies等人[3]设计了从特征 提取、特征匹配与跟踪到运动估计的理论框架,该框架至今仍 为大多数 VO系统所遵循。绝大多数早期的 VO系统主要应 用于行星探测[2,4],其中最典型的当属美国 NASA的火星探测 项目。VO在火星 探 测 器 中 用 于 在 轮 速 传 感 器 失 效 时 测 量 六 个自由度参数。VO这个术语是由 Nister等人[5]在 2004年创 造的。他们设计了一种实时的 VO系统,真正意义上实现了机 器人室外运动导航,同时还提出了两类 VO的实现途径和流
Reviewofvisualodometryalgorithm
CiWenyan1,2,HuangYingping1,HuXing1
(1.SchoolofOpticalElectrical&ComputerEngineering,UniversityofShanghaiforScience&Technology,Shanghai200093,China;2.School ofElectricPowerEngineering,NanjingNormalUniversityTaizhouCollege,TaizhouJiangsu225300,China)
过去曾经出现过一些有关 VO的综述文献[1,9~11],尤其是 文献[1,11]系统地介绍了 VO在 2012年以前的发展状况。但 是,近几年 VO技术取得了很大的进步,随着大量高性能 VO 系统的涌现,这些文献已经不能反映最新的 VO技术的发展。 本文在综述过程中,侧重结合一些先进的 VO系统。文章首先 介绍了 VO的概况,包括 VO问题的数学描述及其分类;然后 重点综述了特征模块、帧间位姿估计和减少漂移等 VO的关键 技术。针对近几年来出现的基于深度学习的 VO,简述了它的 发展动态 并 分 析 了 它 的 优 势 和 不 足。考 虑 到 算 法 评 价 对 于 VO发展的重要性,文章还介绍了三个常用的 VO公共数据集。 最后总结了 VO目前存在的问题,展望了它的发展趋势。
摘 要:视觉里程计通过分析相机获取的图像流信息估计移动机器人的位姿。为了深入分析视觉里程计算法 的发展现状,结合一些先进的视觉里程计系统,综述了视觉里程计的相关技术以及最新的研究成果。首先简述 了视觉里程计的概念和发展历程,介绍了视觉里程计问题的数学描述和分类方法;然后,详细阐述了视觉里程计 的关键技术,包括特征模块、帧间位姿估计和减少漂移;此外,还介绍了基于深度学习的视觉里程计的发展动态。 最后,总结了视觉里程计目前存在的问题,展望了未来的发展趋势。 关键词:机器视觉;视觉里程计;位姿估计;视觉导航;移动机器人;深度学习 中图分类号:TP242.6 文献标志码:A 文章编号:10013695(2019)09001256108 doi:10.19734/j.issn.10013695.2018.05.0346
0 引言
在移动机器人系统中,要进行目标探测和定位,对于自身 位姿的估计非常重要。传统的位姿估计方法有 GPS、IMU、轮 速传感器和声纳定位系统等里程计技术。近年来,相机系统变 得更加便宜,分辨率和帧率也更高,计算机性能有了显著提高, 实时的图像处理成为可能。一种新的位姿估计方法因此而产 生,即视觉里程计(visionodometry,VO)。VO仅利用单个或多 个机所获取 的 图 像 流 估 计 智 能 体 位 姿 [1]。 它 的 成 本 较 低, 能够在水下和空中等 GPS失效的环境中工作,其局部漂移率 小于轮速传感器和低精度的 IMU,它所获得的数据能够很方便 地与其他基于视觉的算法融合,省去了传感器之间的标定。
程,即单目视觉和立体视觉的方法,这为后来 VO的研究奠定 了新的基础。
与 VO紧密相关的一个领域是基于视觉的同时定位与地 图 构 建 技 术 (visualsimultaneouslocalization and mapping, VSLAM)[6~8]。VSLAM在一个未知的环境中对机器人进行自 定位并实时重建环境的三维结构。其目标是获得对机器人运 动轨迹的全局一致性估计,这意味着机器人必须能够识别曾经 到过的地方,这个过程被称为闭环检测。而 VO是增量式的重 构路径,它只关心轨迹的局部一致性。从实时性和环境适应性 的角度出发,专注于局部运动估计的 VO更具有实用价值,更 适用于大范围运动的移动机器人。
第 36卷第 9期 2019年 9月
计算机应用研究 ApplicationResearchofComputers
Vol.36No.9 Sep.2019
视觉里程计算法研究综述
慈文彦1,2,黄影平1,胡 兴1
(1.上海理工大学 光电信息与计算机工程学院,上海 200093;2.南京师范大学泰州学院 电力工程学院,江苏 泰州 225300)
Abstract:Visualodometry(VO)estimatestheposeofamobilerobotbyanalyzingtheimageflowcapturedbytheequipped cameras.InordertoanalyzethedevelopmentofVOalgorithms,thispaperreviewedtherelatedtechnologiesofVOandtheup todateresearchstatecombinedwithsomeadvancedVOsystems.Firstly,thispaperdescribedtheconceptandtheevolutionof VO,andintroducedthemathematicaldescriptionandtheclassificationofVO.Then,itanalyzedthekeytechnologiesofVOin details,includingfeatureselection,motionestimationanddriftreduction.Inaddition,italsointroducedthelatestdeeplearn ingbasedVO.Atlast,itdiscussedtheexistingproblemsandprospectedthedevelopmenttrendofVO. Keywords:machinevision;visualodometry;poseestimation;visionbasednavigation;mobilerobots;deeplearning
相关文档
最新文档