基于动态滑模控制的移动机器人路径跟踪
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第32卷第1期 2009年1月
合肥工业大学学报
(自然科学版)
J OU RNAL OF H EFEI UN IV ERSIT Y OF TECHNOLO GY
Vol.32No.1
J an.2009
收稿日期:2008204221;修改日期:2008206202
基金项目;先进数控技术江苏省高校重点建设实验室基金资助项目(KX J 07127)作者简介:徐玉华(1985-),男,江西乐平人,合肥工业大学博士生;
张崇巍(1945-),男,安徽巢湖人,合肥工业大学教授,博士生导师.
基于动态滑模控制的移动机器人路径跟踪
徐玉华1, 张崇巍1, 鲍 伟1, 傅 瑶1, 汪木兰2
(1.合肥工业大学电气与自动化工程学院,安徽合肥 230009;2.南京工程学院先进数控技术江苏省高校重点实验室,江苏南京 211167)
摘 要:文章研究了室内环境下基于彩色视觉的移动机器人路径跟踪问题,利用颜色信息提取路径,简化了图像的特征提取;拟合路径参数时引入RANSAC 方法,以提高算法的可靠性;在移动机器人非线性运动学模型的基础上,设计了一阶动态滑模控制器,并通过仿真验证了控制器的有效性。关键词:移动机器人;视觉导航;路径跟踪;动态滑模
中图分类号:TP24 文献标识码:A 文章编号:100325060(2009)0120028204
Mobile robot ’s path following based on dynamic sliding mode control
XU Yu 2hua 1, ZHAN G Chong 2wei 1, BAO Wei 1, FU Yao 1, WAN G Mu 2lan 2
(1.School of Electric Engineering and Automation ,Hefei University of Technology ,Hefei 230009,China ;2.Jiangsu Province College Key Laboratory of Advanced Numerical Control Technology ,Nanjing Institute of Technology ,Nanjing 211167,China )
Abstract :In t his paper ,mobile ro bot ’s pat h following in indoor environment based on color vision is st udied.Firstly ,t he image feat ures are extracted by color information so t hat t he real 2time perform 2ance of t he algorit hm is imp roved.To enhance t he ro bust ness of pat h parameter fitting ,a least square met hod based on RANSAC is adopted.Then ,a first 2order dynamic sliding mode cont roller is designed based on t he nonlinear vision 2guided robot ’s kinematics.The simulation proves t he validity of t he con 2t roller.
K ey w ords :mobile robot ;visual navigation ;pat h following ;dynamic sliding mode
轮式移动机器人亦称自动引导车(A GV ),有着广泛的应用价值[1]。近年来,随着计算机技术和图像处理技术的发展,移动机器人视觉导航技术成为研究的热点[2]。视觉引导的路径跟踪是视觉导航技术之一。文献[3]基于移动机器人线性化的运动学模型,运用线性二次型最优控制理论设计最优控制器。该控制器对于较小角度的转向控制有一定的优越性,但没有讨论在较大偏差情况下的控制问题。文献[4]提出了一种模仿人工预瞄驾驶行为的移动机器人路径跟踪的模糊控制方法。而在实际应用中,模糊规则难以制定。文献[5]针对全局视觉条件下的轮式移动机器人路径跟踪问题,将基于图像的视觉伺服控制方法引
入到运动控制中,提出一种基于消除图像特征误差的跟踪控制方法。但该方法只适用于小规模环境条件下的使用。
针对以上存在的问题,本文采用价格低廉的车载彩色CCD 相机获取预先铺设引导线的路面实时图像,利用颜色信息提取路径。拟合路径参数时引入了RANSAC 方法,提高了参数拟合的鲁棒性。在移动机器人非线性运动学模型基础之上,设计了一阶动态滑模控制器(Dynamic Sliding Mode Cont roller ,简称DSMC ),在存在较大偏差的情况下也能达到良好的跟踪效果。滑模变结构控制对满足匹配条件的外界干扰和参数变化具有不变性,是一种适用于非线性系统的鲁棒控制方
法,采用它无需对非线性系统线性化,就可以实现系统的全局渐进稳定,并给出了相应的仿真和实验结果,与采用普通滑模控制器(Conventio nal Sliding Mode Cont roller ,简称CSMC )的跟踪效
果进行了比较。
1 移动机器人运动学模型
本文采用的是两轮差动驱动的三轮移动机器人,其运动模型如图1所示。假设机器人为刚体且在运动过程中满足纯滚动和无打滑条件,根据其运动学特性有[8]
v =(v R +v L )/2
(1)ω=(v R -v L )/D
(2) θe =ω
(3) x e =v sin θe
(4
)
其中,D 为左右轮间距;v 为轮轴中心点的线速度,也称为前进速度,假设机器人以恒定的速度运
动,即v 为常数;ω为角速度;v L 、v R 为左、右轮线速度;x e 、θe 为机器人位姿与参考路径之间的距离偏差和角度偏差;虚线框内所示区域为机器人视野区。
令x 1=x e ,x 2=θe ,u =ω,则有
x 1=v sin x 2
x 2=u (5)
图1 视觉引导移动机器人运动学模型
2 路径参数提取
211 图像处理
由于彩色图像比灰度图像含有更丰富的信息,所以利用物体的颜色特征能够更有效地从图像中分割出目标。CCD 视觉传感器采集到的原始图像的颜色空间是R G B 空间,它的优点是比较简单、直观。但是对某种特定颜色,很难从其
R G B 中抽取它的特征,即使对同一种颜色,随着
光照条件的不同,其R G B 值也在变化。给在不同光照情况下同种颜色的识别带来了很大的不便。在HSV 颜色空间中,H 、S 、V 分别表示色调(hue )、色彩的饱和度(sat uration )和亮度值(val 2ue )。HSV 模型将色调信息集中在H 分量上,S 值显示了色彩的饱和度,V 值表示原始图的亮度。不同光线强度对图像H 和S 分量几乎没有影响,而只在表示亮度信息的V 分量体现较为明显。这些特点使得HSV 模型适合于图像分割和目标识别。由R G B 空间到HSV 空间的变换为[6]
V =max (R ,G,B )
(6)S =1-min (R ,G,B )/V (7)H =
θ(B ≤G )
360-θ(B >G )
(8)其中,θ=
cos -1
2R -G -B
2
(R -G )2-(R -B )(G -B )
。
将原始路面图像从R G B 空间转换到HSV
空间后,通过设定不同色调和饱和度的阈值便可识别出特定颜色的目标,如图2所示,分割效果如图2b 所示。为了减小数据的处理量,对分割后的图像进行细化[6]处理,如图2c 所示。
(a ) 原始路面图像 (b ) 分割 (c ) 细化
图2 图像处理
212 坐标转换
由于摄像机与地面存在倾角,使得图像边缘区域存在较大畸变。为了得到机器人与实际参考路径之间的位姿偏差,把经211节处理后的图像的像素点通过射影变换关系从图像坐标转换到机
器人坐标下。移动机器人坐标系与摄像机坐标系的关系如图3所示。坐标转换的公式为[7]
x =
-x ′(f co s α+d z )f co s α-y ′sin α(9)y =-(f d z sin α+y ′d z cos α+y ′f )
f co s α-y ′sin
α+d y
(10)
x ′=(u -O m )/a (11)y ′=(v -O n )/b
(12)
其中,X Y Z 为机器人坐标系,以轮轴中心点为坐
标原点;X ′Y ′Z ′为摄像机坐标系;f 为摄像机焦
9
2 第1期徐玉华,等:基于动态滑模控制的移动机器人路径跟踪