基于图像的视觉伺服系统

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于图像的机器人视觉伺服系统研究

班级:自121

姓名:***

学号:**********

基于图像的机器人视觉伺服系统

摘要本文采用基于图像的眼在手(eye in hand)视觉伺服结构,通过计算图像雅克比矩阵实现机械手的定位任务。本文采用应用最广泛的机器人工具箱(Robotics Toolbox for Matlab),在该工具箱的基础上,运用Sub-system实现Matlab和Simulink的有机结合,建立基于图像反馈的六自由度PUMA560机器人视觉伺服系统Simulink模型,仿真验证该模型的有效性。

关键字:puma560机器人;视觉伺服;图像的雅可比矩阵Abstract:In this paper,we use Image-based visual servoing control system, via image jacobin matrix function the positioning of the manipulator by calculation task. on the basis of Robotics Toolbox for Matlab, and using Sub - system to realize the organic combination of Matlab and Simulink, based on the image feedback Simulink model of six degrees of freedom PUMA560 robot visual servoing system, the simulation verify the validity of the model.

Keyword:PUMA560robot;IBVS;Image jacobin

引言:

机器人视觉伺服己成为机器人领域重要的研究内容之一,但是机器人视觉伺服系统是一个十分复杂的非线性系统。视觉是一种复杂的感官,视觉信息中包含有大量的数据,要从

中提取特征信息,需要复杂的算法及耗费大量的运算时间,

视觉通常采用CCD摄像机来实现,在成像过程中会受到多种因素的影响,因此如何使复杂的视觉伺服系统高效的实现预定目标,极大程度上取决于所选取的控制策略。研究机器人非线性系统的控制策略是机器人研究领域中具有挑战性的课题。本文采用基于图像的眼在手视觉伺服结构,通过计算图像雅克比矩阵实现机械手的定位任务。应用机器人工具箱建立基于图像反馈的六自由度PUMA560机器人视觉伺服系统Simulink模型,仿真验证该模型的有效性。

1 基于图像的视觉伺服控制结构:

基于图像的机器人视觉伺服系统结构

目前存在的基于图像的机器人视觉伺服方法大部分是建立在图像雅可比矩阵基础上的。

其结构如图所示,采用双闭环结构,其中内环为关节伺服控制,通过关节位置反馈来实现机器人轨迹跟踪控制。在高性能伺服控制器作用下可将机器人控制系统近似为线性环节。

外环为视觉控制器,以较低的采样速率完成关节角设定。利用从图像中提取的视觉信息特征,进行机器人末端执行器的位

置闭环控制。

2 基于图像的机器人视觉伺服仿真

2.1 机器人工具箱(RobotiesToolboxforMatlab)简介

机器人工具箱是由澳大利亚联邦科学与工业研究组织(CSIRO)的研究员PeterCorke于2002年4月提出的。该工具箱包含了大量功能丰富的函数,可用于机器人运动学、动力学和轨迹规划的研究。

该工具箱是基于串连关节机械臂的运动学和动力学提出的,应用该工具箱可以创建串连关节的机器人对象。此外该工具箱还提供了一些机器人仿真实例(如PUma560、斯坦福机械臂等)和表示三维位置和姿态时常用的数据类型(如向量、类型转换矩阵和四元数等)。

2.2仿真模型的构建

系统仿真模型如下图所示

仿真的基本思想,是根据目标在像平面的图像特征与理想的图像特征之差定义误差信号,并将其变换到机械臂运动空间,以此作为机器人的运动控制命令驱动机械臂运动,使得目标特征点逐步成像于理想位置。

2.2.1模型中的主要部分

(1)期望输入

期望输入是指摄像机(机械手)到达期望位置时目标物体在图像平面上的理想特征。通常选取的图像特征可以为特征点、线、圆、图像矩等。本例中选取长方体的四个角点作为特征点。

(2)PUMA560机器人

本实验中的机器人部分包括jacobn 雅可比矩阵、Pinv、fkine、矩阵相乘模块(matrix mu1tiply)和积分模块,jacobn 模块用于求机器人雅可比矩阵。输入q为机器人关节角向量;robot用于构建PUMA560机器人模型,pinv是机器人雅可比矩阵的求逆运算

(3)摄像机模型

摄像机标定完成由二维图像坐标到三维空间坐标的变换。仿真中的摄像机模型由camera模块来实现。

camera(p,C,T),输入C是摄像机标定矩阵,p是目标物体特征点的三维坐标,T是世界坐标系到摄像机坐标系的变换矩阵,最终返回相应的图像特征矢量坐标uv

(4)视觉控制器

视觉控制器的设计方法有很多种,包括常规的PID控制器、基于任务函数法、状态空间法和基于机器人动态特性的控制器。PID控制器由于算法简单有效,在工程实际中得到最广泛应用,因此本文采用PID控制器。

根据视觉反馈误差,可以建立以下控制律:

式中u为控制量,Kp,Ki,Kd分别为比例、积分、和微分算子的系数矩阵。本文采用最简单的比例控制,其控制量u=Kp*e

该模型中的视觉控制器由visjae、pinv、矩阵相乘模块(matrixmultiply)和比例模块组成。由于误差定义在图像特征空间,而机器人的控制输入通常在笛卡儿空间或关节空间,因此需要进行必要的空间变换,即在线计算图像雅可比矩阵。visjac(uv,camdata,z)模块的功能是完成图像雅可比矩阵的在线计算,其中输入uv为图像特征矢

量,Camdata=[ax,ay,uo,v]是摄像机参数,具体值将在仿真

试验中给出.

2.3 仿真结果

选取物体表面的四个角点为特征点,初始的图像特征点坐标在仿真图中已经给出,如下图,期望的图像特征点坐标从仿真图中可得[256 456,456 456,456 256,256 256],期望的图像也如下

相关文档
最新文档