基于特征点匹配技术的运动估计及补偿方法
计算机视觉中的目标跟踪与运动估计算法
计算机视觉中的目标跟踪与运动估计算法摘要:随着计算机视觉技术的迅猛发展,目标跟踪与运动估计成为了计算机视觉领域一个重要的研究方向。
目标跟踪是指在给定的视频序列中,通过对目标的连续观察和判断,实时地追踪目标的位置,运动估计则是通过对目标在图像或视频序列中的运动进行建模和预测。
本文将介绍目标跟踪与运动估计的基础概念、常用算法和应用领域,并讨论其挑战和发展趋势。
1.引言计算机视觉是一门研究如何使计算机能够“看”的学科,它将图像处理、模式识别和人工智能等知识相结合,旨在模拟人类的视觉系统,实现对图像和视频的理解和分析。
目标跟踪与运动估计是计算机视觉领域的一个重要方向,具有广泛的应用前景。
2.目标跟踪算法目标跟踪算法是指在给定的视频序列中,通过对目标的连续观察和判断,实时地追踪目标的位置。
常见的目标跟踪算法包括基于模板匹配的方法、基于特征匹配的方法、基于相关滤波的方法等。
这些算法利用了图像中目标的特征信息(如颜色、纹理、形状等)来判断目标的位置,并通过更新模型或特征来实现目标的连续跟踪。
3.运动估计算法运动估计是指通过对目标在图像或视频序列中的运动进行建模和预测。
常见的运动估计算法包括基于光流的方法、基于特征点匹配的方法、基于深度学习的方法等。
这些算法利用了图像序列中的像素或特征点之间的变化关系,预测目标的未来位置,进而实现对目标的运动估计。
4.应用领域目标跟踪与运动估计在很多领域有着广泛的应用,例如视频监控、交通管理、移动机器人、虚拟现实等。
在视频监控领域,目标跟踪与运动估计可以实时地追踪事件发生的位置和运动轨迹,提供重要的监控信息。
在交通管理领域,目标跟踪与运动估计可以预测交通流量和车辆轨迹,提供交通优化的参考。
在移动机器人领域,目标跟踪与运动估计可以实现对机器人的自主导航和动作控制。
在虚拟现实领域,目标跟踪与运动估计可以实现用户动作捕捉和虚拟对象的交互。
5.挑战和发展趋势目标跟踪与运动估计在实际应用中仍面临一些挑战,如目标形变、光照变化、遮挡等。
基于特征匹配的算法
基于特征匹配的算法特征匹配是一种常用的计算机视觉算法,用于在不同图像或图像中的不同区域之间寻找共享相似或相同特征的方法。
特征匹配算法在图像处理、目标跟踪、图像识别等领域有广泛的应用。
特征匹配算法的基本原理是通过对图像中的特征进行提取和描述,然后在不同图像中或同一图像中的不同区域之间进行匹配。
具体步骤包括特征提取、特征描述和特征匹配。
特征提取是指从原始图像中找到代表图像内容的显著特征点,常用的特征点包括角点、边缘点、斑点等。
具体的特征提取算法包括Harris角点检测、SIFT(尺度不变特征变换)、SURF(加速稳健特征)等。
特征描述是将提取到的特征点转换为特征描述子,以便后续的特征匹配。
特征描述子通常是一个向量,可以通过统计特征点周围的图像局部信息得到。
常用的特征描述算法包括SIFT描述子、SURF描述子、ORB(旋转不变二值)描述子等。
特征匹配是将不同图像或同一图像中的不同区域的特征进行对应,从而实现图像匹配、目标跟踪等功能。
常用的特征匹配方法包括暴力匹配(Brute-Force)算法、最近邻匹配(Nearest Neighbor)算法、RANSAC (随机抽样一致性)算法等。
暴力匹配算法是最简单直接的匹配方法,它通过计算两个特征向量之间的距离(如欧氏距离、汉明距离等),选择距离最小的特征点作为匹配对。
此方法的缺点是计算量大,匹配效果受噪声和干扰较大。
最近邻匹配算法是常用的特征匹配方法之一,它通过计算一个特征向量与另一个特征向量集合中所有向量之间的距离,并选择距离最小的那个特征点作为匹配对。
此方法简单快速,但对于存在匹配相似特征点的情况,容易产生误匹配。
RANSAC算法是一种鲁棒的特征匹配方法,它通过随机选择最少的特征点对进行模型估计,然后根据该模型对所有特征点进行检验和评估,在一定的迭代次数内,找到最佳的模型参数和对应的特征点对。
RANSAC算法可以处理存在误匹配和噪声的情况,但计算复杂度较高。
如何使用计算机视觉技术进行视觉SLAM定位与建图
如何使用计算机视觉技术进行视觉SLAM定位与建图视觉SLAM(Simultaneous Localization and Mapping)是一种利用计算机视觉技术进行定位与建图的方法。
通过使用摄像头或其他视觉传感器,结合计算机视觉算法,在不依赖于外部定位系统的情况下,实时地估计相机的运动轨迹,并生成环境地图。
视觉SLAM技术在许多领域中得到了广泛应用,如无人机导航、自动驾驶、增强现实等。
本文将介绍如何使用计算机视觉技术进行视觉SLAM定位与建图的基本原理和常用方法。
一、视觉SLAM的基本原理视觉SLAM主要通过两个步骤实现定位与建图:特征提取和运动估计。
具体流程如下:1. 特征提取:从图像序列中提取关键特征点,以获取稳定可靠的图像特征。
常用的特征提取算法有SIFT(尺度不变特征变换)、SURF(速度快的特征变换)和ORB(Oriented FAST and Rotated BRIEF)。
这些算法能够提取出在不同视角下具有唯一性的图像特征点。
提取到的特征点将被用于后续的运动估计。
2. 运动估计:通过特征点的运动轨迹,计算相机在连续帧之间的相对运动。
一种常用的方法是基于稀疏特征点的追踪,例如,通过匹配先前帧中的特征点与当前帧中的特征点,用最小二乘或RANSAC等方法计算相机姿态的变化。
运动估计的结果将被用于定位和建图的更新。
3. 定位更新:通过将估计的相机姿态与先前的定位结果进行融合,得到更准确的相机位置和姿态。
通常,通过运用滤波器,如扩展卡尔曼滤波器(EKF)或无迹卡尔曼滤波器(UKF),结合运动估计和传感器数据来实现定位的更新。
4. 地图更新:使用定位结果和特征点信息,建立和维护环境地图。
地图通常以稀疏或稠密的形式表示。
在建图过程中,常用的算法有图优化(Graph-SLAM)和基于光束法的建图方法。
二、常用的视觉SLAM算法视觉SLAM的研究领域非常广泛,有很多不同的算法和技术可供选择。
以下是几种常用的视觉SLAM算法:1. ORB-SLAM:ORB-SLAM是一种基于特征点的SLAM系统,它使用ORB特征描述子进行特征提取和匹配,利用优化算法来估计相机的运动轨迹和地图。
特征匹配算法
特征匹配算法
1 特征匹配算法
特征匹配算法是计算机视觉技术的一种将特征描述子在两个图像中做排序,并返回匹配点的数学工具。
它是一种可以用来解决图像的广泛的和可靠的运动跟踪,定位和图像检索等问题的技术。
特征匹配算法在当今广泛应用,尤其在运动估计,对象跟踪,图像建模,图像内容提取等方面有着重要的研究价值。
它可以用来快速和有效地检测特征点,有助于在图像上定位特征,并通过计算机视觉算法来验证匹配点是否有效。
2 特征匹配算法的工作流程
特征匹配算法的工作流程包括特征检测,特征描述子的提取,特征的比对,匹配点的筛选和最终的匹配结果的验证等几个步骤。
1.特征检测:根据输入图片中特征点的空间分布,基本特征量,形状,结构等特点,使用特征检测算法检测出图片中的特征。
2.特征描述子的提取:在从图片中检测出的特征的基础上,使用特征描述子的提取算法提取每个特征的特征描述子。
3.特征的比对:将不同图片中提取出的特征描述子进行比较,以定位出特征之间的短暂的有效的匹配点。
4.匹配点的筛选:框定出有效的匹配点,去除不准确的匹配点,最终得到实用的匹配结果。
5.匹配结果验证:使用人工或计算机视觉算法计算得到的有效的匹配结果,并进行验证,来作最终的确认。
3 结论
特征匹配算法是一种用于计算机视觉技术的数学工具,其工作流程分为特征检测,特征描述子的提取,特征的比对,匹配点的筛选,最终的匹配结果的验证等几步。
它在当今有着重要的应用价值,可以被用于运动估计,对象跟踪,图像建模,图像内容提取等方面,以及图像的快速定位,建立高质量的匹配结果等方面,能够节省大量的时间和经验。
基于特征点匹配的电子稳像技术
i n g t o t h e d i ic f u l t i e s a n d t h e f u t u r e t r e n d s o f t h e EI S,t h e d e v e l o p i n g d i r e c t i o n f o r f e a t u r e ma t c h i n g a l g o r i t h ms
g e n e r a t e d b y t h e i ma g i n g e q u i p me n t a n d t o s t a b i l i z e i t s v i d e o o u t p u t .F i r s t l y, t h e d e v e l o p me n t s t a t u s o f E I S i s i n t r o d u c e d .T h e n t h e mo t i o n e s t i ma t i o n mo d u l e i s s t u d i e d i n d e t a i l s ,wh i c h i s o n e o f t h e mo s t i mp o r t a n t mo d —
吉淑娇 , 朱 明 , 胡汉平
( 1 . 中国科学院 长春光学精密 机械与物理研究所, 吉林 长春 1 3 0 0 3 3 ; 2 . 长春大学 电 子信息工程学院, 吉林 长春 1 3 0 0 2 2 )
运动估计与运动补偿
运动估计与运动补偿运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
运动估计是从视频序列中抽取运动信息的一整套技术。
运动估计与运动补偿技术MPEG-4采用I-VOP、P-VOP、B-VOP三种帧格式来表征不同的运动补偿类型。
它采用了H.263中的半像素搜索(half pixel searching)技术和重叠运动补偿(overlapped motion compensation)技术,同时又引入重复填充(repetitive padding)技术和修改的块(多边形)匹配(modified block(polygon)matching)技术以支持任意形状的VOP区域。
此外,为提高运动估计算法精度,MPEG-4采用了MVFAST(Motion Vector Field Adaptive Search Technique)和改进的PMVFAST(Predictive MVFAST)方法用于运动估计。
对于全局运动估计,则采用了基于特征的快速顽健的FFRGMET(Feature-based Fast and Robust Global Motion Estimation Technique)方法。
编解码器用来减少视频序列中的空域冗余。
它也可以用来进行去交织(deinterlacing)的操作。
定义运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
分类包括全局运动补偿和分块运动补偿两类。
运动补偿是一种描述相邻帧(相邻在这里表示在编码关系上相邻,在播放顺序上两帧未必相邻)差别的方法,具体来说是描述前面一帧(相邻在这里表示在编码关系上的前面,在播放顺序上未必在当前帧前面)的每个小块怎样移动到当前帧中的某个位置去。
这种方法经常被视频压缩/视频编解码器用来减少视频序列中的空域冗余。
它也可以用来进行去交织(deinterlacing)的操作。
稳像算法
N
i 1
k
j 1
k
m 1 wmin
旋转矢量的估计 参考帧某一块内的点(x,y)经旋转之后运动
到(X1,Y1)位置处,以图像中心位置为 原点建立直角坐标系,可知(x,y),(x1,y1) 相对于图像中心的旋转角弧度分别为
y1 y0 1.2 arctan( ) x1 x0
基于对数极坐标变换的灰度投影稳像 算法
基于灰度投影的平移运动估计 旋转和缩放系数的确定(由笛卡尔转换为对 数极坐标空间之后,图像间的旋转变换在对 数极变换系中表现为平移运动) 优点:对数极坐标变换对旋转和尺度的不变 性
旋转和缩放系数的确定
由灰度投影算法的到图像的位移矢量之后, 需要根据对数极坐标将位移矢量转化为旋转 角度。 对数及变换后图像的分辨率为m*n,位移矢 量为( Δm , Δn ) 。笛卡尔坐标下的转换 角度为Δ ,缩放因子为k,进行对数变换
特征法
基本思想:利用图像的特征(角点、直边缘、 曲边缘等局部特征和型心、表面积、横惯矩 的长短轴等全局变量)来求取图像的运动矢 量。 注意:特征法求取的运动矢量是局部运动矢 量,还需要通过数学模型利用局部运动矢量 求取全局运动矢量。 优缺点(优点)估算精度高,速度快
投影法
基本原理:利用图像总体灰度变化规律来确定图像 的全局运动矢量 优缺点(优点)不必对图像上的每一点做互相关运 算,而是利用图像的灰度投影曲线做一次相关运算, 因此运算量小,运算速度快,满足时实要求。(缺 点)只考虑平移运动,对旋转也能动没有考虑。而 且当图像中有摄像机的正常扫描和图像中由小目标 的运动时,检测的运动矢量不是很准确,算法精度 下降。
y y0 1.1 arctan( ) x x0
高动态环境中的物体姿态估计与跟踪算法研究
高动态环境中的物体姿态估计与跟踪算法研究摘要:高动态环境中的物体姿态估计与跟踪是计算机视觉领域中的一个重要研究方向。
本文综述了目前在高动态环境中物体姿态估计与跟踪算法的研究进展,并探讨了其中的挑战和未来发展方向。
引言高动态环境中的物体姿态估计与跟踪算法是指在快速移动、剧烈变化的背景下,准确估计并跟踪物体的姿态,包括旋转角、平移量等。
这种算法在很多领域具有广泛应用,如无人机航拍、移动机器人导航等。
然而,由于高动态环境的复杂性以及物体移动的快速性,物体姿态估计与跟踪算法面临着许多挑战。
一、研究进展1. 传统方法传统的高动态环境中的物体姿态估计与跟踪算法通常基于特征点匹配和运动估计。
其中,特征点匹配在静态环境中具有较高的精度和鲁棒性,但在高动态环境下容易受到运动模糊和光照变化的影响,导致匹配错误。
而运动估计方法则依赖于背景模型或前景检测,对快速移动的物体效果较差。
2. 深度学习方法近年来,深度学习方法在计算机视觉领域取得了巨大的突破,也被应用于高动态环境中的物体姿态估计与跟踪算法。
通过训练大量数据,深度学习模型可以自动学习到物体的特征表示和运动模式,从而提高估计和跟踪的准确性。
研究表明,基于深度学习的方法在高动态环境中的物体姿态估计和跟踪方面具有明显的优势。
三、挑战与未来发展方向1. 快速移动物体的姿态估计由于高速移动物体的快速变化,传统方法很难准确估计物体的姿态。
因此,如何设计出高效且准确的算法来解决这一问题是目前的研究热点。
2. 光照变化和运动模糊的影响在高动态环境中,光照变化和运动模糊是物体姿态估计与跟踪算法面临的重要挑战。
这些影响因素会导致传感器获取的图像质量下降,从而影响姿态估计的准确性。
因此,如何通过算法来消除或减少这些影响是未来研究的方向之一。
3. 多目标跟踪在高动态环境中,往往存在多个物体同时出现的情况,这就需要算法能够同时跟踪多个物体的姿态。
目前,对于多目标跟踪的研究主要集中在设计更有效的算法,以提高跟踪的准确性和效率。
基于特征点提取和匹配的点云配准算法
基于特征点提取和匹配的点云配准算法点云配准是指将多个点云数据组合成一个全局一致的点云模型的过程。
在点云数据的配准中,特征点提取和匹配是关键步骤之一、本文将介绍基于特征点提取和匹配的点云配准算法。
点云配准算法的目标是找到两个或多个点云之间的关系,以实现它们的对齐。
特征点提取是为了从点云数据中提取出具有代表性的特征点,以便进行后续的匹配操作。
特征点应具有独特性、具有代表性和稳定性。
常见的特征点提取方法包括SIFT(尺度不变特征变换)、SURF(快速无误匹配)和ORB(Oriented FAST and Rotated BRIEF)等。
在点云数据中,特征点可以通过计算点的尺度、法向量、曲率等属性来提取。
特征点提取后,接下来需要进行匹配操作,即将两个或多个点云之间的相似特征点进行对应。
匹配是通过计算特征点之间的距离或相似性度量来实现的。
常见的匹配方法有最近邻匹配、迭代最近点匹配以及RANSAC (随机一致性采样算法)等。
最近邻匹配是指通过计算两个特征点之间的欧氏距离来找到最相似的特征点对。
迭代最近点匹配算法是利用最近邻匹配进行粗略的配准,然后通过迭代的方式逐步优化匹配精度。
RANSAC算法则是通过随机选择最小集合进行匹配,并通过模型评估函数来判断匹配的一致性。
在进行特征点提取和匹配的过程中,可能会出现误匹配或多重匹配的情况。
为了解决这个问题,可以引入一些筛选机制,例如剔除孤立的点、限制匹配距离和确定相似性阈值等。
总结而言,基于特征点提取和匹配的点云配准算法是点云配准的关键步骤之一、通过提取具有代表性的特征点,并进行匹配操作,可以找到两个或多个点云之间的对应关系,最终实现点云数据的配准。
在实际应用中,特征点提取和匹配算法可以配合其他配准算法使用,以提高点云数据的配准精度和效率。
点云运动补偿 算法原理说明
点云运动补偿算法原理说明
点云运动补偿是一种用于减小点云数据中由于运动导致的运动伪影的算法。
当采集点云数据时,由于传感器或者物体本身的运动,会导致点云数据中存在模糊、形变等现象,这些现象往往会给后续的点云处理任务带来困扰。
点云运动补偿算法的原理是通过分析点云数据中的运动信息,对点云数据进行运动矫正,以消除运动伪影。
主要的步骤如下:
1. 运动估计:通过分析连续帧之间的点云数据,可以估计出它们之间的运动信息,比如平移和旋转。
这可以通过计算两帧点云之间的特征匹配、光流计算等方法来实现。
2. 运动补偿:根据运动估计的结果,对点云数据进行补偿。
对于平移运动,可以通过将每个点的位置减去相应的平移向量来实现;对于旋转运动,可以通过旋转点云数据来实现。
3. 补偿后的点云处理:根据具体的应用需求,对补偿后的点云数据进行相应的处理,比如滤波、配准、分割等。
需要注意的是,点云运动补偿算法的性能和效果受到估计运动的精度和点云数据自身的特点等因素的影响。
因此,在实际应用中,需要根据具体的情况选择恰当的运动估计方法和参数设置,以达到较好的结果。
图像处理中的运动估计与运动补偿方法对比研究
图像处理中的运动估计与运动补偿方法对比研究概述:在图像处理领域中,运动估计与运动补偿是常用的技术方法,用于处理视频序列中物体的运动。
运动估计是通过对连续帧之间的像素位移进行分析,来估计物体的运动轨迹。
而运动补偿则是根据运动估计的结果,对图像进行处理,以消除运动导致的图像模糊与变形。
本文将对常用的运动估计与运动补偿方法进行对比研究。
一、运动估计方法1. 基于块匹配的运动估计方法:基于块匹配的运动估计方法将图像划分为多个块,通过搜索邻域中与当前块相似的块,来确定运动向量。
常见的基于块匹配的运动估计算法有全局运动估计法(Global Motion Estimation)和局部运动估计法(Local Motion Estimation)。
全局运动估计法适用于场景变化较小的视频序列,通过对整个图像进行分析来估计全局的运动。
而局部运动估计法则适用于场景变化较大的视频序列,它将图像分为多个小块,对每个小块进行独立的运动估计。
2. 基于光流的运动估计方法:基于光流的运动估计方法利用了物体在连续帧之间的像素强度变化来估计物体的运动。
光流计算方法包括基于亮度的方法和基于特征点的方法。
基于亮度的方法通常使用亮度差分或亮度约束方程来计算光流,它假设相邻帧中像素的亮度保持不变。
基于特征点的方法则通过对图像中的特征点进行跟踪来计算光流,例如使用特征点的轨迹或特征描述子。
3. 基于模型的运动估计方法:基于模型的运动估计方法通过建立物体的数学模型,来估计物体的运动。
常见的基于模型的运动估计方法有基于刚体模型的运动估计和基于非刚体模型的运动估计。
基于刚体模型的运动估计方法假设被观测物体是刚体,运动是刚体的刚性变换。
这种方法可以通过对物体的旋转和平移进行分解来估计运动。
而基于非刚体模型的运动估计方法适用于非刚体物体,它考虑了物体的变形与形变。
二、运动补偿方法1. 基于插值的运动补偿方法:基于插值的运动补偿方法通过对图像进行插值,来消除由于运动导致的图像变形和模糊。
数字视频处理_数字视频处理中运动估计的方法及应用
运动就是对应于角度轴上的平移,使用相位相关法可以找到这个平移量。同样,使用对数坐标轴,尺度变 换可以由频率域的平移变换得到。然而Fourier变换给相位法带来了额外的汁算量°
像序列运动估计技术的应用
图像序列运动估讣技术已经广泛运用于国民经济中的许多领域,特别对数字视频编码技术、电子稳像 技术以及图像配准技术等方而有重要的支撑作用。
2.
利用特征法进行运动估计,首先要在参考图像中确左一组特征结构作为标识,并对当前图像进行搜索,以 寻找到对应的特征结构,从而获得图像序列的运动量。可以利用的主要特征量有:角点、直边缘、曲线边 缘等局部特征和形心、表而积、惯量矩的长短轴等全局特征。利用特征法估计视频图像序列帧间运动矢量 的基本步骤为:1)图像序列中每一帧图像进行处理提取特征量;2)确立特征量的帧间对应关系;3)计算特 征量的运动参数并求出图像的运动矢量。其中,确立对应关系是指求每个肖点对应的一个匹配,去除所有 其他连接,是估计图像运动特性中最困难的问题。目前提出了一种基于特征点集二维运动模型的全局运动 估计。其原理是:选取图像不同区域内的多个特征点,构成特征点集,点集内各点之间的相对位置形成稳定 的结构,约朿每点的局部运动必须保持全局一致性,从而保证运动估计的全局性和鲁棒性,提高抗噪声干 扰的能力。寻找点集之间的转换关系,就是待求的稳左的全局运动矢量。由于基于特征点的运动估计算法 易受噪声和图像遮挡的影响,利用图像边缘特征的运动估汁算法得到发展。有一种基于多直线特征的全局 运动估计算法。它通过小波变换法提取图像中的边缘,并利用Hough变换法提取图像中的直线段特征, 然后按照直线段的特征参数和位程选择原则选择具有分布特性的多个直线段,并通过对应的直线段特征比 较讣算局部运动参数和全局运动参数。相位相关法是一种频域运动检测方法,它利用了Fourier变换的 移位性质,即时域中的移位等于频率域中的相移。若一幅图像是另一幅图像的平移后的复制品,如:
《电子稳像器工作原理》
电子稳像器工作原理1 引言VS8902型电子稳像器采用的是一种基于特征点匹配的电子稳像算法。
本公司开发的这种基于特征点匹配的电子稳像算法具有如下几个优点:稳定精度高;对抖动视频进行水平、垂直和旋转方向上的校正;稳像算法的实现只使用参考帧和当前帧;实时性高;鲁棒性好;本产品稳像算法的结构框图如图1所示。
图1 基于特征点匹配的电子稳像算法的结构框架Fig.1 The basic structure of stabilization algorithm with feature points matching 如图所示。
预处理是稳像算法的初始化过程,是对视频数据进行属性等方面的分析,为后续稳像算法的实现和处理奠定基础。
预处理实现的功能主要有:初始化A/D和D/A芯片、配置稳像系统的工作模式、建立稳像算法所需的缓冲区、检测视频数据的有无、识别输入视频信号的制式(NTSC制,PAL制信号)等。
运动估计是计算当前帧图像和参考帧图像相对运动关系的算法。
在稳像算法中运动估计分为局部运动估计和全局运动估计。
局部运动估计又分为特征点提取、特征点匹配、匹配验证三个步骤,来获取各个特征点的局部运动矢量。
特征点提取采用Harris提取角点的算法,特征点匹配采用块匹配的方法,特征点验证主要采用距离约束的准则。
全局运动估计是通过最小二乘法,根据特征点的局部运动矢量求出全局运动矢量。
准确求取全局运动估计是电子稳像算法的基础。
运动滤波是把全局运动矢量分离成有意运动矢量和无意运动矢量,是稳像算法的难点和重点。
若稳像后的图像无法保留摄像机自身的主运动,稳像效果会失真,稳像算法会无法执行,从而导致稳像算法失败。
运动滤波直接决定稳像效果的好坏。
本文的电子稳像系统采用Kalman滤波器。
运动补偿是就是对抖动图像做运动滤波输出结果的反向补偿,以便输出稳定或平滑的图像序列。
运动补偿实质上就是对图像做平移、旋转和缩放处理。
运动补偿的难点问题是算法的实时性和精度。
测绘技术中的地图匹配与路径规划方法
测绘技术中的地图匹配与路径规划方法随着城市的扩张和交通网络的不断发展,人们对高精度地图和路径规划的需求日益增加。
在现代测绘技术中,地图匹配和路径规划是两个重要的研究领域。
地图匹配是指将实时采集的位置数据与地图数据进行对比,从而确定所处位置。
而路径规划则是基于地图数据,找到最优的行驶路径。
本文将探讨测绘技术中的地图匹配和路径规划方法,并讨论其应用和挑战。
一、地图匹配方法1.1 基于特征点的地图匹配基于特征点的地图匹配方法是一种常用的地图匹配技术。
该方法首先从地图数据中提取关键特征点,如交叉口、地标建筑物等,然后通过与实时采集的位置数据进行对比,找到最匹配的特征点,确定位置。
这种方法在城市密集区域的定位效果较好,但在稀疏区域或高速公路等没有明显特征点的地方仍存在一定困难。
1.2 基于路段匹配的地图匹配基于路段匹配的地图匹配方法通过将实时位置数据与离线地图数据进行对比,确定当前所处的路段。
这种方法通常基于地图路网的拓扑结构,通过计算位置与路段之间的距离、方向差等指标,找到最佳匹配路段。
然而,该方法对于复杂的道路网络和交叉口的处理较为困难,容易出现匹配错误。
1.3 基于概率模型的地图匹配基于概率模型的地图匹配方法是一种较为精确的地图匹配技术。
该方法通过建立概率模型,将实时位置数据与地图数据进行概率匹配,计算匹配的置信度,从而确定位置。
常用的概率模型包括贝叶斯滤波方法和粒子滤波方法等。
这种方法在定位精度和鲁棒性方面具有一定的优势,但计算复杂度较高。
二、路径规划方法2.1 最短路径算法最短路径算法是一种经典的路径规划算法,常用于寻找两个节点之间的最短路径。
其中,Dijkstra算法是一种著名的单源最短路径算法,适用于无负权边的图。
而Bellman-Ford算法则可以应用在有负权边的情况下。
这些算法通过动态规划的思想,逐步更新节点的最短路径,找到最优解。
2.2 A*算法A*算法是一种启发式搜索算法,常用于地图路径规划。
SLAM算法解析
SLAM算法解析SLAM(Simultaneous Localization and Mapping)算法是一种通过同时进行定位和建图来实现机器人自主导航的技术。
它是机器人领域中的关键技术之一,可以使机器人在未知环境中实现自主导航和路径规划。
1.传感器数据获取:机器人通过激光、相机、里程计等传感器感知周围环境,获取环境中的特征点、颜色、深度等数据。
2.数据预处理:传感器数据通常存在噪声和误差,需要对数据进行滤波、去噪等预处理操作,以提高数据的准确性和稳定性。
3.特征提取和匹配:根据传感器数据,提取环境中的特征点,并通过特征描述子等方法对特征点进行描述和编码。
同时,将当前的特征点与之前的特征点进行匹配,以实现位置的估计。
4.运动估计:根据特征点的匹配结果,使用里程计等方法对机器人的运动进行估计。
通过分析机器人的运动,可以对机器人的位置进行更新和预测。
5.地图构建:根据特征点的位置信息,通过三角测量等方法将特征点组合为地图。
地图可以是拓扑图、栅格图等形式,用于表示环境的结构和特征。
6.数据关联和更新:在SLAM算法中,数据关联指的是将新观测到的特征点与已知的地图特征点进行匹配。
通过数据关联,可以更新机器人的位置估计和地图构建。
7.优化和回环检测:随着机器人行走,SLAM算法会不断进行位置估计和地图构建。
在这个过程中,可能会出现误差累积的问题。
因此,需要对机器人的运动轨迹进行优化,以提高算法的精度和稳定性。
同时,回环检测可以判断机器人是否经过已经探索过的区域,从而减小误差的积累。
SLAM算法在实际应用中有着广泛的应用。
在自动驾驶领域,SLAM算法可以帮助车辆实时感知周围环境并规划最优路径。
在机器人导航领域,SLAM算法可以帮助机器人避障、定位和导航。
在增强现实和虚拟现实领域,SLAM算法可以帮助构建虚拟环境和实时定位跟踪。
总之,SLAM算法是一种通过同时进行定位和建图来实现机器人自主导航的技术。
它通过传感器数据的获取、处理和分析,实现机器人的位置估计和地图构建。
特征点匹配算法概要
特征点匹配算法概要特征点匹配是计算机视觉领域中的一项重要任务,其主要是为了在不同图像或视频帧中找到相互对应的特征点。
特征点是指在图像中明显可识别的局部区域,可以通过其在不同图像中的描述符来进行匹配。
在很多计算机视觉应用中,如图像拼接、目标跟踪、三维重建等,特征点匹配是必不可少的。
1.经典算法1.1尺度不变特征变换(SIFT)SIFT算法是一种基于局部特征的描述符,其通过尺度空间上的高斯差分函数检测图像中的关键点,并计算其旋转不变的特征向量。
SIFT算法具有尺度不变性和旋转不变性,可以在不同尺度和旋转角度下匹配特征点。
SIFT算法的主要流程包括尺度空间极值检测、关键点定位、方向分配和特征描述四个步骤。
1.2 加速稳健特征(Accelerated-robust features, SURF)SURF算法是对SIFT算法的改进,其通过积分图像和快速哈希技术实现了更快速的特征点检测和匹配。
SURF算法具有较好的尺度不变性和旋转不变性,并且可以在多尺度下进行特征点匹配。
1.3匹配追踪算法(OPTICALFLOW)匹配追踪是一类基于像素变化的特征点匹配算法,其通过计算图像中像素的运动向量来进行匹配。
典型的匹配追踪算法包括Lucas-Kanade光流算法和Horn-Schunck光流算法。
2.深度学习算法2.1 卷积神经网络(Convolutional Neural Network, CNN)卷积神经网络是一种深度学习算法,其通过卷积层、池化层和全连接层等结构来提取图像的特征。
在特征点匹配中,可以使用卷积神经网络来学习特征点的表示并进行匹配。
相比于传统算法,卷积神经网络可以自动学习图像的特征表示,具有更强的泛化能力。
2.2 微调网络(Fine-tuned network)微调网络是在预训练好的卷积神经网络模型上进行微调,以适应特定任务的需求。
在特征点匹配中,可以使用微调网络对图像进行特征提取,并使用其中一种距离度量方法(如欧氏距离、余弦相似度等)进行特征点的匹配。
基于特征点提取和匹配的点云配准算法
基于特征点提取和匹配的点云配准算法点云配准是将多个点云数据进行变换和对齐的过程,通常用于三维重建、SLAM(Simultaneous Localization and Mapping)、机器人导航等应用领域。
基于特征点提取和匹配的点云配准算法是一种常用的点云配准方法,其主要步骤包括特征点提取、特征描述、特征匹配、姿态估计和变换求解等。
首先,需要从每个输入点云中提取特征点。
特征点是具有较好区分度和稳定性的点,可以用来描述点云的局部特征。
目前常用的特征点提取算法包括SIFT(Scale-invariant Feature Transform)、ISS(Intrinsic Shape Signatures)、NARF(Normal Aligned Radial Features)等。
这些算法通过局部表面曲率、顶点法线或表面切片等几何属性来检测特征点。
接下来,对于每个特征点,需要计算其特征描述子。
特征描述子是一种能够对特征点进行准确描述和表示的向量表示。
常见的特征描述算法包括FPFH(Fast Point Feature Histograms)、SHOT(Signature of Histograms of OrienTations)等。
这些算法通过计算特征点周围的局部几何属性,如法线方向、曲率等,来构建特征描述子。
然后,对于两个点云,需要进行特征点之间的匹配。
特征匹配是将两个点云中的相似特征点进行对应的过程,通常是通过计算特征描述子之间的距离来完成的。
常用的匹配算法有最近邻、KD树等。
通过匹配得到的相似特征点对可以用于后续的配准过程。
在特征点匹配之后,通过求解两组对应点之间的变换关系,可以得到点云的刚体变换(Rotation and Translation)。
常用的姿态估计算法有最小二乘法、RANSAC(Random Sample Consensus)等。
这些算法通过最小化匹配点对之间的误差,找到最好的刚体变换参数。
基于特征点的图像匹配技术研究与应用
基于特征点的图像匹配技术研究及应用文献综述1. 图像匹配的概念图像匹配[1]是指通过一定的匹配算法在两幅或多幅图像之间识别同名点,如二维图像匹配中通过比较目标区和搜索区中相同大小的窗口的相关系数,取搜索区中相关系数最大所对应的窗口中心点作为同名点。
其实质是在基元相似性的条件下,运用匹配准则的最佳搜索问题。
图像匹配中事先获得的图像称为基准图像(base image ),在匹配过程中在线或者实时获得的图像称为实时图像(real time image )。
基准图像可以比实时图像大也可以比实时图像小。
当基准图像比实时图像大时,匹配过程就是在基准图像中搜寻实时图像位置的过程;当实时图像比基准图像大时,匹配过程就是在实时图像中寻找作为目标的基准图像的过程。
在地图导航系统[2]中,基准图像比实时图像大。
如图1.1所示。
基准图像实时图像待匹配区域dx dy搜索区域M1N1N2M2图1.1 地图导航系统中的图像匹配示意图基准图像和实时图像是对同一对象有差别的近似描述,设和分别为基准图像和实时图像的灰度分布,在不考虑关照变换等影响下,两者存在如下关系:其中是高斯白噪声,可以通过一定的滤波方法滤除。
是上的点在X 和Y 方向上的位置偏差,称为定位噪声。
位置偏差往往是因为图像的几何形变造成的。
实际上利用计算机进行处理的并不是连续图像,图像的位置和灰度都被划分为离散的值,常用像素矩阵来表示一副图像。
在地图匹配导航中,通常基准图像比实时图像大。
直接进行相关匹配的两幅图像应该是大小一样的,为了确定实时图像在基准图像中的位置,就必须在基准图像中提出与实时图像大小相等的基准子图,并逐个与实时图像进行比较,以便找出与实时图像匹配的那个基本子图,从而确定实时图像在基准图像中的位置。
所以一般图像匹配的过程就是不断从基准图像中提取基准子图与实时图像进行相关运算的过程,这个过程可以是线性遍历式的,也可以是非线性随机的搜索过程。
在本课题中,我们选取左上角为原点作为坐标基准。
特征点检测与匹配算法
特征点检测与匹配算法引言特征点检测与匹配算法是计算机视觉领域的重要研究方向之一。
它在图像处理、图像识别、目标跟踪等应用中发挥着重要的作用。
本文将从特征点检测的概念出发,逐步介绍特征点检测与匹配算法的原理、常用方法及其应用。
特征点检测概述特征点是图像中具有显著性、稳定性且可重复检测的图像区域。
特征点检测是指在图像中自动寻找这些具有特征性的点,并进行描述和匹配的过程。
特征点检测广泛应用于图像匹配、图像拼接、目标识别等领域。
特征点检测算法原理Harris角点检测算法Harris角点检测算法是一种经典的特征点检测算法。
它通过计算图像中每个像素点的Harris响应函数来判断其是否为角点。
Harris角点检测算法对图像的局部对比度和灰度变化进行了建模,能够检测出图像中的角点。
算法步骤: 1. 计算图像的灰度梯度。
2. 对每个像素计算一个自相关矩阵。
3. 计算自相关矩阵的Harris响应函数。
4. 设置一个阈值,根据Harris响应函数的值判断是否为角点。
SIFT算法尺度不变特征转换(SIFT)算法是一种常用的特征点检测算法。
SIFT算法通过使用高斯差分函数来检测图像中的关键点,并计算关键点的描述子,实现了对旋转、尺度缩放等变换的不变性。
算法步骤: 1. 构建高斯金字塔。
2. 在金字塔的每一层上使用高斯差分函数寻找关键点。
3. 基于关键点的位置和尺度,生成关键点的描述子。
4. 使用描述子进行关键点的匹配。
SURF算法加速稳健特征(SURF)算法是一种基于SIFT算法的改进方法。
SURF算法通过加速计算和改进特征描述子的方式,提高了特征点检测的效率和稳定性。
算法步骤: 1. 使用高斯滤波器构建图像金字塔。
2. 使用盒子滤波器计算图像的Hessian矩阵。
3. 使用Hessian矩阵检测图像中的极值点作为特征点。
4. 根据特征点的尺度和方向计算特征点的描述子。
特征点匹配算法特征点匹配是指在两幅图像之间寻找相同或相似的特征点的过程。
loam的运动补偿原理
loam的运动补偿原理
LOAM的运动补偿原理主要是指在视觉里程计(Visual Odometry, VO)算法中
使用LOAM(Lidar Odometry and Mapping, 激光雷达里程计与建图)来进行运动补
偿的工作原理。
LOAM是一种基于激光雷达的地面定位与建图方法,它可以利用
激光雷达扫描到的地面特征点进行运动的估计和建图。
在LOAM算法中,首先通过激光雷达对环境进行扫描,获取激光点云数据。
然后,使用LOAM算法对激光点云进行特征提取和特征匹配,从而获取两帧激光
点云之间的位姿变化信息。
LOAM的运动补偿原理是通过对激光雷达扫描得到的激光点云进行运动补偿来估计车辆的运动量。
运动补偿是指在环境中任意运动的物体移动时,通过对物体的运动进行补偿,得到物体自身的运动状态。
在LOAM中,通过对相邻时刻获取的激光点云数据进行匹配,可以得到两帧
之间的位姿变化量。
这个位姿变化量包括平移和旋转部分。
然后,根据位姿变化量以及时间间隔,可以得到车辆在两帧之间的平均速度。
进一步,通过累积这些平均速度值,可以得到整个轨迹的运动估计。
LOAM的运动补偿原理是通过多次对激光雷达扫描得到的激光点云进行匹配和运动估计,最终得到车辆的运动轨迹以及地图建模。
这样的运动补偿方法可以在无GPS信号或者其他传感器误差的情况下,提供高精度的车辆定位和建图能力。
总之,LOAM的运动补偿原理是基于激光雷达扫描得到的激光点云进行匹配和运动估计,通过补偿物体运动得到物体自身的运动状态,以实现车辆的定位和建图。
这种方法为无人驾驶、自动化导航以及环境感知等领域提供了重要的技术支持。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
减弱灰度变化小的区域, 通常这些区域包围着边缘。 另外 ’()*(+,(- 变换还具有旋转不变性, 对于边缘, 不 同的方向都能同等的被增强, 所以经过 ’()*(+,(- 变 换后的图像不会被输入图像可能的旋转所影响。因 此可选择 ’()*(+,(- 边缘检测算子进行图像边缘特征 的提取。 ! ! 值得注意的是, ’()*(+,(- 算子不仅对像素灰度 梯度变换很敏感, 同时对噪声也非常敏感。由摄像系 统所摄取的视频图像序列往往存在一些杂乱无章、 随 机分布的噪声, 即 /(011 噪声。为了能准确地选取图 像的特征点, 把 /(011 平滑滤波器和 ’()*(+,(- 锐化 滤波器结合起来, 先平滑掉噪声, 再进行边缘检测, 效 果较好。图 " ( () 是一幅对比度较差的原始航摄图 像, ( 2) 是直接用 ’()*(+,(- 检测后的图像, ( +) 是先 /(011 滤波再 ’()*(+,(- 检测后的图像。从中可看出, ( +) 特征最明显, 有利特征点的稳定提取。
光电子・激光
第 ", 卷 第 " 期! %$$0 年 " 月! ! ! ! ! ! !"#$%&’ "( )*+",’,-+$"%.-/・0&/,$ ! ! ! ! ! ! ! PGQ) ", ’G) "! ><7) %$$0
基于特征点匹配技术的运动估计及补偿方法 !
钟! 平 !! ,于前洋,金! 光
・ 5%・
! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !
光 电 子 ・ 激 光 ! #66% 年! 第 "3 卷 !
要在参考图像中确定一组特征结构作为辨识, 并对当 前图像进行搜索, 以寻找对应的特征结构, 从而获得 图像帧间的运动矢量。 ! ! 利用特征法估计视频图像序列帧间运动矢量的 基本步骤为: " )图像序列中每一帧图像进行处理提 取特征量; # )确立特征量的帧间对应关系; $ )计算 特征量的运动参数; % )特征量的运动代入运动模型 中求出整幅图像运动矢量。 ! & !" 边缘特征的提取 ! ! 边缘的提取可考察每个像素在某个领域内灰度 的变化, 利用边缘临近一阶或二阶方向导数的变化规 律即可检测出图像的边缘信息。目前边缘检测的算 子很多, 其中 ’()*(+,(- 边缘检测算子是对二维函数 进行运算的二阶微分算子, 是偏导数运算的线性组 合。它将在边缘处产生一个陡峭的零交叉。 ’()*(. +,(- 检测算子能增强所围特征点所在的区域, 同时能
B ) @A 特征法的实现 ! ! 图像的特征是指其场景中可作为标志的属性。 利用特征法估计连续视频图像帧间的运动矢量, 首先
%$$#-$/-$0! 修订日期: %$$#-$*-%# ! 收稿日期: ! !! 基金项目: 中国科学院青年创新基金资助项目 ( ;$"R$* ) 万方数据 ! !! &>()$3: SBG78I(#*T DGB@) CGM
% % % %
{
$ & ’ ’ #) # ( &" ) ($ $ & * * #) # ( &" ) ($
&
&
其中 ) & $ , !, ……&。则 " # 中的 & 个特征点到其重心 的欧氏距离为 % % % %
! ! +) ( ! ( ’ #) , ’ # ) -( * #) , * # )
和 !1。
, %* $$ ’ #$ , %’ $$ %’ * #$ , %* $$ $$ % % … % … ; 令: 2 ( 3 ( % … % % … , %* $4 ’ #& , %’ $& * , %* %’ $) #& $&
图 !" 图像特征比较 #$%& !" ’() *+,-./$0+1 +2 $,.%) 2).34/)
! & #" 特征点的确定 ! ! 特征 点 的 选 择 是 在 对 图 像 进 行 /(011 滤 波 和 ’()*(+,(- 边缘检测后的图像上进行的。把检测后的 ( ! 为要选取特征点的个 图像分成 ! 个垂直的部分 数) , 每一部分将从上到下进行搜索, 选择灰度最大 的点作为该区域上的特征点, 所以一共可选择 ! 个 特征点, 根据不同视频图像的特点, 还可限制特征点 在图像中选择的范围。 ! & $" 特征点的匹配策略 ! ! 利用多分辨率匹配技术有利于提高特征点的匹 配速度。单帧多分辨率结构, 底层为最高分辨率 (即 原始图像) 。层越高, 图像分辨率越低。用不同的低 通滤波器或二次抽样就可获得相应的低分辨率的图 像, 多分辨率匹配的思想是从最低分辨率级开始, 逐 次地、 在每一层进行运动估计, 由较低分辨率级确定 位移粗估计。这样, 在较高分辨率级下, 用前一较低
$ ’
! % % % % 0 ( !’ 5 !* 则方程组 ()) 可表示为 % % % % 2 ( 30 (#) 该方程实际上是一个实数域上的 6 * 7 阶超定线性 方程组 ( 6 & ! &, 7 & () 。用豪斯呵尔德变换法或广
[ +] 义矩阵法可解超定线性方程组 , 从而求出 !、 !0
万方数据 分辨率级位移矢量作为起始估计进行匹配, 可使位移
第 $ 期% 钟% 平等: 基于特征点匹配技术的运动估计及补偿方法 % % % % % % % % % % % % % % %
・ ,# ・ $ ’ ’ $ ; ’ $
对目前图像进行补偿的信息, 即图像间的变焦、 旋转 和平移的运动参数。 !" #" $% ! 的确定 % % 设在参考图像 " # 和当前图像 " $ 所确定的两组特 征点集分别为 % # 和 %( 分别为 & 个特征 $ %# 对 应 %$ , 点) 。为了估计出运动参数, 可先通过计算特征点集 所对应的重心位置距离的变化率来估计 %。由于在 动态图像中, 对于具有平移和旋转的图像中, 特征点 之间的欧氏距离是不变的, 所以 " # 和 " $ 的 % 计算方 法 为: 首 先 计 算 出 图 像 "# 中 的 & 个 特 征 点 的 重 心 坐标 % %
矢量估计得到精细的调整, 不仅有一较理想的初始 值, 还可以实现用较小的搜索窗达到较大的搜索范 围。可用 /(011 多分辨锥形层次图或 ’()*(+,(- 多分 辨率锥形层次图实现特征点的匹配。 ! & %" 全局运动矢量的确定 ! ! 采用二维运动模型, 来确定表征图像帧间的平
[ 3] 移、 绕光轴旋转及变焦运动。这种变换可定义为
@A 引A 言
! ! 电子稳像具有稳定精度高、 体积小、 重量轻、 功耗 低以及能实现实时处理等特点, 在国外已应用于摄 [ " O 0] 。电子 影、 航空侦察、 跟踪和监视等各种任务中 稳像技术的关键是估计图像序列帧间的运动矢量。 估计运动矢量的算法有多种, 其中特征法是选取图像 中的典型特征作为运动估计的基本单元, 它能较好接 近人的视觉特性。该方法的关键是提取特征点的稳 定性和特征点定位的精确性。本文提出一种利用特 征点匹配进行运动矢量估计的算法。该算法先检测 图像的特征, 再采用分区的方法在各个分区内选取灰
! !
" +41! ’ 1,-! !" % &( ) ( ) ) (" ) ( ) 1,-! ’ +41! !$ $, $ # )和 ( "( , $ ( )是在时间 * # 和 * ( 时, 两帧图 像的坐标; ( !" , !$)是在参考帧图像坐标系下所测 & 是变焦系 的平移矢量; ! 是两帧图像的旋转角度; 数, 其与两帧图像的平移和旋转无关, 只要从两帧图 像中给出一组匹配点, & 就能计算出来。 通过代入 ! 个 匹配的特征点即可得一线性方程组, 每一对特征点可 得到 # 个方程。 因此, 线形系统有 # ! 个方程、 $ 个未知 。 通过解线性方程组, 可以得到用于 量 ( !、 !" 和 !$)
!"#$"% &’#$()#$"% )%* !"#$"% +"(,-%’)#$"% .)’-* "% !)#/0$%1 2-/0%"3"14 "5 6-)#78- 9"$%#
123’4 5678 !! ,9: ;6<7-=<78 ,>?’ 4@<78
( ") AB<78CB@7 ?7DE6E@EF GH 3IE6CD, J67F KFCB<76CD <7L 5B=D6CD, AB67FDF +C<LFM= GH NC6F7CFD, AB<78CB@7 "#$$%% , AB67<) :;’#8)/#: !" #$%&’()*+ &, %$&-#$ +&)(&" ./)(+#)(&" #"0 1&+2."/#)(&" #22$(.0 )& .$.1)’(1 0(%()#$ (+#%. /)#-($(3#)(&" 4#/ 2’./.").05 6*. $&1#$ +&)(&" 7.1)&’ &, )*. -$&18 4#/ 0.).’+(".0 -9 ,.#):’. 2&(") +#)1*("%5 ;$&-. +&)(&" 7.1)&’ -.)4.." )*. ’.,.’."1. ,’#+. #"0 )*. 1:’’.") ,’#+./ (/ &-)#(".0 -9 /&< $:)(&" &, # /.) &, $(".#’ .=:#)(&"/ 4*(1* 1&+. ,&’+ # %(7." +&)(&" +&0.$5 6*. 2#’#+.).’/ )& 1&+2."< /#). ,&’ )*. 1:’’.") (+#%. 1#" -. 0.).’+(".0 -9 #7.’#%. 7#$:. ,($).’("% #"0 *#7. -.." #22$(.0 )& %(7. +&)(&" +&0.$ )& /)#-($(3. )*. (+#%. /)’.#+5 >" &’0.’ )& ’.0:1. )*. 1&+2:)#)(&" 1&+2$.?()9 #"0 /2..0 +#)1*("% # +:$)(<’./&$:)(&" /)’#).%9 4#/ #0&2).05 6*. .?2.’(+.")/ /*&4 )*#) )*. #$%&’()*+ *#/ # -.)< ).’ .,,.1) ,&’ (+2’&7("% 09"#+(1 (+#%. /)#-($(3#)(&"5 <-4 ="8*’: ,.#):’. 2&(") +#)1*("%;+&)(&" ./)(+#)(&";#7.’#%. 7#$:. ,($).’("%;0(%()#$ (+#%. /)#-($(3#< )(&"