摄像机标定方法综述
相机标定方法及进展研究综述
相机标定方法及进展研究综述相机标定是计算机视觉领域的重要研究方向之一,其目的是通过数学模型,将摄像机的内部参数和外部参数计算出来,从而提高图像的准确性和精度。
在图像处理、机器视觉、计算机视觉等领域中,相机标定是一个非常重要的问题,并且在机器人视觉、三维重建和增强现实等领域中得到了广泛的应用。
本文将对相机标定方法及进展研究进行综述。
一、相机标定方法常用的相机标定方法包括摄像机模型、单目相机的标定、立体相机的标定、将标定技术运用到实际应用的技术。
下面分别介绍。
1. 摄像机模型相机模型是相机标定的基础。
常用的相机模型主要包括针孔相机模型、中心投影相机模型、透视投影相机模型、鱼眼相机模型、全景相机模型等。
这些模型都是基于相机采集的图像和射线之间的关系建立的。
2. 单目相机的标定单目相机的标定主要包括内参数和外参数的标定。
内参数是相机焦距、像点中心等参数,外参数是相机的旋转和平移,可以用于计算世界坐标和相机坐标之间的转换矩阵。
常用的单目相机标定方法包括张氏标定法、Tsai相机标定法、基于控制点的标定法等。
3. 立体相机的标定立体相机的标定是通过对相机的双目视觉信息进行建模和分析,得到相机内部参数和外部参数的过程。
常见的立体相机标定方法包括非线性标定法、基于投影矩阵的标定法、基于球面投影的标定法等。
4. 将标定技术运用到实际应用的技术标定技术并不是研究的最终目的,而是运用到实际应用中的工具,如机器视觉、计算机视觉和图像处理等。
因此,如何将标定技术应用到实际应用中,是当前科学研究的关键问题。
常用的应用技术包括遮挡物检测、视觉跟踪、特征提取、目标检测等。
二、相机标定领域研究进展相机标定是一个广泛研究的领域,近年来研究取得了一定进展。
1. 智能相机标定智能相机标定是将计算机视觉与智能控制系统相结合,实现自动化相机标定的方法,主要包括多相机标定和自适应标定等。
2. 深度学习在相机标定中的应用深度学习是当前研究的重点之一,将深度学习应用到相机标定中可以提高标定的精度和效率。
摄像机标定 方法
摄像机标定方法摄像机标定是计算机视觉领域的一项重要任务,主要目的是确定摄像机的内外参数,以便将图像中的像素坐标转换为世界坐标。
摄像机标定有多种方法可供选择,其中包括使用标定物体、使用棋盘格、使用角点等。
下面将详细介绍其中的几种方法。
第一种方法是使用标定物体进行摄像机标定。
该方法需要摄像机拍摄带有已知尺寸的标定物体,例如固定尺寸的棋盘格或标尺。
通过测量图像中标定物体的像素坐标和已知尺寸,可以计算出摄像机的内外参数。
这个过程通常涉及到图像坐标和世界坐标的转换,以及通过最小二乘法进行参数求解。
第二种方法是使用棋盘格进行摄像机标定。
这种方法是比较常用且简单的一种标定方法。
首先,在摄像机拍摄的图像中绘制一个棋盘格,然后使用摄像机内参数和外参数将棋盘格的世界坐标与图像坐标建立对应关系。
通过采集多幅图像并测量每幅图像中的棋盘格角点的像素坐标,可以得到摄像机的内外参数。
这个过程通常使用角点检测算法来自动检测图像中的棋盘格角点。
第三种方法是使用角点进行摄像机标定。
这种方法也是比较常用的一种标定方法。
和使用棋盘格类似,该方法也是通过摄像机内参数和外参数将角点的世界坐标与图像坐标建立对应关系。
角点通常是由几条直线的交点或者是物体的尖锐边缘。
通过采集多幅图像并测量每幅图像中的角点的像素坐标,可以得到摄像机的内外参数。
这个过程通常也使用角点检测算法来自动检测图像中的角点。
除了上述几种常用方法,还有其他一些比较新颖的摄像机标定方法。
例如,基于模板匹配的方法可以在不需要标定物体的情况下估计摄像机的内外参数。
这种方法需要摄像机拍摄多幅图像,并在每幅图像中定位模板。
通过比较模板在不同图像中的位置,可以估计摄像机的内外参数。
此外,还有基于结构光的方法和基于手眼标定原理的方法等。
总之,摄像机标定是计算机视觉领域的一项重要任务,有多种不同的方法可供选择。
使用标定物体、棋盘格、角点等进行摄像机标定是常见的方法。
这些方法可以通过采集多幅图像并测量像素坐标,计算摄像机的内外参数。
摄像机标定原理
摄像机标定原理摄像机标定是指确定摄像机内参数和外参数的过程,它是计算机视觉和机器视觉中的重要环节。
摄像机标定的目的是为了将摄像机拍摄到的图像与真实世界的坐标系进行对应,从而实现对图像中物体的测量和分析。
摄像机标定原理是基于摄像机成像的几何关系和摄像机的内外参数进行计算和推导的。
首先,我们需要了解摄像机成像的基本原理。
摄像机成像是通过透镜将三维空间中的物体投影到二维图像平面上。
透镜会引起透视失真,因此需要进行校正。
在进行摄像机标定时,我们需要考虑到透镜的畸变、焦距、主点等内参数,以及摄像机的位置、姿态等外参数。
摄像机的内参数包括焦距、主点坐标和畸变参数。
焦距决定了摄像机成像的大小,主点坐标则决定了成像的中心位置,畸变参数则用于校正透镜引起的径向和切向畸变。
这些内参数可以通过摄像机标定板进行标定,通过观察标定板在图像中的投影位置和真实世界中的坐标位置进行计算和推导。
摄像机的外参数包括摄像机的位置和姿态,通常用旋转矩阵和平移向量来表示。
通过摄像机标定板上已知的特征点的位置和摄像机拍摄到的图像中的对应点,可以通过解PnP(Perspective-n-Point)问题来计算摄像机的外参数。
摄像机标定的过程可以分为内参数标定和外参数标定两个部分。
内参数标定是通过摄像机标定板进行的,而外参数标定则是通过摄像机观察到的真实世界中的特征点来进行的。
在进行标定时,需要注意选取合适的标定板和特征点,以及保证摄像机在不同位置和姿态下的观察角度,从而获得更准确的标定结果。
摄像机标定的原理和方法是计算机视觉和机器视觉中的重要内容,它为后续的三维重建、姿态估计、目标跟踪等任务提供了基础。
通过准确的摄像机标定,可以提高计算机视觉系统的精度和稳定性,从而更好地应用于工业自动化、智能监控、无人驾驶等领域。
总之,摄像机标定原理是基于摄像机成像的几何关系和摄像机的内外参数进行计算和推导的,它是计算机视觉和机器视觉中的重要环节。
通过准确的摄像机标定,可以实现对图像中物体的测量和分析,为后续的视觉任务提供基础支撑。
计算机视觉中摄像机定标综述
计算机视觉中摄像机定标综述
摄像机定标是计算机视觉中的一个重要问题,它旨在确定摄像机
的内部参数和外部参数。
内部参数包括焦距、主点位置、畸变系数等;而外部参数则包括摄像机在空间中的位置和朝向。
摄像机定标通常包
括两个步骤:标定和重建。
标定是指在已知一些已知深度的世界坐标系点时,通过摄像机捕
获的图像坐标来推导出摄像机内部和外部参数的过程。
标定中通常采
用的方法是通过对图像中已知世界坐标系点和对应的图像坐标进行计算,推导出摄像机的内部参数和外部参数。
主要的标定方法包括直接
线性变换(DLT)方法和基于优化方法的非线性标定方法。
重建则是指将摄像机拍摄的图像恢复成在真实世界中的实际坐标,这是基于相机的内部参数和外部参数的过程。
重建中通常采用的方法
是三角测量,即通过计算图像中点的位置和已知的相机内外参数,推
导出点在真实世界中的位置。
摄像机定标是计算机视觉和计算机图形学领域中的一个重要问题,它在计算机视觉领域中扮演着至关重要的角色。
例如,在三维重建、
虚拟现实、增强现实和机器视觉等领域中,摄像机定标是一个必要的
步骤。
摄像机标定的基本原理实现及性能分析
摄像机标定的基本原理实现及性能分析摄像机标定是指通过一系列的计算方法和算法,对摄像机的内部参数(如焦距、感光元件大小等)和外部参数(如相机在世界坐标系下的位置和方向)进行估计和优化的过程。
摄像机标定是计算机视觉和图形学中的重要技术,应用广泛,包括物体跟踪、姿态估计、三维重建等领域。
内部参数标定是通过拍摄已知几何结构的标定板或标定物体来确定摄像机的内部参数。
常用的标定板包括棋盘格、圆点格和红外标定板等。
标定板上会有一些已知几何结构的特征点,通过检测和匹配这些特征点,可以计算出相机的内部参数,如焦距、光心等。
常用的方法有直接线性变换(Direct Linear Transform, DLT)和最小二乘法等。
外部参数标定是通过相机拍摄一些已知世界坐标的场景,来确定相机在世界坐标系下的位置和方向。
常用的方法有位姿估计,即通过特征点的三维坐标和它们在图像上的对应位置,来估计相机在世界坐标系下的位姿。
另外还可以通过相机拍摄多张图片,通过三角化方法来估计相机在世界坐标系下的位置和方向。
在实现摄像机标定时,需要使用相机和计算机进行配合。
首先,需要准备一个已知几何结构的标定板或标定物体。
然后,将标定板或标定物体放置在相机的观察场景中,并姿态变化以覆盖尽量多的不同角度和位置。
通过相机拍摄这些场景,将图像传输到计算机中进行后续处理。
在计算机中,根据已知的标定板或标定物体信息,计算相机的内部参数和外部参数。
最后,根据计算得到的摄像机参数,即可在后续应用中使用。
精度是指标定结果和真实值之间的误差大小。
对于内部参数标定,可以通过计算重投影误差来评估标定结果的精度。
重投影误差是指将三维点投影到图像平面上,再将投影点反投影回三维空间中,与原始三维点之间的距离。
对于外部参数标定,可以通过将已知的真实位置和方向与标定结果进行比较,计算其误差大小。
一般来说,精度越高,标定结果与真实值的误差越小。
稳定性是指标定结果在重复实验中的稳定性和一致性。
第四讲 摄像机标定1
2. 摄像机成像模型
图像形成的简单模型
来自于光源(如太阳)的光入射到物体表面并被表面反射。反射光 进入人眼,最终导致了我们对颜色的感知
摄像机成像模型
在计算机视觉中,利用所拍摄的图像来计算出三维空间中被 测物体几何参数。图像是空间物体通过成像系统在像平面上 的反映,即空间物体在像平面上的投影。 图像上每一个像素点的灰度反映了空间物体表面某点的反射 光的强度,而该点在图像上的位置则与空间物体表面对应点 的几何位置有关。这些位置的相互关系,由摄像机成像系统 的几何投影模型所决定。 计算机视觉研究中,三维空间中的物体到像平面的投影关系 即为成像模型,理想的投影成像模型是光学中的中心投影, 也称为针孔模型。
u u0 X / d x sx X v v0 Y / d y s yY
因此可得物点p与图像像素坐 标系中像点pf的变换关系为:
其中,u 0 ,v 0 是图像中心(光轴与图像 平面的交点)坐标,dx ,dy分别为一个 像素在X与Y方向上的物理尺寸,sx=1/dx , sy=1/dy 分别为X与Y方向上的采样频率, 其中,f x =fs x ,f y =fs y 分别定义为X和Y方 向的等效焦距。fx、fy、u0、v0这4个参数 即单位长度的像素个数。 只与摄像机内部结构有关,因此称为摄 像机的内部
u f x 0 z v 0 f y 1 0 0 u0 v0 1 0 R 0 T 0 0
转化为齐次坐标为:
xw T yw M 1M 2 X MX 1 z w 1
其中,T是世界坐标系原点 在摄像机坐标系中的坐标, 矩阵R是正交旋转矩阵.
t x xw t y yw t z zw 1 1
数码相机标定方法研究
数码相机标定方法研究数码相机标定方法是一种经过精确测量和计算的过程,用于确定相机的内部参数和外部参数,以提高图像处理的精度和准确性。
相机标定方法不仅应用于计算机视觉领域,还广泛应用于机器人导航、虚拟现实等领域。
本文将着重介绍数码相机标定方法的研究。
数码相机标定方法的研究可以分为两个主要方面:内部参数标定和外部参数标定。
内部参数主要包括焦距、主点坐标、畸变系数等,它们是相机的固有特性;外部参数包括相机的位置和姿态,即相机与被摄物体的相对位置关系。
内部参数标定通常使用棋盘格标定方法。
该方法简单易行,只需在相机前放置一个已知尺寸的棋盘格,通过对棋盘在图像中的检测和计算,可以准确地估计出相机的内部参数。
具体步骤如下:首先,拍摄一系列棋盘格图像,要求棋盘格在不同的位置和角度下都能被完整地看到;然后,利用图像处理技术检测棋盘格角点的位置;最后,利用非线性最小二乘法对参数进行估计。
这种方法的优点是简单易行,不需要复杂的设备和专业知识。
缺点是对于较大的畸变程度和复杂的相机模型,精度会有所降低。
外部参数标定通常使用三维点和对应的图像点进行计算。
这种方法需要之前进行三维重建,并使用三维点云和图像点进行匹配。
通过对匹配点进行三维坐标的计算,结合相机坐标系与世界坐标系之间的映射关系,可以准确地估计出相机的外部参数。
具体步骤如下:首先,进行三维重建,获取一系列三维点;然后,通过计算图像点与三维点之间的对应关系,求解相机的外部参数;最后,利用非线性最小二乘法对参数进行优化。
这种方法的优点是精度高,适用于复杂场景和大视场的情况。
缺点是对于简单场景和小视场的情况,计算量较大。
除了以上两种常见的标定方法,还有其他一些方法被用于数码相机的标定研究。
例如,基于光线追踪的方法可以模拟相机成像过程,通过优化来估计相机的内部参数和外部参数;基于深度学习的方法可以通过神经网络来学习相机的内部参数和外部参数。
这些方法在特定的应用场景下具有较好的效果,但也有一定的局限性。
摄像机标定方法及原理
摄像机标定方法及原理摄像机内参数标定方法及原理:1.赋参法:a.使用透镜测量摄像机的焦距,根据透镜公式可求解出摄像机的内参数,如焦距、主点坐标等。
b.使用标准栅格或尺子等物体在距离摄像机一定位置处摆放,通过测量图像上物体的特征点的像素坐标和实际物体的尺寸,对内参数进行估计。
2.视差法:a.使用双目立体视觉系统,通过数学推导得到根据视差计算焦距和主点坐标的公式,从而标定摄像机的内参数。
b.具体操作时,将一张标定板放在双目系统的不同位置处,通过左右摄像机拍摄到的标定板图像,计算出两个图像的视差,进而估计出焦距和主点的坐标。
摄像机外参数标定方法及原理:1.立体视觉法:a.使用双目立体视觉系统,通过测量双目在空间中的位置关系,从而确定摄像机的外参数(即相对于参考坐标系的位置和姿态)。
b.一般情况下,通过观察物体在空间中的三维坐标和其在两个图像上的对应点的像素坐标,可以计算出外参数。
2.惯性传感器法:a.使用惯性传感器等设备,通过测量摄像机在三维空间中的加速度和角速度等信息,可以估计出摄像机的运动轨迹和姿态。
b.参考标定板等物体,在摄像机的运动过程中进行拍摄,根据拍摄到的图像和传感器测量的信息,计算出摄像机的外参数。
摄像机校正方法及原理:1.畸变校正法:a.摄像机的透镜会引入径向畸变和切向畸变,通过收集一组由标定板拍摄得到的图像,并对图像进行处理,去除畸变。
b.基于非线性最小二乘法,对摄像机内参数和畸变系数进行优化,得到校正后的摄像机参数。
2.摄像机自标定法:a.在摄像机运动过程中,摄像机捕捉到的图像中存在物体之间的三维关系,可以通过计算这些三维关系得到摄像机的内外参数。
b.根据三维重建的准确性和稳定性的要求,通过最小二乘法等算法,对摄像机内外参数进行优化。
摄像机标定的原理主要是通过数学模型和图像处理算法对摄像机的成像过程进行建模和估计。
通过收集一系列由标定板或其他具有已知形状和尺寸的物体拍摄得到的图像,分析图像上的特征点和相应的三维物体的几何关系,可以获得摄像机的内外参数。
相机标定方法汇总
相机的标定还是很重要的,特把用过的工具和方法进行一次汇总,以便加深理解,希望和大家多多讨论。
(本人扣扣1256635840)————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————1.MATLAB camera calibration toolbox工具箱下载和学习网址:标定测试集的下载网址:我只各使用了13张图片将TOOLBOX_calib放入MATLAB的toolbox目录下,工作目录设为含标定图集的目录。
1.1单目标定运行calib_gui.m文件,选择添加到路径,界面:选择第一个后,界面:点击Image names或read images后提示basename,输入left提示imageformat,输入j输出读取到的图片集:点击extract grid corners(提取角点)提示角点拾取窗大小,我选择了默认的5*5 弹出角点拾取窗口界面,拾取4个边界点:提示输入方格的x向和y向的实际尺寸,这里的棋盘格实际大小为30mm*30mm,以及X向和Y向的方格个数,输入5和8,设置后得到角点提取的效果:后续的12张图片进行同样的操作。
(后续MATLAB自己出了个标定工具箱camera calibrator,以及opencv、halcon 的角点都是自动提取,稍后详细说明)完成后点击calibration进行初始标定标定的初始化如下:Calibration parameters after initialization:Focal Length: fc = [ 532.49170 532.49170 ]Principal point: cc = [ 319.50000 239.50000 ]Skew: alpha_c = [ 0.00000 ] => angle of pixel = 90.00000 degrees Distortion: kc = [ 0.00000 0.00000 0.00000 0.00000 0.00000 ]得到的标定结果如下:Calibration results after optimization (with uncertainties):Focal Length: fc = [ 534.97637 536.20121 ] +/- [ 3.71984 3.92117 ] Principal point: cc = [ 343.26051 233.07723 ] +/- [ 4.11643 4.58569 ] Skew: alpha_c = [ 0.00000 ] +/- [ 0.00000 ] => angle of pixel axes =90.00000 +/- 0.00000 degreesDistortion: kc = [ -0.32075 0.27300 0.00104 -0.00074 0.00000 ] +/- [ 0.02040 0.07372 0.00103 0.00126 0.00000 ]Pixel error: err = [ 0.55364 0.23137 ]这里对这5个参数进行说明(详见链接(1)fc为焦距的像素尺寸,计算为F/DX,F/DY,F为几何焦距尺寸,DX,DY为像元尺寸。
相机标定原理介绍(一)
相机标定原理介绍(⼀)设每个像素的物理尺⼨⼤⼩为 dx * dy (mm) ( 由于单个像素点投影在图像平⾯上是矩形⽽不是正⽅形,因此可能dx != dy),图像平⾯上某点在成像平⾯坐标系中的坐标为(x, y),在像素坐标系中的坐标为(u, v),则⼆者满⾜如下关系:[即(x, y)→(u, v)]u = x / dx + u0 v = y / dy + v0⽤齐次坐标与矩阵形式表⽰为:将等式两边都乘以点Q(X,Y,Z)坐标中的Z可得:将摄像机坐标系中的(1)式代⼊上式可得:则右边第⼀个矩阵和第⼆个矩阵的乘积亦为摄像机的内参数矩阵(单位为像素),相乘后可得:(2)和(1)式相⽐,此内参数矩阵中f/dx, f/dy, cx/dx+u0,cy/dy+v0 的单位均为像素。
令内参数矩阵为K,则上式可写成:(3)三.相机内参K(与棋盘所在空间的3D⼏何相关)在计算机视觉中,摄像机内参数矩阵其中 f 为摄像机的焦距,单位⼀般是mm;dx,dy 为像元尺⼨;u0,v0 为图像中⼼。
fx = f/dx, fy = f/dy,分别称为x轴和y轴上的归⼀化焦距.为更好的理解,举个实例:现以NiKon D700相机为例进⾏求解其内参数矩阵:就算⼤家⾝边没有这款相机也⽆所谓,可以在⽹上百度⼀下,很⽅便的就知道其⼀些参数—— 焦距 f = 35mm 最⾼分辨率:4256×2832 传感器尺⼨:36.0×23.9 mm根据以上定义可以有:u0= 4256/2 = 2128 v0= 2832/2 = 1416 dx = 36.0/4256 dy = 23.9/2832fx = f/dx = 4137.8 fy = f/dy = 4147.3分辨率可以从显⽰分辨率与图像分辨率两个⽅向来分类。
[1]显⽰分辨率(屏幕分辨率)是屏幕图像的精密度,是指显⽰器所能显⽰的像素有多少。
由于屏幕上的点、线和⾯都是由像素组成的,显⽰器可显⽰的像素越多,画⾯就越精细,同样的屏幕区域内能显⽰的信息也越多,所以分辨率是个⾮常重要的性能指标之⼀。
最详细、最完整的相机标定讲解
最详细、最完整的相机标定讲解最近做项⽬要⽤到标定,因为是⼩⽩,很多东西都不懂,于是查了⼀堆的博客,但没有⼀个博客能让我完全能看明⽩整个过程,绝⼤多数都讲的不全⾯,因此⾃⼰总结了⼀篇博客,给⾃⼰理⼀下思路,也能够帮助⼤家。
(张正友标定的详细求解还未完全搞明⽩,后⾯再加)在图像测量过程以及机器视觉应⽤中,为确定空间物体表⾯某点的三维⼏何位置与其在图像中对应点之间的相互关系,必须建⽴相机成像的⼏何模型,这些⼏何模型参数就是相机参数。
在⼤多数条件下这些参数必须通过实验与计算才能得到,这个求解参数(内参、外参、畸变参数)的过程就称之为相机标定(或摄像机标定)。
⽆论是在图像测量或者机器视觉应⽤中,相机参数的标定都是⾮常关键的环节,其标定结果的精度及算法的稳定性直接影响相机⼯作产⽣结果的准确性。
因此,做好相机标定是做好后续⼯作的前提,提⾼标定精度是科研⼯作的重点所在。
畸变(distortion)是对直线投影(rectilinear projection)的⼀种偏移。
简单来说直线投影是场景内的⼀条直线投影到图⽚上也保持为⼀条直线。
畸变简单来说就是⼀条直线投影到图⽚上不能保持为⼀条直线了,这是⼀种光学畸变(optical aberration),可能由于摄像机镜头的原因。
相机的畸变和内参是相机本⾝的固有特性,标定⼀次即可⼀直使⽤。
但由于相机本⾝并⾮理想的⼩孔成像模型以及计算误差,采⽤不同的图⽚进⾏标定时得到的结果都有差异。
⼀般重投影误差很⼩的话,标定结果均可⽤。
坐标转换基础在视觉测量中,需要进⾏的⼀个重要预备⼯作是定义四个坐标系的意义,即摄像机坐标系、图像物理坐标系、图像像素坐标系和世界坐标系(参考坐标系)。
⼀、图像坐标系(x,y)⾄像素坐标系(u,v)1.两坐标轴互相垂直此时有2.⼀般情况,两轴不互相垂直此时有写成矩阵形式为:⼆、相机坐标系(Xc,Yc,Zc)⾄图像坐标系(x,y)(根据⼩孔成像原理,图像坐标系应在相机坐标系的另⼀边,为倒⽴反向成像,但为⽅便理解和计算,故投影⾄同侧。
相机标定方法综述
相机标定方法综述相机标定是计算机视觉和机器人视觉中的一个重要问题。
通过相机标定,我们可以得到相机的内部参数和外部参数,从而可以将图像中的像素坐标转换为物理空间中的三维坐标。
本文将综述常用的相机标定方法,包括张氏标定法、Tsai标定法、Davies标定法、Bouguet 标定法等。
一、张氏标定法张氏标定法是一种基于平面标定板的相机标定方法。
该方法首先需要使用标定板在不同位置、不同角度下拍摄多张图像,然后通过图像中标定板的角点坐标计算相机的内部参数和外部参数。
张氏标定法的优点在于简单易行,只需要一个标定板和一台相机即可完成标定。
但是,该方法对标定板的要求比较高,需要标定板上的角点能够被准确地检测出来,且标定板需要在不同位置、不同角度下拍摄多张图像才能得到较为准确的结果。
二、Tsai标定法Tsai标定法是一种基于多平面标定板的相机标定方法。
该方法使用多个平面标定板,每个标定板的法向量都不相同,通过拍摄这些标定板得到多组图像,然后通过标定板上的特征点计算相机的内部参数和外部参数。
与张氏标定法相比,Tsai标定法的优点在于可以使用多个标定板,提高了标定的精度,同时对标定板的要求也比较低,只需要标定板上的特征点能够被准确地检测出来即可。
三、Davies标定法Davies标定法是一种基于球形标定物的相机标定方法。
该方法使用球形标定物拍摄多张图像,然后通过球心在图像中的位置和球的半径计算相机的内部参数和外部参数。
与平面标定板相比,球形标定物的优点在于可以在不同位置、不同角度下拍摄,同时对标定物的要求也比较低,只需要球的半径能够被准确地测量出来即可。
但是,球形标定物的缺点在于难以检测球的边缘,影响标定的精度。
四、Bouguet标定法Bouguet标定法是一种基于图像序列的相机标定方法。
该方法使用一组图像序列,通过对图像序列中的特征点进行匹配,计算相机的内部参数和外部参数。
Bouguet标定法的优点在于可以使用一组图像序列进行标定,不需要特定的标定物,同时对图像序列的要求也比较低,只需要图像序列中的特征点能够被准确地匹配即可。
相机标定的方法
相机标定的方法
相机标定的方法
相机标定的方法
相机标定是一种将相机的内部和外部参数测量并计算,以便在图像中提供真实世界大小和形状的技术。
以下是一种相机标定的方法:
1. 准备标定板:使用大小适当的标定板,将其放置在平坦的墙面上。
2. 拍摄标定板:使用相机拍摄标定板,确保标定板能够完全显示在图像中。
3. 提取角点:使用一个角点检测器,从图像中提取标定板的角点。
4. 计算内部参数:通过一些数学计算方法,计算相机的内部参数,如焦距和图像中心点。
5. 计算外部参数:通过角点的位置和相机的内部参数,计算相机的外部参数,如旋转和平移矩阵。
6. 验证标定:使用标定后的相机,拍摄其他物体的图像并测量它们的大小,验证标定的准确性。
相机标定是许多计算机视觉应用的重要步骤,如三维重建和目标跟踪。
理解和掌握相机标定的方法对于计算机视觉从业者和研究人员来说至关重要。
- 1 -。
视觉摄像机标定方法总结
DLT变换
Abdal-Aziz和Karara于70年代初提出了直接 线性变换像机定标的方法,他们从摄影测量 学的角度深入的研究了像机图像和环境物体 之间的关系,建立了像机成像几何的线性模 型,这种线性模型参数的估计完全可以由线 性方程的求解来实现。
DLT变换
直接线性变换是将像点和物点的成像几何关系在齐次坐标下 写成透视投影矩阵的形式:
Xw Xw u Y Y K R t w P w s v 34 Zw Zw 1 1 1
其中 u, v,1 为图像坐标系下的点的齐次坐标, X w , Yw , Z w 为 世界坐标系下的空间点的欧氏坐标, P 为 3 4 的透视投影矩 阵,s 为未知尺度因子。
像机模型
(x, y) ( u, v ) 理想图像坐标到数字图像坐标的变换 (只考虑径向偏差) ( uc , v c )
( x uc )(1 k1 ( u2 v 2 )) u uc ( y vc )(1 k1 ( u2 v 2 )) v vc
(u, v)为一个点的数字化坐标,(x, y)为理想 的数字化坐标,(uc, vc)为畸变中心。
由 cos 2 1 cos 2 2 cos 2 3 1
3.2、R. Tsai 的 RAC的定标算法
简 介
80年代中期Tsai提出的基于RAC的定标方法是计 算机视觉像机定标方面的一项重要工作,该方 法的核心是利用径向一致约束来求解除 t z(像 机光轴方向的平移)外的其它像机外参数,然 后再求解像机的其它参数。基于RAC方法的最大 好处是它所使用的大部分方程是线性方程,从 而降低了参数求解的复杂性,因此其定标过程 快捷,准确。
摄像机标定 方法
摄像机标定方法
摄像机标定是指通过一系列的图像处理和数学计算方法,获取摄像机的内外参数,以及畸变参数等信息的过程,以便实现三维世界到二维图像的映射关系。
常用的摄像机标定方法主要有以下几种:
1. 理论分析法:该方法主要基于摄像机成像原理,通过几何关系和投影变换来计算标定参数。
常用的理论分析法有针孔摄像机模型和复杂模型等。
2. 标定板法:该方法是通过拍摄已标定的棋盘格等特定标定板的图像,利用标定板上的特征点来计算摄像机参数。
常用的标定板法有张正友棋盘格标定法等。
3. 视觉实验法:该方法是通过进行一系列特殊的视觉实验,如视差法、三维重建等方法来获取摄像机参数。
这种方法一般需要用到额外的硬件设备。
4. 结合法:该方法是将多种标定方法进行结合使用,以得到更准确的摄像机参数。
其中常用的结合法是将理论分析法与标定板法结合使用。
需要注意的是,摄像机标定的结果对于后续的摄像机姿态计算、三维重建等应用非常重要,因此标定过程中要准确地采集多个不同角度和深度的图像,以提高标定的精度和稳定性。
相机标定流程范文
相机标定流程范文相机标定是计算机视觉和机器视觉领域的基础技术之一,它用于获取相机内外参数,以便在三维空间中进行准确的测量和重建。
下面将详细介绍相机标定的流程,包括相机几何校正、相机内参标定和相机外参标定。
1.相机几何校正相机几何校正是相机标定的第一步,它用于处理由于相机镜头的形状、布局和组装误差引起的几何失真。
主要包括畸变校正和平面校正两个方面。
- 畸变校正:相机镜头的特性会导致图像中出现畸变,主要包括径向畸变和切向畸变。
径向畸变使得图像中心附近的物体变形,而切向畸变则使得物体在图像边缘处出现倾斜。
为了消除畸变,可以使用畸变模型对图像进行校正,常用的模型有弧长畸变模型和Brown模型。
-平面校正:在标定过程中需要使用一个平面模型,它传递相机的姿态信息(旋转和平移矩阵)。
通过将相机对准平面并对其进行映射,可以获得摄像机的平面校准矩阵。
2.相机内参标定相机内参是指相机内部的参数,主要包括焦距、透镜中心、像素尺寸、径向畸变参数和切向畸变参数等。
内参标定的目标是确定这些参数的准确值。
-特征提取:首先需要选择一些图像特征点,在标定板上以等距离间隔放置一组点,该组点应该在至少三个不同的相机位置上可见。
常见的特征点包括角点、圆点等。
-特征匹配:通过图像处理算法将参考图像中的特征点与标定图片中的特征点进行匹配,以建立特征点对。
- 参数求解:利用特征点对计算相机内参参数。
对于针孔相机模型,可以使用最小二乘法或优化算法求解焦距、畸变参数和相机中心等参数。
常用的算法是Zhang的棋盘格算法。
3.相机外参标定相机外参是指相机在世界坐标系中的运动和姿态信息,包括相机的旋转矩阵和平移向量。
相机外参标定的目标是测量相机的运动和姿态信息。
-物体标定:选择一个已知尺寸和几何形状的三维物体,通过将其放置在标定区域内,并记录其坐标(世界坐标)和图像中的对应位置(图像坐标)。
-物体匹配:根据物体坐标和图像中的对应位置,进行物体的点对匹配。
摄像机标定方法综述
摄像机标定方法综述摄像机标定是指将图像中的像素坐标与真实世界中的三维物体坐标相对应的过程。
摄像机标定在计算机视觉和机器视觉领域中广泛应用,比如目标识别、目标追踪、立体视觉等任务。
下面将就几种常用的摄像机标定方法进行综述。
1.直接线性变换(DLT)方法:直接线性变换是最早提出的摄像机标定方法之一、该方法通过摄像机拍摄具有已知三维坐标的物体,并通过图像中物体投影的像素坐标计算出摄像机内部的参数(如焦距和像素坐标系原点等)和外部参数(如摄像机的旋转和平移矩阵)。
DLT方法的精度受到图像中噪声和非线性畸变的影响,因此通常需要进行非线性优化。
2.张正友标定方法:张正友标定方法是基于经典的DLT方法而改进的一种摄像机标定方法。
该方法通过使用多个摄像机拍摄一组模板图案(如棋盘格),并根据图案在图像中的投影计算出摄像机的内外参数。
该方法克服了DLT方法的不足,可以有效地降低标定过程中的误差。
张正友标定方法已经成为摄像机标定的事实标准。
3.陈氏标定方法:陈氏标定方法是一种基于棋盘格划分的摄像机标定方法。
该方法相比于其他标定方法更具鲁棒性,能够处理大部分图像畸变,包括径向畸变和切向畸变。
陈氏标定方法不依赖于特定的图案设计,可以适用于各种不同形状和规模的棋盘格标定板。
此种标定方法能得到相对准确的摄像参数。
4.光束投影法:光束投影法也是一种常用的摄像机标定方法。
光束投影法通过摄像机对多个光束的拍摄,利用光束在三维空间中的重合关系来计算摄像机的内外参数。
光束投影法具有较高的精度和计算效率,可适用于复杂场景中的标定问题。
5.基于结构光的标定方法:结构光标定方法是一种基于投影的摄像机标定方法。
该方法使用一个激光投影仪将结构光(如条纹或网格)投影到摄像机视野中的物体上,然后通过分析图像中的结构光变形情况计算出摄像机的内外参数。
该方法具有较高的精度和稳定性,可适用于复杂环境下的标定。
以上介绍了几种常用的摄像机标定方法,每种方法都有其适用的特定场景和优缺点。
摄像机标定技术
摄像机标定技术摄像机标定技术一、概述计算机视觉的基本任务之一是从摄像机获取的图像信息出发计算三维空间中物体的几何信息,并由此重建和识别物体,而空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系是由摄像机成像的几何模型决定的,这些几何模型参数就是摄像机参数。
在大多数条件下,这些参数必须通过实验与计算才能得到,这个过程被称为摄像机定标(或称为标定)。
标定过程就是确定摄像机的几何和光学参数,摄像机相对于世界坐标系的方位。
标定精度的大小,直接影响着计算机视觉(机器视觉)的精度。
迄今为止,对于摄像机标定问题已提出了很多方法,摄像机标定的理论问题已得到较好的解决,对摄像机标定的研究来说,当前的研究工作应该集中在如何针对具体的实际应用问题,采用特定的简便、实用、快速、准确的标定方法。
二、摄像机标定分类1 根据是否需要标定参照物来看,可分为传统的摄像机标定方法和摄像机自标定方法。
传统的摄像机标定是在一定的摄像机模型下,基于特定的实验条件,如形状、尺寸已知的标定物,经过对其进行图像处理,利用一系列数学变换和计算方法,求取摄像机模型的内部参数和外部参数(分为最优化算法的标定方法、利用摄像机透视变换矩阵的标定方法、进一步考虑畸变补偿的两步法和采用更为合理的摄像机模型的双平面标定法);不依赖于标定参照物的摄像机标定方法,仅利用摄像机在运动过程中周围环境的图像与图像之间的对应关系对摄像机进行的标定称为摄像机自标定方法,它又分为:基于自动视觉的摄像机自标定技术(基于平移运动的自标定技术和基于旋转运动的自标定技术)、利用本质矩阵和基本矩阵的自标定技术、利用多幅图像之间的直线对应关系的摄像机自标定方以及利用灭点和通过弱透视投影或平行透视投影进行摄像机标定等。
自标定方法非常地灵活,但它并不是很成熟。
因为未知参数太多,很难得到稳定的结果。
一般来说,当应用场合所要求的精度很高且摄像机的参数不经常变化时,传统标定方法为首选。
摄像机标定算法综述
Geometry Calibration of Perspective Cameras:AReviewYihua XuTechnical ReportMicrosoft Research,AsiaMarch26,2003AbstractRecent progresses on geometry calibration of perspective cameras are reviewed.Various kinds of existing methods are organized by their usage of prior knowledge.Calibration algorithms are diver-sified as they use different levels of prior knowledge on either camera parameters,scene geometry,or camera motion,and can achieve different strata of parameter recovery or scene reconstruction.Knowledge on camera parameters include partially known intrinsics(e.g.zero skew),partially con-stant intrinsics(e.g.skew or aspect ratio),constant intrinsics,or varying intrinsics.Knowledge onscene geometry include known3D geometry,2D plane with known or unknown geometry,certainspecial geometries(e.g.parallelism,known angles,two equal yet unknown angles,known lengthsratios),1D object with known geometry,unknown yet rigid scene,etc.Knowledge on camera mo-tion are for example pure rotation,pure translation,planar motion,unknown generic motion,etc.Based on various combinations of such prior knowledge,various algorithms have been designedwhich achieve different strata of parameter recovery,for example,full recovery,recovery up to anunknown similarity transformation,an unknown affine transformation,or an unknown projectivetransformation.1IntroductionCamera calibration has been one of the center topics of computer vision research in the last decades. Potential applications include3D metrology,navigation,image based rendering,among others.Sub-stantive research work on this topic has been done.Readers are referred to[1,2]for two excellent monographs.Calibration algorithms are diversified as they use different levels of prior knowledge on camera parameters,scene geometry,or camera motion,and can achieve different strata of parameter recovery or scene reconstruction.The two extremes of such calibration approaches are the so-called photogrammetric calibration and pure autocalibration,whereas a large number of other methods exist in between them.Photogrammetric calibration achieves accurate camera calibration by the aid of a 3D calibration object whose geometry information is precisely known.This approach is accurate and reliable.However,it requires elaborate and expense setup of calibration apparatus.Pure autocalibration requires no knowledge of the observed scene(except for its rigidity)or camera motion1.It recovers the camera parameters from only the generally distributed correspondences in the given image sequences. This approach has the highestflexibility but suffers from inaccuracy and unreliability,accompanied by the outstanding degeneracy problem that many common types of motions lead to ambiguities in the solution.Besides these two approaches,many other algorithms falling in between them have also been designed.Some of these algorithms achieve calibration from partial scene geometry information,e.g.a planar surface(with known or unknown metric information)undergoing unknown motion,parallelism in 1Autocalibration is referred by some authors to the calibration without using any calibration object,which includes most approaches in this paper except§4,§6.1,§6.4.We emphasize here the distinction by using the term pure autocalibration. However,in the rest of this paper,the term autocalibration is equal to pure autocalibration.the scene,known angles,equal but unknown angles,known ratios of lengths,or multiple collinear points with known relative position.Some other algorithms calibrate the parameters by utilizing the controlled motions of the camera,e.g.pure rotation,planar motion,pure translation,or translation with known direction.In this paper,we confine the discussion to the calibration of perspective cameras.We will never consider the nonlinear camera models for e.g.wide-angle[3]or catadioptric cameras[4,5],and neither certain degenerate linear models,e.g.the affine camera[6,7]or 1D camera models[8,9].We also exclude a few other specific models,e.g.the two-plane camera model for direct reconstruction[10,11].The calibration framework using multi-view rank conditions[12,13]is not discussed.A few recent work that use statistics in geometry calibration are excluded[14,15].Various feature extraction methods (prior to camera calibration)are also never considered.2Basics and notationsIn this section we briefly introduce a handful of concepts that underpin the basic theory of camera calibration.Such concepts include camera projection matrix,intrinsic parameters,extrinsic parameters,absolute conic and quadric,planar homography,fundamental matrix,essential matrix,Kruppa equations,etc.Due to the space limitation,such introduction is compressed as much as possible.Readers are referred to the citations therein or [1,2]for further discussions.2.1Camera modelsFigure 1:The perspective camera modelConsider the widely used perspective camera model,as shown in Fig.1.Let the coordinates of a 3D point in the Euclidean world coordinate system be M =[x,y,z ]T and its projection in the retinal image coordinates be m =[u,v ]T .Their respective homogeneous coordinates ˜M=[x,y,z,1]T and ˜m =[u,v,1]T are related by a linear equation,˜m P ˜M (1)where the symbol means “equal up to a scale factor”,and P is a 3×4matrix called the camera projection matrix .P is defined up to scale and has 11degrees of freedom.It can be decomposed as:P A 100001000010R t 01 =A R t = AR At (2)where R is a 3×3orthogonal matrix,t is a 3D vector,and A is a 3×3upper triangular matrix.The decomposition is unique according to the QR factorization theory[16].The matrix R t 01describes the 3D displacement (rotation and translation)from the world coor-dinate system to the camera coordinate system.Rotation R and translation t are the camera’s extrinsicparameters .Matrix A is used to convert from the normalized image coordinates to the retinal image coordinates.It is called camera calibration matrix and encodes the camera’s all intrinsic parameters ,A = f λu 00τf v 0001(3)where f is the camera’s focal length ,τis the aspect ratio ,λskew factor ,and u 0,v 0principal point position.The skew factor of a usual camera is very small and is often set to be zero.Sometimes the aspect ratio is also simplified to be unit,and even the principal point to be the image center.However,contrary to the long-held general belief,a recent paper[17]points out that the calibration accuracy is rather sensitive to the accuracy of principal point position,at least in some configurations.Note that while the skew factor and aspect ratio are somehow constant for a camera system,the principal point often varies with zooming or focusing of a camera[18,19].The above rectilinear camera model has never accounted for the nonlinear lens distortions introduced by imperfections and misalignments in the optical system.Such distortions can be calibrated and corrected separately before calibrating the perspective model[20],or compensated as a posteriori using iterative nonlinear minimization techniques[21],if they are not weak enough to be neglected.A number of sophisticated models exist to account for different distortion factors,e.g.,radial distortion,de-centering distortion,and thin-prism distortion.Tsai[20]ever noted that any more elaborate distortion model than a radial one not only would not help increase accuracy but also would cause numerical instability.Yet some others[21]report,especially when wide angle cameras are used,a non radial distortion component in the distortion model improve accuracy.A generally used radial distortion model is a polynomial model, u =u +(u −u 0)(k 1r 2+k 2r 4+...)v =v +(v −v 0)(k 1r 2+k 2r 4+...)with r 2=(u −u 0)2+(v −v 0)2where u ,v denote the observed (distorted)image coordinates and x,y the undistorted image coordi-nates,u 0,v 0are the principal center position,r is the distance between (u,v )and (u 0,v 0),and k i are the distortion coefficients.It is usually sufficient to truncate the polynomials to the first two terms.Further discussion on nonlinear distortion are beyond the scope of this paper.2.2Absolute conic &quadricThe absolute conic (AC)is a degenerate conic lying on the plane at infinity.In Euclidean frame itis represented by a 4×4rank-3matrix Ωe = I 00T 0.A point ˜M is on the AC if and only if ˜MT Ω˜M =0.It can be seen that the AC does not contain any real point:it is composed entirely of complex points.The dual of AC,called absolute quadric [22],consists of planes tangent to the AC.It is a degenerate quadric whose unique null space is the planeat infinity.In Euclidean frame this quadric is represented by a 4×4rank-3matrix Ω∗e = I 00T 0.A plane Πis on the quadric if and only if ΠT ΩΠ=0.Consider an arbitrary nonsingular 4×4transformation T .It transforms a point ˜Mto T ˜M ,and transforms a plane Πto ΠT T −1.Thus it transforms the AC Ωe to T −T Ωe T −1,and transforms theabsolute quadric Ω∗e to T Ω∗e T T .It follows that Ωand Ω∗are invariant under Euclidean transformation,are scaled under similarities,take the form Q 0030(symmetric 3×3nonsingular Q )under affine ones,and become arbitrary symmetric 4×4rank-3matrices under projective ones.Let us consider the projection of the AC in the image plane (IAC).Given a point ˜M=[x,y,z,0]T on the AC,it has M T M =0,where M =[x,y,z ]T .Define a camera projection matrix as P =A [R t ].Since the AC is invariant to Euclidean transformation,the projection ˜m of ˜M satisfies ˜m P ˜M=AM .It follows that ˜m T A −T A −1˜m =0.So a point ˜m is on the IAC if and only if it lies on the conic representedby the matrix B A −T A −1.The projection of the absolute quadric in the image plane is the dualof IAC (DIAC),which consists of all lines tangent to the IAC.The DIAC is defined by the matrix K =B −1 AA T .A line l is tangent to the IAC if and only if l T Kl =0.Both B and K are symmetricand positive matrices,and defined up to a scale,hence they have only5independent unknowns.They uniquely determine and are uniquely determined(up to a scale)by the intrinsic parameters,withB A−T A−1=1τ2f2τ2γτ−fγτv0f−τ2u0γτ−fγ2+f2f2γ(γv0−τfu0)−f2−v0γτv0f−τ2u0γ(γv0−τfu0)f2−v0(γv0−τfu0)2f2+v20+τ2f2(4)andK AA T=γ2+u20+f2γτf+u0v0u0γτf+u0v0τ2f2+v20v0u0v01(5)Since K,B are symmetric and positive,the intrinsic parameters can be easily obtained from it by means of Cholesky factorization[16],or in closed form:A=K11−K213−121323K22−K223K12−K13K23√K22−K23K13K22−K223K23001(6)where K ij is the element of K at row i and column j,and K33=1.Or,A=λB11−λB212(B211B22−B11B212)B12(B11B23−B12B13)B211B22−B11B212−B13B1111B11B22−B212B12B13−B11B23B11B22−B212001(7)whereλ=B33−B213B11−(B12B13−B11B23)2B211B22−B11B212.Many calibration algorithmsfirst estimate K or B and thensolve the intrinsic parameters from them.2.3Planar HomographyIf we define the world coordinate system so that thefirst two axes define a space planeΠ,the projection of points ofΠcan be viewed as,u v1 TPx y01T=p1p2p4x y1Twhere p i denotes the i th column of the camera projection matrix P.If we use M=[x,y]T to denote a point ofΠand˜M=[x,y,1]T be its homogeneous coordinates,the above equation is simplified as,˜m H˜M with Hp1p2p4Ar1r2t(8)where r i denotes the i th column of the rotation matrix R,H is the planar homography from planeΠto the image plane.H is non-singular as long asΠdoes not pass through the camera’s optical center.The derivation of H under arbitrary world coordinate system can be found in[2].Because in(8)H has8degrees of freedom and there are6extrinsic parameters,an H applies2 constraints on the intrinsic ing the knowledge that r1and r2are orthonormal,we have,h T1Bh2=0,h T1Bh1=h T2Bh2with B A−T A−1(9) These constraints can also be derived from a geometric standpoint.It can be verified that a space plane z=0intersects the AC at two points:˜M∞=s[1,±i,0],where s is an arbitrary scale,i2=−1.These points are called the circular points of the plane,and their projection in the image are˜m∞=H˜M∞= h1±ih2.Since˜m∞must lie on the IAC,we get(h1±ih2)T B(h1±ih2)=0.Requiring that both real and imaginary parts be zero yields(9).Since B has5independent unknowns,3homographies arerequired to solve B(if it keeps constant).The extrinsic parameters can be computed from H if A is known,r1=λA−1h1,r2=λA−1h2,r3=r1×r2,t=λA−1h3(10) withλ=1/ A−1h1 =1/ A−1h2 .Consider a space planeΠin two-camera configuration.Let H and H be the respectively homogra-phies fromΠto thefirst and second image plane,in a common world coordinate system.Let m and m be the two respective images of point M ofΠat the two images.Thus˜m H˜M,˜m H ˜M.If H,H are non-singular,we obtain,˜m H H−1˜m=¯H˜m(11) where¯H are the homography induced byΠfrom thefirst image plane to the second.An important case occurs whenΠis a plane at infiniteΠ∞.Let H∞and H ∞be the respectively homographies fromΠ∞to thefirst and second image plane.These homographies can be expressed in a similar way as(8),but instead of setting z=0we define a world coordinate system in the Euclidean frame,so that,u v1 TPx y z0T=p1p2p3x y zTThus H∞,H ∞and¯H∞have particularly simple forms,H∞ AR,H ∞ A R ,¯H∞ A R R−1A−1(12) which yields,K ¯H∞K¯H T∞with K AA T,K A A T(13) This applies a set of constraints on K,K given¯H∞,from which only4are independent[23].This equation is important as it relates the infinity homographies with the intrinsic parameters,two entities of special use in camera calibration.2.4Epipolar geometryFigure2:Epipolar geometryThe epipolar geometry exists between any two camera system.Consider the case shown in Fig.2.Let C and C be the optical centers of thefirst and second cameras,respectively.Given a point m in thefirst image,its corresponding point in the second image in constrained to lie on a line called the epipolar line of m,denoted by l m.This line is the intersection of the second image plane I with the plane defined by m,C,and C (known as the epipolar plane).Furthermore,all epipolar lines of the points in thefirst image pass through a common point e ,which is the intersection of the line CC with the image plane I .This point is called the epipole.Above definitions are symmetric in the two cameras.The epipolar geometry constrains that the correspondence of a point in thefirst image must lie on its epipolar line in the second image.This is called the epipolar constraint.Let us express the epipolar geometry algebraically.Taking thefirst camera coordinate system as the world coordinate system,we can write the two camera projection matrices as:P A[I|0],P A [R|t], where R,t are the rotation and translation which bring points expressed in thefirst camera coordinate system to the second one.Let a space point M projecting onto both image planes to points˜m,˜m .We have˜m P˜M AM,and˜m P ˜M A RM+A bining together yields,˜m A RA−1˜m+sA t ¯H∞˜m+s˜e (14) where s is an unknown scale factor,¯H∞is the infinity homography as in(12),˜e =A t is the epipole. This equation means that˜m must lie on the epipolar line l m that goes through¯H∞˜m and˜e ,which yields,l m=F˜m or˜m T F˜m=0with F [˜e ]ׯH∞(15) where F is a3×3matrix called the fundamental matrix,[˜e ]×denotes the antisymmetric matrix defined by˜e such that[˜e ]×x=˜e ×x for any3D vector x.It is clear that F T˜e =0,thus F is of rank-2.Since F is also defined up to a scale factor,it has only7degrees of freedom.The fundamental matrix can also be expressed as,F A−T[t]×RA −1 A−T EA −1with E [t]×R(16) where E is called the essential matrix.It has5degrees of freedom and gives the extrinsic camera parameters up to a scale factor.Thus a fundamental matrix applies2independent constraints on the intrinsic parameters.If the two cameras have same intrinsic parameters,i.e.A=A ,3fundamental matrices are generally sufficient to solve A.E can be directly computed from F as long as the intrinsic parameters are known.2.5Kruppa equationsFigure3:The absolute conic and epipolar constraintConsider the two-camera configuration in Fig.3.LetΠbe a plane passing through the two optical centers C,C and tangent to the ACΩat infinite planeΠ∞.The intersection ofΠwith image planes I,I are lines l,l ,respectively.It follows that l is tangent to the IACωin I,l is tangent to the IAC ω in I ,and l,l are epipolar correspondent.The condition that the epipolar lines tangent to the IACs ω,ω correspond gives two constraints linking the epipolar geometry with the IACs.Kruppa equations are an algebraic version of these constraints.As shown in Fig.3,e,e are the two epipoles,m,m are the tangency points of l,l withω,ω , respectively.The condition that l(resp.l )is tangent toω(resp.ω )writes,l T Kl=l T K l =0, where K(resp.K )is the matrix of the dual conics toω(resp.ω ).Since l can be expressed asl =[˜e ]טm ,and from (15)we have l =F T ˜m ,thus ([˜e ]טm )T K ([˜e ]טm )=(F T ˜m )T K (F T ˜m )=0,which yields,[˜e ]T ×K [˜e ]× F KF T (17)From this equation we can obtain 2independent functions,called the Kruppa equations ,of degree two on the elements of K,K ,and hence of degree four on the elements of A,A .In the case that the two cameras have identical intrinsic parameters,i.e.K =K ,3fundamental matrices are generally sufficient to obtain a solution.The Kruppa equations were rediscovered and derived by Maybank and Faugeras[24,25].Since then a few different derivations have been proposed[26,27,28,29].Among them the simplest ones are based on the singular value decomposition (SVD)of the fundamental matrix[27,29].Let F be written asF =UDV T (with SVD),and U =[u T 1u T 2u T 3]T ,V =[v T 1v T 2v T 3]T ,and D =diag (r,s,0),then theKruppa equations are r 2v T 1Kv 1u T 2K u 2=rsv T 1Kv 2−u T 2K u 1=s 2v T 2Kv 2u T 1K u 1(18)From (18)one obtains two independent quadratic equations on the five coefficients of K .2.6Stratified reconstructionFull calibration of cameras’intrinsic and extrinsic parameters is often impossible.However,in some practical situations,partial calibration which yields 3D reconstruction up to certain unknown transfor-mation is often sufficient.We discuss here three levels of such partial reconstructions that are of special importance[23,2].They are,3D reconstruction up to an unknown projective transformation (called projective reconstruction ),up to an unknown affine transformation (called affine reconstruction ),and up to an unknown similarity transformation (called misleadingly Euclidean reconstruction ).Given the images taken by two cameras,the fundamental matrix F between the two cameras can be solved from sufficient general point correspondences.It can be verified that F leads directly to the projective reconstruction, P I 0 H PS s ˜e H with H = P ΠT (19)where ˜e is the epipole in the second image (given by F T ˜e =0),S =[˜e ]×F is called the special matrix ,s is an arbitrary scale,Πis an arbitrary 4D vector defined up to scale (with 3unknowns).s ,Πand P together have 15unknowns representing the projective ambiguity in reconstruction.An affine transformation is a particular projective transformation which preserves the plane at infinityΠ∞,whose coordinates in affine space is Πa ∞ [0,0,0,1]T .Given the projective reconstruction,if wecan identify Π∞expressed in the given projective frame Πp ∞,the problem of recovering affine structureis equivalent to finding an arbitrary 4×4projective matrix T a p which maps Πp ∞onto Πa ∞:Πp ∞T a −1p Πa ∞.Since Πp ∞is defined up to scale,we express it as Πp ∞ [r T ∞,1]T .It follows that a minimalparameterization of T a p is:T a p I 0r T ∞1.Applying it into (19)we obtain the affine reconstruction, P I 0 A P¯H ∞se A with A = P 0T 1/s (20)where ¯H ∞is the planar homography induced by Π∞,given by ¯H ∞ S +˜e r T ∞.A is of course an affinetransformation matrix determined by 12unknown parameters.We are then seeking for reducing the ambiguity from an affine transformation to a similarity one.A similarity transformation is a particular affine transformation which keeps the absolute conic (up toscale).Thus the Euclidean reconstruction is solvable by finding an arbitrary 4×4affine matrix T e a mapping the absolute conic in affine space Ωa to its Euclidean form Ωe .This however makes little senseas direct identifying Ωa is often rather difficult.For clarity of presentation we instead give first the canonical form of the Euclidean stratum, P A I 0 S P A R st Swith S = R 1t 10T 1/s (21)where R 1,t 1are the rotation and translation from the world coordinate system to the first camera coordinate system,R,t are from the first camera coordinate system to the second one,S is a similaritymatrix with 7unknowns representing the reconstruction ambiguity.Therefore the upgrading matrix T e a should satisfy:[I ,0]T e a A [I ,0],and [¯H ∞,se ]T e a A [R,st ].Since we have ¯H ∞ A RA −1(12),and e A t (14),a minimal parameterization of T e a is easily obtained:T e a A 00T s 1.In summary,in a two-camera system,the projective stratum can be recovered if the fundamental matrix F is known.The affine stratum can be recovered from the projective one plus the infinity plane in the projective frame Πp ∞,or alternatively,from the infinity homography ¯H ∞plus the epipole in one camera ˜e .The Euclidean stratum can be recovered from the affine one plus the intrinsic parameters of one camera A ,or alternatively,from the intrinsics of both cameras A,A ,the in-between rotation R ,and the up-to-scale in-between translation t .The upgrading matrices are,T a p I 0r T ∞1 ,T e a A 00T s 1 ,T e p A 0r T ∞A s 1 (22)where [r ∞,1]T in the coordinates of the infinity plane in the projective stratum.3Fundamental matrix estimationThe problem being considered in this section is the estimation of the fundamental matrix F from a sufficiently large set of point correspondences.This problem is also known as weak calibration and many linear or nonlinear algorithms have been proposed,c.f.[30,31,32,33].It is of importance since given the fundamental matrix we can obtain a projective reconstruction of the scene[34,35],which is sufficient in some applications,c.f.[36,37],and is the basic of many further calibration techniques,c.f.[38].Readers are referred to [39]for a detailed review on this problem.Let a point m =[u,v ]T in the first image to be matched to a point m =[u ,v ]T in the second image.They must satisfy the the epipolar equation (15),which can be rewritten as a linear and homogeneous equation in the 9unknown coefficients of F :u T f =0,where u =[uu ,vu ,u ,uv ,vv ,v ,u,v,1]T ,f =[F 11,F 12,F 13,F 21,F 22,F 23,F 31,F 32,F 33]T ,F ij is the element of F at row i and column j .Thus given n point matches we have the following linear system to solve:Uf =0with U =[u 1,...,u n ]T (23)subject to det (F )=0,due to the rank-2constraint of F ,and e.g. f =1,as F is defined up to a scale.Since F has only 7degrees of freedom,7point matches are required to obtain a solution.However,in this case we may obtain at most 3solutions in that the rank-2constraint generates a cubic polynomial on the element of f .Thus 8point matches are demanded to obtain a unique solution,and in practice much more (say,20or more)should be used for combating noise.If firstly ignore the rank-2constraint,we get an analytic solution of f by solvingmin f Uf 2subject to f =1(24)The solution is the unit eigenvector of matrix U T U associated to the smallest eigenvalue.Then we can impose the rank-2constraint a posteriori,by replacing the solved F by the matrix ˆF which minimizes the Frobenius norm of F −ˆF subject to the constraint det (ˆF )=puting ˆF is quite efficient by using SVD F =USV T :ˆF=U ˆSV T ,where ˆS is obtained by replacing the least singular value in S to be zero.Faugeras[38]also proposed a linear algorithm that imposes the rank-2constraint during the minimization but still yields an analytic solution.The produced results are comparable to that of the above two-step method.Note that such methods that algebraically rearrange and so that analytically solve a linear system are called Direct Linear Transform methods (DLT),which will be used very often in the following sections.These methods are simple and efficient,however,they can not obtain a maximum likelihood estimation because the rearranged linear equations (23)are not corrupted by zero-mean independently distributed noises with identical variance,even under the assumption of independently identically distributed (i.i.d.)noises on point measures.Thus the results of DLT are biased and inaccurate for noisy data.Moreover,such algorithms are often numerical instable due to the intensive numerical manipulations.Hartley[40]has pointed out that normalizing the input data (to improve the numerical conditioning of matrix U T U )prior to minimization will significantly improve the algorithms’stability.The basic idea of such normalization is to transform the points in each image so that their centroid is at the origin,and the two principal moments at axis u,v areboth unit.Let ˜m i be the i th of n points in an image,by Cholesky factorization we get i ˜m i ˜m T i =nLL T ,where L is a 3×3triangular matrix.Thus we have i L−1˜m i ˜m T i L −T =nI .It follows that L −1˜m i is the desired normalization transformation.While the above linear approaches give acceptable results if normalization is performed,practice has shown that more precise results with noisy data are obtained by certain nonlinear algorithms that minimize physically meaningful object functions,e.g.sum of distances between points and their corre-sponding epipolar lines,min F i(d 2(˜m i ,F ˜m i )+d 2(˜m i ,F T ˜m i ))(25)where d (˜m ,F ˜m )denotes the distance from point ˜m to line F ˜m .Standard nonlinear optimization techniques,such as Levenberg-Marquardt method[41],can be used to find the solution.Such nonlinear procedures demand an initial estimate of F ,which can be obtained from the above DLT methods.The above nonlinear least-squares methods obtain accurate results in case of i.i.d.noises on point measures.In practice,however,the given point matches often contain some outliers due to bad point locations or false matches.To tolerate such outliers robust estimate methods can be used [42,43].Among the most popular robust methods are the M-estimator,the least-median-of-squares (LMedS)method,and the random sample consensus (RANSAC)method.The M-estimator tries to reduce the impacts of outliers by replacing the squared residuals used in least-squares method by another function of the residuals,yielding,min i ρ(r i ),where ρis a robust function chosen to be less increasing than square.The LMedS method estimates the parameters by solving the nonlinear minimization problem:min median i (r 2i ).That is,the estimator yields the smallest value for the median,instead of the mean asin least-squares estimator,of squared residuals computed for the entire data set.This method is rather robust to outliers.However,the minimization is difficult and must be solved by a (random)search in the full solution space.RANSAC[44]tries to find,through random sampling of a minimal subset of the data,the parameter set which is consistent with a largest subset of data.It is very similar to LMedS except that RANSAC needs a threshold for consistent checking.It can deal with the case where the percentage of outliers is higher than 50%,while LMedS can not.If all the observed points are in some degenerate configurations,the fundamental matrices estimation may not have a unique solution,even with an arbitrarily large number of point correspondences.It has been shown [45]that this happens when all space points lie on a space quadric surface passing through the two optical centers,called critical surface .In this case the maximum number of ambiguous solutions is 3.A more special case is that all points lie on a single space plane,where infinite number of solutions will be produced.4Photogrammetric calibrationPhotogrammetric calibration are quite mature[20,46,47].It makes use of a calibration object whose geometry in 3D space is precisely known.The obtained results are usually accurate,relying on the precision of the calibration object and extracted features.Such method however requires expensive and elaborate laboratory setups.There are at least three types of calibration objects:(i)a plane pattern undergoing a precisely known motion (usually translation perpendicular to the plane).Such precise motion requires some special devices.(ii)an object consisting of two or three planes exactly orthogonal to each other.This is suitable for close-range applications that requires a small calibration object,whereas a large one for long range conditions is difficult to manufacture.(iii)a 3D test field with precisely measured markers.The measurement is done with for example theodolites,thus achieving high accuracy though time consuming.This is the best method regarding calibration accuracy for both close and long range applications.。
摄像机标定方法综述
摄像机标定方法综述摘要:首先根据不同的分类方法对对摄像机标定方法进行分类,并对传统摄像机标定方法、摄像机自标定方法等各种方法进行了优缺点对比,最后就如何提高摄像机标定精度提出几种可行性方法。
关键字:摄像机标定,传统标定法,自标定法,主动视觉引言计算机视觉的研究目标是使计算机能通过二维图像认知三维环境,并从中获取需要的信息用于重建和识别物体。
摄像机便是3D 空间和2D 图像之间的一种映射,其中两空间之间的相互关系是由摄像机的几何模型决定的,即通常所称的摄像机参数,是表征摄像机映射的具体性质的矩阵。
求解这些参数的过程被称为摄像机标定[1]。
近20 多年,摄像机标定已成为计算机视觉领域的研究热点之一,目前已广泛应用于三维测量、三维物体重建、机器导航、视觉监控、物体识别、工业检测、生物医学等诸多领域。
从定义上看,摄像机标定实质上是确定摄像机内外参数的一个过程,其中内部参数的标定是指确定摄像机固有的、与位置参数无关的内部几何与光学参数,包括图像中心坐标、焦距、比例因子和镜头畸变等;而外部参数的标定是指确定摄像机坐标系相对于某一世界坐标系的三维位置和方向关系,可用3 ×3 的旋转矩阵R 和一个平移向量t 来表示。
摄像机标定起源于早前摄影测量中的镜头校正,对镜头校正的研究在十九世纪就已出现,二战后镜头校正成为研究的热点问题,一是因为二战中使用大量飞机,在作战考察中要进行大量的地图测绘和航空摄影,二是为满足三维测量需要立体测绘仪器开始出现,为了保证测量结果的精度足够高,就必须首先对校正相机镜头。
在这期间,一些镜头像差的表达式陆续提出并被普遍认同和采用,建立起了较多的镜头像差模型,D.C.Brown等对此作出了较大贡献,包括推导了近焦距情况下给定位置处径向畸变的表达式及证明了近焦距情况下测得镜头两个位置处的径向畸变情况就可求得任意位置的径向畸变等[2]。
这些径向与切向像差表达式正是后来各种摄像机标定非线性模型的基础。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
摄像机标定方法综述摘要:首先根据不同的分类方法对对摄像机标定方法进行分类,并对传统摄像机标定方法、摄像机自标定方法等各种方法进行了优缺点对比,最后就如何提高摄像机标定精度提出几种可行性方法。
关键字:摄像机标定,传统标定法,自标定法,主动视觉引言计算机视觉的研究目标是使计算机能通过二维图像认知三维环境,并从中获取需要的信息用于重建和识别物体。
摄像机便是3D 空间和2D 图像之间的一种映射,其中两空间之间的相互关系是由摄像机的几何模型决定的,即通常所称的摄像机参数,是表征摄像机映射的具体性质的矩阵。
求解这些参数的过程被称为摄像机标定[1]。
近20 多年,摄像机标定已成为计算机视觉领域的研究热点之一,目前已广泛应用于三维测量、三维物体重建、机器导航、视觉监控、物体识别、工业检测、生物医学等诸多领域。
从定义上看,摄像机标定实质上是确定摄像机内外参数的一个过程,其中内部参数的标定是指确定摄像机固有的、与位置参数无关的内部几何与光学参数,包括图像中心坐标、焦距、比例因子和镜头畸变等;而外部参数的标定是指确定摄像机坐标系相对于某一世界坐标系的三维位置和方向关系,可用3 ×3 的旋转矩阵R 和一个平移向量t 来表示。
摄像机标定起源于早前摄影测量中的镜头校正,对镜头校正的研究在十九世纪就已出现,二战后镜头校正成为研究的热点问题,一是因为二战中使用大量飞机,在作战考察中要进行大量的地图测绘和航空摄影,二是为满足三维测量需要立体测绘仪器开始出现,为了保证测量结果的精度足够高,就必须首先对校正相机镜头。
在这期间,一些镜头像差的表达式陆续提出并被普遍认同和采用,建立起了较多的镜头像差模型,D.C.Brown等对此作出了较大贡献,包括推导了近焦距情况下给定位置处径向畸变的表达式及证明了近焦距情况下测得镜头两个位置处的径向畸变情况就可求得任意位置的径向畸变等[2]。
这些径向与切向像差表达式正是后来各种摄像机标定非线性模型的基础。
随着CCD器件的发展,现有的数码摄像机逐渐代替原有的照相机,同时随着像素等数字化概念的出现,在实际应用中,在参数表达式上采用这样的相对量单位会显得更加方便,摄像机标定一词也就代替了最初的镜头校正。
1、摄像机标定分类1.1 根据是否需要标定物进行分类根据是否需要标定物可分为传统摄像机标定方法、摄像机自标定方法以及基于主动视觉的标定方法[3,4],这也是目前最被广为接受的分类方法。
1. 1. 1 传统摄像机标定方法传统标定方法需要基于特定的实验条件,如一个形状、尺寸己知的标定物,通过对其图像进行处理,再经过一系列的计算和数学变换,求取摄像机模型的内、外部参数。
传统摄像机标定还可分为四类:( 1) 利用最优化算法的定标方法[5]这一类摄像机定标方法可以将摄像机的光学成像系统的模型假设的很复杂,但这也带来了问题:如果初始值给的不恰当,通过优化程序很难得到正确的定标结果,因为摄像机的定标结果取决于摄像机的初始给定值;优化程序非常费时,无法实时地获得定标结果。
根据参数模型,最优化法又可分为:a、摄影测量学中的传统方法,Faig 在文献[6]中提出的方法最具代表性,利用针孔摄像机模型的共面约束条件,假设成像模型非常复杂,并合理细致的设计成像模型,考虑成像过程中的各种可能因素,采用至少十七个参数来描述每幅图像与3D 空间物体的约束关系,但计算的量比较庞大;b、直接线性变换( Direct Linear Transformation,DLT) 法,此方法由Abdel- Aziz 和Karara于1971年首次提出。
只需通过求解线性方程便求得摄像机模型参数,这是DLT 的优势所在。
Dainis 和Juberts 在文献[7] 给出了利用DLT 进行标定的结果。
因在成像过程中DLT 方法没有考虑非线性畸变问题,故其通过非线性最优化算法来提高精度。
因此DLT 虽然是通过解线性方程求得参数,但求解的过程不排除使用非线性优化算法,可以说它是对摄像测量学中的传统方法的一种简化[8]。
( 2) 利用摄像机透视变换矩阵的定标方法[9]从摄影测量学中的传统方法可以看出,刻划三维空间坐标系与二维图像坐标系关系的方程一般说来是摄像机内部参数和外部参数的非线性方程。
如果忽略摄像机镜头的非线性畸变并且把透视变换矩阵中的元素作为未知数,给定一组三维控制点和对应的图像点,就可以利用线性方法求解透视变换矩阵中的各个元素。
严格来说,基于摄像机针孔模型的透视变换矩阵方法与直接线性变换方法没有本质的区别。
这一类定标方法不需通过最优化方法来求解摄像机参数,故可大大提高运算速度,能够实时地获得定标结果,但是同样存在缺点:定标过程中忽略了非线性畸变,从而影响定标的精度。
( 3) 考虑畸变补偿的两步法[10]摄影测量学中的传统方法是利用最优化算法求解未知数,其结果往往受给定初始值的影响,如果给定的初始值不恰当或不合适,就很难得到较为正确的结果。
直接线性变换法或透视变换矩阵法忽略非线性畸变而直接用线性方法求未知参数,根据以上两种算法的特点,我们是否可以考虑先用直接线性变换法或透视变换矩阵法求解未知参数,并将其作为初始值,同时考虑畸变因素,再利用最优化算法进一步提高定标精度,这就是两步法。
目前最常用的两步定标法是Tsai[11]在他的论文中提出的一种非常实用的两步定标法,。
此方法先用径向准直约束求解模型中的大部分参数,然后再用非线性搜索求解畸变系数、有效焦距等。
但是以上摄像机定标方法也是存在问题:a、此方法还是具有一定的局限性,并不是对所有的系统都有效;b、为了提高标定精度,在提出摄像机模型时就要更多的考虑畸变产生的影响,而这导致计算量的增加,计算时间的延长;c、当对两台摄像机标定后,还必须确定两摄像机之间的相对几何位置关系,这也无形中增加了需要计算的参数。
( 4) 采用更为合理的摄像机成像模型的双平面标定方法[12]。
研究人员从另一方面对传统摄像机定标方法进行了深入的探索,他们在寻找更合理的摄像机模型,使之能全面而有效地体现整个成像过程。
Martin[13]首先提出了双平面模型,列出了3种插值方法:线性插值、二次插值和线性样条插值。
在此基础上,Ma[14]运用双平面模型对摄像机定标作了大量的研究工作。
双平面模型摄像机与针孔模型摄像机的区别在于:双平面模型摄像机不必要求投影到成像平面上的光线通过光心,给定成像平面上任意一个图像点,就能计算出两定标平面上各自的对应点,因此可确定投影到成像平面上产生该图像点的光线。
对每一个定标平面而言,可用一组定标点建立彼此独立的插值公式,尽管插值公式是可逆的,但这个可逆过程需要一个搜索算法,因此所建立的模型只能用于从图像到定标平面的映射过程。
双平面定标方法的优点是使用线性方法求解有关参数,但其缺点是它必须解大量的参数,有过分参数化的倾向。
1.1.2摄像机自标定方法20 世纪90 年代初,Faugeras ,Luong ,Maybank 等[15,16]首先提出了自标定概念,使得在场景未知和摄像机任意运动的一般情形下标定成为可能。
Faugeras 等[15]从射影几何的角度出发证明了每两幅图像间存在着两个形如Kruppa 方程的二次非线性约束,通过直接求解Kruppa方程组可以解出内参数。
目前自标定方法可以分为三类,即直接求解Kruppa方程的自标定、分层逐步标定和基于绝对二次曲面的自标定。
(1)直接求解Kruppa方程的自标定该方法利用绝对二次曲线和极线变换的概念推导出了Kruppa方程。
围绕着求解Kruppa 方程,文献中存在着不同的途径。
Faugeras ,Maybank 等最早提出的算法完全基于代数几何的概念,该算法对噪声极其敏感,普通计算机的浮点运算已不足以满足其要求。
Luong[17]提出了一套基于连续同伦算法[18]的较实用的求解策略,降低了对噪声的敏感度,但该策略要求拐点的提取精度达到子像素级(0.2个像素) 。
这两种直接求解Kruppa方程的方法存在着共同的弊端:求解困难,而且是针对两两图像之间列方程,当图像数目增加时,可能解的个数呈指数增长,使得直接求解失去意义。
另一类求解Kruppa 方程的途径是间接的非线性优化算法,Zeller 等[19]利用Kruppa方程计算出多幅图像上的所有点到对应极线距离之和,再利用Levenberg2Marquardt 优化算法[20]减小该距离,并求出相应的内参数。
上述优化算法的缺点在于,待优化参数过多,且容易陷入局部最优值。
(2)分层逐步标定由于求解Kruppa方程有一定的困难,有学者通过对图像序列做射影重建,并利用绝对二次曲线(面) 添加约束条件进行摄像机参数的求解,这就是分层逐步标定方法。
该方法在实际应用中逐渐取代了直接求解Kruppa方程的方法。
分层逐步标定法首先要求对图像序列做射影重建,再通过绝对二次曲线(面) 施加约束,定出仿射参数(即无穷远平面方程)和摄像机内参数。
其中最具代表性的方法是由Hartley[21]提出的一种对摄像机投影矩阵进行QR 分解的自标定方法。
该方法是在射影标定的基础上,以某一幅图像为基准做射影对齐,从而将未知数缩减8个(无穷远平面参数3个和摄像机内参数5个,不包括总体常数因子),再通过非线性优化算法同时解出所有未知数。
缺点在于: a、非线性优化算法的初值只能通过预估得到,不能保证收敛性;b、射影重建时均是以某参考图像为基准,参考图像的选取不同,标定的结果也不同,这不满足一般情形下噪声均匀分布的假设。
(3)基于绝对二次曲面的自标定绝对二次曲面最早由Triggs[22]引入自标定研究中,虽然其本质同Kruppa 方程一样运用了绝对二次曲线在欧式变换下的不变性,但当多幅图像输入并且能得到一致射影重建的情况下,该方法将更具优势。
其根源在于绝对二次曲线(面)包含了无穷远平面和绝对二次曲线的所有信息,且基于绝对二次曲线(面)的自标定方法又是在对所有图像做射影重建的基础上计算绝对二次曲线(面)的,从而保证了无穷远平面对所有图像的一致性。
与此相比,基于Kruppa方程的方法是在两两图像之间建立方程,在列方程过程中已将支持绝对二次曲线的无穷远平面参数消去,所以当输入更多的图像对时,不能保证该无穷远平面的一致性。
1.1.3基于主动视觉的标定方法基于主动视觉的方法是将摄像机精确安装于可控平台,主动控制平台作特殊运动来获得多幅图像,利用图像和摄像机运动参数来确定摄像机内外参数,鲁棒性比较强而且通常可线性求解。
但当摄像机运动未知或者运动无法控制的场合不能使用该方法,且该方法所需运动平台精度较高,成本也较高。
此方法最经典的是马颂德教授提出的基于两组三正交运动的线性法[14],后李华、杨长江等提出了基于四组和五组平面正交运动的方法,利用图像中的极点信息线性标定[23]。