Kinect2.0
基于Kinect的点云配准方法
基于Kinect 的点云配准方法①李若白1,2, 陈金广1,21(西安工程大学 计算机科学学院, 西安 710048)2(柯桥区西纺纺织产业创新研究院, 绍兴 312030)通讯作者: 陈金广摘 要: Kinect 采集的点云存在点云数量大、点云位置有误差, 直接使用迭代最近点(ICP)算法对点云进行配准时效率低. 针对该问题, 提出一种基于特征点法向量夹角的改进点云配准算法. 首先使用体素栅格对Kinect 采集的原始点云进行下采样, 精简点云数量, 并使用滤波器移除离群点. 然后使用SIFT 算法提取目标点云与待配准点云公共部分的特征点, 通过计算特征点法向量之间的夹角调整点云位姿, 完成点云的初始配准. 最后使用ICP 算法完成点云的精细配准. 实验结果表明, 该算法与传统ICP 算法相比, 在保证点云配准精度的同时, 能够提高点云的配准效率, 具有较高的适用性和鲁棒性.关键词: Kinect; 点云配准; 法向量夹角; 点云滤波; ICP 算法引用格式: 李若白,陈金广.基于Kinect 的点云配准方法.计算机系统应用,2021,30(3):158–163. /1003-3254/7733.htmlPoint Cloud Registration Method Based on KinectLI Ruo-Bai 1,2, CHEN Jin-Guang 1,21(School of Computer Science, Xi’an Polytechnic University, Xi’an 710048, China)2(Shaoxing Keqiao West-Tex Textile Industry Innovative Institute, Shaoxing 312030, China)Abstract : The point clouds collected by Kinect have a large quantity and position errors, and it is inefficient to directly apply the Iterative Closest Point (ICP) algorithm to point cloud registration. To solve this problem, we propose an improved point cloud registration algorithm based on the angle between the normal vectors of feature points. First, the voxel grids are used to down sample the original point clouds collected by Kinect and reduce the number of point clouds and a filter is applied to remove the outliers. Then, the Scale Invariant Feature Transform (SIFT) algorithm is employed to extract the common feature points between the target point clouds and the point clouds to be registered, and the angle between the normal vectors of feature points is calculated to adjust the point cloud pose. Thus, the initial registration of the point clouds is completed. Finally, the ICP algorithm is applied to complete the fine registration of the point clouds.The experimental results show that compared with the traditional ICP algorithm, the proposed algorithm, while ensuring the registration accuracy, can improve the registration efficiency of point clouds and has high applicability and robustness.Key words : Kinect; point cloud registration; method vector angle; point cloud filtering; ICP algorithm1 引言利用点云数据对现实物体进行三维重建是计算机视觉领域的重要技术, 已广泛应用于各行各业. Kinect [1]作为一款具有点云采集功能的设备, 在文物数字化[2]、虚拟现实[3]、三维人体重建与测量[4]、逆向工程[5]等诸多领域都有应用. 通过Kinect 对现实物体的表面进计算机系统应用 ISSN 1003-3254, CODEN CSAOBNE-mail: Computer Systems & Applications,2021,30(3):158−163 [doi: 10.15888/ki.csa.007733] ©中国科学院软件研究所版权所有.Tel: +86-10-62661041① 基金项目: 柯桥纺织产业创新研究院产学研协同创新项目(19KQYB24)Foundation item: Industry-University-Research Cooperation Innovation Project of Keqiao Textile Industry Innovation Research Institute (19KQYB24)收稿时间: 2020-05-22; 修改时间: 2020-06-16; 采用时间: 2020-06-28; csa 在线出版时间: 2021-03-03158行多角度扫描, 得到其点云数据, 利用点云配准技术将不同角度的点云数据合并到统一的三维坐标系下, 形成一个完整的点云数据集, 从而可以得到该物体的三维数字模型.点云配准是三维重建过程中的关键技术, 目前常用的配准算法是Besl等于1992年提出的迭代最近点(Iterative Closest Points, ICP)算法[6], 该算法精度高、容易实现, 但对目标点云和待配准点云的初始位置要求较高, 并且在点云数量较大时, 配准过程会消耗大量时间. 为此, 国内外研究人员在此算法的基础上进行了改进, 提出了PICP (Probability ICP)[7]、MICP (Modified ICP)[8]和CICP (Cluster ICP)[9]等配准算法,这些算法虽然克服了ICP算法的局限性, 但是算法的普适性有所降低, 并且对Kinect实时采集的点云进行配准时具有较低的鲁棒性. Chen等[10]和Zhao等[11]提出了尺度迭代最近点 (Scaling Iterative Closest Point, SICP) 算法, 但在点云数量较大的情况下配准效率较低, 同样不适合直接用来对Kinect采集的原始点云进行配准.针对上述问题, 本文提出一种基于特征点法向量夹角的改进点云配准算法. 该算法在点云配准之前对Kinect采集得到的原始点云数据进行下采样和滤波处理, 在保持点云的形态特征和空间信息不变的情况下,精简点云数量. 在点云初始配准阶段, 通过计算特征点法向量之间的夹角来调整待配准点云的位姿, 使目标点云和待配准点云在空间的位姿保持一致.最后在点云精细配准阶段, 使用迭代最近点配准算法完成两片点云的配准.2 点云数据的获取与处理2.1 使用Kinect获取点云数据Kinect是微软公司开发的一款获取3D体感信息的设备, 它由多阵列麦克风、RGB彩色摄像头、红外摄像头和红外发射器组成, 可应用于体感游戏、三维重建、虚拟试衣、文物保护等领域. Kinect 1.0获取深度图像是基于Light Coding[12]技术, 该技术是将红外线光均匀分布投射在被测物体和空间中, 通过红外摄像头记录空间和物体上的每个散斑, 在得到原始数据后, 使用设备中的PS1080芯片计算出具有深度信息的图像. Kinect 2.0则是基于Time Of Flight (TOF)技术获取深度图像, TOF技术是通过向目标发射连续的特定波长的红外光线脉冲, 经过传感器接收待测物体传回的光信号, 计算光线往返的飞行时间或相位差得到待测物体的3D深度信息. 相比于Kinect 1.0, 采用了TOF 技术的Kinect 2.0获取深度图像的精度更高, 被外界光影响的概率更低, 针对环境光具有更强的抗干扰性, 因此本文选用Kinect 2.0采集点云数据.为获取物体的点云数据, 通常需要先获取物体的深度图像, 然后将深度图像的二维图像信息根据式(1)和式(2)转换成三维点云数据.u0v0式中, f x、f y、、为Kinect的内参, 可通过相机标定求出; (u, v)为深度图像中的点; z c为物体到相机的距离; x w、y w、z w为世界坐标系中的坐标点, 即点云坐标; R、T分别为3×3的旋转矩阵和3×1的平移矩阵, 且[R T]=[I 1].2.2 点云的滤波处理使用Kinect获取的点云数量和设备的相机分辨率有关, 尤其是Kinect 2.0, 获取的每一帧深度图像中包含的点云数量通常在21万左右. 而且在采集点云的过程中, 由于Kinect的精度、使用者的经验和环境因素等带来的影响, 点云数据中会不可避免的出现噪声点,这将对点云配准的精度和效率带来直接影响, 因此在点云配准前需要对Kinect采集的原始点云数据进行下采样和滤波处理.2.2.1 点云下采样由于Kinect获取的每一帧图像中包含的点云数量巨大, 如果直接使用原始点云数据进行配准, 会降低点云的配准效率, 因此在点云配准前需对原始点云进行下采样处理, 精简点云数量. 此处使用体素化网格法[13]实现点云下采样, 其步骤为:(1)为原始点云创建三维体素栅格, 体素大小由原始点云数量决定;(2) 计算三维体素栅格的重心点, 并用距离重心点最近的点代替体素栅格内的其他点, 删除剩余点;2021 年 第 30 卷 第 3 期计算机系统应用159(3) 遍历原始点云中所有点并重复执行步骤(1)和步骤(2), 得到下采样处理后的点云.2.2.2 移除离群点通常在使用Kinect 采集点云数据时, 因为设备和测量误差会产生稀疏的离群点, 如果不将离群点移除,则会影响点云配准的精度. 此处通过计算一个点的邻域范围内K 近邻的邻域平均距离来移除离群点, 其步骤如下:(1) 使用kd-tree 算法[14]对点云数据集进行搜索,寻找数据集中每个目标点的邻域范围内K 个点作为临近点;τ(τ>0)n >τ×m (2) 计算目标点与临近点的平均值n 和标准差m ,并设定一个阈值 , 若, 则该点为离群点, 并将其从点云数据集中移除.3 改进的点云配准算法ICP 算法虽然具有比较高的配准精度, 但该算法对目标点云和待配准点云的初始位姿要求较高, 并且需要对两片点云公共部分的特征点进行逐一匹配, 这将增大点云配准的耗时. 因此, 对点云配准算法进行改进:在点云初始配准阶段, 通过计算两片点云对应的特征点法向量之间的夹角来调整待配准点云的初始位姿,在此基础上使用ICP 算法完成点云的精细配准.3.1 点云初始配准3.1.1 特征点的提取与匹配特征点是点云数据集中具有稳定性、区别性和代表性的点集, 其数量相比于原始点云的数量少很多, 在点云配准、曲面重建和三维人体测量研究中具有重要作用. 特征点提取算法比较多, 如NARF(Normal Aligned Radial Feature)算法[15]、快速点特征直方图(Fast Point Feature Histograms, FPFH)算法[16]、尺度不变特征变换(Scale-Invariant Feature Transform, SIFT)算法[17]、Harris 算法[18]等. SIFT 算法针对点云的平移、旋转、缩放等具有尺度不变性[19], 对Kinect 采集的点云适用性高, 因此本文使用SIFT 算法提取点云特征点.SIFT 算法的原理可理解为: 对每个相邻尺度之间的图像进行相减, 得到差分高斯金字塔图像, 然后对其进行泰勒展开, 从而定位出特征点的精确位置.一个尺度可变高斯函数G (x , y , σ)与原图像I (x ,y )进行卷积运算, 得到该图像在不同尺度下的尺度空间L (x , y , σ), 即:式中, σ 为尺度空间因子, (x , y )为图像的像素坐标.相邻尺度图像之间相减可以得到高斯差分算子D (x , y , σ), 用来对尺度图像中的极值点进行检测:式中, k 为表示不同尺度图像的一个常量. 尺度图像中的极值点组成了特征点,通过拟合三维曲面可以确定特征点的坐标和尺度, 同时去除不稳定、对比度低的特征点. 利用差分高斯 (DoG) 函数对空间尺度进行泰勒展开, 以筛选特征点, 展开式如下:X =(x ,y ,σ)T 式中, , 对式(6)进行求导, 并令其等于0,就可以得到特征点的精确坐标:将式(7)带入式(6), 化简可得:X =(x ,y ,σ)T D ˆX ≥ψψ若极值点满足, 则将该点保存为特征点, 其中为极值点偏移量的阈值.使用SIFT 算法将目标点云和待配准点云公共重叠部分的特征点提取之后, 需要对两片点云的特征点进行匹配, 此处通过计算特征点的最近欧氏距离来确定对应的特征点集. 设目标点云的特征点集为P f ={p 1,p 2, …, p i }, 待配准点云的特征点集为Q f ={q 1, q 2, …,q j }, 针对特征点集P f 中一点p i , 使用快速最近邻搜索(FLANN)算法[20]查找特征点集Q f 中与该点欧式距离最近的一点q j , 得到两片点云对应的特征点对(p i , q j ).3.1.2 基于特征点法向量夹角调整点云位姿由于使用ICP 算法进行点云配准时对目标点云P 和待配准点云Q 的初始位姿有较高要求, 因此在点云初始配准阶段通过计算两片点云的特征点法向量之间的夹角来调整待配准点云的位姿, 算法流程如下:n pi n q j (1) 根据两片点云对应的特征点对计算其法向量和;计算机系统应用2021 年 第 30 卷 第 3 期160(2) 计算对应法向量之间夹角的余弦值, 并与预设的阈值λ进行比较, 计算式如下:(3) 如果式(9)不成立, 则通过反余弦函数计算法向量之间夹角的角度θ, 根据该角度估计待配准点云的刚体变换矩阵, 调整待配准点云的位姿, 重复步骤(2)和步骤(3), 直到式(9)成立.3.2 点云精细配准经过点云的初始配准, 目标点云和待配准点云已经得到了比较理想的位姿状态, 在此基础上使用ICP 算法完成两片点云的精细配准. ICP 算法是通过目标点云和待配准点云之间的几何关系来计算相应的变换参数, 从而确定对应的旋转矩阵和平移矩阵并应用于待配准点云, 得到变换位置后新的待配准点云, 不断重复上述过程, 直到满足所需的收敛条件, 即满足目标函数最小[21]时, 便可完成点云的精细配准.目标函数如下式:P 0i Q 0i 式中, 、分别为初始配准获得的目标点云和待配准点云, R 、T 分别为旋转矩阵和平移矩阵.4 实验结果与分析为验证上述算法在点云配准中的有效性和可行性,使用Stanford Bunny 点云模型和Kinect 采集的点云数据模型分别进行3次实验, 并与传统的ICP 算法进行比较. 实验在Intel core i5-4210U CPU @ 1.70 GHz~2.40 GHz 、8 GB RAM 、Windows 10 64位专业版操作系统、Visual Studio 2019开发平台、PCL 1.8.1版本、Kinect for Windows SDK V2.0环境下进行, C++作为编程语言. 图1为实验2和实验3的算法流程图.实验1使用经典的Stanford Bunny 点云模型作为素材, 以验证本文算法的可行性, 实验结果如图2所示.实验使用不同角度下的点云模型进行配准, 目标点云和待配准点云分别如图2(a)、图2(b)所示. 使用传统ICP 算法和使用本文算法对两片点云进行配准, 实验结果如图2(c)、图2(d)所示. 由图2(c)可知, 直接使用ICP 算法对Stanford Bunny 点云模型进行配准后, 两片点云出现了错位, 没有完全拼接在一起. 使用改进后的算法对点云模型进行配准后的效果较好, 由图2(d)可以看出, 两片点云重合效果和配准后的姿态均好于图2(c).图1 算法流程图(a) 目标点云 (b) 待配准点云(c) 传统 ICP 算法(d) 本文算法图2 Stanford Bunny 点云模型配准实验2使用Kinect 采集人体上半身的点云数据作为实验素材, 以验证本文算法针对Kinect 采集的点云数据进行配准时的有效性, 实验结果如图3所示. 其中2021 年 第 30 卷 第 3 期计算机系统应用161目标点云是被测人体位于Kinect 正前方采集得到, 如图3(a), 待配准点云是将Kinect 旋转15°采集得到的,如图3(b). 图3(c)、图3(d)是分别使用传统ICP 算法和本文算法得到的实验结果, 从实验结果可以看到, 使用传统ICP 算法配准后的效果明显较差, 特别是胳膊,没有完全重合, 使用本文算法的配准效果有了明显改善, 两片点云完全重合.(a) 目标点云 (b) 待配准点云(c) 传统 ICP算法(d) 本文算法图3 Kinect 采集的人体模型配准实验3通过对室内复杂场景的点云模型进行配准以验证本文算法的普适性. 使用Kinect 对室内复杂场景的点云数据进行不同角度的采集作为目标点云和待配准点云, 如图4(a)、图4(b)所示. 图4(c)、图4(d)分别为使用传统ICP 算法和使用本文算法进行点云配准的结果, 由实验结果可知, 本文算法在点云配准效果上好于传统ICP 算法, 如图4(d), 室内的场景均完全重合.但使用传统ICP 算法配准后效果较差, 如图4(c), 两片点云出现错位, 配准精度较低.考虑到Kinect 采集的点云数据中包含有大量噪声点, 会影响点云配准的精度, 所以本文在配准前对点云进行了噪声滤波处理. 为提高点云配准的效率, 本文在保证点云数据中所包含的形状特征与空间结构信息不变的情况下, 使用体积为1 cm 3的体素栅格对采集的点云数据进行下采样, 精简点云数量. 在点云初始配准阶段, 本文通过计算特征点法向量间的夹角来调整待配准点云的初始位姿, 提高其初始位姿精度, 从而可以减少传统 ICP 算法中目标点云与待配准点云对应旋转矩阵的计算量, 以此来减少点云配准算法的迭代次数, 同时能够降低算法的运算复杂度, 减少配准时间.(a)目标点云 (b)待配准点云(c)传统 ICP算法(d) 本文算法图4 Kinect 采集的室内场景模型配准将点云配准用时和均方误差作为点云配准效果的评价标准, 如表1所示, 本文算法在点云配准中的耗时相较于传统ICP 算法明显减少, 均方误差也优于传统ICP 算法. 比如对复杂场景进行配准时, 本文算法比传统ICP 算法用时减少了18.205 s, 配准效率提高了约29%, 均方误差降低了0.177, 配准精度提高了约19%.由此可见本文算法在一定程度上能够减少配准用时,提高点云配准精度.表1 两种配准算法性能比较点云名称原始点云数量传统ICP 算法本文算法配准用时(s)均方误差(mm)点云数量配准用时(s)均方误差(mm)Bunny 35 94732.0760.32815 8059.5940.212三维人体49 64039.1520.38613 0887.7340.177复杂场景94 98062.6810.91662 55644.4760.7395 结语为解决Kinect 采集的点云数据配准效率低的问题, 提出了一种基于特征点法向量夹角的改进点云配准算法, 该算法通过精简点云数量和计算特征点法向量间的夹角来调整点云初始位姿, 以减少配准算法的迭代次数, 从而达到提高点云配准效率的目的. 实验结计算机系统应用2021 年 第 30 卷 第 3 期162果表明, 本文提出的算法在保证Kinect采集的物体点云形状特征不变的情况下, 能够减少点云数量, 提高点云配准精度和效率. 但本文算法在对不同维度的多视角点云进行配准时, 使用SIFT算法对特征点进行提取与匹配时会出现一定的误差, 并耗费较多时间, 使点云配准的精度和效率均有所降低, 因此这也是该算法以后优化的方向, 并在此基础上融合多视角点云配准数据, 优化配准结果, 完成物体三维模型的重建.参考文献吴剑锋, 蒋濛婷, 马梦鑫, 等. 基于点云融合算法的Kinect 三维重建技术及其应用研究. 计算机应用与软件, 2018, 35(8): 260–264. [doi: 10.3969/j.issn.1000-386x.2018.08.047] 1舒欢. 三维重建和3D打印在兵马俑修复中的应用. 电子科学技术, 2017, 4(4): 160–163. [doi: 10.16453/j.issn.2095-8595.2017.04.036]2陆剑锋, 王正平, 金红军. 三维激光扫描与虚拟现实技术在城市景观中的应用. 激光杂志, 2019, 40(7): 174–178. [doi:10.14016/ki.jgzz.2019.07.174]3Xie HY, Zhong YQ. Structure-consistent customized virtual mannequin reconstruction from 3D scans based on optimization. Textile Research Journal, 2020, 90(7–8): 937–950. [doi: 10.1177/0040517519883957]4张德海, 李艳芹, 谢贵重, 等. 三维光学扫描技术逆向工程应用研究. 应用光学, 2015, 36(4): 519–525. [doi: 10.5768/ JAO201536.0401005]5Besl PJ, Mckay ND. A method for registration of 3-D shapes.IEEE Transactions on Pattern Analysis and Machine Intelligence, 1992, 14(2): 239–256. [doi: 10.1109/34.121791] 6Du SY, Liu J, Zhang CJ, et al. Probability iterative closest point algorithm for m-D point set registration with noise.Neurocomputing, 2015, 157: 187–198. [doi: 10.1016/j.neucom.2015.01.019]7Marani R, Renò V, Nitti M, et al. A modified iterative closest point algorithm for 3D point cloud registration. Computer-Aided Civil and Infrastructure Engineering, 2016, 31(7): 515–534. [doi: 10.1111/mice.12184]8Tazir ML, Gokhool T, Checchin P, et al. CICP: Cluster iterative closest point for sparse-dense point cloud registration. Robotics and Autonomous Systems, 2018, 108: 66–86. [doi: 10.1016/j.robot.2018.07.003]9Chen ECS, McLeod AJ, Baxter JSH, et al. Registration of 103D shapes under anisotropic scaling: Anisotropic-scaled iterative closest point algorithm. International Journal of Computer Assisted Radiology and Surgery, 2015, 10(6): 867–878. [doi: 10.1007/s11548-015-1199-9]Zhao L, Shen XK, Long X. Robust wrinkle-aware non-rigid registration for triangle meshes of hand with rich and dynamic details. Computers & Graphics, 2012, 36(5): 577–583. [doi: 10.1016/j.cag.2012.03.035]11Nitzan D, Brain AE, Duda RO. The measurement and use of registered reflectance and range data in scene analysis.Proceedings of the IEEE, 1977, 65(2): 206–220. [doi: 10.1109/ PROC.1977.10458]12王欢, 汪同庆, 李阳. 利用Kinect深度信息的三维点云配准方法研究. 计算机工程与应用, 2016, 52(12): 153–157. [doi:10.3778/j.issn.1002-8331.1407-0506]13马杰, 王旭娇, 马鹏飞, 等. 融合kd tree邻域查询的深度学习点云分类网络. 深圳大学学报(理工版), 2020, 37(1): 79–83.14Steder B, Rusu RB, Konolige K, et al. Point feature extraction on 3D range scans taking into account object boundaries. Proceedings of 2011 IEEE International Conference on Robotics and Automation. Shanghai, China.2011. 2601–2608.15Rusu RB, Blodow N, Beetz M. Fast Point Feature Histograms (FPFH) for 3D registration. Proceedings of 2009 IEEE International Conference on Robotics and Automation.Kobe, Japan. 2009. 3212–3217.16Lowe DG. Distinctive image features from Scale-Invariant keypoints. International Journal of Computer Vision, 2004, 60(2): 91–110. [doi: 10.1023/B:VISI.0000029664.99615.94] 17Sipiran I, Bustos B. A robust 3D interest points detector based on Harris operator. Proceedings of the 3rd Eurographics Conference on 3D Object Retrieval.Norrköping, Sweden. 2010. 7–14.18孙培芪, 卜俊洲, 陶庭叶, 等. 基于特征点法向量的点云配准算法. 测绘通报, 2019, (8): 48–53. [doi: 10.13474/ki.11-2246.2019.0250]19王金龙, 周志峰. 基于SIFT图像特征提取与FLANN匹配算法的研究. 计算机测量与控制, 2018, 26(2): 175–178.[doi: 10.16526/ki.11-4762/tp.2018.02.043]20杨帆, 唐伟智, 吴昊. 改进迭代最近点算法的点云自动精配准. 遥感信息, 2018, 33(2): 40–45. [doi: 10.3969/j.issn.1000-3177.2018.02.006]212021 年 第 30 卷 第 3 期计算机系统应用163。
[ToneTuneToolkit][021]KinectV2频繁重启问题解决
[ToneTuneToolkit][021]KinectV2频繁重启问题解决
前⼏⽇⽤Unity做体感游戏,Kinect开发正常,流程全⽆问题。
今天突然开始不断地重启。
我所使⽤的驱动为
KinectSDK-v2.0_1409-Setup.exe
Unity中使⽤的资源包为
Kinect v2 Examples with MS-SDK 2017.unitypackage
症状:
Kinect硬件设备⽆限重启,指⽰灯每10秒1次,不断亮灭。
打开Kinect v2 Configuration Verifier显⽰如下图,图像时有时⽆。
Kinect曾经正常连接过,
Kinect驱动正常,
Kinect连接线正常,
Kinect硬件设备⽆损坏。
USB3.0、装驱动、卸载设备什么的我觉得是基本操作,想必你在找到这篇⽂章之前应该也翻阅了不少CSDN上的教程。
解决⽅案:
打开麦克风设置,允许应⽤访问你的麦克风。
突然想起来⾃⼰⼿贱,把任务栏⾥那个碍眼的麦克风⼩图标给关掉了,也因此导致Kinect就此⽆法正常获取麦克风的访问权限,因此它才会不断的重启尝试获取。
Kinect2.0介绍
Kinect 2.0感应器介绍1、简介:第二代Kinect for Windows感应器赋予开发者更多的精准性、响应能力和直觉能力,开发人员利用这些能力在Windows桌面和Windows商店开发基于声音和手势交互的应用程序。
第二代Kinect for Windows感应器与软件开发工具包(SDK)2.0共同使用。
第二代Kinect for Windows感应器的特性包括:●1080P高清视频●更宽阔的视野●骨骼追踪的改进●新的主动式红外检测●改进的麦克风(零点平衡)●识别6人、25个骨骼点(每个人有25个骨骼关节)●拇指追踪、手指末端追踪,打开和收缩的手势识别加强功能:✓支持探测被阻挡的关节,比如被手挡住的肘部。
✓支持探测关节位置✓支持探测侧面姿势。
2、硬件要求:◆64位(x64)处理器◆i7 2.5-GHz或更快的处理器◆内置USB 3.0总线◆ 4 GB RAM◆DX11图形适配器3、OS要求:Windows8、Windows8.14、详细解读:相对于第一代Kinect for Windows,第二代Kinect for Windows感应器具备了更高的分辨率和色彩识别度,使识别更加精准,为开发者制作更精良的画面提供了良好支持。
通过更高的深度保真和大幅改进的噪声基底,第二代Kinect for Windows传感器能够打造出空前的3D视觉效果,通过以下具体解读,相信大家可以更直观地了解:(1)外观:第二代Kinect for Windows看起来与Kinect for Xbox One相同,用以区别的是Windows 版Kinect顶部写着Kinect,而Xbox版本只有一个绿色的X。
新版Kinect for Windows的连接器有三个接口,分别连接至Kinect、USB 3.0输出口、电源。
其电源(位于图片下方)支持100-240V。
(2)Kinect for Windows 2.0 主要性能改进:深度传感:通过更高的深度保真和大幅改进的噪声基底,第二代传感器打造空前的3D视觉效果,通过功能改进,能够看到清晰更小的物体以及提高骨骼追踪的稳定性。
kinect2.0的骨骼节点坐标的获取与handstate
kinect2.0的骨骼节点坐标的获取与handstatekinect2.0的骨骼追踪相比较上一代算是有了大幅度提升,最多可以同时追踪6个人身上的25个骨骼节点(图为v1和v2的对比)其实单纯的获取骨骼节点的坐标还是很简单的,我就讲一下在控制台程序中实时的输出骨骼坐标的方法吧当然只要需要调用kinect 第一步肯定是添加引用因为所声明的变量在获取骨骼的监听事件中还要调用,所以需要声明为全局静态变量,首先还是要声明个kinectsensor[csharp] view plain copyprint?1.public static KinectSensor kinect;2.public static BodyFrameReader bodyframereader;3.public static Body[] bodies = null;变量声明完,下一步就应该获取并打开传感器了[csharp] view plain copyprint?1.kinect = KinectSensor.GetDefault();2.kinect.Open();然后开始读入数据[csharp] view plain copyprint?1.bodyframereader = kinect.BodyFrameSource.OpenReader ();2.if (bodyframereader != null)3.{4.bodyframereader.FrameArrived += Bodyframereader_ FrameArrived;5.}[csharp] view plain copyprint?1.private static void Bodyframereader_FrameArrived(object sender, BodyFrameArrivedEventArgs e)2.{3.bool data = false;ing (BodyFrame bodyframe = e.FrameReference.Acquir eFrame())5.{6.if (bodyframe != null)7.{8.if (bodies == null)9.{10.bodies = new Body[bodyframe.BodyCount];11.}12.13.}14.bodyframe.GetAndRefreshBodyData(bodies);15.data = true;16.}17.if (data)18.{19.foreach (Body body in bodies)20.{21.if (body.IsTracked)22.{23.IReadOnlyDictionary<JointType, Joint> joints = body.J oints;24.CameraSpacePoint position = joints[JointType.HandRi ght].Position;25.Console.WriteLine(position.X.ToString() + "," + positio n.Y.ToString() + "," + position.Z.T oString());26.CameraSpacePoint position2 = joints[JointType.Shoul derRight].Position;27.Console.WriteLine(position2.X.ToString() + "," + positi on2.Y.ToString() + "," + position2.Z.T oString());28.Console.WriteLine();29.30.31.}32.}33.34.35.}36.}插上kinect运行就可以看到输出了在此基础上想要得到handstate也就是手势也就是几行代码了类似在[csharp] view plain copyprint?1.if (body.IsTracked)的大括号下添加[csharp] view plain copyprint?1.if (body.HandRightState == HandState.Closed)2.Console.WriteLine("close\n\n");3.if (body.HandRightState == HandState.Open)4.Console.WriteLine("open\n\n");5.if (body.HandRightState == sso)6.Console.WriteLine("lesso\n\n");t同时把上面的输出给注释掉(全选后ctrl+k+c可以快速注释,ctrl+k+u取消注释)运行后对着kinect把右手合上张开就可以看到输出了,还有那个lesso ,完全合上是close 完全张开是open 其他情况就都是lesso了附上全部handstate。
SuperMocap动作捕捉介绍.doc-EasyMocap动作捕捉
Super Mocap动作捕捉介绍经过近半年时间不分昼夜的努力,我们的动作捕捉软件EasyMocap终于迎来崭新的Kinect2.0动作捕捉,全新的名字Super Mocap K2超级动作捕捉!本来年初收到微软的开发者预览版Kinect2.0,改动下支持新硬件就已经可以发布,不过单纯的硬件升级我们觉得没意义,我们始终一丝不苟地对待每个细节,要做就做到最好!亮点1:两种过滤干扰技术Kinect2.0的深度图像是Kinect1.0的2倍以上,色彩图更是达到3倍以上,分辨率是全高清1920x1080,我们必须充分利用硬件的优势,所以我们研发了两种先进的实时自动过滤干扰技术,过滤干净噪波防止抖动,大大提高了捕捉质量!精度提高了4倍,精确到像素点!亮点2:两种识别骨骼技术为了更理想效果,我们甚至研发了两种骨骼的识别技术,进行取长补短互补,360度全方位实时捕捉3ds max即时显示,我们是目前全球唯一能做到这样的!除了我们的都只是用微软提供的游戏娱乐,只能进行简单的正面识别稍侧身就会乱的!亮点3:自动矫正镜头畸变Kinect2.0没有提供角度传感器的数据,但我们还是通过图形的技术,准确计算了Kinect的昂俯角度,自动校正人体重心到地面的高度,不受远近镜头畸变的影响!亮点4:自动剔除背景地面自动剔除深度图像的背景与地面,防止背景杂物,及地面阴影、投影、反光等对人体捕捉造成干扰!捕捉过程中,也可以随时选择关闭/显示背景地面。
产品优势传统的动作捕捉需要专门动作捕捉室,设备繁多,配置复杂。
需要反复校准,而且要穿特制的紧身衣服还要贴很Mark 点,需多个高价摄像机才能捕捉,不能避免光学噪波。
包括视频动作捕捉系统、惯性动作捕捉系统不能实时捕捉。
我们的产品我们关注用户体验,尽可能做到方便、快捷、易用。
穿普通服装就可以实时捕捉即时显示,所见所得。
而且自动校准、不容易受环境、光线影响,只需一个3D摄像头即可全身立体识别!我们以革命性的动作捕捉技术,给你呈现专业的捕捉效果。
基于Kinect的3D人脸识别(1)
基于kinect的3D人脸识别技术摘要在2D人脸识别技术不断发展的今天,深度学习的出现让2D人脸识别技术的准确率已经达到了97.54%,2D技术的发展空间越来越小。
而随着3D技术也越来越成熟,将3D技术融合到人脸识别技术中是一种新的发展方向。
而现阶段,kinect这种体积轻巧,价格便宜,捕获3D数据效率高而且分辨率不低的设备成了许多研究人员的研究对象。
在本文中我们也利用了kinect设备完成了一个基于kinect的3D人脸识别研究的过程。
首先通过kinect设备采集了一批数据,接着实现了一种基于熵图和显著性图,利用HOG特征算子,和随机森林分类器和SVM分类器进行识别的算法系统。
通过我们的实验,利用随机森林分类器实现的分类器准确率只有73%,而利用SVM分类器达到的准确率有83.19%。
但是因为采集数据的范围小,以及算法的不完善性,我们的系统还有很大的提升空间。
关键词:kinect,RGB-D,显著性,熵图,随机森林,SVM,人脸识别AbstractWith the fast development of the face recognition based 2D data, the deep learning technology makes the accuracy of the face recognition based 2D data have reached in 97.54% and the development of the 2D technology in face recognition has reached the bottleneck. However, with the 3D technology becoming more and more mature, it is a new development direction to fuse the 3D technology into face recognitiontechnology. In the meanwhile, the Kinect which is portable, inexpensive and has high capturing rate and moderate definition becomes the research object of many researchers.In our paper, we used the Kinect equipment to finish a project which is about face recognition based 3D data. First of all, we collected enough RGB-D data using Kinect. Then we implemented the algorithm system which is based the entropy map and the visual saliency map, gets the feature vector using the HOG descriptor and using random decision forest and support vector machine to classify the data.The result of our experiment is not very well. The accuracy of the recognition with random decision forest classifier reaches only 73%. However, the accuracy of the recognition with support vector machine reaches 83.19%. Because of the small scale in the database and the imperfect algorithm, our system can still make great progress.Key words:Kinect, RGB-D, salience, entropy, RDF, SVM, face recognition1,绪论1.1研究背景随着人们对人工智能,机器学习算法的研究的不断深入,其分支领域中的计算机视觉中的人脸识别技术也得到了充分的发展和巨大的进步。
Kinect介绍
Kinect介绍(一)Kinect的发展历史Kinect最早是在2009年6月1日E3 2009上首次公布,当时的代号是“Projet Natal”意为初生,遵循微软以城市名作为开发代号的传统,“Projet Natal”是由来自巴西的微软董事Alex Kipman以巴西城市Natal, Rio Grande do Norte命名。
Natal在英语中还有初生的含义,这也是微软给予此计划对XBOX360带来新生的期望。
微软在2010年6月13日晚在Galen Center举行“初生计划全球首秀”发布会,在会上微软宣布“Poject Natal”正式命名为Kinect,取意为“kinetic”(运动)和“connect”(沟通)的融合,Kinect一代就此诞生。
微软在这次发布会上同时宣布,Kinect将于2010年11月4日在北美正式发售, 2012年10月9日开始在中国销售第一代Kinect for Windows感应器。
2013年五月Xbox One 发表会上Scott Evans 和Kareem Choudhry 两位Kinect专家展示了次世代Kinect(Kinect二代)那些不可思议的新功能。
新Kinect作为次世代主机必不可少的一部分,开发者们可以基于Kinect感知的语音、手势和玩家感觉信息,来给玩家带来前所未有的互动性体验。
2014年10月微软开始在中国销售第二代Kinect for Windows感应器。
(二)Kinect两代产品异同点1、Kinect组件Kinect v1及Kinect v2都拥有一个外壳、底座、散热器、4个不同类型螺钉、3部分主板及14种关键芯片;都拥有4个麦克风阵列,可过滤噪声,定位声源,识别语音内容,比较图1、图2可知,他们的摆放位置有所差异;Kinect v1有Moving Touch传动马达电动机用于仰角控制,一般是根据它与用户间的位置、距离调节,Kinect v2需要手动去控制;Kinect拥有多个摄像机,Kinect v1从左至右分别为红外投影机,颜色摄像机,红外摄像机,Kinect v1如图1所示。
Kinect摄像头简介
Kinect摄像头简介1 RGBD深度摄像头简介目前RGBD深度摄像头获取深度图像的方法主要有立体视觉,激光雷达测距和结构光三大类。
①立体视觉。
获取深度信息,指的是通过获取同一场景不同视角的多张图像,利用图像的匹配和一定的三维重建算法来计算场景对象的深度信息,如利用处同一轴线上的两个摄像头获取场景对象的两张视差图以及相机的内参和外参数计算深度信息的双目摄像头。
②激光雷达测距则采用TOF 技术(Timeof flight,飞行时间),它通过记录光源投射到每个像素点的光线发射与反射间的相位变化来计算光线飞行时间,进而计算光源到每个像素点的距离,比如微软推出的最新的 Kinect 2代(京东价格1459)。
③结构光,获取深度数据的方式是通过结构光投射器向对象物体表面投射可控制的光点、光线或者光面,将返回的光斑与参考光斑进行对比,利用三角测量原理计算物体的三维空间信息。
与其他深度获取技术相比,结构光技术具有计算简单、体积小、经济性好、大量程且便于安装维护的优点,因此在实际深度三维信息获取中被广泛使用。
如微软Kinect1(淘宝价格625)、Prime Sensor 以及华硕的Xtion。
2 Kinect摄像头参数介绍Kivect V1 for PCKinect v1的Depth传感器,采用了「Light Coding」的方式,读取投射的红外线pattern,通过pattern的变形来取得Depth的信息。
为此,Depth传感器分为投射红外线pattern的IR Projector(左)和读取的这个的IR Camera(右)。
还有Depth传感器中间还搭载了Color Camera。
(Light Coding是以色列的PrimeSense公司的Depth传感器技术,于2013年被美国苹果公司收购。
)Kinect V2 for PCKinect V2预览版的Depth传感器,采用的是「Time of Flight(TOF)」的方式,通过从投射的红外线反射后返回的时间来取得Depth信息。
Kinect连接电脑无法识别的解决办法
Kinect连接电脑无法识别的解决办法遇到了这样的问题,Kinect连接6台电脑,只有一台Dell的笔记本可以正常连接使用其它的电脑、笔记本都没有任何反应,于是就开始了长达两个星期的寻找解决办法之旅。
首先,确定SDK版本是否正确,使用的是KinectV2的话,下个SDK2.0版本。
(其它的版本怎么用没有试过)(官方下载链接https:///en-us/download/details.aspx?id=44561)安装后如下图:双击Kinect Studio 连接Kinect设备,确保处于联网状态,稍等一会儿,等待电脑识别Kinect并自动下载驱动。
点击Kinect Studio 窗口的连接按钮如下图:如果这时出现图像了,恭喜你可以正常使用Kinect了。
如果没有,那就要检查以下几点了:第一确定USB接口是3.0(蓝色接口)以及厂商是Intel或Renesas(在设备管理器可查看)。
第二观察一下Kinect配适器的指示灯情况。
正常情况为没插USB 时是橘黄色,插入SUB连接电脑是白色。
一般这两点就能解决问题了,接下来说说不常见的情况。
如果SDK版本无误,USB接口没问题,配适器也是正常的,Kintect连接电脑还是没反正,点击Kinect Studio的连接按钮就是不出图像,这时点开设备管理器查看有无下图所示项:如果有,那这时你的WDF项前应该是有一个黄色的叹号的,说明你的电脑是识别了Kinect的,但是无法下载或更新驱动。
这时可能需要手动下载驱动,我在网上找到过下驱动的地方,当时没记下连接,有点难找,需要一些耐心。
(出现叹号的问题在网上可以找到别人写的具体的解决方案)。
如果在设备管理器中没有找到上图所示项,就要做如下操作:1)此电脑 > 右键 > 管理(如图)2)服务和应用程序 > 服务(如图)3)在中间找到Kinect Monitor选项右键 > 属性 > 启动类型改为自动(如图)重点说一下,以上步骤要确保在有网状态下操作,并且在修改环境时断开Kinect的USB连接(虽然不知道有没有影响)。
基于视知觉理论的下肢肌力康复训练产品设计研究
青岛理工大学艺术与设计学院 戴学杰 丛晓妍*基于视知觉理论的下肢肌力康复训练产品设计研究RESEARCH ON THE DESIGN OF LOWER LIMB MUSCLE STRENGTH REHABILITATION TRAINING PRODUCTS BASED ON VISUAL PERCEPTION THEORY摘要:为提升痉挛恢复期患者或肌力弱项群体对下肢肌力康复训练产品的认同感和使用体验。
以视知觉为切入点,通过肌肉电(EMG)传感技术对比常规康复训练与以Kinect 体感交互设备为媒介实现的视觉反馈康复训练数据对比分析。
下肢视觉反馈康复训练比常规训练中产生的肌电数值大,肌肉活性高,肌张力高,肌肉群训练力度更加明显。
根据 FBS 模型进行指导下肢训练产品的设计流程和思路,最后设计一种兼顾动作引导轨迹捕捉及下肢关节训练的设备。
关键词:视知觉 体感交互 下肢康复 产品设计 FBS 模型中图分类号:TB472 文献标识码:A 文章编号:1003-0069(2023)19-0100-04Abstract :In order to enhance the sense of identification and use experienceof convalescent patients or weak muscle strength groups for lower limb muscle rehabilitation training products.Taking visual perception as the starting point,the conventional rehabilitation training was compared with the visual feedback rehabilitation training data realized by the Kinect somatosensory interaction device by muscle electrical(EMG)sensing technology.Lower limb visual feedback rehabilitation training is larger than the myoelectric value generated in conventional training,muscle activity is high,muscle tone is high,and the training strength of muscle groups is more obvious.According to the FBS model,the design process and ideas of the guided limb training product are carried out,and finally a device is designed that takes into account the action-guided trajectory capture and the training of the lower limb joints.Keywords :Visual perception Somatosensory interaction Lower limb rehabilitation Product design FBS model引言脑卒中是脑构造毁伤的一种疾病,也是导致下肢肌力萎缩的第一要因,我国每一年新发脑卒中约240万人,远远高于周边发达国家,并呈年轻化趋向。
kinectv2参数
Kinectv2参数1. 介绍Kinectv2是微软开发的一款体感控制器,是Kinect系列的第二代产品。
它通过使用红外线和摄像头等传感器,可以实时捕捉人体动作和声音,并将其转化为对应的数据。
这些数据可以用于游戏、虚拟现实、姿势识别等应用领域。
2. 技术原理Kinectv2采用了一系列传感器来实现人体动作的捕捉。
其中包括了RGB摄像头、深度传感器、红外线发射器和接收器等。
通过这些传感器,Kinectv2可以同时获取人体的外形轮廓、深度信息以及骨骼关节的位置。
•RGB摄像头:用于拍摄彩色图像,提供人体外形轮廓。
•深度传感器:利用红外光与物体之间的反射时间差来计算物体到相机的距离,提供物体的深度信息。
•红外线发射器和接收器:发射红外线光束并接收其反射回来的信号,用于计算骨骼关节位置。
3. 参数说明3.1 彩色图像参数•分辨率:Kinectv2的彩色图像分辨率为1920x1080,可以提供清晰的图像。
•帧率:彩色图像的帧率为30帧/秒,可以实现流畅的实时显示。
3.2 深度图像参数•分辨率:Kinectv2的深度图像分辨率为512x424,可以提供高精度的深度信息。
•帧率:深度图像的帧率为30帧/秒,可以实现实时捕捉人体动作。
3.3 骨骼关节参数Kinectv2可以同时追踪身体上的25个关键骨骼关节,包括头部、颈部、肩膀、手臂、手腕、手掌、脊柱、髋部、大腿、小腿和脚等。
每个关节都有自己的位置和方向信息。
3.4 声音参数Kinectv2内置了一个多阵列麦克风系统,可用于捕捉环境中的声音。
它支持语音识别和语音指令功能,并能够消除背景噪声。
4. 应用领域Kinectv2广泛应用于游戏、虚拟现实和姿势识别等领域。
4.1 游戏Kinectv2可以将玩家的动作实时转化为游戏中的角色动作,使游戏更加互动和真实。
玩家可以通过手势控制、身体动作和声音指令来操作游戏。
4.2 虚拟现实Kinectv2可以用于虚拟现实环境中的身体追踪和手势识别。
kinect 2.0连接方法
kinect 2.0连接方法要想装kinect2.0,必须要有:1.kinect2.0一台:(如果你是从微软买的话)包括电源线一个,两个转换器,一个usb3.0线,一个转换器线,一个kinect连接线2.硬件需求:64位(x64)处理器i7 2.5-GHz或更快的处理器内置USB 3.0总线——————注意!!!3.0(U口为蓝色,若不是,可买扩展卡,前提是你的机子必须有PCI-E插槽,否则买新机,我就是)4 GB RAMDX11图形适配器3.OS要求Windows 8,Windows 8.1,Windows10。
硬件一切准备就绪~~接下来~安装驱动首先右键“这台电脑”——属性——设备管理器——看看有没有哈~~没有的话,先看是不是usb3.0。
刚插入时,可能会无法识别,不着急,过一会kinect就自己装驱动了,装好了就可以用了~有时候会有小叹号,说明你没装好,多试几次,等一等它自动会处理好。
入手kinect~先从麦克风开始~~(选看)我刚开始时,kinect连接成功,单击右下角“扬声器”——录音设备kinect被默认成录音设备,但说话时却并不反应(不知道你们是不是这样),如果这样,只需右击kinect——“配置语音识别”好啦~你现在可以先玩玩W的语音控制。
kinect正统~~SDK2.0先上“kinect for windows”官方网站下载SDK,并安装。
安装后,SDK并没有放在桌面上~地址也可以Windows主页里找~~一共三个:GestureBuilder——手势控制开发。
KStudio——很重要。
SDKBrowser——总体目录,里面有很多示例文件。
SDK——kinect studio:先打开kinect studio——FILE——最后”connect to target“~~~。
Kinect2.0教程(1)
官网教程/
推荐一种最快的学习方法 官网教程或是看例子
Wii(任天堂)
2006 发布了wii游戏机,是任天堂公司的一次巨大的改革。 其中,wii主要以简单、运动为主要游戏模式。
Kinect2.0技术的基本原理
工作原理
由红外投影仪主动投射近红外光谱,照射到粗糙物体、 或是穿透毛玻璃后,光谱发生扭曲,会形成随机的反射 斑点(称为散斑),进而能被深度摄像头读取。深度摄 像头分析读取到的红外光谱并生成深度图。
Kinect2.0与Unity3D游戏引擎的 集成
Kinect2.0技术的Unity3D插件
插件使用及功能详细说明
数据引用基本流程: 以生成彩色图像为例说明代码:
存储对获取到的KincectSensor对象的引用
获取到当前已经开始运行的Kinect。 关闭Kinect。释放Kinect引用。
四个麦克风内置数字信号处理器DSP等组件,同时过滤 背景噪声,来定位声源方向。
Kinect2.0技术的基本原理
硬件系统组成
三只眼睛+四只耳朵
Kinect2.0技术的基本原理
硬件系统组成
三只眼睛:彩色摄像头、深度(红外)摄像头、红外 线投影机
彩色摄像头:用于拍摄视角范围内的彩色视 频图像。
2014年7月,正式版本的Kinect for windows v2.0以及 SDK 2.0 发布。
Kinect2.0技术简介
• 与Kinect技术竞争的平台或技术
Ps Move 索尼
全称PlayStation Move动态控制器,它和PlayStation3 USB 摄影机结合,创造全新游戏模式。PS MOVE不仅会辨识上 下左右的动作,还会感应手腕的角度变化。所以无论是运 动般的快速活动还是用笔绘画般纤细的动作也能在PS MOVE一一重现。
Kinect for Windows 2.0配置及参数
第二代Kinect for Windows 感应器设置对于需要密集使用第二代Kinect for Windows 骨骼追踪的应用程序还需要自定义应用程序处理,我们建议使用以下的电脑配置作为参考。
我们发现在最具挑战性的追踪场景中,Kinect for Windows 能够提供极好的性能;同时仍然允许附加的应用程序处理和维持最佳的帧速率。
硬件要求•64 位(x64)处理器•物理双核3.1 GHz(每个物理2 个逻辑核心)或更快的处理器•专用的USB 3.0 总线(英特尔和瑞萨控制器)• 2 GB RAM•支持DirectX 11 的显卡(Intel HD 4000, AMD Radeon HD 6470M, NVIDIA Geforce 610m, AMD Radeon HD 6570)•Windows 或Windows Embedded 8 或8.1产品清单第二代Kinect for Windows 感应器的包装内含有:1.第二代Kinect for Windows 感应器及连接线2.电源与电源线B 3 网线4.产品说明书第二代Kinect for Windows 是人类计算历史上最新技术之一,通过简单的手势和语音,实现人机自然交互的应用程序开发。
The Kinect for Windows 感应器采用深度感应技术,内置彩色摄像机、红外(IR)发射器和一个麦克风阵列,能够感知人类的位置、动作和声音。
第二代感应器的深度保真提高了3 倍,极大的提升了对物体包括微小物体的识别度和清晰度。
Kinect for Window 软件开发工具包 (SDK) 为开发人员提供驱动程序、工具、应用程序接口、设备接口,代码示例,促进基于Kinect 应用程序的商业部署。
SDK 2.0 改进的骨骼追踪,追踪人数高达6 人,每人25 个关节。
姿势越正确,应用程序识别的动作越精确。
Kinect for Windows 感应器和免费软件开发工具包(SDK)为开发人员开发和部署响应人类动作、手势和声音指令的交互应用程序奠定了坚实的基础,推动了人机交互技术的发展。
Kinect动作捕捉系统介绍
Kinect动作捕捉系统介绍一、关于Kinect1、简介Kinectfor Xbox 360,简称Kinect,是由微软开发,应用于Xbox 360 主机的周边设备。
它让玩家不需要手持或踩踏控制器,而是使用语音指令或手势来操作Xbox360 的系统界面。
它也能捕捉玩家全身上下的动作,用身体来进行游戏,带给玩家“免控制器的游戏与娱乐体验”。
其在2010年11月4日于美国上市,建议售价149美金。
Kinect在销售前60天内,卖出八百万部,目前已经申请金氏世界记录,成为全世界销售最快的消费性电子产品。
2012年2月1日,微软正式发布面向Windows系统的Kinect版本“Kinect for Windows”,建议售价249美金。
Kinect有三个镜头,中间的镜头是RGB 彩色摄影机,用来采集彩色图像。
左右两边镜头则分别为红外线发射器和红外线CMOS 摄影机所构成的3D结构光深度感应器,用来采集深度数据(场景中物体到摄像头的距离)。
彩色摄像头最大支持1280*960分辨率成像,红外摄像头最大支持640*480成像。
Kinect还搭配了追焦技术,底座马达会随着对焦物体移动跟着转动。
Kinect也内建阵列式麦克风,由四个麦克风同时收音,比对后消除杂音,并通过其采集声音进行语音识别和声源定位。
2013年11月22日,随着xbox one的发售,kinect也更新为2.0版本。
二代和一代的主要区别在于它是专门为XboxOne设计,外形作了改进,精度更高,在捕捉在捕捉肢体动作和表情的基础上,增加了手指动作捕捉和心跳感应。
强化了分辨率至1080P,每秒处理的数据最多达2GB,镜头捕捉角度也增加至60%。
2、硬件功能3、安装部署除自定义应用程序处理外,对于将大量使用Kinect for Windows v2 身体跟踪的应用程序,建议使用下面的计算机配置作为参考。
该方案允许kinect发挥绝佳的性能,同时仍然能容纳附加的应用程序处理并维持最佳帧速率。
Kinect2.0入门介绍
Kinect for Windows 2.0入门介绍2017-3-18提纲•Kinect 体感传感器简介•Kinect 硬件结构•Kinect 基本接口与使用方法•Kinect 高级功能•Kinect 应用范围•Kinect 初体验——基于Kinect的室内监控系统初识Kinect•2010年,Kinect是微软推出的最新的基于体感交互的人机交互设备。
Kinect最初作为Xbox360游戏机的外接设备发布,利用即时动态追踪、影像识别、麦克风输入、语音识别等功能让玩家摆脱传统游戏手柄的束缚,通过自己的肢体动作来控制游戏。
•2012年,微软并没有将这一先进的技术局限在游戏行业,而是紧接着将Kinect技术推广到Windows平台,开发了Kinect for Windows,旨在鼓励众多开发者设计基于Kinect体感交互技术的应用,从而在各个行业领域里改变人们工作、生活和娱乐的方式。
•2014年,微软发布第二代Kinect for Windows,从硬件上对第一代做了很大改进。
•与此同时,Kinect for Windows SDK也在不断升级中。
第一代 SDK1.8 第二代 SDK 2.0 Public PreviewKinect 的最大创新之处——对人机交互方式的变革传统的人机交互方式:图形用户界面(GUI)特点:GUI要求用户必须先学习软件开发者预先设置好的操作,在传统的显示设备上进行交互。
Kinect的人机交互方式:自然用户界面(NUI)特点:NUI只需要用户以最自然的方式(如动作、手势、语音等)与机器互动。
直观地说,就是使用NUI的计算机不需要键盘和鼠标。
你就是控制器!(You are the controller!)——Kinect宣言第二代Kinect 系统架构Kinect Drivers Kinect Runtime .Net API.Net Apps Native API Native AppsWinRT API Windows Store Apps C#, VB, JS, C++/CX Physical Kinect Sensor 硬件层驱动层接口层应用层提纲•Kinect 体感传感器简介•Kinect 硬件结构•Kinect 基本接口与使用方法•Kinect 高级功能•Kinect 应用范围•Kinect 初体验——基于Kinect的室内监控系统Kinect v2硬件结构Power Light RGB CameraIR EmittersIR EmittersDepth Sensor Depth Sensor Microphone ArrayKinect v2 的“三只眼睛”和“四只耳朵”三只眼睛:彩色摄像头、深度(红外)摄像头、红外线投影机•彩色摄像头:用于拍摄视角范围内的彩色视频图像。
kinectv2结构 -回复
kinectv2结构-回复Kinect 2.0 结构引言:Kinect 2.0 是微软推出的一款基于深度图像传感器的体感控制器,它具有广泛的应用领域,包括游戏、虚拟现实、人机交互等。
本文将详细介绍Kinect 2.0 的结构,以及其内部的各个模块的功能和原理。
一、外观及传感器部分Kinect 2.0 外观呈长方体状,与前代产品相比更加紧凑和精致。
它包括四个主要的传感器模块:RGB 摄像头、红外深度传感器、麦克风阵列和运动追踪器。
1. RGB 摄像头:位于Kinect 2.0 前方的摄像头采用了全高清分辨率,可实时捕捉到玩家的彩色图像。
这个模块使用了CMOS 图像传感器,并通过镜头适当地调整光圈和聚焦,确保图像质量和清晰度。
2. 红外深度传感器:红外深度传感器是Kinect 2.0 最重要的部分之一。
它采用了结构光原理,通过投射一束红外光线,并使用红外摄像机捕捉光线的反射情况来计算深度数据。
这使得Kinect 2.0 能够准确地捕捉到玩家身体的关键点,并实时生成骨骼模型。
3. 麦克风阵列:Kinect 2.0 内置了一组麦克风,构成了一个麦克风阵列,用于实时获取声音信号。
这个阵列可以精确地定位声音源的方向,并通过声音处理算法进行噪声抑制和声音增强。
4. 运动追踪器:运动追踪器是Kinect 2.0 的关键组件之一,它通过内置的陀螺仪和加速度计,实时测量玩家的姿势和动作。
这些数据与红外深度传感器捕捉到的骨骼模型相结合,可以实时跟踪玩家的身体动作,从而实现体感控制。
二、内部结构及工作原理Kinect 2.0 的内部结构和工作原理也是非常复杂的,它包括了图像处理单元、声音处理单元、运动感应单元、深度图像采集单元以及数据传输单元等。
1. 图像处理单元:图像处理单元主要负责RGB 摄像头拍摄到的彩色图像的处理和图像计算。
它使用了高性能的图像处理芯片,可以实时处理大量的图像数据,并对图像进行去噪、颜色校正、畸变矫正等。
一种基于Kinect深度图的人像自动抠像算法
一种基于Kinect深度图的人像自动抠像算法李华;张超;权巍;韩成;翟宏宇;刘婷婷【摘要】针对传统抠像算法需要人工交互,无法实现自动抠像,且边缘区域前、背景颜色相近时抠像效果不佳等问题,研究一种基于Kinect深度图的人像自动抠像算法.利用Kinect人物识别的优势,研究根据采集的彩色图像对于人形区域深度图像进行预处理,生成三元图;对人形区域中孔缝进行处理;采用改进的鲁棒抠像算法实现无需人工输入的自动抠像.实验结果表明,抠像算法可实现自然背景中人像的自动抠像,对于前景和背景边缘颜色相近的原始图像,可得到良好的抠像效果.%Traditional matting algorithms requires manual interaction in order to separate the foreground and the back-ground. And when color of pixels in the edge from both foreground and background are similar, poor matting effects are obtained. According to these problems,an automatic matting algorithm of human figure based on Kinect depth im-age is proposed in this paper. Kinect has an advantage of recognizing human figure. Taking both the color image and the human figure depth image as inputs which are shot by Kinect at the same time, the depth image is preprocessed by joint bilateral filter. Tri-map is produced automatically,and tiny holes and gaps are considered. An improved robust matting algorithm without manual input is conducted. The experimental results show that human figure can be matted automatically,and a good effect can be obtained even if pixels at the edge have same colors.【期刊名称】《长春理工大学学报(自然科学版)》【年(卷),期】2016(039)006【总页数】4页(P81-84)【关键词】人像抠像;自然抠像;深度图;Kinect;三元图【作者】李华;张超;权巍;韩成;翟宏宇;刘婷婷【作者单位】长春理工大学计算机科学技术学院,长春 130022;长春理工大学计算机科学技术学院,长春 130022;长春理工大学计算机科学技术学院,长春 130022;长春理工大学计算机科学技术学院,长春 130022;长春理工大学计算机科学技术学院,长春 130022;长春理工大学计算机科学技术学院,长春 130022【正文语种】中文【中图分类】TP391.41数字抠像技术是计算机视觉、数字图像处理领域的一个重要的研究内容,是影视和广告制作中的关键技术。
XboxOneKinect拆解 做工如何
XboxOneKinect拆解做工如何
Xbox One的完全拆解看得过瘾不?和索尼PS4比做工怎幺样?萝卜白菜各有所爱,从评论中已经看到大家对两款主机各有各的看法,不过再吵到面红耳赤之前呢,我们再来看看微软的新一代语音、视觉和体感附件——Kinect 2.0。
注:iFixit关注的是拆解和维修难度,对内部模块、芯片的功能特性只是一笔带过,更深入的秘密还得等待芯片级专家ChipWorks。
Kinect 2.0配备1080p全高清广角摄像头,还有适应低光环境的主动式红外摄像头,多麦克风阵列具备降噪和语音指令功能,每秒钟可处理2Gb (256MB/s)的环境数据。
电源线插得很结实。
揭开底面的贴纸,可以发现有隐藏的螺丝,贴纸上有大量胶水,并且写满了“Microsoft”。
T10标准螺丝。
kinect2.0 技术参数
kinect2.0 技术参数一、产品概述Kinect 2.0 是微软公司推出的一款全新一代体感技术设备,它能够通过摄像头和传感器,识别用户的动作、面部表情、身体语言等,并与之进行交互,无需任何外部设备或数据线。
Kinect 2.0 不仅具有出色的性能,而且易于使用,能够为用户带来全新的娱乐和互动体验。
二、技术参数1. 传感器分辨率:1280x720(全高清)2. 传感器视角:水平视角为57°,垂直视角为35°3. 传感器颜色识别范围:支持 RGB 彩色识别,支持 RGB 彩色和灰度模式切换4. 传感器运动识别速度:最高可达 30fps5. 传感器深度分辨率:512 x 424(可在实际应用中动态调整分辨率)6. 传感器深度范围:可达 4m(根据个体差异可能有所不同)7. 设备重量:约 550g(不含线缆)8. 线缆长度:标准长度为 1.8m,可选择其他长度线缆9. 工作环境:室内使用,温度范围为 -15℃至+45℃,湿度范围为 20% 至85%RH10. 电源供应:使用 USB 接口进行供电,兼容 USB 3.0 和 USB 2.0 标准三、功能特点1. 体感控制:Kinect2.0 能够通过摄像头和传感器识别用户的动作、面部表情、身体语言等,无需任何外部设备或数据线即可进行控制。
2. 人脸识别:Kinect 2.0 能够自动识别出用户的面部特征,并进行跟踪和识别。
3. 环境感知:Kinect 2.0 能够感知周围环境的变化,如物体移动、灯光变化等,为用户提供更加智能化的体验。
4. 多点识别:Kinect 2.0 支持同时识别多个用户,方便多人互动。
5. 可视化界面:Kinect 2.0 提供了一个直观的可视化界面,用户可以通过界面进行设置和调整。
6. 支持游戏和应用:Kinect 2.0 可以与游戏和应用进行无缝连接,为用户带来更加沉浸式的体验。
7. 可扩展性:Kinect 2.0 支持与其他设备进行连接,如打印机、音响等,方便用户进行扩展使用。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Microsoft Confidential
Events
• COM:
• HRESULT SubscribeEventName(WAITABLE_HANDLE *waitableHandle); • HRESULT UnsubscribeEventName(WAITABLE_HANDLE waitableHandle); • HRESULT GetEventNameEventData(WAITABLE_HANDLE waitableHandle, IEventNameEventArgs **eventData);
Microsoft Confidential
Aside – FrameDescription
public sealed class FrameDescription { public int Width { get; } public int Height { get; } public float HorizontalFieldOfView { get; } public float VerticalFieldOfView { get; } public float DiagonalFieldOfView { get; } public uint LengthInPixels { get; } public uint BytesPerPixel { get; } }
ห้องสมุดไป่ตู้
• .NET:
• public void CopyFrameDataToArray(byte[] frameData); • public void CopyFrameDataToBuffer(uint bufferSize, IntPtr buffer);
Microsoft Confidential
• Same types, methods, etc.
• New Kinect API uses WinRT idioms
• Sources/readers • Events • Collections
Microsoft Confidential
API differences from V1
• All resolutions and frame rates are constant • Can use color and infrared simultaneously • No separate “near” mode for depth (range is 0.5 to 4.5 m) • “Skeleton” “Body”
• • • • 6 fully-tracked bodies More joints per body More features: expressions, actions, lean, … No separate “seated” mode (both seated and standing can be tracked)
• Events • Buffers • Collections
• V1 code cannot just be recompiled for V2; some changes will be needed • Existing .NET code will need fewer changes than COM code
• Examples that follow use single-frame Infrared
• To use long-exposure infrared, just “Infrared” “LongExposureInfrared”
• Frame data is 2 bytes per pixel: 16-bit IR intensity value (same as V1)
Microsoft Confidential
Infrared
• The simplest sources to use • Two forms: Infrared and LongExposureInfrared
• Infrared is a single frame • LongExposureInfrared is sum of 3 IR frames (higher signal:noise ratio, but more motion blur)
• Depth and body index delivered as separate frame types • More audio beam features
Microsoft Confidential
Source/Reader pattern
• V1: Once a frame was retrieved from a stream by polling, it was gone forever • V2: Multiple reader instances can independently poll the same source for frames, without interference • Readers can be paused/resumed independently • Enables more componentized applications
• Porting guidance • Not covered in this session: speech, face tracking, interactions
Microsoft Confidential
Microsoft Confidential
Sensor differences from V1 (briefly)
Sensor lifecycle – Multiple sensors
• NOTE: Not yet implemented in Tech Preview
foreach (KinectSensor sensor in KinectSensor.Sensors) { string sensorId = sensor.UniqueKinectId; this.sensors.Add(sensorId, sensor); sensor.Open(); …
Microsoft Confidential
Microsoft Confidential
COM and .NET
• V2 API still has both COM and .NET flavors • Much more similar to each other than they were in V1 • COM and .NET each have unique patterns for expressing:
Microsoft Confidential
Sensor lifecycle
• Lifecycle
• • • • Find a KinectSensor object Open it Use it Close it
• Sensor unplugged:
• • • • KinectSensor object remains valid Your code still runs No frames arrive KinectSensor.IsAvailable tells you if it’s actually there
• .NET:
• public event EventHandler<EventNameEventArgs> EventName;
Microsoft Confidential
Buffers
• COM:
• HRESULT CopyFrameDataToArray(UINT capacity, BYTE* buffer);
Microsoft Confidential
Sensor lifecycle – One sensor
this.sensor = KinectSensor.Default; this.sensor.Open(); … this.sensor.Close();
Microsoft Confidential
Kinect for Windows API V2
John Elsbree Principal Software Development Engineer Kinect for Windows Program 18 November 2013
Microsoft Confidential
Microsoft Confidential
Everything is under NDA
Unless otherwise stated.
Microsoft Confidential
Agenda
• V2 Kinect sensor • API overview • API features
• • • • • Influences and style • Differences from V1 Sensor lifecycle Data sources Frame synchronization Coordinate mapping
Microsoft Confidential
Influences and style
• New API is influenced by WinRT • Xbox One has a WinRT API for Kinect • Kinect for Windows V2 API is not a WinRT API (yet) • “Shape” of V2 COM and .NET APIs identical to Xbox One’s WinRT API