MICCAI2012 Accurate Lumen Segmentation and Stenosis detection and quantification in coronary CTA

合集下载

基于可变形点云数据的玉米茎叶分割

基于可变形点云数据的玉米茎叶分割
1.创建包含428个标注的玉米植株点云数据库,为深度学习模型的有效应用提供足够 的数据扩充。
2.开发一种基于物理的点云变形方法,利用高度可控变形提高训练集形态多样性, 同时保留器官的局部几何特征。
3.在406个真实数据点上测试这些模型,其中PointNet++模型在语义分割中获得 91.93%的mIoU,而HAIS模型在实例分割中结果达93.74%的mAP。
Pointnet++语义分割模型
HAIS 实例分割模型
实例分割结果后续处理
HAIS模型倾向于欠分割,常常将相邻的叶片合并为一个实例。通过识别标 记值为0的区域或超过一定阈值的点云数量来识别欠分割区域。对于欠分割的 点云,DFSP能够快速定位和分割玉米植物中的器官,应用DFSP进行进一步分 割。
玉米植株形态的模拟:(A)倒伏姿态,(B)特别改变一片叶子的倾角,(C)将一片叶子变成破 碎的一片。注:在每株植物中,属于同一器官实例的点用相同的颜色表示,不同的器官用不同的 颜色表示。
03 结果与讨论
结果与讨论
本文构建包含428个标记的玉米植株点云数据库,所开发的基于物理变形 点云增强方法在保留器官的局部几何特征的同时能够有效提升训练数据的形 态多样性,通过深度学习模型PointNet++和HAIS训练拟合,结果显示, PointNet++模型在语义分割任务中实现了91.93%的mIoU,而HAIS模型 在实例分割任务中达到了93.74%的mAP。
本文所提出的方法具有普适性,研究聚焦于玉米茎叶分割,同时可扩展 至其他植物物种形态转换。本文提出的基于可变形点云数据的玉米茎叶分割 框架,为使用最少标记数据高效训练器官分割模型提供了一种新方法,有助 于加速玉米以及其他作物的品种改良和生长监测研究。

cv研究方向及综述

cv研究方向及综述

cv研究方向及综述
计算机视觉(CV)是一个涉及多个子领域的学科,包括图像分类、目标检测、图像分割、目标跟踪、图像去噪、图像增强、风格化、三维重建、图像检索等。

1.图像分类:多类别图像分类、细粒度图像分类、多标签图像分类、实
例级图像分类、无监督图像分类等。

2.目标检测:吴恩达机器学习object location目标定位,关键在于将全
连接层改为卷积层。

3.图像分割:使用深度学习进行图像分割,包括全卷积像素标记网络,
编码器-解码器体系结构,多尺度以及基于金字塔的方法,递归网络,视觉注意模型以及对抗中的生成模型等。

4.目标跟踪:基于滤波理论、运动模型、特征匹配等多种方法的混合跟
踪算法研究,以及基于深度学习的目标跟踪算法研究。

5.图像去噪:比较研究不同深度学习技术对去噪效果的影响,包括加白
噪声图像的CNN、用于真实噪声图像的CNN、用于盲噪声去噪的CNN和用于混合噪声图像的CNN等。

6.图像增强:通过对图像进行变换、滤波、增强等操作,改善图像的视
觉效果或者提取更多的信息,例如超分辨率技术。

7.风格化:通过将一种艺术风格应用到图像上,改变其视觉效果。

8.三维重建:从二维图像中恢复三维场景的过程。

9.图像检索:基于内容的图像检索(CBIR),通过提取图像的特征,
进行相似度匹配,实现图像的检索。

总的来说,CV是一个充满活力的领域,涉及的研究方向非常广泛。

随着深度学习技术的发展,CV领域的研究和应用也取得了很大的进展。

monai分割方法

monai分割方法

monai分割方法
Monai是一个用于医学图像处理的开源深度学习框架。

它提供了一些用于图像分割的算法和工具,其中包括基于卷积神经网络(CNN)的方法、U-Ne.t结构、以及一些后处理技术等。

以下是Monai中常用的几种分割方法:
U-Ne.t:U-Ne.t是一种经典的医学图像分割网络,由德国的一组研究者提出。

它由一个收缩路径(编码器)和一个扩展路径(解码器)组成,形状类似于字母“U”,因此得名。

在Monai中,可以使用预训练的U-Ne.t模型进行图像分割。

3D U-Ne.t:3D U-Ne.t是一种基于3D卷积的U-Ne.t,可以处理三维的医学图像数据。

在Monai中,可以使用预训练的3D U-Ne.t模型进行三维图像分割。

Mask R-CNN:Mask R-CNN是一种基于Faster R-CNN的目标检测网络,可以同时进行目标检测和像素级图像分割。

在Monai中,可以使用预训练的Mask R-CNN模型进行图像
分割。

DeepLab:DeepLab是一种基于深度卷积神经网络的图像分割方法,可以用于处理语义分割任务。

在Monai中,可以使用预训练的DeepLab模型进行图像分割。

PSPNe.t:PSPNe.t是一种基于金字塔池化模块的图像分割方法,可以处理不同尺度的目标分割任务。

在Monai中,可以使用预训练的PSPNe.t模型进行图像分割。

以上是Monai中常用的几种分割方法,具体使用哪种方法需要根据实际任务和数据来选择。

caimr计算方法

caimr计算方法

caimr计算方法CAIMR 计算方法CAIMR(细胞自动化形态学图像重建)是一种用于从细胞图像序列创建三维 (3D) 模型的计算方法。

该方法涉及以下步骤:1. 图像预处理:将细胞图像序列对齐和注册,以补偿样品运动和漂移。

增强图像对比度和信噪比,以提高细胞的可视性。

分割细胞,将其与背景分离。

2. 表面渲染:使用分割的细胞图像,生成细胞表面的网格模型。

优化网格以平滑表面并减少多边形数量。

应用纹理贴图以实现细胞膜的逼真呈现。

3. 体素重建:将细胞表面网格转换为体素,形成细胞的内部表示。

使用算法填充网格内的体素,例如 Marching Cubes 或Poisson 重建。

平滑体素模型以减少锯齿和伪影。

4. 模型分析:计算模型的几何特征,例如体积、表面积和形状系数。

分析细胞形态随时间或处理条件的变化。

识别和量化细胞亚型或异常。

优点:高精度:CAIMR 模型通常高度精确,反映了细胞的真实 3D 形状。

可扩展性:该方法可以应用于大数据集,包括数千个细胞图像。

灵活性:CAIMR 可以处理各种细胞类型和形态。

可视化:3D 模型提供了一个强大的方式来可视化细胞结构和动态变化。

应用:CAIMR 在细胞生物学和生物医学研究中具有广泛的应用,包括:研究细胞形态与功能之间的关系。

检测和表征细胞异常,如癌症或神经退行性疾病。

创建 3D 细胞库,用于药物筛选和治疗开发。

提高对细胞生长、分化和组织形成的理解。

限制:依赖图像质量:CAIMR 模型的精度取决于图像质量和预处理步骤。

计算密集型:此方法可能在处理大型数据集时需要大量计算资源。

假设:CAIMR 模型假设细胞具有固定的拓扑结构,这可能不适用于所有细胞类型。

持续发展:CAIMR 作为一个研究领域正在不断发展,重点在于提高精度、效率和针对更广泛的细胞类型的适用性。

机器学习算法和高性能计算技术正在集成到 CAIMR 方法中,以进一步增强其功能。

caimr计算方法

caimr计算方法

caimr计算方法
CAIMR(细胞自动化图像分割与测量)是一种用于细胞图像分割和测量的计
算方法,广泛应用于生物医学研究和生物医学图像处理领域。

CAIMR方法基于细
胞自动化技术,利用计算机算法对细胞图像进行分割和测量,从而实现对细胞形态、数量和分布等特征的定量分析。

在CAIMR方法中,首先需要对细胞图像进行预处理,包括去除噪声、增强对
比度、边缘检测等操作,以便更好地识别和分割细胞。

接着,利用图像分割算法对细胞图像进行分割,将细胞从背景中分离出来,从而准确测量细胞的大小、形状、颜色等特征。

最后,通过对分割后的细胞图像进行分析和测量,可以得到关于细胞数量、分布、形态特征等方面的定量数据。

CAIMR方法的优点在于可以实现对大量细胞图像的快速、准确的分割和测量,不仅提高了细胞研究的效率,还可以避免主观因素对分析结果的影响。

此外,CAIMR方法还可以应用于不同类型的细胞图像,适用于多种细胞分析的需求。

总的来说,CAIMR(细胞自动化图像分割与测量)是一种基于细胞自动化技
术的计算方法,能够实现对细胞图像的分割和测量,为生物医学研究和生物医学图像处理提供了强大的工具和方法。

通过CAIMR方法,可以更好地理解和分析细胞
的形态、数量和分布等特征,促进细胞研究的进展和应用。

r语言 dlnm 计算赤池和贝叶斯信息标准

r语言 dlnm 计算赤池和贝叶斯信息标准

R语言是一种功能强大的统计分析工具,而在统计模型选择中,赤池信息标准(本人C)和贝叶斯信息标准(BIC)都是常用的模型比较指标。

在R语言中,DLNM包(Distributed Lag Non-linear Models)提供了丰富的函数和方法,可以帮助我们进行模型选择和评估。

让我们简要介绍一下赤池信息标准和贝叶斯信息标准。

赤池信息标准是由日本经济学家赤池弘之提出的,用于比较不同模型对数据的拟合优度。

在模型选择中,本人C值越小代表模型对数据的拟合越好,但是同时也要考虑模型的复杂度。

贝叶斯信息标准与本人C类似,但在样本量较大时对模型复杂度的惩罚更严格。

DLNM包在R语言中的应用非常广泛,它提供了许多函数和方法,可以方便地实现对时间序列数据的非线性建模和分析。

在使用DLNM包进行模型拟合和评估时,我们可以使用本人C和BIC来比较不同模型的拟合效果,从而选择最合适的模型来解释数据。

在实际应用中,我们通常会首先使用DLNM包中的函数来拟合各种时间序列模型,并对模型进行评估。

根据本人C和BIC的数值大小,我们可以比较不同模型的拟合效果。

通常情况下,本人C和BIC都是越小越好,但在选择模型时,我们还要考虑模型的复杂度和解释能力。

除了本人C和BIC,我们还可以结合其他方法来对模型进行评估和选择。

我们可以使用交叉验证的方法来评估模型的预测效果,或者使用假设检验来检验模型的显著性。

在实际应用中,我们经常会综合考虑多种指标来选择最合适的模型,从而更好地理解和解释数据。

总结起来,R语言中的DLNM包为我们提供了丰富的工具和方法,可以帮助我们进行时间序列数据的建模和分析。

在模型选择和评估中,本人C和BIC是常用的指标,但我们也可以结合其他方法来综合评估模型的拟合效果。

在实际应用中,我们应该多方面考虑,选择最合适的模型来解释数据,从而更好地理解研究对象的规律和特点。

以上就是我对R语言DLNM包中计算赤池信息标准和贝叶斯信息标准的个人观点和理解。

semantic segmentation 综述

semantic segmentation 综述

semantic segmentation 综述语义分割(Semantic Segmentation)是计算机视觉领域的一个重要任务,它旨在将图像中的每个像素分配给一个预定义的类别标签。

随着深度学习技术的发展,语义分割取得了显著的进步,并在许多应用中得到了广泛的应用,如自动驾驶、机器人导航、医疗图像分析等。

语义分割的基本原理是将图像划分为多个区域,每个区域内的像素具有相似的语义信息。

通过训练深度学习模型,可以学习到每个像素的类别标签,从而实现像素级别的分类。

语义分割的方法可以分为两类:一类是基于CNN的方法,另一类是基于CRF的方法。

基于CNN的方法通常采用多尺度特征融合和上下文信息的方法来提高分割精度。

基于CRF的方法则利用概率图模型来考虑像素之间的依赖关系,从而更好地处理复杂的场景和细节。

在训练语义分割模型时,可以采用不同的数据增强技术来增加训练数据集的多样性和数量。

例如,可以采用随机裁剪、旋转、翻转等操作来处理训练图像,以提高模型的泛化能力。

同时,可以采用不同的损失函数来优化模型,例如交叉熵损失函数和Dice损失函数等。

在实际应用中,语义分割可以应用于各种场景中,如街道场景、室内场景、医疗图像等。

通过将图像划分为多个区域,可以更好地理解图像的内容和结构,从而为后续的任务提供更准确的信息和数据支持。

例如,在自动驾驶中,通过语义分割可以更好地识别行人、车辆和其他障碍物,从而为车辆的路径规划和决策提供更准确的信息。

总之,语义分割是计算机视觉领域的一个重要任务,它旨在将图像中的每个像素分配给一个预定义的类别标签。

随着深度学习技术的发展,语义分割的应用越来越广泛,为许多领域提供了更准确的信息和数据支持。

2023目标分割综述

2023目标分割综述

2023目标分割综述目标分割是计算机视觉领域的重要任务之一,旨在将图像中的每个像素分类为特定目标或背景。

目标分割技术在图像识别、自动驾驶、医学图像处理等领域具有广泛应用。

本文将对目前主流的目标分割方法进行综述,介绍它们的原理和应用。

一、传统方法的目标分割传统的目标分割方法 usually 基于图像的低级特征,如颜色、纹理和边缘等。

这些方法使用手动定义的规则和特定算法对图像进行处理。

其中,GrabCut 和 Mean-Shift 算法是常用的基于颜色和纹理的目标分割方法。

然而,这些方法对于复杂场景和目标的鲁棒性较差,无法解决遮挡、光照变化等问题。

二、深度学习方法的目标分割近年来,随着深度学习的发展,基于神经网络的目标分割方法取得了巨大的进展。

这些方法通过训练深度卷积神经网络(DCNN)来学习图像特征,并通过像素级的分类实现目标分割。

其中最具代表性的方法是全卷积网络(FCN)和深度拉伸网络(DSN)。

1.全卷积网络(FCN)全卷积网络是一种将传统的卷积神经网络应用于像素级分类的改进方法。

它通过去掉网络的全连接层,将卷积层和上采样层结合,实现了端到端的像素级分类。

FCN 通过多层次和多尺度的特征融合,有效地提高了目标分割的精度。

2.深度拉伸网络(DSN)深度拉伸网络是一种基于全卷积网络的改进模型,它在 FCN 的基础上引入了拉伸操作。

拉伸操作是通过多个特定比例的上采样层实现的,可以更好地保留细节信息。

DSN 通过反向传播算法训练网络,并使用像素级别的损失函数进行目标分割。

三、目标分割的应用领域目标分割技术在许多领域都有广泛的应用。

以下是目标分割在图像识别、自动驾驶和医学图像处理等领域的应用案例。

1.图像识别目标分割在图像识别中起到了关键作用。

通过将图像中的目标与背景分割开来,可以提取出目标的关键特征,从而实现对目标的准确识别。

在目标检测、人脸识别等领域,目标分割技术被广泛应用。

2.自动驾驶自动驾驶技术需要准确地识别和分割出道路、车辆、行人等目标。

normalized cuts and image segmentation翻译

normalized cuts and image segmentation翻译

规范化切割和图像分割摘要:为解决在视觉上的感知分组的问题,我们提出了一个新的方法。

我们目的是提取图像的总体印象,而不是只集中于局部特征和图像数据的一致性。

我们把图像分割看成一个图形的划分问题,并且提出一个新的分割图形的全球标准,规范化切割。

这一标准衡量了不同组之间的总差异和总相似。

我们发现基于广义特征值问题的一个高效计算技术可以用于优化标准。

我们已经将这种方法应用于静态图像和运动序列,发现结果是令人鼓舞的。

1简介近75年前,韦特海默推出的“格式塔”的方法奠定了感知分组和视觉感知组织的重要性。

我的目的是,分组问题可以通过考虑图(1)所示点的集合而更加明确。

Figure1:H<iw m.3Uiyps?通常人类观察者在这个图中会看到四个对象,一个圆环和内部的一团点以及右侧两个松散的点团。

然而这并不是唯一的分割情况。

有些人认为有三个对象,可以将右侧的两个认为是一个哑铃状的物体。

或者只有两个对象,右侧是一个哑铃状的物体,左侧是一个类似结构的圆形星系。

如果一个人倒行逆施,他可以认为事实上每一个点是一个不同的对象。

这似乎是一个人为的例子,但每一次图像分割都会面临一个相似的问题一将一个图像的区域D划分成子集Di会有许多可能的划分方式(包括极端的将每一个像素认为是一个单独的实体)。

我们怎样挑选“最正确”的呢?我们相信贝叶斯的观点是合适的,即一个人想要在较早的世界知识背景下找到最合理的解释。

当然,困难在于具体说明较早的世界知识一一些低层次的,例如亮度,颜色,质地或运行的一致性,但是关于物体对称或对象模型的中高层次的知识是同等重要的。

这些表明基于低层次线索的图像分割不能够也不应该旨在产生一个完整的最终的正确的分割。

目标应该是利用低层次的亮度,颜色,质地,或运动属性的一致性继续的提出分层分区。

中高层次的知识可以用于确认这些分组或者选择更深的关注。

这种关注可能会导致更进一步的再分割或分组。

关键点是图像分割是从大的图像向下进行,而不是像画家首先标示出主要区域,然后再填充细节。

co-segmentation

co-segmentation
Co-segmentation
Report
协同分割定义
图像协同分割是指从包含共同对象(往往也称为前景)的图像组中 分割出共同对象的问题
基于MRF的协同分割
MRF能量函数公式:
基于MRF协同分割对比
基于主动轮廓的协同分割
基本能量函数公式: 其中, 第 1 项描述曲线的长度, 第 2 项描述曲线 所围成区域的面积, 第 3 项描述前景的一致性, 第 4 项描述背景的相似性
基于主动轮廓协同分割对比
基于聚类的协同分割
基于聚类协同分割过程示意图向图的协同分割示意图 基于有向图协同分割分析
协同分割前景
图像协同分割结合了无监督分割和有监督分割的特点. 在大数据时代背景下, 随着越来越多大规模图像数据集的 出现以及网络照片流的应用越来越广泛, 单幅图像的分割 在效率和效果方面已经不能满足需求. 而协同分割则能充 分利用相关图像之间的信息进行图像分割, 为图像分割提 供了较有前景的解决方案。
协同分割主要问题
• 协同分割模型构建、选择以及自适应问题 • 协同分割模型的优化问题 • 局部区域的一致性衡量问题 • 中高层语义下共同对象信息的挖掘问题 • 特定应用下的协同分割问题
参考文献
[1] Rother C, Minka T, Blake A, et al. Cosegmentation of image pairs by histogram matching-incorporating a global constraint into mrfs[C] //Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2006, 1: 993-1000 [2] Zhu H Y, Meng F M, Cai J F, et al. Beyond pixels: a comprehensive survey from bottom-up to semantic image segmentation and cosegmentation[J]. Journal of Visual Communication and Image Representation, 2016, 34: 12-27 [3] Vicente S, Kolmogorov V, Rother C. Cosegmentation revisited: Models and optimization[M] //Lecture Notes in Computer Science. Heidelberg: Springer, 2010, 6312: 465479 [4] Mukherjee L, Singh V, Dyer C R. Half-integrality based algorithms for cosegmentation of images[C] //Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2009: 2028-2035 [5] Hochbaum D S, Singh V. An efficient algorithm for Co-segmentation[C] //Proceedings of the 12th IEEE International Conference on Computer Vision. Los Alamitos: IEEE Computer Society Press, 2009: 269-276 [6] Rubio J C, Serrat J, Ló pez A, et al. Unsupervised co-segmentation through region matching[C] //Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2012: 749-756 [7] Collins M D, Xu J, Grady L, et al. Random walks based multiimage segmentation: Quasiconvexity results and GPU-based solutions[C] //Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2012: 1656-1663 [8] Kim G, Xing E P, Li F F, et al. Distributed cosegmentation via submodular optimization on anisotropic diffusion[C] //Proceedings of IEEE International Conference on Computer Vision. Los Alamitos: IEEE Computer Society Press, 2011: 169-176 [9] Kichenassamy S, Kumar A, Olver P, et al. Conformal curvature flows: From phase transitions to active vision[J]. Archive for Rational Mechanics and Analysis, 1996, 134(3): 275-301 [10] Caselles V, Kimmel R, Sapiro G. Geodesic active contours[J]. International Journal of Computer Vision, 1997, 22(1): 61-79 [11] Meng F M, Li H L, Liu G H. Image co-segmentation via active contours[C] //Proceedings of IEEE International Symposium on Circuits and Systems. Los Alamitos: IEEE Computer Society Press, 2012: 2773-2776 [13] Ali S, Madabhushi A. An integrated region-, boundary-, shape-based active contour for multiple object overlap resolution in histological imagery[J]. IEEE Transactions on Medical Imaging, 2012, 31(7): 1448-1460 [14] He N, Zhang P. Varitional level set image segmentation method based on boundary and region information[J]. Acta Electronica Sinica, 2009, 37(10): 2215-2219 [15] Joulin A, Bach F, Ponce J. Discriminative clustering for image co-segmentation[C] //Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2010: 1943-1950 [16] Meng F M, Li H L, Liu G H, et al. Object co-segmentation based on shortest path algorithm and saliency model[J]. IEEE Transactions on Multimedia, 2012, 14(5):1429-1441 [17] Meng F M, Li H L, Liu G H. A new co-saliency model via pairwise constraint graph matching[C] //Proceedings of International Symposium on Intelligent Signal Processing and Communications Systems. Los Alamitos: IEEE Computer Society Press, 2012: 781-786

blendmvs评估指标

blendmvs评估指标

blendmvs评估指标BlendMVS是一种基于深度学习的多视图立体重建方法,该方法使用了全局一致性和局部一致性两种评估指标来评估立体重建结果的质量。

全局一致性主要用于评估整体场景的重建质量。

该指标包括两个子指标:稀疏对齐误差和稠密对齐误差。

稀疏对齐误差是指通过匹配稀疏点云的方式计算得到的场景中各个点的3D位置与真实位置之间的距离误差。

稠密对齐误差是指通过匹配稠密点云的方式计算得到的场景中各个点的3D位置与真实位置之间的距离误差。

这两个指标的计算方法都使用了平均重投影误差,即通过将重建结果投影回不同视图上,计算投影像素与对应视图观察到的像素之间的距离。

局部一致性主要用于评估局部细节的重建质量。

该指标包括两个子指标:立体结构误差和立体纹理误差。

立体结构误差是指通过对立体重建结果进行网格化,然后计算网格点之间的距离误差来评估场景结构的重建质量。

立体纹理误差是指通过对立体重建结果进行纹理映射,然后计算纹理像素之间的差异来评估场景纹理的重建质量。

这两个指标的计算方法都使用了平均距离误差,即通过计算对应网格点或纹理像素之间的距离来评估重建质量。

除了全局一致性和局部一致性之外,还可以使用其他一些指标来评估BlendMVS的重建质量。

例如,可以使用视角一致性指标来评估不同视角下观察到的场景的一致性程度。

该指标可以通过计算不同视角下观察到的重建结果之间的距离来评估。

另外,可以使用表面平滑度指标来评估重建结果的平滑程度,该指标可以通过计算网格表面上相邻点之间的平均距离来评估。

在使用BlendMVS进行立体重建时,可以使用以上的评估指标来评估不同步骤的结果质量,并通过对比不同算法或不同参数设置的结果来选择最优的重建结果。

同时,这些评估指标也可以用于指导算法改进和参数优化的过程,以提升立体重建的效果和质量。

总之,BlendMVS使用全局一致性和局部一致性作为主要评估指标来评估立体重建结果的质量,同时还可以使用一些其他指标来进行综合评估。

实时人脸特征提取(外文翻译)

实时人脸特征提取(外文翻译)

(4) 外文翻译译文外文标题:实时人脸特征提取作者:赵杰煜,刘箴出处:中国科学杂志(外文版).2008年4月刊E 辑.信息科学收稿日期:2007-07-10;接受日期:2008-02-26摘要 快速精确的人脸特征提取是人脸识别和表情分析的基础.文 中提出了一种新型高效的视频人脸几何特征实时提取方法.视频输入 图像以加权图形式表示,通过在加权图上的随机游动实现人脸像素级 特征的自动提取,脸部特征包括外轮廓、眉毛、眼睛、鼻子和嘴唇.加 权图釆用8-邻接结构,定义在图的边上的加权值反映随机游动通过该 边的似然度.随机游动模拟了一个各向异性的扩散过程,此扩散过程 在滤除图像噪声点的同时保留下脸部特征点.随机游动从一些事先通 过颜色和运动信息确定的、最具人脸特征的种子点开始,通过随机游 动获得的人脸特征点以其原始形式统一保存在多个链表结构中,并根 据人脸各部分的相对位置聚集成对应的特征点集合.有关人脸结构的 先验知识通过Bayes 方法结合到分析过程中.为了便于高层视觉计算, 釆用统计形状分析方法,将人脸特征点进一步表示成形状和配准信息, 形状是具有仿射不变特性的几何信息,用于描述人脸的全局特征.形 状的距离度量釆用Procrustes 距离.实验结果表明,提出的方法快速高 效,能够实时地从视频中提取出人脸特征,在一定程度的光线变化、尺 度变化、头部转动、手部干扰的情形下仍可以正常工作. 人脸信息处理是一个富有挑战性的研究领域,是多学科交叉的研究热点,由于技术的进 步和市场的需求,近年来引起了学术界和工业界的广泛关注^.人脸特征提取作为人脸信息处理最为重要的一步,对于后续的基于视觉的人机交互至关 重要,脸部表情分析、人脸识别、生物认证、动画制作、视频会议等都依赖于高效精确的人脸 特征提取.人脸特征提取过程中的细小误差很容易导致身份验证或表情分析的错误.然而,由对于视频人脸特征的分割和提取,采用求图模型最优解的方法由于计算量大做到实时运 算目前尚无法实现.因此,我们采用了有限的随机游动来近似地实现一个各向异性的扩散过 程该过程在滤除图像噪声点的同时保留人脸特征点,从而获得精确的人脸几何特征.本文的组织如下:第1节介绍图模型的表示并定义加权图上的随机游动;第2节给出采用 随机游动实现人脸特征点分割的方法;第3节介绍统计形状分析方法;第4节给出实验结果, 第5节为小结.(4)1图模型与随机游动加权图是数字图像非常自然的一种表示形式,图的顶点对应于像素,加权边用于表示像 素间的关联度.本文采用8-邻接结构的无向加权图.边上的加权反映该边所具有的脸部特征 的程度,越具有典型的脸部特征,加权值越大;越不具有脸部特征的,加权值越小.这里我们简要地给出图模型以及加权图上随机游动的正式定义.一个图G = (F,五)由可数顶点集F 和边集五组成,边ee 五为顶点对:e=〈x,少>=〈少,x>, x,_yeF.如果顶点x 和y 通过一条边相连,这种相邻关系就表示为—个加权图 Gw=(G,w),其中G 是一个图,w 是一个实函数,w:五(G)R 汧>0.定义在加权图上的随机游动是通过随机选择一条当前顶点的相连边连续不断地实现对一 系列相邻顶点访问的随机过程.选择一条相连边的概率由该边的加权与所有相连边的加权之和的比率决定.对边e z e 五,设其上的加权为%=W (e z ).对顶点veF,设与v 相连的所有边的 集合为#(v) = {ee £(G): e=〈兄v>,少e 「}, r(v)表示与v 相连的所有边上的加权之和,即 妒(v) = I eieW(v)W;.则加权图G w = (G,w)上的随机游动X 是一个采用以下转移概率的随机过程,其中/v ~Xn 是连接v 和X n 的边的集合的指示函数. 2人脸特征点分割加权图上的随机游动可以被有效地用于图像滤波和图像分割.图像滤波过程由Perona 等 人M 提出的各向异性扩散方程描述;图像分割过程则由Laplace 方程表示给定一些种子像 素,算法通过随机游动来标记那些最易到达种子点的像素.大多数各向异性扩散滤波算法的 目标是在不穿越边界的前提下平滑图像的同质区域,而图像分割的目标是标记出同质区域. 对于图像质量不高的视频人脸特征提取,我们需要同时达到2个目标:既要滤除图像噪声,又 要分割出人脸特征点.假设当前图像由实函数描述向异性扩散可以表示为如下形式:为了在滤除噪声平滑图像的同时保留人脸结构信息,传导系数一般定义为空间位置相关 项,最常见的选择如下:c ( x , y , t ) = exp (|VF (x ,y ,t )||2 ^ 2l 2(3) c ( x , y , t ) = exp (|VF (x ,y ,t )||2 ^ 2l 2其中2为常数.由此可见,对于图像的一致性较好的区域,c的取值较大,达到平滑的效果;对于变化较大的人脸特征区域,c的取值较小,从而达到保留人脸结构信息的目的.上述的各向异性扩散过程可以由一组随机游动来实现.设G w =(G,W)是对应于输入图像的加权图,采用8-邻接结构,为连接顶点/和y的边上的加权,随机游动采用自回避形式, 即随机游动不重复通过同一个点,单步转移概率如下,其中V。

micasense多光谱 处理

micasense多光谱 处理

micasense多光谱处理
Micasense多光谱处理是指对Micasense多光谱图像进行分析和处理,以提取有用的信息。

以下是一些常见的Micasense多光谱处理方法:
1. 反射率校正:由于不同光谱波段的光照条件不同,需要对图像进行反射率校正,以消除光照差异的影响。

2. 波段融合:将不同波段的图像融合在一起,以提高图像的分辨率和信息内容。

常用的波段融合方法有主成分分析法(PCA)、维纳滤波法等。

3. 植被指数计算:植被指数是通过计算不同波段之间的比值或差异来评估植被生长状态的指标。

常用的植被指数包括归一化植被指数(NDVI)、归一化水体指数(NDWI)等。

4. 特征提取:通过使用图像处理和机器学习算法,从Micasense多光谱图像中提取出与目标特征相关的信息,例如植被覆盖率、土地利用类型等。

5. 图像分类:利用机器学习算法将Micasense多光谱图像进行分类,以实现目标检测和区域划分等应用。

常用的分类算法有支持向量机(SVM)、随机森林(RF)等。

6. 变化检测:通过对不同时间点的Micasense多光谱图像进行比较,检测出地
表覆盖的变化情况,了解植被生长、土地利用等方面的变化。

以上仅是对Micasense多光谱处理的一些常见方法的简单介绍,实际应用中还需要根据具体需求进行详细的处理流程设计和参数调整。

用于视频译码的量化组[发明专利]

用于视频译码的量化组[发明专利]

专利名称:用于视频译码的量化组
专利类型:发明专利
发明人:赵咏萱,陈义文,钱威俊,M·卡切维奇申请号:CN201980008515.7
申请日:20190118
公开号:CN111602395B
公开日:
20220614
专利内容由知识产权出版社提供
摘要:一种对视频数据进行译码的方法,所述方法包括:基于CU分裂节点的大小和基于区域的参数的值中的一或多个来确定量化组QG,为所确定的量化组内的所有视频数据块确定单个量化参数,以及使用所确定的单个量化参数对所述所确定的量化组内的所有视频数据块的变换系数执行量化过程。

申请人:高通股份有限公司
地址:美国加利福尼亚州
国籍:US
代理机构:永新专利商标代理有限公司
代理人:赵腾飞
更多信息请下载全文后查看。

用于视频编码和解码的色度处理[发明专利]

用于视频编码和解码的色度处理[发明专利]

专利名称:用于视频编码和解码的色度处理专利类型:发明专利
发明人:E.弗朗索瓦,R.朱利安,F.希伦
申请号:CN202080047527.3
申请日:20200428
公开号:CN114026866A
公开日:
20220208
专利内容由知识产权出版社提供
摘要:对画面信息进行编码或解码可涉及确定随第一粒度变化用于缩放与包括在所述画面信息中的色度信息相关联的色度预测残差的第一缩放因子;确定随比所述第一粒度更细的第二粒度变化的第二缩放因子;基于所述第一缩放因子和所述第二缩放因子的组合缩放所述色度预测残差,以提供具有所述第二粒度的缩放的色度预测残差;以及基于所述缩放的色度预测残差对所述画面信息的至少一部分进行编码或解码。

申请人:交互数字VC控股公司
地址:美国特拉华州
国籍:US
代理机构:北京市柳沈律师事务所
代理人:赵碧洋
更多信息请下载全文后查看。

实例分割的发展历程

实例分割的发展历程

实例分割的发展历程实例分割是计算机视觉领域中的一项重要技术,它能够在图像中对每一个像素进行像素级别的分类,区分图像中不同的实例。

随着计算机技术和深度学习的不断发展,实例分割技术也在不断升级和演进。

下面是实例分割的发展历程:1.2014年,Ross Girshick等人提出的RCNN算法将卷积神经网络(CNN)用于物体检测任务。

RCNN将输入的图像分成若干个候选框,对每个候选框进行卷积操作,再通过分类器进行分类。

尽管RCNN早期实现极为复杂,但其思路奠定了实例分割算法的基础。

2.2015年,Jifeng Dai等人提出的全卷积网络FCN,首次将CNN用于像素级别的语义分割任务。

FCN通过利用反卷积对输出进行插值,从而使得网络能够产生与输入图像相同分辨率的像素级别的预测。

此后,一系列类似的全卷积网络被提出。

3.2016年,Bharath Hariharan等人在FCN的基础上提出了一种新的实例分割方法——Mask R-CNN。

Mask R-CNN直接在Faster R-CNN的基础上添加分支网络生成掩码。

此外,该方法还使用了RoI Align ,一种准确截取ROI区域的新方式。

4.2018年,Facebook AI Research团队提出的Panoptic Segmentation算法,这一算法将实例分割和语义分割结合起来,并提出了一种新的度量标准——Panoptic Quality(PQ),该度量准确地衡量了同一区域多个实例实例分割和语义分割的质量。

在不断的创新和发展中,实例分割算法正在越来越多地应用于医学图像、自动驾驶等领域,成为科技创新和社会发展的重要驱动力。

基于Canny边缘检测和外观特征的微血管瘤检测方法

基于Canny边缘检测和外观特征的微血管瘤检测方法

基于Canny边缘检测和外观特征的微血管瘤检测方法摘要:糖尿病性视网膜病变进行早期筛查可以减少疾病的发展并且阻止随后的视力损害。

微血管瘤是糖尿病性视网膜病变的早期临床症状,可以通过微血管瘤检测对糖尿病性视网膜病变进行早期筛查。

针对眼底图像中视网膜血管、视盘、渗出物以及微血管瘤之间的相互关系,在红色通道和绿色通道加权图上定位出视盘,在绿色通道上采用基于简单统计的自适应双阈值Canny算子进行边缘检测,并进行封闭区域的填充。

设定阈值消除大面积对象并移除视网膜血管、视盘和渗出物得到微血管瘤的候选区域,最后根据形状特征和颜色特征从候选区域中得到真正的视网膜微血管瘤。

实验结果表明,该算法能够有效提取视网膜眼底图像中的微血管瘤,敏感性和阳性预测值分别达到92%和86%,优于现有一些典型的微血管瘤检测方法,能够精确地检测出微血管瘤,可用在糖尿病性视网膜病变早期筛查中。

关键词:糖尿病性视网膜病变;微血管瘤;Canny 算子;区域填充中图分类号:TN911.23?34;TP391.4;TH79 文献标识码: A 文章编号:1004?373X(2017)06?0103?06 Abstract:The early screening of the diabetic retinopathycan restrain the development of disease and prevent the subsequent vision impairment. The microaneurysm is the earliest clinical sign of the diabetic retinopathy,and its detection can perform the early screening for the diabetic retinopathy. Considering the interrelation among the retinal blood vessel,optic disc,exudates and microaneurysm in the eye ground image,the optic disc is located in the weighted images of the red channel and green channel. The adaptive dual?threshold Canny operator based on simple statistics is adopted in the green channel to perform the edge detection,and fill the enclosed region. The threshold is set to eliminate the large area objects,and remove the retinal blood vessel,optic disc and exudates to acquire the candidate area of the microaneurysm,in which the real retina microaneurysm is obtained according to the shape feature and color feature. The experimental results show that the method can extract the microaneurysm in the retina eye ground image,the sensitivity and positive predictive values can reach up to 92% and 86% respectively,the method is superior to some typical microaneurysm detection methods,can detect the microaneurysm accurately,and is useful for the early screening of the diabetic retinopathy.Keywords:diabetic retinopathy;microaneurysm;Canny operator;region filling0 引言视网膜是用于研究早期糖尿病微血管并发症的重要窗口,糖尿病性视网膜病变的早期征兆可以用于确认病人存在视力威胁并发症的风险,晚期糖尿病性视网膜病变是导致成年人失明的主要原因[1]。

基于多层感知遗传算法的图象分割新方法

基于多层感知遗传算法的图象分割新方法

基于多层感知遗传算法的图象分割新方法
龙甫蔡
【期刊名称】《控制理论与应用》
【年(卷),期】1998(015)002
【摘要】本文提出了一种新的灰色图象的分割方法。

【总页数】5页(P232-236)
【作者】龙甫蔡
【作者单位】西安交通大学人工智能与机器人研究所
【正文语种】中文
【中图分类】TP391.41
【相关文献】
1.基于多分辨率遗传算法的多层感知神经网络及其在短期电力负荷预… [J], 周翔;蔡自兴
2.基于人类视觉感知特性的一种纹理图象分割方法 [J], 靳华;王晓丹;赵荣椿
3.基于遗传算法和蚂蚁算法的图象分割 [J], 张锋;卿粼波;王旭阳;滕奇志;何小海
4.基于遗传算法和BP算法的多层感知机杂交训练算法 [J], 穆文全;廖晓峰
5.基于遗传算法的彩色图象分割 [J], 张笃振;李一民
因版权原因,仅展示原文概要,查看原文内容请购买。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Accurate Lumen Segmentation and Stenosis Detection and Quantification in Coronary CTABrian Mohr,Saad Masood,Costas PlakasToshiba Medical Visualization Systems,Edinburgh,UKAbstract.Accurate detection and quantification of coronary artery stenosesis fundamental in correct patient diagnosis and optimal treatment plan-ning.Central to detection and quantification is the correct estimation oflumen in the coronary vessel.Here,we describe a method for accuratelumen segmentation in CTA and present results of an early prototypefor stenosis detection and quantification for a variety of datasets.For thedetection,a sensitivity of72%and a PPV of17%is obtained as com-pared to QCA,while a sensitivity of57%and a PPV of18%is achievedas compared to CTA.The stenosis degree is estimated with an absoluteaverage difference of49%as compared to QCA,and a weighted kappavalue of-0.15is obtained as compared to CTA.A Dice of73%and69%isreported for lumen segmentation of healthy and diseased vessel segmentsrespectively.Keywords:stenosis,segmentation,coronary1IntroductionNarrowing of the coronary arteries(stenosis)has a dramatic effect on blood pressure,resistance and bloodflow.Resistance increases when radius decreases, as friction of bloodflow against vessel wall increases.Therefore the circulation of bloodflow is reduced,and cells may be deprived of oxygen or experience toxic accumulation of metabolic wastes.Accurate stenosis detection is therefore crucial in patient diagnosis.Furthermore the accurate determination of the degree of stenosis is important as it is fundamental in deciding treatment strategies.Since stenosis is usually defined as a reduction of the freeflowing lumen diameter over what’s to be expected in a normal vessel,it follows that correct lumen segmentation is of the essence.1.1Previous WorkThere is a substantial volume of literature on coronary artery segmentation. This becomes even larger when looking at vascular segmentation in general, given that many techniques that have been applied for other vessels can easily be used for pounding that,a lot of techniques reported for MRA vessel segmentation can also be used for CTA.We will,therefore,only attempt acursory review of previously reported work.For a more comprehensive analysis and categorization of vessel segmentation techniques,the reader is directed to [1]and[2]Wang et.al.[3]employ a dual-snake approach to simultaneously detect the inner and outer wall borders.Grosskopf et.al.iteratively utilize a3D Active Con-tour Model(ACM)with refinements on Multi-Planar Reconstructions(MPRs) using2D ACMs[4].In[5]Rink et.al.present a shape-based segmentation and visualization technique using two surface representations,one for the contrast filled vessel lumen and also one for the vascular wall.Bock et.al.[6]propose a progressive region growing approach with a growth front monitoring technique to control the segmentation and correct local leakage by retrospective detection and removal of leakage artifacts.In[7],Renard et al.perform lumen segmentation by adaptive region growing,computing local statistics for the appearance of lumen voxels.In[8],Yang et.al.propose a hybrid approach for segmentation of coronary arteries using multi-scale vesselfiltering and a Bayesian probabilistic approach in a level set image segmentation framework.The same group in[9]propose an alternative method where the level set starts at the ostia and operates on a binary volume,where the active voxels are only the ones representing blood. In[10]Nain et.al.propose a level-set method combining an adaptive intensity model with a shape prior model and shape observations on a scale larger than a derivative would look at(i.e.not curvature).In[11],Fahmi et.al.propose an edge-based level set segmentation technique applied only on the image portion consisting of the voxels that lie within a radius R from the vessel centerline.Xu et.al.[12]propose a method for detecting and quantifying coronary arterial stenosis in CTA using a Fuzzy Distance Transform (FDT)approach.Coronary arterial stenoses are detected and their severities are quantified by analysing FDT values along the medial axis of an artery obtained by skeletonization.2MethodologyThe key to accurate stenosis detection and quantification is precise lumen seg-mentation.In our case,we start with the vessel centerline as an input to our algorithm.The process then follows four major steps:1.Initialization2.Tissue classification and Calcium segmentation3.Lumen segmentation4.Stenosis detection and quantificationThefirst three parts are covered by a pending patent.2.1InitializationIn the initialization step a“stacked volume”is constructed from the given cen-terline.This volume is constructed by resampling the original volume data acrossimage cut planes generated at one voxel spacing across the centerline and then stacked on top of one e of this stacked volume simplifies the expres-sion of geometric constraints applied to lumen segmentation.The algorithm then generates an approximate segmentation of the lumen and vessel wall,using a3D Active Contour aproach,to be used as input to other components.Thefinal results do not strongly depend on the accuracy of this segmentation and the algorithm used here could be easily replaced by a variety of other segmentation algorithms-or even thresholding followed by morphological operations-with equally good results.We will therefore go no deeper into the details of this step.2.2Tissue classification and Calcium segmentationThis step is a crucial pre-requisite for the success of the lumen segmentation to follow.It is critical to be able to differentiate between contrasted blood and the vessel wall,in order to accurately segment the lumen.Intensity values at the low HU range for lumen,however,are overlapping with values that can reasonably be considered as belonging to vessel wall or the various plaque types.It is therefore not possible to utilize a straightforward approach,like thresholding,and a more sophisticated method is required.Likewise,in the high HU range,it becomes difficult to tell apart lumen vox-els from calcified plaque.As calcified plaque is a major contributor to stenoses though,accurate calcium segmentation becomes paramount.Since identifying and removing calcium voxels will make the classification task easier,it is per-formedfirst in our method.Calcium Segmentation Calcified plaque is identified by an intensity threshold above which a voxel is considered to be calcium(within the general region of the vessel).This threshold is determined by an unsupervised classification technique and is unique to each vessel within the data.The technique uses a measure known as the Bayesian Information Criterion, applied to determine the number of clusters in a given set of data[13].Assuming the clusters to have Gaussian distributions,the BIC can be written in a closed form as:BIC=mi=1(n i logn i−n i logn−n i∗d2log(2π)−n i2logV i−n i−m2)−12mlognwhere V i is the variance estimate for each cluster,d the number of dimensions, n i the number of samples in each cluster,and m the number of clusters(in our case2).The techniquefirst collates all voxel intensities over a specific HU value within the initial vessel segmentation.(this value is sufficiently high as to include only lumen or potential calcified plaque.)It then iterates over several potential thresh-olds(starting at the maximum HU value and reducing by afixed amount in each iteration),partitioning the initial voxel intensities into two clusters.The BIC is computed for each potential threshold,and the result is plotted against the potential threshold.The best possible threshold to separate the two distributions is thefirst maximum of the BIC curve(BIC v threshold)in the direction of large to small threshold values[13].A schematic of the process can be seen in Fig.1.Fig.1.Calcified Plaque Threshold EstimationTissue classification In the tissue classification step we are trying to construct posterior probabilities that a pixel with a given intensity is vessel wall or lumen. These,in turn,will be used later to drive our level-set for lumen segmentation. Voxels identified as calcified plaque by the method described above are excluded.Using the approximate initial segmentation the vessel is divided into small segments.A kernel is defined over a region consisting of an arbitrary range of segments.(Regions can overlap by an arbitrary amount.)Each region is classified according to the appropriately weighted segment assuming a two class distribu-tion.Assuming Gaussian distributions for the two tissue classes,wall and lu-men,we use k-Means[14,15]followed by Expectation-Maximization[16]to ex-tract mean,variance,and weight of each distribution.Each voxel can then be given probabilities of belonging to the lumen or wall classes according to it’s HU value,from the estimated probability distribution functions.2.3Lumen SegmentationSegmentation of the vessel lumen follows a level-set approach.The level-set de-scribed by Nilsson[17]is used,primarily for reasons of computation speed.The speed function driving the level-set uses the tissue classification described above, in an approach similar to that described in[9],while the calcium threshold is used to prevent the inclusion of calcified plaque.2.4Stenosis detection and quantificationDetecting stenoses is a direct by-product of the lumen segmentation.In this early prototype,stenosis detection and quantification are performed based on estimating the expectated vessel profile at each point along the vessel.Having segmented the lumen wefit a line to the calculated vessel lumen diameters, providing an expectation of the lumen diameter ate each position.The stenosis percentage is then calculated as the percentage deviation of the real lumen di-ameter from the expected one.Only areas with estimated stenosis higher than 20%are reported.With this method of using the estimated expected vessel profile,detection and quantification of stenoses is simultaneously achieved.An accurate Lumen Segmentation is,therefore,a key requirement for such a method.It is essential that the lumen segmentation is capturing enough detail so that a stenosed region can be discriminated from a healthy region and accurately quantified.3ResultsThe algorithm has been tried on a set of24,previously unseen,datasets provided by the organizers of the3D Cardiovascular Imaging:a MICCAI segmentation challenge workshop.As our algorithm requires coronary centerlines as input, these were also provided by the organizers.The centerlines provided were esti-mated by the Rcadia team method,as described in[18].Evaluation of the algorithm results was performed by the workshop’s on-line evaluation framework.Three main categories were looked at,namely:1.Stenosis Detection2.Stenosis Quantification3.Lumen Segmentation3.1Stenosis DetectionDetection has been evaluated against reference from two clinically relevant steno-sis measures,the CTA and QCA.Only heavy stenoses(i.e.more than50%)have been considered.So for a reported stenosis to count as detection it must not just be in the correct position,but also be quantified as higher than50%.This,in effect,skews the pure detection results(i.e.is a reported stenosis in the same place as a true one),but gives a picture of what a physician would be interested to see in a clinical setting.For both CTA and QCA references,sensitivity and positive predictive value are reported and compared with results from three ex-pert observers evaluating the same datasets.The results can be seen in Table 1.As can be seen,our method achieves good detection rates and compares favourably to human experts for the QCA reference standard.Further work is clearly needed though to increase the Positive Predictive Value of the algorithm and therefore give more confidence in the reported detections.The view taken on this early prototype was to try not to miss a clinically important stenosis, even at the expense of more false positives.QCA Sens.QCA P.P.V CTA Sens.CTA P.P.VObserver10.880.400.770.58Observer20.700.490.640.72Observer30.680.450.680.62Our Result0.720.170.570.18Table1.Stenosis Detection Results vs Observers3.2Stenosis QuantificationIn quantification,the goal is to evaluate how accurately the degree of a stenosishas been ascertained.The metrics here are the average absolute difference andthe R.M.S.difference of the reported QCA values to the real ones and also theWeighted Kappa value for the reported CTA values.The Weighted Kappa is ametric that informs on the chance that a certain grouping of results could agreewith the true ones by chance.Results,again against three expert observers,canbe seen in Table2.QCA Avg.Abs.Diff.QCA R.M.S.Diff.CTA Weighted KappaObserver130.635.70.36Observer232.637.50.34Observer331.037.10.28Our Result49.355.8-0.15Table2.Quantification Results vs Observers3.3Lumen SegmentationLumen segmentations from our algorithm are reported in the form of surfacemeshes.The metrics used for evaluation in this case are the popular DICEmetric and the mean and max surface distances between the reported results andthe true ones.Values for these metrics are reported separately for the variousdiseased and healthy vessel portions,in Table3.Results for the24datasets arepresented and again compared with the human expert observers.DICE diseased DICE healthy MSD diseased MSD healthy MAXSD diseased MAXSD healthy Observer10.760.770.090.18 2.74 3.41 Observer20.640.720.120.20 2.83 3.13 Observer30.790.810.080.15 2.91 3.27Our Result0.690.730.150.31 2.79 2.95 Table3.Lumen Segmentation Results vs ObserversResults for segmentations show good agreement with the true lumen,with a high dice coefficient and low surface deviations for both healthy and diseased regions.This is a significant result,since detection and quantification critically depend on the segmentation quality,but also in enabling other applications in the clinical coronary workflow.4ConclusionsWe have presented a method of coronary tissue classification and lumen segmen-tation and an initial prototype method for stenosis detection and quantification. Our algorithm results in accurate lumen segmentation with a high dice coeffi-cient and low surface deviations for both healthy and diseased regions.Stenosis detection demonstrates good sensitivity,while obviously tuned to reduce the number of false negatives.Regarding stenosis quantification,we did not model QCA from CTA measurements and we do not achieve higher accuracy than the manual expert quantification.References1. D.Lesage,E.Angelini,I.Bloch,and G.Funka-Lea,“A review of3D vessel lu-men segmentation techniques:Models,features and extraction schemes.,”Medical Image Analysis,vol.13,pp.819–845,Aug.2009.2. C.Kirbas and F.Quek,“A review of vessel extraction techniques and algorithms,”ACM Computing Surveys,vol.36,pp.81–121,June2004.3.S.Wang,C.Tung,M.Wu,and YN,“Dual Snake-Based Vessel Wall Detection forMSCT Coronary Artery Analysis,”Journal of Medical and Biological Engineering, vol.27,no.4,pp.165–171,2007.4.S.Grosskopf,C.Biermann,K.Deng,and Y.Chen,“Accurate,fast,and robustvessel contour segmentation of CTA using an adaptive self-learning edge model,”in Proceedings of SPIE,vol.7259,pp.72594D–72594D–8,Spie,2009.5. D.Rinck,S.Krueger,A.Reimann,and M.Scheuering,“Shape-based segmentationand visualization techniques for evaluation of atherosclerotic plaques in coronary artery disease,”in In Proceedings:SPIE,vol.6141,pp.61410G–61410G–9,Spie, 2006.6.S.Bock,C.K¨u hnel,T.Boskamp,and H.-O.Peitgen,“Robust vessel segmentation,”In Proceedings:SPIE,vol.6915,pp.691539–691539–9,2008.7. F.Renard and Y.Yang,“Image analysis for detection of coronary artery softplaques in MDCT images,”in In Proceedings:5th IEEE International Symposium on Biomedical Imaging:From Nano to Macro,(Paris),pp.25–28,Ieee,May2008.8.Y.Yang,A.Tannenbaum,and D.Giddens,“Automatic segmentation of coronaryarteries using Bayesian driven implicit surfaces,”in In Proceedings:IEEE Interna-tional Symposium on Biomedical Imaging,pp.189–192,2007.9.Y.Yang,A.Tannenbaum,D.Giddens,and W.Coulter,“Knowledge-based3Dsegmentation and reconstruction of coronary arteries using CT images.,”in Pro-ceedings of IEEE Engineering in Medicine and Biology,vol.3,pp.1664–6,Jan.2004.10. D.Nain,A.Yezzi,and G.Turk,“Vessel segmentation using a shape drivenflow,”in In Proceedings:Medical Image Computing and Computer-Assisted Intervention, pp.51–59,2004.11.R.Fahmi,A.Jerebko,M.Wolf,and A.A.Farag,“Robust segmentation of tubu-lar structures in medical images,”in Proceedings of SPIE,vol.6914,pp.691443–691443–7,Spie,2008.12.Y.Xu,P.K.Saha,G.Hu,G.Liang,Y.Yang,and J.Geng,“Quantification ofstenosis in coronary artery via CTA using fuzzy distance transform,”in In Pro-ceedings:SPIE,vol.7262,pp.72620K–72620K–12,Spie,2009.13.Q.Zhao,V.Hautamaki,and P.Franti,“Knee Point Detection in BIC for Detect-ing the Number of Clusters.,”Advanced Concepts for Intelligent Vision Systems, vol.5259,pp.664–673,Nov.2008.14.J.B.MacQueen,“Some methods for classification and analysis of multivariate ob-servations,”in Proceedings of the Fifth Symposium on Math,Statistics,and Prob-ability,pp.281–297,University of California Press,1967.15.J.Marroquin and F.Girosi,“Some extension of the k-means algorithm for imagesegmentation and pattern recognition.,”AI Memo1390,Massachusetts Institute of Technology,1993.16.T.Moon,“The expectation-maximization algorithm.,”Signal Processing Maga-zine,vol.13,pp.47–60,Nov.1996.17. B.Nilsson and A.Heyden,“A fast algorithm for level set-like active contours.,”Pattern Recognition Letters,vol.24,pp.1331–1337,Nov.2003.18.R.Goldenberg,D.Eilot,G.Begelman,E.Walach,E.Ben-Ishai,and N.Peled,“Computer-aided simple triage(CAST)for coronary CT angiography(CCTA).,”Int J Comput Assist Radiol Surg,Apr.2012.。

相关文档
最新文档