基于数字图像处理的纱线毛羽检测_孙银银

合集下载

基于参数核图割的纱线毛羽图像处理方法

基于参数核图割的纱线毛羽图像处理方法

基于参数核图割的纱线毛羽图像处理方法苏泽斌;黄梦莹;景军锋【摘要】为了准确计算纱线毛羽特征参数,克服图割法中人为随机选择阈值造成的消极影响,提出了一种基于参数核图割的图像处理纱线毛羽算法.首先,采用局部最大类间方差法获取纱线二值图像,并与纱芯二值图像作逻辑运算,提取毛羽进行特征分析.然后,选取两种不同支数的纱线,以USTER CLASSIMAT 5测试结果为标准,比较参数核图割法与区域生长法、线性近似纱芯边界法对纱芯分割图像处理方法的优劣.结果表明,参数核图割法耗时少、误分点少,毛羽检测算法准确率高达95.5%,远优于另两种算法,也证明了选取不同的纱芯分割方法将直接影响毛羽特征分析的准确性.%In order to calculate yarn hairiness characteristic parameter accurately,and overcome the negative impact from selecting threshold artificially in graph cut method,image processing algorithm of yarn hairiness based on parametric kernel graph cut method is proposed.Firstly, the yarn core binary image is acquired via the step of yarn core segmentation by parametric ker-nel graph cut method,and then the logical operation is carried out between the yarn binary im-age and the yarn core binary image to extract hairiness for characteristic analysis.Then,the method is compared with two image processing methods previously used for yarn core segmen-tation in terms of two kinds of yarn samples.The experimental results show that the method a-chieves the least time and minimum number of classification error,the proposed algorithm is more precise and accurate,and reaches up to 95.5%,compared with the other two methods in the standard of test results of USTER CLASSIMAT5 .Meanwhile,it is proved that the accu-racy of hairiness characteristic analysis is directly influenced by yarn core segmentation method.【期刊名称】《西安工程大学学报》【年(卷),期】2017(031)004【总页数】10页(P486-494,501)【关键词】图像处理;图像分割;纱线毛羽;参数核图割;纱芯分割;毛羽特征分析【作者】苏泽斌;黄梦莹;景军锋【作者单位】西安工程大学电子信息学院,陕西西安 710048;西安工程大学电子信息学院,陕西西安 710048;西安工程大学电子信息学院,陕西西安 710048【正文语种】中文【中图分类】TP391在纱线质量检测中,毛羽是衡量纱线质量好坏的重要指标.毛羽的基本形态分为两类[1-2]:一类是纤维头端(一端或两端)伸出纱芯的端毛羽;另一类是两端在纱芯内而中段成圈状浮在纱芯外的圈毛羽.毛羽越长,对纱线的性能、质量和后序加工过程的影响越大.行业认为2 mm以上的毛羽即会产生不良影响,并定义3 mm及以上的毛羽长度为临界长度及有害长度[3].因此,很有必要准确测量纱线毛羽的特征参数,从而为纱线生产过程提供参考信息.纱线毛羽由于细微、复杂,使其成为难以准确检测的指标.对此,国内外学者提出了不同的研究方法[2,4-5].纱线毛羽的检测最初是以手工方式实现的,通过显微镜将纱线图片放大,再使用曲线计进行手工测量[6].此法费时费力,会因个人对毛羽边界的定义存在差异造成误差.因此,人们一直致力于用自动检测系统替代传统的手工测量.目前,商业上使用最广泛且发展较成熟的毛羽检测方法是光电法,它通过投影计数法[7]或全毛羽光电法[8]自动检测纱线毛羽,其中以瑞士USTER公司的毛羽检测装置尤为出色.随着数字图像处理技术和机器视觉的快速发展,充分利用该技术克服其他检测方法的缺点,实现对纱线毛羽的客观评定,对提高纱线质量具有重要的意义[9-12]. 采用图像处理技术分析纱线毛羽时,图像分割起到了关键的作用.图像分割在研究纱线毛羽时主要用于纱线分割和纱芯分割,分别获取纱线二值图像和纱芯二值图像[11].由于纱芯粗细不匀,且与其附近的毛羽灰度值差异不大,提取完整的纱芯轮廓成为难点.对同一纱线图片而言,纱芯分割结果不同,毛羽区域指数、毛羽长度指数、毛羽标准差和毛羽变异系数的计算结果也不同,因此,选取合适的纱芯分割方法是准确计算毛羽特征参数的前提.基于此,本文采用参数核图割法获得纱芯,并将分割结果与区域生长法[13-14]和线性近似纱芯边界法[9]进行对比.实验结果表明,基于参数核图割的纱线毛羽图像处理算法与USTER CLASSIMAT 5装置测出的参考结果具有高度一致性.1.1 图像采集纱线毛羽图像采集系统,主要包括CCD面阵相机、带柔光箱的LED光源、PC机以及导纱装置.其中相机选取BASLER公司的acA1300-30 gm面阵相面,配备尺寸为4.86 mm×3.62 mm的SonyICX445 CCD感光工芯片,帧速率为30 fps,分辨率为130万像素.其水平/垂直分辨率为1 296像素×966像素,水平/垂直像素尺寸为3.75 μm×3.75 μm,接口类型为GigE.为了获取清晰的纱线毛羽图像,在图像采集前,需要对相机的曝光时间、图像分辨率,镜头焦距、光圈的大小,光源亮度以及待测纱线与相机镜头平面的空间距离等进行调试.设置曝光时间为800,图像分辨率为256×256,待测纱线与相机镜头平面的空间距离约为14.5 cm.根据检测对象的特殊性,该采集系统共设置2个柔光箱,一个柔光箱平面与黑色导纱台呈45°,另一个柔光箱平面与黑色导纱台呈90°.1.2 纱线毛羽算法流程算法流程主要包括4部分:(1)采用局部最大类间方差法(简称局部OTSU法)进行纱线分割,将灰度化的纱线图像转化为二值图像,使得整个纱线与背景分割;(2)采用参数核图割法进行纱芯分割,将纱芯从灰度纱线图像中单独提取;(3)将前两步获得的纱线二值图像与纱芯二值图像作逻辑运算,提取毛羽二值图像;(4)对毛羽二值图像进行特征分析.纱线毛羽图像处理算法主要流程如图1所示.2.1 纱线分割若纱线灰度图像的纱轴倾斜,则采用Hough变换[15]对图像进行倾斜校正.灰度图及倾斜校正后的结果如图2,3所示.鉴于纱线毛羽与黑色背景之间的灰度差异不明显,若采用全局最大类间方差法[16]对整幅图像进行纱线与背景的分离,则会将部分毛羽信息误归为背景一类.因此,本文采用局部OTSU法对纱线图像进行分割.首先将像素256×256的纱线图像分成像素16×16的区域,再分别对这些区域寻找灰度直方图上波谷横坐标对应的灰度值,将之作为所在区域的分割阈值,完成区域内部分割.由图4得出,局部OTSU法能很好地分割纱线与背景,保证了毛羽的完整性.2.2 纱芯分割图割算法是一种基于图的组合优化方法,它将一幅图像映射成一个无向带权图,并建立关于标签的目标函数,运用最小割/最大流原理对无向带权图进行切割,得到无向带权图的最小割,即目标函数的最小值.对于无监督图割法,主要缺点是分段模型未能广泛适用于各种图像,不同图像或同一图像的不同区域可能需要不同的分段模型.对此,用户交互是一种解决方式,它能在分割过程的任意一步学习区域参数,从而使模型更通用.但该参数的学习过程不是由目标函数优化得到,只是松散的耦合,且容易陷入局部最小值,不能获得最优的纱芯分割结果.因此,本文提出基于参数核图割的纱芯分割方法[17-18],该算法在不需要明确映射过程的前提下能将纱线图像数据通过隐式核函数映射到高维空间,同时解决了分段模型适用性的问题.此外,该算法既不需要先验知识,也不会出现人为随机选择阈值造成的消极影响,同时能达到全局最优.该算法可以很好地融合图像中局部与全局信息,同时对于没有进行滤波的图像,分割效果也较好,这是因为此方法不仅是把图像分割成目标和背景,更多的是分割出更多的子图像,作进一步分割处理,可以得到更多的分割区域,因此对于噪声干扰具有稳健性.同时该算法在分割合成图像时误分率更低,尤其在处理光学等类型图像时,可以保留更多的图像细节信息,分割结果轮廓完整,边缘清晰,准确率更高.2.2.1 图割法设I:p∈Ω⊂R2→Ip=I(p)∈Ι表示图像函数中位置为p的像素点从位置空间Ω到图像空间Ι的映射.图割法将图像分割问题视为标签分配问题,即为图像中每个像素分配一个有限标签集L中的标签l.定义标签函数λ,λ为Ω中的像素分配一个标签:定义具有相同标签l的像素集为Rl,则Rl在标签函数λ中表示为式中:Nseg表示将图像I分割成Nseg个区域.根据文献[19]可知,图割法的分割目标函数可表示为式中:D表示数据项,用于测量分割区域内图像数据相对于统计模型的一致性;Θ表示调整项,用于平滑区域边界;α≥0表示调整项相对于数据项的权重因子.采用高斯分布的分段常数模型[20-21]构造数据项,即式中:μl表示区域Rl的分段常数模型参数.采用的调整项为式中:N表示所有相邻像素对的集合;r(λ(p),λ(q))表示平滑正则函数,由文献[21-22]可知式中:C表示常数.2.2.2 参数核图割法令φ(·)表示从图像空间Ι到高维特征空间J的非线性映射.引入核函数K(y,z):K(y,z)=φ(y)T·φ(z), ∀(y,z)∈Ι2.若要实现图像分割,即寻找标签使得目标函数最小化,则目标函数可表示为式中: FK测量的是区域参数μl(1≤l≤Nseg)和图像数据之间的核诱导非欧式距离. 根据非欧式距离,定义JK(Ip,μ):将式(8)代入式(7)得由式(9)可知,区域参数{ 与标签函数λ共同决定目标函数FK.因此,本文对目标函数FK分两步迭代进行优化直至收敛,实现最小化:Step 1:固定标签函数λ,通过不动点计算优化目标函数FK以此更新区域参数{.给定一个图像的子区域Rk,k∈L,即式中:表示像素p的相邻像素集q,λ(q)≠λ(p), μλ(p)-μλ(q)<const;Ck表示每个区域Rk的边界.根据大量试验,采用高斯径向核函数(RBF)[17-23],即:K(y,z)=exp(-‖y-z‖2/σ2),因此,区域参数μk的不动点迭代公式为其中,式中:#表示集合的势.Step 2:由Step 1得出的区域参数μk,通过图割法优化进行标签的更新,寻找图像的最优标签.图割法中,图像被视为一个无向带权图,令G=〈V,E〉表示带权图中的节点集V和边集E,节点集V中包括像素节点和终端节点S(目标)、T(背景), 边界集E中包括连接两个像素节点的边n-links和连接像素节点和终端节点的边t-links.存在一个“割”C⊂E,将G分成分别包含终端节点S和T的两个子图,若此“割”使得边的所有权值之和最小(两个子图之间的联系最弱),即为最小割,此时目标函数最小化,图像分割完成,分割原理如图5所示[19-24].对于每对标签{θ,β},即包含终端节点θ和β的两个子图,通过最小割/最大流原理来寻找图Gθ,β=〈Vθ,β,Eθ,β〉的最小割.在寻找最小割的过程中,边的权值分配如表1所示.采用参数核图割法进行分割后的纱芯图如图6所示.2.3 毛羽提取与特征参数将纱线二值图像与纱芯二值图像作逻辑运算,提取毛羽二值图像,如图7所示.为了更好地定量分析纱线毛羽特征参数,需要进行单位标定,确定米制单位与像素之间的转换关系.根据乌斯特公报2013版[25],毛羽长度指数HL等于1 cm长度纱线上伸出纱芯的纤维长度总和LF(单位为mm)与传感器长度LC=1 cm的比值,因此,毛羽长度指数是无量纲的,即对于纱线,常出现大量毛羽紧贴在纱芯边缘的情况,由于光照等一些影响,此时可能会将这些毛羽视为纱芯的一部分,造成测得的毛羽长度指数比实际值要偏小.同时,毛羽长度指数忽略了纱芯粗细的影响,即使具有相同毛羽长度指数的两类纱线,也不能判断两者纱芯相同.因此,图像处理领域提出毛羽区域指数HA这一项特征参数,定义如式(14)所示,它与毛羽长度指数HL共同作用,使得对毛羽分布的描述更准确.式中:SF表示毛羽像素的数目,SC表示纱芯像素的数目.标准差S是考核毛羽分布的第二指标,是描述纱线卷装内部毛羽变异的数值.变异系数CVH描述整体毛羽的分布情况,是考核批量生产纱线的毛羽分布均匀状况的量化指标[3].式中:n表示选取的毛羽图片数目;HLi表示第i张图片的毛羽长度指数L表示平均毛羽长度指数.采用两种不同纱线对所提算法进行实验验证,第一种纱线为32英支,平均直径为0.874 9 mm的普梳环锭纺棉纱,记为样本1;第二种纱线为40英支,平均直径为0.794 4 mm的精梳环锭纺棉纱,记为样本2.通过BASLER公司的acA1300-30gm相机采集的大量像素为256×256的静态纱线图片奠定了实验的准确性,且采集纱线图片时有所间隔,消除了周期性纱线不规则的影响.采用参数核图割法进行纱芯分割时,α作为控制数据项与调整项之间的权重因子,起到了很重要的作用,能直接影响分割结果的好坏.α值越大,分割的区域一致性越好,对形状单一、区域集中的目标就越适合,而较小权重因子则适合局部细节可分性强、形状复杂且相对离散的目标.经过纱线图库的试验,图8展示出α不同取值时所对应的分割结果.由图8可知,当α<0.5时,部分毛羽像素仍残留,且纱芯轮廓过度细节化;当α=0.7时,虽已完全排除毛羽的干扰,但存在少数毛羽起始端被视为纱芯,从而被保留下来的现象;当α=0.9时,虽然获得很好的区域一致性,但是纱芯轮廓的细节部分未能很好的表示;因此,本文选取α=0.8的权重因子,既能分割出完整的纱芯,同时能保留轮廓的细节部分.本文将参数核图割法与区域生长法和线性近似纱芯边界法(简称线性法)进行纱芯分割比较,结果如图9所示.区域生长法,即以纱线图像中最大灰度值对应的像素作为种子,通过自定义门限,当种子像素与其八邻域之间的绝对灰度差小于门限时,进行合并,并以新合并的像素为中心,直至区域不能进一步扩张后停止.线性法,即对纱线分割后的纱线二值图像进行行扫描,定义x%(本文设置x%=55%),若一行中纱线像素占该行的比例大于等于x%,则这一行的纱线像素点被保留.为了定量检测算法,设置误分点来判断是否可以正确分割出纱芯.若一个属于纱芯的像素点被误分为背景或一个属于背景的像素点被误分为纱芯,都称该像素点被误分类,本文通过人工视觉统计误分类像素的数目,同时计算各个算法的处理时间,统计结果如图9所示.实验结果表明,区域生长法能分割出纱芯图像,但对于不同的图像需要设定不同的门限值,且受人为设定门限的限制有时并不能生长完全,导致纱芯分割不完整,误分点较多.线性法的误分点最多,分割出的纱芯近似矩形,对原始灰度图纱芯轮廓的拟合效果差,且该法需要在纱线分割的基础上进行,耗时最多.采用参数核图割法进行纱芯分割时效果更好,且耗时减少,误分点个数减少,算法效率有一定提高,该算法出现误分点的大部分原因在于平滑纱芯上的毛刺,对之后的毛羽提取步骤是有利的.实验平台为:Window7 Professional Edition, MATLAB R2014a, CPU: Intel i5-2400, RAM: 4GB.在纱线分割采用相同方法的前提下,首先对两类样本基于三种纱芯分割方法各随机取50个纱线片段,其中,每个纱线片段连续采集52帧图像,每帧采集的纱线长度为12.24 mm,则纱线片段的长度为1 003.68 mm,即每个片段的实际长度近似为1 m.最后进行毛羽提取,求取的毛羽区域指数结果如图10所示.对于同一图片,线性法由于分割出的纱芯最粗,导致毛羽区域指数HA最小;区域生长法受自定义门限的限制,生长不完全,导致分割的纱芯最细,毛羽区域指数HA最大;参数核图割算法进行纱芯分割后求得的毛羽区域指数HA处于两者之间,且与线性法的差距大,与区域生长法的差距小.图10展示的毛羽区域指数测试结果与前文讨论相一致.在纱线分割采用相同方法的前提下,求取的毛羽长度指数结果如图11所示.本文计算毛羽长度指数的步骤为:首先,确定纱芯横向轴线;然后,以横向轴线与纱芯上下边缘之间距离的平均值作为纱芯上下边缘基准线;最后,以基准线为基础绘制间隔为1 mm的统计线,计算毛羽与各统计线的交点.虽然纱芯粗细对计算毛羽长度指数没有直接影响,但是采用不同方法进行纱芯分割对边缘基准线的确定以及毛羽与统计线的交点影响很大.由图11可知,线性法的毛羽长度指数最小,这是由于分割的纱芯宽度比实际宽度大,导致单根毛羽的长度比实际短.对于区域生长法,在自定义门限最大限度地实现纱芯完整分割的前提下,纱芯宽度仍比实际宽度窄小导致单根毛羽的长度比实际长,获得的毛羽长度指数最大.采用USTER CLASSIMAT 5对两种样本测试,测试长度为10 000 m,获得毛羽长度指数范围分别为:5.6~6.6 (样本1)和4.7~5.6 (样本2),如图11中黑色横线所示.由于样本2经过精梳过程,毛羽长度指数相对样本1较小,由图11也可反映出来.由图11可知,根据本文算法所获得的毛羽长度指数绝大部分都落在了黑色横线范围内,证明了本文算法的可行性.同时,实验证明了毛羽长度指数测试结果与毛羽区域指数测试结果具有很高地一致性.对图11进行数据统计,得到表2.以USTER CLASSIMAT 5测得的毛羽长度指数范围作为标准,通过计算样本1和样本2中三种算法落入标准范围内的毛羽长度指数数目与总毛羽长度指数数目的比值求得准确率.由表2可知,对于样本1和样本2,线性法的平均毛羽长度指数L、毛羽标准差S和毛羽变异系数CVH与另两种算法差异明显且准确率最低,无法满足毛羽测试需求;区域生长法的平均毛羽长度指数L在标准范围内,效果较好,但自定义门限使得测试结果不稳定,准确率不高;本文算法的平均毛羽长度指数L处于标准范围的平均值附近,且准确率远远优于前两者,高达95.5%,定量地证明了此算法进行纱线毛羽研究是可行的.将表2中通过本文算法获得的平均毛羽长度指数L、毛羽标准差S和毛羽变异系数CVH与乌斯特公报2013版进行比较,判断样本1和样本2的各项毛羽特征参数处于何种水平,这对改善和调整纱线质量有很大的作用.其中,USPTM表示根据测试值得到的相应的乌斯特公报百分比水平值,百分比越低,水平越高.选取参数核图割法对不同类型的纱线进行纱芯分割,并与其他两种常用纱芯分割法进行比较.结果显示参数核图割法在时间上、准确率上都远优于另两种方法.图像处理领域提出的毛羽区域指数弥补了毛羽特征分析的不足,它与毛羽长度指数共同作用,使得毛羽分布描述更精准.同时,由图像处理法测出的毛羽特征参数与由电容式电清检测的USTER CLASSIMAT 5装置测出的毛羽特征参数在定性定量上都表现出高度一致性,说明基于参数核图割法的纱线毛羽研究是可行的.目前,采用图像处理法评估毛羽还处于起步阶段,市场上还没有基于图像处理的纱线毛羽分析装置,因此,对机器视觉来说最主要的挑战就是开发具有普适性的基于图像处理算法的纱线毛羽自动分析装置.E-mail:**************SU Zebin,HUANG Mengying,JING Junfeng.Image processing of yarn hairiness based on parametric kernel graph cut method[J].Journal of Xi′an Polytechnic University,2017,31(4):486-494.【相关文献】[1] BARELLA A.Yarn hairiness:The influence of twist[J].Journal of the Textile Institute Proceedings,1957,48(4):268-280.[2] BARELLA A.Yarn hairiness[J].Textile Progress,1983,13(1):1-57.[3] 秦贞俊.关于纱线毛羽问题的讨论[J].棉纺织技术,2001,29(3):5-10.QIN Zhenjun.The discussion about the yarn hairiness[J].Cotton TextileTechnology,2001,29(3):5-10.[4] HALEEM N,WANG X.A comparative study on yarn hairiness results from manual test and two commercial hairiness metres[J].Journal of the Textile Institute,2013,104(5):494-501.[5] HALEEM N,WANG X.Recent research and developments on yarn hairiness[J].Textile Research Journal,2015,85(2):211-224.[6] PILLAY K P R.A study of yarn hairiness in cotton yarns:part I.Effect of fibre and yarn factors[J].Textile Research Journal,1964,34(9):663-674.[7] Zweigle Uster.Handbook of Uster Zweigle HL400[M].Uster:Uster Technologies AG,2014.[8] Uster.Handbook of Uster Tester 5[M].Uster:Uster Technologies AG,2005.[9] GUHA A,AMARNATH C,PATERIA S,et al.Measurement of yarn hairiness by digital image processing[J].The Journal of The Textile Institute,2010,101(3):214-222.[10] CARVALHO V,SOARES F,VASCONCELOS R,et al.Yarn hairiness determination using image processing techniques[C]//Emerging Technologies & Factory Automation (ETFA),2011 IEEE 16th Conference on.IEEE,2011:1-4.[11] FABIJANSKA A,JACKOWSKA-STRUMIII O L.Image processing and analysis algorithms for yarn hairiness determination[J].Machine Vision and Applications,2012,23(3):527-540. [12] 孙银银,潘如如,高卫东.基于数字图像处理的纱线毛羽检测[J].纺织学报,2013,34(6):102-106. SUN Yinyin,PAN Ruru,GAO Weidong.Detection of yarn hairiness base on digital image processing[J].Journal of Textile Science,2013,34(6):102-106.[13] 陈方昕.基于区域生长法的图像分割技术[J].科技信息,2008 (15):58-59.CHEN Fangxi.Image segmentation based on region growing method[J].Science and Technology Information,2008(15):58-59.[14] 兰瑜洁,钟舜聪.基于区域生长法的自适应图像分割的网眼织物瑕疵检测[J].机电工程,2015,32(11):1513-1518.LAN Yujie,ZHONG Shuncong.Defect detection of eyelet fabric using adaptive image segmentation based on region growing method[J].Mechanical and Electrical Engineering,2015,32(11):1513-1518.[15] MANJUNATH ARADHYA V N,HEMANTHA KUMAR G,SHIVAKUMARA P.Skew detection technique for binary document images based on Houghtransform[J].International Journal of Information Technology,2006,3(3):194.[16] OTSU N.A threshold selection method from gray-levelhistograms[J].Automatica,1975,11(285-296):23-27.[17] SALAH M B,MITICHE A,AYED I B.Multiregion image segmentation by parametric kernel graph cuts[J].IEEE Transactions on Image Processing,2011,20(2):545-557.[18] 崔威威,田铮,赵伟.图像分割的自适应交互核图割模型[J].计算机工程与应用,2013,49(5):190-194.CUI Weiwei,TIAN Zheng,ZHAO Wei.Self-adaptive interactive kernel graph cut model for image segmentation[J].Computer Engineering and Applications,2013,49(5):190-194. [19] BOYKOV Y Y,JOLLY M P.Interactive graph cuts for optimal boundary & region segmentation of objects in ND images[C]//Proceedings of Eighth IEEE International Conference on.IEEE,2001,1:105-112.[20] BOYKOV Y,VEKSLER O,ZABIH R.Fast approximate energy minimization via graph cuts[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(11):1222-1239.[21] SALAH M B,MITICHE A,AYED I B.A continuous labeling for multiphase graph cut image partitioning[C]//International Symposium on Visual Computing.Springer Berlin Heidelberg,2008:268-277.[22] VEKSLER O.Efficient graph-based energy minimization methods in computervision[D].Cornell University,1999.[23] DHILLON I S,GUAN Y,KULIS B.Weighted graph cuts without eigenvectors a multilevel approach[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2007,29(11):1944-1957.[24] BOYKOV Y,FUNKA-LEA G.Graph cuts and efficient ND imagesegmentation[J].International Journal of Computer Vision,2006,70(2):109-131.[25] ter Statistics Application Handbook[M].Uster:Uster Technologies AG,2013.。

基于数字图像处理的纱线毛羽检测

基于数字图像处理的纱线毛羽检测

基于数字图像处理的纱线毛羽检测孙银银;潘如如;高卫东【摘要】为更准确地检测纱线毛羽长度及其根数,在结合视频显微镜和图像处理技术的基础上,提出一种新的毛羽检测方法.采用MOTIC SME-140视频显微镜采集纱线图像,经过灰度变换、图像分割、形态学开运算、图像细化处理,得到完整的纱线条干图像和细化后的毛羽图像,以纱线条干边缘为基准线,对毛羽分割点进行判断,最后得出不同长度的毛羽根数.图像法检测结果表明,纱线片段的毛羽根数值较为稳定,检测结果与目测图像计数的结果非常接近,因此,可认为所提出的毛羽检测方法较现有的光电检测方法更为准确、可靠.%In order to detect the length and root number of yarn hairiness more accurately,a new hairiness detection method was proposed based on video microscope in combination with image processing techniques.The yarn images were captured with a MOTIC SME-140 video microscope and then were processed with gray scale conversion,image segmentation,morphology opening and image thinning sequentially.The images of yarn core and hairiness thinning were obtained.And then with the yarn core edge as the measurement baseline to segment hairiness and the hairiness cut-point was judged,thus different lengths of hairiness root number were obtained directly.The result shows that the value of root number of every piece is more stable,and the results of this detection are very close to the visual counting values.Therefore,the present method for hairiness detection is more accurate and reliable than the photoelectric one.【期刊名称】《纺织学报》【年(卷),期】2013(034)006【总页数】5页(P102-106)【关键词】纱线;毛羽;图像处理;自动检测【作者】孙银银;潘如如;高卫东【作者单位】江南大学纺织服装学院,江苏无锡214122;江南大学纺织服装学院,江苏无锡214122;江南大学纺织服装学院,江苏无锡214122【正文语种】中文【中图分类】TS101.9毛羽是评定纱线质量的重要指标之一,不仅影响纱线质量,同时也对后续的织造加工产生不良影响[1],甚至影响最终产品的质量。

计算机图像处理技术在纱线质量检测中的应用

计算机图像处理技术在纱线质量检测中的应用

关键词: 图像处 理; 纱线黑板; 乌斯特条干均匀度仪; 纱线条干不匀
中图分类号: T P391
文献标识码: A
文章编号: 1673- 0356( 2008) 01- 0032- 03
数字图像处理作为一门学科大约形成于 20 世纪 60 年代初 期。在早期, 图像处理是以改善图像的质量为目 的, 它 以人为对 象, 改善人的视 觉效 果。常 用的 方 法主 要有 图 像增 强、图 像分 割、边缘提取、形态学分析、图像 压缩 编码等 。随着 人类活 动范 围的扩大, 图像处理的 应用领 域也随 之不断 扩大。 其首次 获得 实际应用是在美国的喷气 推进实 验室, 随后图 像处 理技术 在航 天、航空、生物医学、通信 电子、工业Байду номын сангаас工程、军事 公安 和文化 艺术 中都有广泛的应用[1] 。
2 1 传统的纱线外观质量检测方法 目前传统的测量纱 线不匀率 的方 法, 主要采 用目 光检 测法
和乌斯特均匀度仪法。
2 1 1 目光检验法 目光检验法 是用 一摇 黑板 机将 被 测纱 线均 匀 地绕 在一 块
180 mm 250 mm 2 mm 的黑板上, 纱 线的缠绕 方向与黑 板长 度方向平行, 检测者用黑板和标准样本进行比较, 按规定 指标对 条干均匀度品级进行评 定[ 7] 。这 种方法能比较全面地表 达纱线 条干的优劣, 但此法受人为因素影响, 具有 随意性, 缺乏客观 性, 重复性差等缺点。
2 图像处理在纱线外观质量检测上的新发展
纱线的外观质量是纱线质量的重要指标。对于纺 织行业来 说, 纱条的粗细均匀度测 试是控 制和提 高纺织 品质 量的主 要内
收稿日期: 2007 10 10; 修回日期: 2007 11 12 作者简介: 周绚丽( 1983 ) , 女, 山东烟台人, 天津 工业大学纺织学 院在读研

基于毛羽补偿与自适应中值滤波的纱线主体图像识别算法

基于毛羽补偿与自适应中值滤波的纱线主体图像识别算法
第 40 卷 第 1 期 2019 年 1 月
DOI:10. 13475 / j.fzxb.20180300706
纺 织 学 报 Journal of Textile Research
基于毛羽补偿与自适应中值滤波的 纱线主体图像识别算法
Vol.40, No.1 Jan., 2019
孙巧妍1, 陈祥光2, 刘美娜1, 孙玉梅1, 辛斌杰1
Image recognition algorithm based on yarn hairiness compensation and adaptive median filter
SUN Qiaoyan1, CHEN Xiangguang2, LIU Meina1, SUN Yumei1, XIN Binjie1
D2( 1,i)
i=1
式中:D1(1,N)为最大值矩阵;D2(1,N) 为最小值矩
阵;Gmax 为最大灰度均值;Gmin 为最小灰度均值。 然
后选取适当的阈值作为毛羽部分灰度识别的灰度值
上限和下限。
· 6 4·
纺织学报
第 40 卷
h = Gmin + ( Gmax - Gmin ) × λh l = Gmin + ( Gmax - Gmin ) × λl 式中: h 为灰度值上限; l 为灰度值下限; λh 为灰度 值上限权值; λl 为灰度值下限权值,且 0< λl < λh < 1。 依次遍历图像中的所有像素点,如果图像灰度 值 x( i,j) 处于( l,h) 区间,则判断该像素为纱线毛 羽,需要补偿。 可选择图像黑色背景部分的灰度值 作为补偿值,将该灰度值替换已识别出的原图像中 的毛羽像素。 采用上述算法进行仿真,图像矩阵大小为 400× 506,将 采 集 的 图 像 调 入 MatLab, 经 实 验 验 证, 取 N = 10, λl = 1 / 6, λh = 1 / 2, 补 偿 灰 度 值 为 为 l ( Gmax - Gmin) × 1 / 17 时,处理横向纱线的仿真结果 较好,如图 3 所示。 图 4(a)为黑色背景纵向纱线原 始采集图,二值化后图像矩阵大小为 500×1 760,处 理结果如图 4( b) 所示。 由图 3 和图 4( b) 可看出, 使用灰度变阈值识别补偿算法后,图像中的毛羽大 部分被去除而纱线主体部分图像保存完好。

试述计算机图像处理技术在纱线质量检测中的应用

试述计算机图像处理技术在纱线质量检测中的应用

试述计算机图像处理技术在纱线质量检测中的应用【摘要】:衡量纱线品质的指标通常使纱线粗细不匀指标。

当前我国测量纱线不匀的方法一般是测长称重法、仪器测量法及目光检测法,每种方法都有优势和缺陷。

由于计算机及图像处理技术的进步,完全应用数字图像处理技术来解决其他检测方法的缺点问题,增强纱线质量检测力度,就此阐述了计算机图像在纺织品检测方面的运用,着重描述了图像处理技术在纱线外观质量检测方面的发展方向。

【关键词】:图像处理质量检测应用【正文】:前言:数字图像处理在20世纪60年代前后形成的一门学科。

早期阶段,图像处理是为了提高图像的质量,把人作为对象,使人的视觉效果有所改善。

通常用的方法大多是图像增强、图像分割、边缘提取、形态学分析、图像压缩编码等。

从20世纪80年代以后,计算机图像处理技术到了纺织测试阶段,从半成品到成品的检验,从机织物、针织物到非织造布的检验,还有模拟控制产品质量,都能借助图像处理技术来实现。

从全世界看来,图像处理起初运用于纺织工业来分析地毯的磨损状况,此后在纺织材料的测试领域中的运用范围越来越广。

一般的纺织测试措施大多利用手感及目测法,受人为影响比较大,准确率低。

但应用图像处理技术能减少主观因素干扰,客观评价纺织品的外观及内在质量,是增大劳动生产率、确保产品质量的重要措施。

所以,研究计算机图像处理在纺织测试阶段中的运用有十分关键的意义。

一计算机图像处理在纺织上的应用从世界全局看来,计算机图像处理技术在纺织材料测试领域中的应用范围越来越宽,不管是对纤维、纱线或者织物的检测,全是为了符合消费者对产品质量的需求。

与此同时,因为现代纺织技术的高速发展和进步,使纺织生产企业都对纺织加工期间的中间产品—纱线的质量提出了更高的标准,纱线质量已经是纺织企业生产的核心课题。

所以,应用计算机图像处理技术对纱线外观质量展开客观、精准的检测是非常有必要的。

二图像处理在纱线外观质量检测上的新发展纱线的外观质量是纱线质量的主要指标。

基于图像处理的纱线条干实时检测

基于图像处理的纱线条干实时检测

基于图像处理的纱线条干实时检测天津工业大学学报JOURNAL OF TIANJIN POLYTECHNIC UNIVERSITYVol.28No.2April 2009基于图像处理的纱线条干实时检测杨雪媛袁黄琦兰(天津工业大学计算机技术与自动化学院,天津300160)摘要:将图像处理的方法用于纱线条干边缘的实时检测,运用VC++6.0中的VFM 库函数实现纱线图像的实时获取,采用Sobel 边缘检测算子对获取图像进行边缘处理,提取纱线边缘以直观反映纱线的粗细程度、毛羽等外观特征;并采用高斯函数进行滤波,使检测结果更加可靠.实验结果表明,采用该方法进行纱线条干实时检测,可提高检测效率与检测精度.关键词:纱线条干;图像处理;边缘检测;Sobel 算子;VC++6.0中图分类号:TS101.922;TP317.4文献标识码:A文章编号:1671-024X(2009)02-0083-03Edge detection of yarn based on image processingYANG Xue-yuan ,HUANG Qi-lan(School of Computer Technology and Automation ,Tianjin Polytechnic University ,Tianjin 300160,China )Abstract :A method based on image processing to detect the edge of yarn is presented using VFM function of VC++ acquire the yarn image in real time and applying the sobel edge detection algorithm deal with the picture toshow the edge of yarn.The extraction of edge of yarn can reflect the characteristic ,such as degree ofthickness of yarn and pin -feather.Gaussian function is usedto filtering in order to let test result morereliable.The result shows that the software can improve the test efficient and precision.Key words :yarn ;image processing ;edge detection ;Sobel algorithm ;VC++6.0收稿日期:2008-09-03作者简介:杨雪媛(1983—),女,硕士研究生;黄琦兰(1966—),女,教授,导师.E-mail:****************.cn在现代纺纱工程中,对于纱线条干均匀度的检测方法主要有乌斯特均匀度仪和目光检测法等.乌斯特(Uster )均匀度仪检测法是应用电容原理检测纱条不匀率,它对检测试样各段的湿度均匀程度以及试验环境的要求极高,且检测结果反映的是纱线截面内纤维的多少,不能准确反映纱线的外观质量.黑板条干(目光检测法)通过观察纱条在黑板上形成的阴影,记数棉结等指标来评定纱线外观质量,具有主观性强、需要精确与繁重工作的弱点.以上两种检测方法均是采用随机抽样对纱线进行离线检测,在随机抽样检验时,很可能对于存在某些质量缺陷的纱锭很长时间都采集不到,且以子样水平代表总体水平的棉纱平均质量,并不能完全决定布面质量.往往在总体水平不差的一批棉纱中,个别卷装的次品会影响到整个布面质量和实用质量.随着计算机技术的发展,利用计算机软件的方法实时检测纱线不仅可以直观精确地反映出纱线条干的边缘,清楚分辨出纱线的毛羽和粗细均匀度,而且可以提高检测速度,使纱线的在线检测成为可能[1].本文运用VC++技术开发了基于图像处理的纱线条干边缘实时检测软件,提取纱线边缘特征,旨在提高纱线条干实时检测效率和精度.1视频图像的采集与边缘检测方法1.1视频图像的实时采集在基于纱线条干边缘的实时检测技术中[2],图像数据的实时获取将成为关键.一般来讲,视频图像捕获有两种方法,一种是利用视频捕获卡所附带的SDK 开发工具,这种捕获方法的实现是与设备有关的,依赖于视频捕获卡与摄像头的类型,不利于灵活应用;第28卷第2期2009年4月第28卷天津工业大学学报另外一种捕获方法是Microsoft的Visual C++,自从4.0版就开始支持Video for Windows(简称VFW),其中AVICap窗口类是VFW的一个重要组成部分,它的主要作用是实现视频的捕获.AVICap为应用程序提供了一个简单的、基于消息的接口,通过该接口,程序可以访问视频和波形音频硬件并控制硬件捕获视频流的过程.AVICap最为重要的特点是它支持实时视频流捕获和单帧捕获,使程序员可以控制视频源的开始和结束位置.本系统的视频图像采集部分开发采用VC++6.0提供的VFW技术,选用USB接口、支持VFW、纯软件采集、无硬件支持的摄像头获取视频源,再将捕获的视频流存入硬盘,运用AVICap窗口类的视频捕获功能将视频图像显示在事先建立好的捕获窗内.1.2图像的边缘检测所谓边缘就是指图像局部亮度变化最显著的部分,它是检测图像局部显著变化的最基本的运算.对于数字图像,图像灰度值的显著变化可以用梯度来表示.系统中的边缘检测部分采用Sobel算子对于数字图像的边缘进行处理[3-4].处理的过程如下:若用Sobel 算子检测图像M的边缘,先分别用水平算子和垂直算子对图像进行卷积,得到2个矩阵,在不考虑边界的情形下得到与源图像同样大小的图像M1和M2,分别表示原图像中相同位置处的2个偏导数.然后将M1、M2对应位置的2个数平方后相加得到1个新的矩阵G,G表示M中各个像素的灰度的梯度值(1个逼近),这样就可以通过阈值处理得到边缘图像.2程序设计图1为程序设计流程图.图像的采集过程如下:程序中运用VC++6.0中的VFM库函数来实现图像的实时采集.在VFM库函数中,视频数据的实时采集主要是通过调用AVICap32. dll创建AVICap窗口类,由AVICap窗口类中的消息、宏函数、结构以及回调函数来完成.在进行捕获之前首先创建1个捕获窗,将捕获窗与视频捕获驱动程序相关联,并获得捕获驱动器的参数.对显示模式进行设置,在AVICap窗口类中有2种显示视频模式:叠加(overlay)或预览(preview)模式.叠加模式只被部分视频捕获卡支持,而大部分视频捕获设备都支持预览模式,所以本系统采用预览模式显示视频.最后进行视频捕获,将捕获的视频数据存入事先指定的捕获文件中,对文件命名并存入已分配好的存储空间内.然后用函数CapPreview启动预览功能,这时就可以在屏幕上看到采集的图像了.图像处理过程如下[5]:程序基于MFC的单文档界面,在视图类中定义了响应菜单命令的边缘检测Sobel 算子实现灰度图像边缘检测的函数.文献[6]进行了Sobel梯度算子的推导过程,得出Sobel算子的实现公式为:G[i,j]=|f[i-1,j+1]+2f[i,j+1]+f[i+1,j+1]-f[i-1,j-1]-2f[i,j-1]-f[i+1,j-1]|+|f[i-1,j-1]+2f[i-1,j]+f[i-1,j+1]-f [i+1,j-1]-2f[i+1,j]-f[i+1,j+1]|;式中,G[i,j]表示处理后(i,j)点的灰度值;f[i,j]表示处理前该点的灰度值.公式中各像素之间的关系见表1.3实验结果分析运用Sobel算子结合VC++语言所开发的程序,对某厂生产的细纱图像进行实时采集,结果如图2所示.对所采集图片进行处理,结果如图3所示.图2为实时采集到的纱线图样,图3是对图样处理后的纱线边缘图像.对于提取边缘的图片能够明显图1系统流程图Fig.1System process chart表1Sobel算子公式中各像素之间的关系Tab.1Relationship among each pixel of sobelalgorithm functionf(x-1,y-1)f(x,y-1)f(x+1,y-1)f(x-1,y)f(x,y)f(x+1,y)f(x-1,y+1)f(x,y+1)f(x+1,y+1)84——第2期[34]CONCI A ,PROENCA C.A computer vision approach for tex -tile inspection[J].Textile Research Journal ,2000,70(4):347-350.[35]LANE J.Textile fabric inspection system :US ,5774177[P].1998-06-30.[36]MALLICK -GOSWAMI B ,DATTA A.Detecting defects infabric with laser -based morphological image processing[J].Textile Research Journal ,2000,70(9):758-762.[37]KUMAR A.Neural network based detection of local fabric de -fects [J].Pattern Recognition ,2003,36(7):1645-1659.[38]ADE F ,LINS N ,UNSER parison of various filter setsfor defect detection in textiles [C]//The 7th International Con -ference on Pattern Recognition.Montreal :ICPR ,1984:428-431.[39]JEONG S H ,CHOI H T ,KIM S R ,et al.Detecting fabricdefects with computer vision and fuzzy rule generation part I :defect classification by image processing [J].Textile Research Journal ,2001,71(6):518-526.[40]STOJANOVIC R ,MITROPULOS P ,KOULAMAS C ,et al.Real-time vision-based system for textile fabric inspection [J].Real-Time Imaging ,2001,7(6):507-518.[41]CHUNG-FENG Kuo ,CHING-JENG Lee.A back propagation neural network for recognizing fabric defects [J].Textile Re search Journal ,2003,73(2):147-151.比较出纱线粗细的均匀程度,清楚观察出纱线中的棉结和毛羽.而用肉眼直接观察纱线时远远达不到如此精确的程度,为进一步鉴定纱线的条干均匀度等提供了便捷的条件.整个过程中,对纱线的实时采集和处理主要依赖于软件进行,节省了硬件,降低了成本.4结束语实验证明,运用计算机软件在线采集纱线图像并进行处理,可提高用肉眼辨识纱线的效率,通过这种方法还可清楚地分辨纱线是否存在棉结.本文所设计的实时边缘检测软件对于纱线检测方面具有一定的参考价值,在此基础上可从不同角度检测纱线的各种参数,对软件进一步深化,为下一步记数棉结和统计表示纱线外观不均的各种变异系数等指标提供了方便.随着神经网络和小波的发展,对于纱线的检测将趋于智能化.经过反复实验,此软件不仅可用于纱线的边缘检测,而且可以应用于各个需要实时检测物体边缘特征的领域.参考文献院[1]邵东锋,张一心.基于图像处理的纱线质量检测[J].陕西纺织,2004,64:18-19.[2]任宏民.图像边缘检测算法的比较与展望[J].中国科技信息,2007(10):119-120.[3]樊红萍,尹红梅.彩色图像边缘检测算法[J].数据库与信息管理,2005(4):64-66.[4]樊红萍,尹红梅.彩色图像边缘检测改进算法[J].电子工程师,2005,31(5):41-43.[5]杨娜,张斌.基于图像处理技术的织物组织自动识别[J].山东纺织科技,2006,47(1):37-39.[6]邢军.基于Sobel 算子数字图像的边缘检测[J].微机发展,2005,15(9):48-50.图3提取的纱线边缘图像Fig.3Yarn edgeimage(上接第82页)杨雪媛,等:基于图像处理的纱线条干实时检测图2实时采集的细纱图样Fig.2Yarn sample of real-timecollection 85——。

基于多视角图像的纱线三维建模及毛羽测量研究

基于多视角图像的纱线三维建模及毛羽测量研究

研究与技术丝绸JOURNALOFSILK基于多视角图像的纱线三维建模及毛羽测量研究Studyonthree ̄dimensionalmodelingofyarnandhairinessmeasurementbasedonmulti ̄viewimages左新焕1ꎬ李忠健2ꎬ王㊀蕾1ꎬ潘如如1ꎬ高卫东1(1.江南大学生态纺织教育部重点实验室ꎬ江苏无锡214122ꎻ2.绍兴文理学院浙江省清洁染整技术研究重点实验室ꎬ浙江绍兴312000)摘要:毛羽是评价纱线外观质量的重要参数之一ꎬ但现有的二维测量方法无法描述毛羽空间形态ꎬ使得测量结果与实际情况存在一定差别ꎮ文章介绍了多视角纱线图像采集装置的构建ꎬ对采集的多视角图像进行处理并构建纱线三维模型ꎬ对毛羽三维点云进行去噪㊁细化处理ꎬ从而实现对毛羽长度的精确测量ꎮ实验结果表明ꎬ本方法能有效地获取毛羽的三维信息并准确地测量其长度ꎬ与USTER®TESTER5条干测试仪㊁ZweigleHL400毛羽测试仪及FZ/T01086 2020«纺织品纱线毛羽测定方法投影计数法»标准的测试数据进行比较ꎬ进一步验证了这一方法的准确性和实用性ꎮ关键词:多视角图像ꎻ数字图像处理ꎻ三维建模ꎻ点云去噪ꎻ三维细化ꎻ毛羽测量中图分类号:TS103.7㊀㊀㊀㊀文献标志码:A㊀㊀㊀㊀文章编号:10017003(2023)11008907引用页码:111111DOI:10.3969/j.issn.1001 ̄7003.2023.11.011收稿日期:20230523ꎻ修回日期:20231016基金项目:国家自然科学基金项目(61802152)ꎻ纺织之光应用基础研究计划项目(J202109)ꎻ浙江省基础公益研究计划项目(LGG21F030007)ꎻ中国博士后科学基金面上资助项目(2020M681736)ꎻ江南大学研究生科研与实践创新项目(KYCX ̄23 ̄ZD01)ꎻ中国纺织工业联合会科技指导性项目(2022009)作者简介:左新焕(1999)ꎬ女ꎬ硕士研究生ꎬ研究方向为数字化纺织技术ꎮ通信作者:王蕾ꎬ副研究员ꎬwangl_jn@163.comꎮ㊀㊀纱线的毛羽是指伸出纱线体表面的纤维[1]ꎮ纱线毛羽对纺织产品的加工和质量有很大影响[2 ̄3]ꎮ虽然纱线毛羽具有防风㊁保暖㊁柔软㊁吸水等积极作用ꎬ但是在加工中部分长毛羽会产生棉结㊁飞花等ꎬ严重影响生产工作的进行ꎬ进而织物疵点增加ꎬ表面光洁度下降ꎬ起毛起球[4]等质量问题ꎮ因此ꎬ毛羽是纱线品质的重要参考指标之一ꎮ纱线毛羽的检测方法主要有光电式测量法㊁烧毛称重法㊁投影计数法和静电法ꎮ由于传统人工测量误差较大ꎬ现普遍采用光电法仪器测量[5 ̄6]ꎬ其分为漫反射光电毛羽仪和投影计数法光电毛羽仪ꎬ前者采用的毛羽指标是毛羽H值ꎬ后者采用的指标是毛羽指数ꎬ两者的测试指标不统一且相关性存在差异ꎮ近年来有学者运用数字图像处理技术对纱线毛羽进行检测[7 ̄8]ꎬ并取得了一定的效果ꎮ但现有的二维图像缺失毛羽空间形态信息ꎬ使得测量结果与实际结果存在较大差别ꎮ有学者尝试毛羽的三维检测ꎬWang等[9]利用两个平面镜的反射ꎬ采集具有多个视角的纱线图像ꎬ重构纱线三维模型并检测毛羽长度ꎮWang等[10]根据旋转物体投影长度变化规律推导出计算公式ꎬ将各个角度下的纱线毛羽参数带入推导公式得到纱线毛羽真实长度和数量ꎮ李忠健等[11]从单幅散焦图像中恢复毛羽深度信息ꎬ根据分割结果追踪毛羽空间长度ꎮ本文在文献[9]的基础上ꎬ构建多视角图像采集装置ꎬ针对毛羽检测的精度问题ꎬ对采集到的多视角纱线图像进行处理ꎬ构建纱线三维模型ꎬ对三维毛羽点云进行去噪㊁细化处理ꎬ结合纱线条干信息确定毛羽起点ꎬ由毛羽起点遍历其余细化点ꎬ将每根毛羽细化点归为一组计算长度ꎬ实现毛羽指标精确测量ꎮ1㊀多视角成像本文采用自主研发的多视角图像采集装置ꎬ如图1所示ꎮ纱线从纱筒引出ꎬ经过系列导纱辊1ꎬ在图像采集窗口3处呈竖直状态ꎬ并最终被两罗拉4夹持ꎬ纱线运行速度可在控制面板2进行调节ꎮ暗箱5可通过抽拉式滑轨进行开合ꎬ便于纱线样品放置ꎬ暗箱内侧设置平面镜支架7ꎬ用于固定双平面镜6ꎬ使其直立且镜面之间互成72ʎ角ꎮ装置内侧安装光源8ꎬ为拍摄环境提供均匀的光照ꎮ相机9在装置内侧ꎬ垂直正对于双平面镜相交线的中轴线上ꎬ调节相机焦距及镜头放大倍数ꎬ可获取图像采集窗口3中的纱线实像ꎬ以及纱线在双平面镜上反射得到的4个虚像ꎬ即可在单幅图像上采集均匀分布的不同视角的5个纱线图像ꎮ多视角图像采集系统俯视图如图2所示ꎬR为真实纱线图像ꎬV1和V4为真实纱线经平面镜1和平面镜2第一次反射后的虚像ꎬV2和V3分别是V4和V1经平面镜1和平面镜2再次反射后的虚像ꎬ即真实纱线二次反射后的虚像ꎮ98Vol.60㊀No.11Studyonthree ̄dimensionalmodelingofyarnandhairinessmeasurementbasedonmulti ̄viewimages图1㊀多视角图像采集装置Fig.1㊀Multi ̄viewimageacquisitiondevice图2㊀多视角图像采集系统俯视图Fig.2㊀Topviewofmulti ̄viewimageacquisitionsystem㊀㊀由于相机S对5个像在空间上距离远近不同ꎬ5个像呈现 近大远小 的关系ꎮ在图像上ꎬV1㊁V2㊁V3和V4相对R有不同程度缩小ꎬ采集到的多视角图像如图3所示ꎮ图3㊀多视角纱线图像Fig.3㊀Multi ̄viewyarnimage2㊀纱线三维建模采用马运娇等[12]的校准方法ꎬ以确定高度和宽度方向的缩放比ꎬ对四个虚像进行校准ꎬ将V1㊁V2㊁V3和V4放大到与R同比例尺寸ꎮ各视图尺寸缩小倍数如表1所示ꎮ为了兼顾检测效率和精度ꎬ毛羽和条干分别做分割处理ꎮ首先ꎬ对整个图像进行大津阈值处理[13]获得二值图像ꎻ接着ꎬ表1㊀各视图尺寸缩小倍率Tab.1㊀Reductionrateofeachviewsize用形态学方法去除二值图像中的毛羽ꎬ通过提取每个视图的最大连通面积ꎬ获得纱线条干图像ꎻ再通过像素对比检测纱线条干的边缘ꎬ构建纱线主体条干的二值图像ꎮ将纱线主体条干部分设置为与背景相同的黑色ꎬ对图3中剩下的毛羽部分进行提取ꎬ采用动态阈值方法ꎬ把图像分为若干个7ˑ7的子窗口ꎬ在子窗口获取的阈值基础上利用大津算法ꎬ测量每个子窗口中除纱线条干像素外其他像素的阈值ꎬ从背景中提取出纱线毛羽ꎮ将纱线条干部分和纱线毛羽部分的二值图相加ꎬ即得到纱线整体轮廓的二值图ꎬ经图像处理后的二值图像如图4所示ꎮ图4㊀二值图像Fig.4㊀Binaryimage本文采用Wang等[14]的轮廓变换方法进行纱线的三维合成ꎬ利用双平面镜单摄像机立体视觉系统光路结构的几何原理及在已知相机焦距㊁双平面镜交线与纱线距离㊁相机与纱线距离ꎬ获取图像上各像中心位置的基础上ꎬ4个虚像的轮廓平面按照光路结构投射于实像处ꎬ得到4个虚像在实像上的变09第60卷㊀第11期基于多视角图像的纱线三维建模及毛羽测量研究换轮廓平面ꎬ将多视角图像上各视图的像素沿着垂直于各变换轮廓平面的方向展开ꎬ合并5个轮廓的重叠部分形成纱线模型轮廓ꎬ轮廓变换如图5所示ꎮ其中ꎬVS1㊁VS2㊁VS3㊁VS4和RS分别为从相机处观测到的4个虚像和实像的轮廓平面ꎬVS1ᶄ㊁VS2ᶄ㊁VS3ᶄ㊁VS4ᶄ为4个虚像的变换轮廓平面ꎮ图5㊀轮廓变换示意Fig.5㊀Contourtransformationdiagram计算像素在三维坐标系中的坐标ꎬ得到配准后的三维点云ꎬ合成纱线三维模型ꎮ对点云数据按照z坐标进行排序ꎬ序列位图以每个z坐标值编号ꎬ将所有z坐标值等于该值的点在位图中标记为白色ꎬ其余点标记为黑色ꎮ然后ꎬ根据点云数据的x和y坐标范围ꎬ生成序列位图ꎮ最后ꎬ将每个位图保存为BMP文件ꎬ加载到ImageJ的开源软件中ꎬ即可重建任意角度旋转㊁缩放的三维图ꎬ合成效果如图6(a)所示ꎮ图6㊀三维图Fig.6㊀Three ̄dimensionaldiagram由于本文三维合成以条干中心为基准ꎬ不能直接获取毛羽的三维点云ꎬ需对纱线三维点云和条干三维点云进行处理ꎬ以获取毛羽的三维点云ꎮ采用同样方法对条干进行三维合成ꎬ获取条干三维图ꎬ合成效果如图6(b)所示ꎮ3㊀毛羽三维长度测量3.1㊀三维毛羽去噪处理前文采用圆盘型结构元素对多视角图像进行形态学处理ꎬ去除二值图像中的毛羽ꎬ获得纱线条干图像ꎮ结构元素的大小和形状不可能与图像边缘完全匹配ꎬ条干边缘难以避免毛刺或缺口的出现ꎬ难以区分条干或毛羽ꎮ因此ꎬ合并纱线三维点云和条干三维点云中不重复的点ꎬ得到具有条干噪点的毛羽如图7(a)所示ꎮ图7㊀毛羽去噪前后对比Fig.7㊀Comparisonimageofhairinessbeforeandafterdenoising本文采用基于统计原理的滤波方法对毛羽三维点云去除条干噪点ꎮ通过对点云数据进行统计分析和局部结构分析ꎬ在实现毛羽点云噪点去除的同时保证毛羽点云结构的完整性ꎮ首先遍历点云的每个点(xiꎬyiꎬzi)ꎬ找到给定的距离阈值Td内的近邻点集合Niꎬ计算每个点(xiꎬyiꎬzi)到其近邻点(xjꎬyjꎬzj)的平均距离davg(i)和标准差dstd(i)ꎬ公式如下:davg(i)=1|Ni|ð(d(iꎬj))(1)dstd(i)=ð((d(iꎬj)-davg(i))2)|Ni|-1(2)式中:d(iꎬj)表示点(xiꎬyiꎬzi)和点(xjꎬyjꎬzj)之间的欧氏距离ꎬNi表示点i的近邻点数量ꎮ如果点(xiꎬyiꎬzi)和点(xjꎬyjꎬzj)之间的欧拉距离大于离散度阈值TTꎬ则其为噪声点ꎬ公式如下:TT=davg(i)+αˑdstd(i)(3)式中:α为标准差倍数ꎬ用于调整离散度阈值TTꎮ经处理ꎬ本文距离阈值Td内的近邻点数量介于10~30ꎬ离散度阈值TT介于0~1ꎬ通过二分法确定近邻点数量为22ꎬ离散度阈值TT为0.1时ꎬ去噪效果最佳ꎮ经去噪后毛羽如图7(b)所示ꎬ局部放大对比如图7(c)所示ꎮ3.2㊀三维毛羽细化基于图像法的纱线毛羽长度测量研究中ꎬ毛羽的径向宽19Vol.60㊀No.11Studyonthree ̄dimensionalmodelingofyarnandhairinessmeasurementbasedonmulti ̄viewimages度会影响长度的计算ꎬ需对其进行细化处理ꎮ由点云数据位图观察及预实验ꎬ本文选用DBSCAN算法对每一z坐标下的点云进行二维聚类ꎬ基于邻域半径ε和最小邻域数目minptsꎬ得到基于系列z平面的毛羽细化点ꎮ循环处理每一相同z坐标值下的点云ꎬ获取此z坐标下所有毛羽点云的坐标信息ꎬ对其进行二维DBSCAN聚类处理ꎬ初始化聚类标签ꎬ设定邻域半径ε和最小邻域数目minptsꎬ对每个点找到其在邻域半径ε内的所有邻域点ꎬ形成一个邻域ꎬ如果某个点邻域内点的数量大于等于最小邻域数目minptsꎬ则将该数据点标记为核心点ꎮ对于核心点ꎬ如果存在一条由邻域内的核心点组成的路径ꎬ可以连接两个核心点ꎬ并且路径上每个点的邻域都包含在ε邻域内ꎬ那么这两个核心点是密度可达的ꎮ根据密度可达关系ꎬ将核心点组合到一个聚类中ꎬ将具有相同聚类标签的核心点视为同一个聚类ꎮ对于不是核心点ꎬ但在某个核心点的ε邻域内的点被标记为边界点ꎬ它们可能属于某个聚类ꎬ也可能是噪声点ꎮ本文最小邻域数目minpts设置为1ꎬ因为毛羽在某些z坐标值下可能为单一孤立点ꎬ将最小邻域数目增大会损失毛羽信息ꎬ但将最小邻域数目minpts设置为1ꎬ在聚类时无法剔除离群点即噪点ꎮ经统计滤波后的噪点数量较少且大多为孤立点ꎬ因为毛羽连续及空间形态的相对有序性ꎬ这些噪点不会影响毛羽路径规划及长度计算ꎮ通过人工聚类与聚类算法聚类236张位图ꎬ邻域半径ε设置为3.1时ꎬ聚类结果与人工聚类结果相比误差最小ꎬ误差率为4.24%ꎮ对每一聚类求其中心的三维坐标并取整ꎬ即得到对应的毛羽细化点ꎮ毛羽细化前后对比如图8所示ꎮ图8㊀毛羽细化前后对比Fig.8㊀Comparisonofhairinessbeforeandafterrefining3.3㊀毛羽长度测量三维毛羽细化后得到所有毛羽的三维细化点ꎬ将同一根毛羽的细化点归为一组ꎬ以统计毛羽根数ꎬ计算毛羽长度ꎮ基于前文毛羽三维细化方法ꎬ结合纱线条干数据ꎬ确定各根毛羽起点ꎮ获取去噪毛羽点云的z值ꎬ然后计算每一z值下条干在x㊁y方向的范围ꎬ并对这一z值下毛羽点云执行DBSCAN聚类ꎬ再计算各毛羽聚类在x㊁y方向的范围ꎬ如果条干范围与各毛羽聚类范围在x方向或y方向差值ɤ1ꎬ则条干与聚类相连ꎮ因毛羽具有径向宽度ꎬ相邻几个z方向上会连续出现条干与聚类相连的情况ꎬ且毛羽具有方向延伸性ꎬ在毛羽起点后的一定范围远离纱线条干ꎮ若条干与毛羽聚类相连ꎬ计算条干和相应毛羽聚类的中心坐标ꎮ并将所有毛羽聚类中心坐标中ꎬz值连续的点放入同一组中ꎬ计算各毛羽聚类点与其对应条干中心的距离ꎬ距离最小的毛羽聚类中心点为毛羽起点ꎮ毛羽起点判断流程图如图9所示ꎮ图9㊀毛羽起点流程示意Fig.9㊀Flowchartofhairinessstartingpoint根据毛羽起点坐标ꎬ依次遍历ꎬ将同一根毛羽的细化点归为一组ꎬ再计算每一组中相邻三维毛羽细化点的欧拉距离并依次累加ꎬ通过像素值与实际距离的转换即可计算出毛羽长度ꎬ完成毛羽测量ꎮ4㊀结果与分析本文纱线外观三维检测装置使用相机型号为大恒MER2 ̄231 ̄41GM(中国大恒(集团)有限公司)与镜头型号为ML ̄MC25HR(茉丽特科技有限公司)的图像传感器进行图像采集ꎮ实验设备计算机(小米科技责任有限公司)硬件CPU为29第60卷㊀第11期基于多视角图像的纱线三维建模及毛羽测量研究Inteli511320Hꎬ主频为3.2GHzꎬ内存为16GBꎬ硬盘规格为512GBꎬ实验编程工具为MatlabR2022aꎮ在温度为(20ʃ2)ħ㊁相对湿度为(65ʃ2)%的标准环境下ꎬ对表2中纱线样品进行测试ꎮ表2㊀纱线样品信息Tab.2㊀Yarnsampleinformation测定方法投影计数法»测试结果㊁USTER®TESTER5条干测试仪测试结果及ZweigleHL400毛羽测试仪测试结果进行对比ꎮ本文每个纱线样品采集图像大小为1920像素ˑ1200像素ꎬ截取每张图片中间610行ꎬ取37张图片ꎬ纱线实际长度约为1mꎬ统计毛羽根数及长度ꎬ测5次取平均值ꎮ计算毛羽H值并将其转换为长度为1m纱线上的毛羽根数分布ꎮUSTER®TESTER5条干测试仪测试每种纱线样品长度为100mꎬ得到毛羽H值ꎬ测5次取平均值ꎮZweigleHL400毛羽测试仪测试每种纱线样品长度为100mꎬ得到毛羽根数分布ꎬ测5次取平均值ꎮ并将其转换为长度为1m纱线上的毛羽根数分布ꎮ标准FZ/T01086 2020«纺织品纱线毛羽测定方法投影计数法»每个纱线样品长度为10mꎬ统计毛羽根数分布ꎬ测5次取平均值ꎮ并将其转换为长度为1m纱线上的毛羽根数分布ꎮ4.1㊀与USTER®TESTER5条干测试仪结果对比将本文方法测得的毛羽数据转换为毛羽H值ꎬ与USTER®TESTER5条干测试仪结果进行对比ꎬ如表3所示ꎮ本方法与USTER®TESTER5条干测试仪测得的5种纱线样品中ꎬ样品4的毛羽H值最大ꎬ样品5的毛羽H值最小ꎬ测试结果具有一致性ꎬ本方法测得的5种纱线样品的毛羽H值均大于USTER®TESTER5条干测试仪毛羽H值ꎮ由于USTER®TESTER5条干测试仪存在检测盲区ꎬ难以检测到纱线毛羽的全部信息ꎬ因此其结果比本方法测得的毛羽H值小ꎮ表3㊀本方法与USTER®TESTER5条干测试仪结果Tab.3㊀ResultsofthismethodandUSTER®TESTER5strandtester羽测试仪结果对比㊀㊀将本文方法测得的毛羽数据与ZweigleHL400毛羽测试仪的数据和标准FZ/T01086 2020«纺织品纱线毛羽测定方法投影计数法»测试数据进行比较ꎬ如表4所示ꎮ本方法测得的5种纱线样品3mm及以上的长毛羽数量均比标准FZ/T01086 2020和ZweigleHL400毛羽测试仪的结果多ꎬ其中测得的纱线样品3ꎬ本方法3mm及以上的长毛羽数量比标准FZ/T01086 2020和ZweigleHL400毛羽测试仪的结果分别多54根/m和75根/mꎬ因为标准FZ/T01086 2020和ZweigleHL400毛羽测试仪测试的是毛羽的投影长度ꎬ而长毛羽多为弯曲形态ꎬ本文方法的检测结果更全面ꎮ表4㊀本方法与标准及ZweigleHL400毛羽测试仪结果Tab.4㊀ResultsofthismethodwiththestandardandZweigleHL400hairinesstester39Vol.60㊀No.11Studyonthree ̄dimensionalmodelingofyarnandhairinessmeasurementbasedonmulti ̄viewimages5㊀结㊀论本文提出了一种基于多视角图像的纱线三维建模及毛羽长度测量方法ꎬ通过多视角图像采集装置获取多视角纱线图像ꎬ构建纱线及条干三维模型ꎬ获取毛羽的三维点云ꎮ采用基于统计滤波原理的方法对毛羽三维点云去除条干噪点ꎬ再对每一z坐标下的毛羽点云进行二维DBSCAN聚类处理ꎬ对每一聚类求其中心的三维坐标ꎬ即得到对应的毛羽细化点ꎮ基于毛羽三维细化方法ꎬ结合纱线条干数据ꎬ确定各根毛羽起点ꎬ依次遍历ꎬ将同一根毛羽的细化点归为一个集合ꎬ则确定毛羽根数ꎬ再计算每一集合中三维毛羽细化点的欧拉距离并依次累加ꎬ并通过像素值与实际距离的转换即可计算出毛羽长度ꎬ完成毛羽测量ꎮ实验结果表明:1)本方法能够准确获取纱线三维信息ꎬ实现毛羽长度的精确测量ꎻ2)本方法相较于USTER®TESTER5条干测试仪及ZweigleHL400毛羽测试仪能更加全面准确地获得毛羽信息ꎬ具有一定的实际意义ꎻ3)在后续的研究中ꎬ将优化毛羽细化点三维路径规划和毛羽长度计算的方法ꎮ«丝绸»官网下载㊀中国知网下载参考文献:[1]于伟东.纺织材料学[M].北京:中国纺织出版社ꎬ2009.YUWeidong.TextileMaterial[M].Beijing:ChinaTextile&ApparelPressꎬ2009.[2]KRUPINCOVÁGꎬMELOUNM.Yarnhairinessversusqualityofyarn[J].TheJournalofTheTextileInstituteꎬ2013ꎬ104(12):1312 ̄1319.[3]高娜ꎬ李强ꎬ徐伯俊ꎬ等.不同引纱方法对云纹纱成纱外观及质量的影响[J].纺织学报ꎬ2017ꎬ38(12):43 ̄48.GAONaꎬLIQiangꎬXUBojunꎬetal.Influenceofdifferentdrawingmethodsonappearanceandyarnqualityofcloudyarn[J].JournalofTextileResearchꎬ2017ꎬ38(12):43 ̄48.[4]肖琪ꎬ王瑞ꎬ孙红玉ꎬ等.织物起毛起球机制的理论模型研究进展[J].纺织学报ꎬ2020ꎬ41(2):172 ̄178.XIAOQiꎬWANGRuiꎬSUNHongyuꎬetal.Researchprogressontheoreticalmodelsofmechanismsoffuzzingandpilling[J].JournalofTextileResearchꎬ2020ꎬ41(2):172 ̄178.[5]秦少雄.纱线毛羽检测仪器的研究及指标探讨[J].纺织导报ꎬ2021(11):58 ̄61.QINShaoxiong.Researchandindexdiscussionofyarnhairinesstester[J].ChinaTextileLeaderꎬ2021(11):58 ̄61.[6]HALEEMNꎬWANGX.Acomparativestudyonyarnhairinessresultsfrommanualtestandtwocommercialhairinessmetres[J].TheJournalofTheTextileInstituteꎬ2013ꎬ104(5):494 ̄501.[7]XIAZGꎬLIUXꎬWANKZꎬetal.Anovelanalysisofspunyarnhairinessinsidelimitedtwo ̄dimensionalspace[J].TextileResearchJournalꎬ2019ꎬ89(21/22):4710 ̄4716.[8]JINGJFꎬHUANGMYꎬLIPFꎬetal.AutomaticmeasurementofyarnhairinessbasedontheimprovedMRMRFsegmentationalgorithm[J].TheJournalofTheTextileInstituteꎬ2018ꎬ109(6):740 ̄749.[9]WANGLꎬXUBGꎬGAOWD.Multi ̄perspectivemeasurementofyarnhairinessusingmirroredimages[J].TextileResearchJournalꎬ2016ꎬ88(6):621 ̄629.[10]WANGWDꎬXINBJꎬDENGNꎬetal.Objectiveevaluationonyarnhairinessdetectionbasedonmulti ̄viewimagingandprocessingmethod[J].Measurementꎬ2019(148):106905.[11]李忠健ꎬ董龙ꎬ倪海云ꎬ等.基于散焦信息的纱线毛羽三维测量与验证[J].丝绸ꎬ2021ꎬ58(6):41 ̄47.LIZhongjianꎬDONGLongꎬNIHaiyunꎬetal.Three ̄dimensionalmeasurementandverificationofyarnhairinessbasedondefocusinformation[J].JournalofSilkꎬ2021ꎬ58(6):41 ̄47.[12]马运娇ꎬ王蕾ꎬ潘如如ꎬ等.基于平面镜成像的纱线条干三维合成校准方法[J].纺织学报ꎬ2022ꎬ43(7):55 ̄59.MAYunjiaoꎬWANGLeiꎬPANRuruꎬetal.Calibrationmethodofthree ̄dimensionalyarnevennessbasedonmirroredimage[J].JournalofTextileResearchꎬ2022ꎬ43(7):55 ̄59.[13]OTSUN.Athresholdselectionmethodfromgray ̄levelhistograms[J].IEEETransactionsonSystemsꎬManꎬandCybernetics:Systemsꎬ1979(9):62 ̄66.[14]WANGLꎬXUBGꎬGAOWD.Three ̄dimensionalmeasurementofyarnhairinessviamultiperspectiveimages[J].OpticalEngineeringꎬ2018ꎬ57(2):025103.49第60卷㊀第11期基于多视角图像的纱线三维建模及毛羽测量研究Studyonthree ̄dimensionalmodelingofyarnandhairinessmeasurementbasedonmulti ̄viewimagesZUOXinhuan1LIZhongjian2WANGLei1PANRuru1GAOWeidong11.KeyLaboratoryofEco ̄Textiles MinistryofEducation JiangnanUniversity Wuxi214122China 2.KeyLaboratoryofCleanDyeingandFinishingTechnologyofZhejiangProvince ShaoxingUniversity Shaoxing312000ChinaAbstract ThetextileandapparelindustryplaysapivotalroleinChina simportandexporttrade.Withintheentiretextileandapparelproductionchain yarnproductionisconsideredthemostcriticallink andthequalityinspectionofyarnisthekeymeasuretoensurethequalityoftextiles.Hairiness asoneofthecoreparametersforevaluatingtheappearancequalityofyarn isstillmainlyreliantonphotoelectricdevicesforitsdetectioninChina.Thismethodhaslimiteddetectionaccuracy lowefficiency andinconsistenttestingstandards.Currentimage ̄basedtwo ̄dimensionalmeasurementtechniquescannotaccuratelydepictthethree ̄dimensionalmorphologyofhairiness leadingtodiscrepanciesbetweenmeasurementresultsandactualconditions.Addressingthechallengethatexistinghairinessdetectiontechniquescannotcomprehensivelycapturehairinessinformation thispaperappliesthree ̄dimensionalreconstructiontechnologytothefieldofyarnhairinessdetection pavingthewayforintelligentandprecisemeasurementsintextiles.Inthisstudy wefirstconstructedamulti ̄viewimageacquisitionsystem achievingthecollectionoffiveyarnimagesfromdifferentevenlydistributedperspectivesonasingleimage.Followingthis basedontheimagingpropertiesofthemulti ̄viewimageacquisitionsystem wecalibratedthecollectedmulti ̄viewimages.Tobalancedetectionefficiencyandaccuracy weemployedimageprocessingtechniquestoseparatelysegmenttheyarnbodyandhairiness.Then byusingthecontourtransformationmethodandleveragingthegeometricprinciplesoftheopticalpathstructureofthedual ̄planemirrorsingle ̄camerastereovisionsystem werestoredtheactualimageandthefourvirtualimageviews relativepositionsinspace synthesizingathree ̄dimensionalmodeloftheyarn.Fromthethree ̄dimensionalpointcloudoftheyarn thethree ̄dimensionalpointcloudofthehairinesswasseparatelyobtained.Noisereductionwasthenperformedonthethree ̄dimensionalpointcloudofthehairinessbasedontheprincipleofstatisticalfiltering.Subsequently theDBSCANalgorithmwasusedtoperformtwo ̄dimensionalclusteringonthehairinesspointcloudwiththesamez ̄coordinatevalue achievingthree ̄dimensionalrefinementofthehairiness.Basedontheaforementionedthree ̄dimensionalrefinementmethodandcombinedwiththeyarncoredata thestartingpointsofeachhairinessweredetermined.Therefinedpointsofthesamehairinessweregroupedintoonesettocountthenumberofhairinessandcalculatetheirlength andtheprecisemeasurementofhairinesslengthwasrealized.Weachievedautomaticcontinuousacquisitionofmulti ̄viewimages.Toaddresstheaccuracyissueofhairinessdetection thecollectedmulti ̄viewyarnimageswereprocessedtoconstructathree ̄dimensionalmodeloftheyarn.Thethree ̄dimensionalpointcloudofthehairinessunderwentnoisereductionandrefinement.Combinedwiththeyarncoreinformation thestartingpointsofthehairinessweredetermined.Startingfromthehairinessorigin theremainingrefinedpointsweretraversed therefinedpointsofeachhairinessweregroupedintoaset andasaresult thelengthwasaccuratelycalculatedandtheprecisionofthehairinessmetricwasensured.Theexperimentalresultsindicatethatthismethodcaneffectivelycapturethethree ̄dimensionalinformationofhairinessandaccuratelymeasureitslength.BycomparingwiththetestdatafromtheUSTER®TESTER5evenesstester theZweigleHL400hairinesstester andtheFZ/T010862020standardTextiles ̄TestMethodforYarnHairiness ̄ProjectionCountingMethodtheaccuracyandpracticalityofthisapproacharefurthervalidated.Inthisstudy wecomprehensivelycapturehairinessinformationandachieveprecisemeasurementofhairiness.Insubsequentresearch wewilloptimizethepathplanningalgorithmforhairinessrefinementpointsandthethree ̄dimensionallengthcalculationmethodforhairiness.Bymaximizingtheadvantagesofthethree ̄dimensionalhairinessmodelpresentedinthisstudy weaimtoachieveevenmoreaccuratehairinessmeasurements.Keywords multi ̄viewimages digitalimageprocessing 3DModeling pointclouddenoising 3Drefinementhairinessmeasurement59。

基于图像技术的纱线毛羽检测分析_1

基于图像技术的纱线毛羽检测分析_1

基于图像技术的纱线毛羽检测分析发布时间:2022-08-10T02:42:19.608Z 来源:《城镇建设》2022年第5卷第3月第6期作者:杨潺王小虎[导读] 在对纱线进行检测时,可以使用数字图像处理技术杨潺王小虎阿克苏地区纤维检验所,新疆阿克苏843000摘要:在对纱线进行检测时,可以使用数字图像处理技术,该技术属于新型的测试手段,在此过程中主要利用了计算机图像处理方法,能够对纱线外观进行测试,并且实现自动化。

该文章主要针对基于图像技术的纱线毛羽检测技术进行了分析,并且探讨了该方面的发展现状,与此同时与传统的测试手段进行了比较,通过比较可以看出基于图像处理技术的纱线检测方法,具备一定的优势是未来检测领域的主要发展方向。

关键词:图像技术;纱线毛羽;检测分析引言纱线的质量能够通过纱线毛羽得到很好的反应,纱线的外观和手感与毛羽的长度和数量有着直接的联系,与此同时还会影响到整个产品的质量和档次,后续加工工作在开展过程中也会受到相应的影响,在对纺织品进行生产时,纱线毛羽检测是非常重要的。

纱线毛羽检测在整个纺织行业起到了非常重要的作用,随着消费者而对纺织品性能要求的提升,纱线毛羽检测更能够发挥自身的特点和优势。

纱线本身质量能够通过数字化测试实现相应的表征,并且能够建立纱线的自动化和客观化。

1纱线图像采集装置的构成图1是沙像图像采集的装置示意图。

如图可以看出该装置包含了成像单元以及计算机等。

在光源和成像单元之间的水平线上存在着纱线,在此过程中光的强度是符合要求的。

在图像采集卡以及计算机的作用下光学信号能够转化为电信号,然后实现成像以及图像采集等各项工作。

1.1硬件组成纱线图像采集系统包含了成像单元以及工业镜头等,这些都属于整个系统的硬件部分。

如果成像单元具备差异性,那么采集的类型也不同,包含扫描仪采集以及视频显微镜采集等。

在采集纱线图像时,孙莹莹等采用的是MOTICsME一140视频显微镜,张继雷采用的是数码相机,除此之外,杨欣欣还提出了基于高速摄影技术的毛羽性能研究法。

基于图像处理的纱线缺陷检测技术研究

基于图像处理的纱线缺陷检测技术研究

基于图像处理的纱线缺陷检测技术研究基于图像处理的纱线缺陷检测技术研究引言:纺织品行业是全球制造业的重要组成部分,而纺织品生产中的纱线质量控制对产品的最终质量至关重要。

传统的纱线检测方法依赖于人工目视检查,耗时耗力且容易出错。

随着计算机视觉技术的发展,基于图像处理的纱线缺陷检测技术逐渐崭露头角,为纺织品行业提供了一种高效准确的纱线质量控制解决方案。

步骤一:图像采集首先,需要利用高分辨率的相机设备对待检测的纱线进行图像采集。

这可以通过安装相机在纱线生产线上,或者在特定位置设置照相机来实现。

在图像采集过程中,应注意光照条件的均匀性和稳定性,以确保获得清晰且准确的纱线图像。

步骤二:预处理图像采集后,需要对纱线图像进行预处理以提高后续处理的准确性。

预处理包括去噪、平滑和增强等步骤。

去噪可以通过应用基于滤波器的算法,如中值滤波器或高斯滤波器,来降低图像中的噪声。

平滑可以通过使用平滑滤波器,如均值滤波器或双边滤波器,来减少图像中的纹理和细节。

增强可以通过应用直方图均衡化或对比度增强等技术来增强图像的对比度和细节。

步骤三:特征提取在预处理后,需要从纱线图像中提取有助于缺陷检测的特征。

常用的特征包括纹理特征、颜色特征和形状特征等。

纹理特征可以通过应用局部二值模式(LBP)或灰度共生矩阵(GLCM)等方法来描述纱线的纹理信息。

颜色特征可以通过提取纱线图像的颜色直方图或使用颜色空间转换等方法来描述纱线的颜色信息。

形状特征可以通过计算纱线图像的边缘或轮廓来描述纱线的形状信息。

提取的特征可以用于后续的分类和检测。

步骤四:分类和检测在特征提取后,需要使用分类器来对纱线图像进行分类和检测。

常用的分类器包括支持向量机(SVM)、人工神经网络(ANN)、决策树等。

这些分类器可以通过训练样本来学习正常和异常纱线的特征模式,并对待检测的纱线进行分类。

在分类完成后,还可以使用检测算法来定位纱线中的具体缺陷位置,如边缘检测算法或区域生长算法等。

计算机图像处理技术在纱线质量检测中的应用

计算机图像处理技术在纱线质量检测中的应用
民营 科技2 0 1 5 年第9 期
信 息科 学
计算机 图像处理 技术在纱线质量 验 所 , 江 苏 盐城 2 2 4 0 5 1 )
摘 要:  ̄N - . r c 个方面 中计 算机 图像处理技 术的应 用情况进行 了综合 的论述 , 其 中着重对 图像处理技 术在 纱线外观质量监测 方面 的应 用进行 了全面的分析 , 也确 定了计算机 图像处理技术在纱线质量检测 中的发展趋势。 关键词 : 计 算机 图像处理技 术; 纱线质 量检测 ; 应用
计算机图像处理技术在应用中, 主要是用来对人们的视觉效果 也会有所不同 , 同时 , 在应用电容式条干仪进行纱线质量均匀度的 进行改善 , 而在人类 的活动范围逐渐扩大 的过程 中, 图像处理技术 测量时 , 其测量的结果与纺织物表面 的质量优劣情况并没有直接的
的应用范围也在不断的扩展之中, 其在各个行业 中都得到了极大的 应用 , 尤其是在纺织行业中 , 其发挥出了重要的作用 , 纺织产 品生产 的全过程都可以采用计算机图像处理技术进行完成。 而针对纺织材 料在测试的过程 中, 大 多采用的是传统的测试方法 , 检测 的准确率 并不高 , 因此, 需要借助计算机 图像处理技术对放线质量进行检测 , 从而可以有效的保障纺织产品的生产质量。 1 计 算机 图像处 理 在 纺织 上 的应 用 连接 , 从而无法推测出纺织产品外观的质量优劣。 2 . 2 利用计算机 图像处理技术对纱线均匀度 的检测。目前 , 随着计 算机技术在纺织测试领域应用的不断深入 , 利用图像处理技术对纱 线外观质量进行检测成为当前的研究热点和发展趋势。 采用图像处 理技术对纱线条干均匀度进行检测不仅可 以客观准确地评定纱线 的等级 , 而且在检测过程中不受环境 的影响。此外利用图像处理的 方法还可以准确模拟 出纱线最终成布面的情况。 目前利用图像处理 1 ) 利用图像式纱线 就现在的计算机图像处理技术 的应用情况来看 , 其在纺织材料 技术对纱线外观质量进行测试的最新方法包括 : 测试 中的应 用 范 围逐 渐 广泛 ,其不 仅 涉及 到 纤 维微 结 构 的分 析 中 , 条干仪测试纱线均匀度 ; 2 )利用图像形态法测试纱线均匀度 ; 3 ) 利 也涉及到对整块纺织物性能的分析 中,其所检测 的领域遍布纤维、 用图像纹理分析测试纱线均匀度 ; 4 ) 利用计算机视觉技术测试纱线 纱线 、 织物以及非织造布 四个方面。 t 均匀度 ; 5 ) 利用计算机 图像处理对纱线进行在线检测 。 而就分析结果 可以看 出, 计算机 图像处理技术在纤维 、 纱线 以 针对纱线的均匀度进行检测时 , 合理 的应用计算机图像处理技 及织物的检测 中 进行应用, 主要 的就是为了能够使得纺织产品的质 术 , 能够有效的保 障检测结果 的精确性 , 依据该结果可以有效 的保 对纺织业的发展形成有效的推动作用 。 量能够满足消费者的需求 , 使得产 品的质量得到有效 的保障 , 从 而 障纺织产品的质量 , . 3 计算机 图像处理技术应用于纱线 质量检测 中的发展趋势。在 提升纺织业的经济效益 。 另外 , 现代纺织技术正在不断的进步 , 这也 2

基于图像处理技术的纺织品检测算法研究

基于图像处理技术的纺织品检测算法研究

基于图像处理技术的纺织品检测算法研究纺织品是人们日常生活中必不可少的物品之一,它的质量直接关系到人们的舒适度和健康。

在生产过程中,一些质量问题经常会发生,如毛洞、污渍、扭曲等,这些问题如果不被及时发现和修复,就会直接影响到产品的质量和市场竞争力。

因此,对于纺织品检测技术的研究具有重要的意义。

自动化检测技术在纺织品生产中的应用日益广泛,其中基于图像处理技术的纺织品检测算法是一种高效、准确、可重复的技术。

本文将从纺织品检测需求、图像采集与预处理、特征提取与分类三个方面探讨如何实现一款基于图像处理技术的纺织品检测算法。

一、纺织品检测需求纺织品生产过程中,为了确保产品的质量,需要对纱线、织物、成衣等不同制品进行检测。

其中,纱线检测主要是针对纱头数量识别、杂质检测、纤维断头检测等;织物检测则是对织物的密度、毛洞、扭曲、缺失等方面进行识别;成衣检测主要是对裙长、裤长、肩宽、袖长、按钮位置等方面进行检测。

因此,不同的检测任务需要采用不同的检测技术和算法。

二、图像采集与预处理针对不同的检测任务,需要采用不同的图像采集设备,如高清相机、红外线相机、X光机等,并对采集到的图像进行预处理。

图像预处理包括去噪、灰度化、二值化、形态学处理等环节。

去噪是预处理的第一步,它旨在消除图片中的噪声。

在纺织品检测中,常用的去噪方法有中值滤波、均值滤波、小波变换等。

灰度化是将采集到的图像数据变成单通道灰度值的过程,在图像处理中非常关键。

对于高光和暗部等反差较大的图像,采用基于平均亮度和基于加权关系的方法,可以得到更符合实际环境的灰度图像。

二值化是将灰度图像转化为黑白图像的过程,该过程中需要选取一个适当的阈值来划分黑白。

优化的二值化算法能够将柔软的边缘识别出来,以及减少图像中噪点的干扰。

在二值化过程中,常用的算法有OTSU算法、迭代阈值法等。

形态学处理是对图像进行形态学变换的方法,属于图像处理的基本处理方法。

常用的形态学处理方法有腐蚀、膨胀、开运算和闭运算等。

基于数字图像处理的纱线线密度测量

基于数字图像处理的纱线线密度测量

基 于 数 字 图像 处 理 的 纱 线 线 密 度 测 量
姬 建 正 ,刘建 立 ,高卫 东 ,潘 如 如 ,刘基 宏
( 态 纺 织 教 育 部 重 点 实 验 室 ( 南 大 学 ) 江 苏 无 锡 2 4 2 ) 生 江 , 1 12
摘量 的效 率 和精 度 , 纯棉 纱 为 例 , 出一 种 基 于 数 字 图 像 处 理 的 纱 线 线 密 度 可 视 化 以 提
o h ma e .Th a a t r a c a e r m h a n i g s wilb s d t o n te i g s e p r me e s c l ul t d f o t e y r ma e l e u e o c mp t h a n d a u e t e y r i me e tr
A b t a t T mpr v h me s r me tefc e c a d c u a y o a n ln a e st sr c o i o e te a u e n fi in y n a c r c f y r i e r d n iy. a iu l ai n vs a i t z o me s rn to o a n i e r d n i s prpo e a e n d gt li a e r c s i a u i g me h d fr y r l a e st wa o s d b s d o i i m g p o e sng, tk n ur n y a a ig p e c to an a x mp e Th a n m a e c ptr d wih v d o mi r s o e wa r c s e e ue tal y otn y r s e a l . e y r i g a u e t i e c o c p s p o e s d s q n ily b 2 D a a tv W in r il rn - d pie e e f t i g, t r s o d v l c lu a in u i g - e h e h l aue ac l t sn 2 D m a i m e to y ag rt m o x mu nrp loi h

“基于图像分析的纱线外观质量检测与评价”项目通过天津市教委验收

“基于图像分析的纱线外观质量检测与评价”项目通过天津市教委验收

位置标尺
已被用于生产实践 , 提高了工作效率 , 符合药典要求 ,
发 射接 收 器 位 置调 整
满 足 生产 需 要 , 轻 了 劳 动 强 度 , 到药 检 操 作 人 员 减 受
的认 可.
参考 文献 :
( ) 面 a 后
比较限调整 V ,
… 严 承宇. 1 中药薄层色谱分析与应用f . M]北京 : 中国医药科技
第 3期

杨 , : 剂前 沿告 警 系统 的研 制 等 溶
一 6Байду номын сангаас5—
2 溶剂前沿告警系统 . 3
根 据前 述 的理 论 原理 , 者 研 制 了溶 剂 前 沿告 警 笔 系统 , 图 7所 示 如
3 结 束 语
该溶 剂 前 沿告 警 系统 的研 制填 补 了国 内空 白. 试 验证 实 ,该 系统 在 恶 劣 的环 境 下 也 可 长 时 间正 常 使 用 , 受 室 内环 境 光 变 化 干 扰 , 用 于 常用 薄 层 板 和 不 适 溶 剂 ,适 用 于 15 2 0V交 流 电 . 溶 剂前 沿 告警 器 8 ~ 3 该
的测试 分析 , 对纱 线 外观 进行 了较 好 的模拟 ; 过对纱 线 黑板 进行 数 字化 仿真 , 通 实现 了根 据不 同
的黑板 宽度 和形状 动 态生 成纱 线缠 绕黑 板 图像 . 最终 实现 了用 数字 化 技术 来 进行 纱线 外 观质 量 的检测 , 具有 准确 、 标量 化等 优点 . 过检 验 , 系统 获取 数据 精 度较 高 , 到使 用要 求 . 指 经 该 达 ( 科技 处 郭建 辉 )
社 ,9 13 7 4 8 1 9 :5— 1
f】 由希雨. 4 钢筘筘齿 总数和筘 号检 测仪的应用【 _ J 纺织器材 , 】

纱线毛羽骨架及长度的跟踪测量

纱线毛羽骨架及长度的跟踪测量

纱线毛羽骨架及长度的跟踪测量孙银银;张宁;吴洋;潘如如;高卫东【期刊名称】《纺织学报》【年(卷),期】2017(038)008【摘要】针对现有图像法毛羽测量存在的缺陷,提出了一种用于毛羽分析和长度测量的纱线毛羽骨架跟踪算法.首先以10像素为步长,作纱线条干边缘曲线对毛羽骨架的分割线,得到毛羽起点;接着在毛羽延伸方向上对毛羽起点的上5-邻域点或下5-邻域点进行判断,得到新的毛羽路径点,进行邻域点的重复判断,直到没有毛羽路径点存在,依次记录所有毛羽点生成毛羽路径,并提出了多毛羽路径点和交叉毛羽的解决方案;最后根据2点间的距离计算出毛羽路径中相邻毛羽路径点的像素,从而得到毛羽的测量长度.对长毛羽的跟踪测量和固定分割长度测量的结果显示,毛羽骨架及长度的跟踪测量算法可将测量长度提高24.3%~666%,测量结果较为精确.【总页数】7页(P32-38)【作者】孙银银;张宁;吴洋;潘如如;高卫东【作者单位】常熟理工学院艺术与服装工程学院,常熟江苏 215500;江南大学纺织服装学院,无锡江苏 214122;江南大学纺织服装学院,无锡江苏 214122;江南大学纺织服装学院,无锡江苏 214122;江南大学纺织服装学院,无锡江苏 214122【正文语种】中文【中图分类】TS101.9【相关文献】1.基于图像处理连铸板坯长度在线跟踪测量系统 [J], 张建培;葛芦生;姚静2.半导体材料和器件的少子扩散长度随工艺跟踪测量 [J], 陈朝3.开放骨架磷酸铝合成中碳链长度对乙二胺结构导向效应的影响 [J], 常晓文;鲁婷婷;魏颖真;郭明玥;闫文付;徐如人4.悬臂浇筑法中劲性骨架段的合理长度 [J], CHENG Wen;WANGXuemin;CHENG Wu;DENG Pinglang;LIU Zili5.大气相干长度仪全屏自动跟踪测量软件 [J], 张燕;汪建业;徐鹏因版权原因,仅展示原文概要,查看原文内容请购买。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

为更准确地检测纱线毛羽长度及其根数, 在结合视频显微镜和图像处理技术的基础上, 提出一种新的毛
140 视频显微镜采集纱线图像, 经过灰度变换、 图像分割、 形态学开运算、 图像细化 羽检测方法 。 采用 MOTIC SME处理, 得到完整的纱线条干图像和细化后的毛羽图 像, 以 纱 线 条 干 边 缘 为 基 准 线, 对 毛 羽 分 割 点 进 行 判 断, 最后得 出不同长度的毛羽根数 。 图像法检测结果表明, 纱线 片 段 的 毛 羽 根 数 值 较 为 稳 定, 检测结果与目测图像计数的结 果非常接近, 因此, 可认为所提出的毛羽检测方法较现有的光电检测方法更为准确 、 可靠 。 关键词 纱线; 毛羽; 图像处理; 自动检测 文献标志码: A 中图分类号: TS 101. 9
[2 - 3]
, 更便于指导实际
,ቤተ መጻሕፍቲ ባይዱ
收稿日期: 2012 - 08 - 22
修回日期: 2013 - 03 - 13
基金项目: 江苏省自然科学基金资助项目( BK2011156 ) E-mail : 作者简介 : 孙银银( 1984 — ) , 女, 博 士 生 。 主 要 研 究 方 向 为 基 于 图 像 处 理 技 术 的 纱 线 毛 羽 检 测 。 高 卫 东, 通 信 作 者, gaowd3@ 163. com 。
第6期
孙银银 等: 基于数字图像处理的纱线毛羽检测
· 103·
其中, 黑板扫描方法 中 的 黑 板 会 对 毛 羽 产 生 压 迫 造 成毛羽状态失真, 毛羽检测误差较大; 视频显微镜方 获得纱线实物图 法是采集纱线自然 状 态 下 的 图 像, 像, 毛羽检测准确 度 较 高 。 张 继 蕾
[6]
毛羽在图像中的亮 度 不 一 致, 因此采用同一阈值对 图像中不同位置的 纱 线 和 毛 羽 进 行 分 割 并 不 合 适, 有必要采用局部阈值分割法处理纱线图像 。 将图像分 割 成 11 776 ( 128 × 96 ) 个 16 像 素 × 16 像素的区域, 对含 有 纱 线 的 分 区 域 进 行 OTSU 阈 而对不含纱线的分区域直接 将 其 像 素 值 变 为 0 , 值, 得 到 图 4 所 示 纱 线 二 值 图 像 。 由 图 可 看 出, 局部 OTSU 阈值能 够 很 好 地 消 除 背 景 等 干 扰 信 息, 精确 地分割出纱线, 且纱线毛羽保留完整 。
( 1)
式中: H 为灰度值,R 、G 、B 分 别 为 红 、 绿、 蓝色分
· 104· 量值 。 图 3 示出与图 1 对应的灰度图像 。
纺织学报
第 34 卷
图3 Fig. 3
纱线灰度图
Grayscale image of yarn
2. 3
图像分割
由于 显 微 镜 景 深 固 定, 导致不同位置的纱线和
[7]
图像清晰 。 在不同放大倍数的条件下, 调整 息完整, 焦距到图像 最 清 晰, 其 对 应 关 系 如 下: 放 大 倍 数 为 6 时, 实 物 尺 寸 为 22. 50 mm × 16. 78 mm , 在纱线径 向可以完整显示所有长达 8 mm 的 毛 羽; 放 大 倍 数 为 7 时, 实 物 尺 寸 为 19. 05 mm × 14. 28 mm , 在纱线径 向可以完整显示所有长达 7 mm 的 毛 羽; 放 大 倍 数 为 8 时, 实 物 尺 寸 为 16. 18 mm × 12. 13 mm , 在纱线径 向可完整显 示 所 有 长 达 6 mm 长 的 毛 羽 。 在 放 大 倍 为确保图像 数尽可能大以提高 测 试 精 度 的 前 提 下, 边缘处 的 6 mm 毛 羽 不 出 界, 测试所用视频显微镜 的放 大 倍 数 为 7 。 所 用 视 频 显 微 镜 的 分 辨 率 有 512 像素 × 384 像 素 、1 024 像素 × 768 像 素 、 2 048 像素 × 1 536 像素 3 种, 为尽可能提高纱线清 晰度, 选择最大分辨率, 即2 048 像素 × 1 536 像素 。 纱线 传 送 装 置 采 用 步 进 电 动 机, 由控制器控制 纱线每次传送长度 。 控制器 100 个脉冲信号使直径 传送纱线长度为 为 36 mm 的 传 动 辊 转 过 1 周, 113. 10 mm , 因此 1 个脉冲信号传送纱线长度为 0. 28 mm , 在放大倍数为 7 时, 每帧图像对应的纱线 实物长度为 19. 05 mm , 需 67. 4 个脉冲信号, 实验中
Fig. 5 图5 纱线分割图像 Image of yarn segmentation.
( a ) Yarn core ; ( b ) Yarn hairiness
2. 5
毛羽细化
为了 便 于 统 计 不 同 长 度 的 毛 羽 根 数, 先对毛羽
[10]
作细化处理 。 本文的细化算法 邻域点 。
为: 先定义 p 点 的
第 34 卷 第 6 期 2013 年 6 月 文章编号: 0253-9721 ( 2013 ) 06-0102-05
纺 织 学 报 Journal of Textile Research
Vol. 34 ,No. 6 Jun. ,2013
基于数字图像处理的纱线毛羽检测
孙银银 ,潘如如 ,高卫东
( 江南大学 纺织服装学院, 江苏 无锡 摘 要 214122 )
, 流程如
图2 Fig. 2
纱线图像处理流程图
Flow chart of yarn image processing
2. 2
灰度转换
为便于后续的纱线图像处理, 运用加权算法, 根
[8] 据式( 1 ) 把纱线毛羽彩色图像转换成灰度图像 。
H = 0 . 298 9 R + 0 . 587 0 G + 0 . 114 0 B
Detection of yarn hairiness based on digital image processing
SUN Yinyin ,PAN Ruru ,GAO Weidong
( School of Textile and Clothing ,Jiangnan University ,Wuxi ,Jiangsu 214122 ,China )
[1]
生产中对纱线质 量 的 控 制 。 然 而, 现有的光电传感 器
[4]
检测毛羽的方法 存 在 着 检 测 结 果 难 以 重 现, 毛
, 甚至影响最终 产 品 的 质 量 。 常 用 的 纱 线 毛 羽
羽信息采集不够全面等缺陷, 因此, 毛羽检测需要在 信号采集与处理方面作进一步探索 。 随 着 图 像 采 集 技 术 和 计 算 机 技 术 的 不 断 发 展, 数字图像处理技术 逐 步 应 用 到 纱 线 毛 羽 检 测 中, 提 高了毛羽检测的 全 面 性 和 准 确 度 。 目 前, 纱线的图 像采集方法有黑板 扫 描 方 法 和 视 频 显 微 镜 方 法
[5]
检测方法有光电式 分 级 统 计 法 和 光 电 式 全 毛 羽 法, 对应的评价指 标 有 毛 羽 根 数 分 布 和 毛 羽 H 值, 毛羽 H 值 是 指 1 cm 纱 线 上 所 有 伸 出 纱 线 主 体 的 毛 羽 长 度的总和 。 显然, 毛羽根 数 分 布 比 毛 羽 H 值 能 更 直 观地反映纱线 毛 羽 分 布 情 况
对应实物长度为 19. 22 mm , 尽可能保 取 68 个脉冲, 持纱线连续 。 根据所确定参数, 取精梳 14. 53 tex 的环锭纺纯 棉管纱进行纱线图 像 采 集, 图 1 为采集的纱线原始 纱线图像中虽存在较少噪点, 但 图像 。 由图可看出, 部分纱线毛羽和背 景 之 间 的 差 异 较 小, 故需确定合 理的图像分割流程, 实现对纱线毛羽与背景分离 。
八邻域如图 6 所示 。 图中 x 1 ~ x 8 分别为 p 点的 八
Abstract In order to detect the length and root number of yarn hairiness more accurately , a new hairiness detection method was proposed based on video microscope in combination with image processing techniques. The yarn images were captured with a MOTIC SME140 video microscope and then were processed with gray scale conversion , image segmentation , morphology opening and image thinning sequentially. The images of yarn core and hairiness thinning were obtained. And then with the yarn core edge as the measurement baseline to segment hairiness and the hairiness cut-point was judged , thus different lengths of hairiness root number were obtained directly. The result shows that the value of root number of every piece is more stable ,and the results of this detection are very close to the visual counting values. Therefore , the present method for hairiness detection is more accurate and reliable than the photoelectric one. Key words yarn ; hairiness ; image processing ; automatic detection 毛羽是评定纱 线 质 量 的 重 要 指 标 之 一, 不仅影 响纱线质量, 同时也 对 后 续 的 织 造 加 工 产 生 不 良 影 响
相关文档
最新文档