稀疏表示的字典_文献翻译.docx
压缩感知和稀疏表示的经典文献
原文地址:[转载]【转】压缩感知和稀疏表示的经典文献作者:阿拉蕾压缩传感不是万能的,虽然它是信号和图像处理领域最热门的研究对象但是它不可能解决所有问题就像中科院李老师的话:“压缩感知根植于数学理论,它给目前国内浮躁的学术环境提了一个警钟!因为只有很好地钻研它的基本理论和方法,才能将其有效地应用在所关心的问题中;否则它只能是一剂春药,一种无法名状的春药!”------------------------------------------------------------------------------------------人们习惯于用正交基来表示信号,直到最近几十年,人们才发现用冗余的基元素集合来表示信号能够取得更好的结果,当然我们追求的肯定是用最小数量的基元素来最优的表示信号,这就出现了信号的稀疏表示。
L1范数最小化最早并不是Donoho提出的,早在80年代,Fadil Santosa 和William Symes 就曾提出了L1范数的最小化,而Donoho提出Compressed sensing 并不是换汤不换药,CS 并不是解决信号在一个完备集里面的最优表示问题的,而是提出了一种新的信号采集或者测量方式,这种新的测量方式打破了Shannon-Nyquist定理在信号处理领域一手遮天的局面,已经提出,就引起了相关领域大批学者的关注。
Shannon-Nyquist采样定理要求在信号的采集阶段以高于信号带宽的两倍采样率来获取信号,信号才能得到完美的重构,而CS则对信号的带宽不再作要求,取而代之的是稀疏性,满足条件的信号则可在远少于SN采样率的情况下精确的重构信号。
从数学上来说,CS是在一定的条件下求解欠定(不适定)方程,条件包括x要是稀疏的,测量矩阵要满足RIP条件,那么欠定(不适定)方程就会以很大的概率有唯一解。
-------------------------------------------------------------------------------------------《Robust uncertainty principles: Exact signal reconstruction from highly incomplete frequency information》1.文章告诉我们压缩传感在图像领域的发展源于作者在医学图像领域--MR图像重构得到的惊人结果,接着提出了压缩传感的数学模型,即当一信号在时域具有稀疏性的前提下,对频域进行少量样本的随机抽样,就可以对信号进行重构,作者事实上是从一个特例开始讨论的,即B1是简单的抽样基,B2是傅里叶基,到了文章的结尾,才对这一事实进行扩展,而且上来就是全变分模型,而不是抽象的L1范数最小化。
基于稀疏表示及字典学习的sar目标识别
摘要摘要随着合成孔径雷达(Synthetic Aperture Radar,SAR)成像技术的发展,已经可以获取大量的SAR图像数据。
SAR图像目标识别技术在军事、民用等领域的应用价值越来越突出,SAR图像的预处理、检测、鉴别及识别等方面均取得了很大的进展。
在实际中,由于目标所处环境及目标配置、结构的复杂性,不可能得到目标所有状态或配置下的训练样本,其无法表示真实世界中所有情况,因此如何提高目标变体的识别性能是SAR目标识别的一个重要的研究方向。
本文主要针对SAR图像预处理、SAR图像目标识别,特别是目标变体的识别等方面展开了研究,在稀疏表示和字典学习的基础上提出了基于多信息字典学习及联合动态稀疏表示的SAR图像目标识别方法。
本论文的主要内容可概括如下:1. 介绍SAR图像预处理过程中涉及到的目标分割、配准、截取等处理过程。
2. 介绍传统的模板匹配方法、基于稀疏表示的SAR目标识别方法、基于联合稀疏表示的SAR目标识别方法及基于Hausdorff距离的识别方法,通过实验,分析并验证上述几种方法的可行性和优缺点。
3. 针对现有的基于联合稀疏表示的SAR目标识别方法中存在的问题,结合已用于人脸识别方面的联合动态稀疏表示模型,提出了基于多信息联合动态稀疏表示的SAR图像目标识别方法。
该方法利用目标图像域幅度信息和频域幅度信息分别构造字典,利用联合动态稀疏表示模型对测试目标的两种信息进行稀疏求解,根据重构误差对测试目标进行识别。
该方法综合利用了目标图像域幅度信息和频域幅度信息之间的关联性,提高了对测试目标的识别性能。
通过实验,验证了该方法的有效性,并与其它方法进行比较,突出了该方法的优势。
4. 在基于多信息联合动态稀疏表示的SAR图像目标识别方法的基础上,针对利用训练样本信息直接构造字典存在的缺陷,本文结合鉴别字典学习和联合动态稀疏表示模型,提出了基于多信息字典学习及联合动态稀疏表示的SAR图像目标识别方法。
Matlab中的稀疏表示和字典学习技巧
Matlab中的稀疏表示和字典学习技巧引言稀疏表示和字典学习技巧是图像处理和机器学习领域中经常使用的重要技术。
在Matlab中,有着丰富的工具箱和函数可以实现稀疏表示和字典学习,为我们提供了强大的能力来处理高维数据。
本文将介绍Matlab中的稀疏表示和字典学习技巧,并通过一些实例来说明它们的应用。
一、稀疏表示技术稀疏表示是指通过一组基向量的线性组合来表示数据的一种方法。
在Matlab中,我们可以使用字典工具箱(Dictionary Toolbox)来实现稀疏表示。
稀疏表示可以应用于各种领域,如图像处理、信号处理和数据压缩等。
在图像处理中,稀疏表示可以用于图像压缩和图像恢复等任务。
通过选择合适的字典和优化算法,我们可以将一张高分辨率图像表示为一组稀疏的线性组合。
在Matlab中,我们可以使用稀疏编码函数(sparse coding function)来实现这个过程。
具体步骤包括:选择字典、计算稀疏系数和重构图像。
通过调整字典的大小和优化算法的参数,我们可以得到不同精度的稀疏表示结果。
在信号处理中,稀疏表示可以用于信号降噪和信号恢复等任务。
通过将信号表示为一组稀疏的基向量的线性组合,我们可以有效地提取信号的特征和重建信号。
在Matlab中,我们可以使用稀疏表示工具箱(Sparse Representation Toolbox)来实现这个过程。
具体步骤包括:选择字典、计算稀疏系数和重构信号。
通过调整字典的大小和优化算法的参数,我们可以得到更准确和稳定的信号表示结果。
二、字典学习技巧字典学习是指通过训练数据来学习最优的字典的一种方法。
在Matlab中,我们可以使用字典学习工具箱(Dictionary Learning Toolbox)来实现字典学习。
字典学习可以应用于各种领域,如图像处理、文本处理和语音处理等。
在图像处理中,字典学习可以用于图像分类和图像重构等任务。
通过学习最优的字典,我们可以得到更好的特征提取和重构结果。
稀疏和冗余表示目录译文
稀疏和冗余表示在信号和图像处理上领域从理论到应用张林译目录:第一部分稀疏和冗余表示—理论和数值基础1序言 (3)1.1欠定线性系统 (3)1.2规则化 (4)1.3凸性的诱惑 (5)1.4更一步观察一范数的最小化 (6)1.5转换到线性规划 (8)1.6促进稀疏解 (8)1.70范数及其意义 (12)1.8(P0)问题–我们主要的兴趣 (13)1.9信号处理观点 (14)进一步阅读 (14)2唯一性和不确定性 (17)2.1Treating the Two-Ortho Case (17)2.1.1一个不确定原则 (18)2.1.2冗余解的不确定性 (21)2.1.3从不确定到唯一 (23)2.2一般情况的唯一性分析 (23)2.2.1通过Spark的唯一性 (23)2.2.2Uniqueness via the Mutual-Coherence (25)2.2.3通过Babel函数的唯一性 (27)2.2.4Upper-Bounding the Spark (28)2.3构造Grassmannian矩阵 (29)2.4总结 (30)进一步阅读 (31)3寻踪算法–实践 (35)3.1贪婪算法 (35)3.1.1核心思想 (35)3.1.2正交-匹配-寻踪 (36)3.1.3其他贪婪算法 (39)3.1.4标准化 (41)3.1.5在贪婪算法中残差衰退的速率 (43)3.1.6阈值算法 (45)3.1.7贪婪算法的数值示范 (46)3.2凸面松弛技术 (48)3.2.10范数的 (48)3.2.2针对(P1)解的数值算法 (51)3.2.3松弛技术的数值示范 (51)3.3总结 (52)进一步阅读 (53)4寻踪算法---保证 (55)4.1回到二正交情况 (55)4.1.1OMP性能保证 (55)4.1.2BP性能保证 (58)4.2总体情况 (64)4.2.1OMP性能保证 (65)4.2.2阈值化性能保证 (67)4.2.3BP性能保证 (68)4.2.4关于寻踪算法的性能的总结 (71)4.3The Role of the Sign-Pattern (71)4.4Tropp’s Exact Recovery Condition (73)4.5总结 (76)进一步阅读 (76)5从精确解到近似解 (79)5.1大致的动机 (79)5.2最稀疏解的稳定性 (80)5.2.1唯一性VS稳定性–获取直觉 (80)5.2.2(P_0)稳定性的理论研究 (82)5.2.3RIP及其在稳定性分析上的研究 (86)5.3寻踪算法 (89)5.3.1OMP和BP拓展 (89)5.3.2Iteratively-Reweighed-Least-Squares(IRLS) (91)5.3.3LARS算法 (95)5.3.4近似获取的特性 (98)5.4一元情况 (101)5.5寻踪算法的性能 (103)5.5.1BPDN稳定性的保证 (103)5.5.2阈值化的稳定性保证 (104)5.6总结 (107)进一步阅读 (108)6迭代收缩算法 (111)6.1背景 (111)6.2一元情况-灵感的源泉 (112)6.2.1一元情况的收缩 (112)6.2.2BCR算法及其演变 (113)6.3迭代收缩算法的发展 (115)6.3.1替代函数和Prox方法 (115)6.3.2EM和有界最优方法 (117)6.3.3基于收缩算法的IRLS (119)6.3.4平行-协调-下降(PCD)算法 (120)6.3.5StOMP:贪婪算法的变形 (123)6.3.6概要–迭代收缩算法 (125)6.4使用Line-Search and SESOP加速 (127)6.5迭代收缩算法:测试 (127)6.6总结 (132)进一步阅读 (134)7面向平均性能分析 (137)7.1再次访问实验性证据 (137)7.2窥探概率性分析 (140)7.2.1分析的目标 (140)7.2.2Candes&Romberg对Two-Ortho的分析 (141)7.2.3概率的唯一性 (143)7.2.4Donoho的分析 (143)7.2.5总结 (144)7.3阈值分割的平均性能 (144)7.3.1前沿 (144)7.3.2分析 (145)7.3.3讨论 (148)7.4总结 (150)进一步阅读 (150)8Dantzig选择器算法 (153)8.1Dantzig-Selector VS Basis-Pursuit (153)8.2一元情况 (155)8.3重访受限的等距机构 (156)8.4Dantzig选择器的性能保证 (157)8.5Dantzig选择器的实践 (163)8.6总结 (164)进一步阅读 (165)Part II从理论到应用—信号和图片处理的应用9信号处理中的稀疏寻找方法 (169)9.1信号的传递和转化 (169)9.2稀疏-Land模型 (172)9.3Sparse-Land在几何上的理解 (173)9.4处理稀疏生成的信号 (176)9.5分析VS合成模型 (178)9.6总结 (180)进一步阅读 (181)10图像模糊化---一个案例的研究 (185)10.1问题公式化 (185)10.2字典 (186)10.3数值考虑 (188)10.4实验细节和结果 (191)10.5总结 (198)进一步阅读 (199)11MAP VS MMSE评估 (201)11.1一个随机模型和评估目标 (201)11.2MAP和MMSE的背景 (202)11.3一个预言评估 (204)11.3.1预言评估的发展 (204)11.3.2预言错误 (206)11.4MAP评估 (208)11.4.1MAP评估的发展 (208)11.4.2逼近MAP评估 (211)11.5MMSE评估 (212)11.5.1MMSE评估的发展 (212)11.5.2逼近MMSE评估 (215)11.6MMSE和MAP错误 (218)11.7更多试验结果 (220)11.8总结 (224)进一步阅读 (224)12寻找字典 (227)12.1选择VS学习 (227)12.2字典-学习算法 (228)12.2.1字典里的核心问题-学习 (229)12.2.2MOD算法 (230)12.2.3K-SVD算法 (231)12.3训练有结够的字典 (237)12.3.1双重稀疏模型 (239)12.3.2一元基的统一 (241)12.3.3字典签名 (242)12.4总结 (244)进一步阅读 (244)13图片压缩–面部图片 (247)13.1面部图片的压缩 (247)13.2前人的工作 (249)13.3稀疏表示基的编码方案 (250)13.3.1总的方案 (251)13.3.2VQ VS稀疏表示 (253)13.4更多细节和结果 (254)13.4.1K-SVD字典 (255)13.4.2重建图像 (255)13.4.3运行时间和内存使用 (260)13.4.4和其他方法比较 (261)13.4.5字典冗余 (262)13.5后处理Deblocking (263)13.5.1The Blockiness Artifacts (263)13.5.2针对Deblocking的可能算法 (265)13.5.3基于Deblocking方法的学习 (266)13.6Deblockin结果 (267)13.7总结 (268)进一步阅读 (269)14图片去噪 (273)14.1总的介绍–图片去噪 (273)14.2开始:全局模型 (274)14.2.1核心图片去噪模型 (274)14.2.2多方面的改进 (276)14.3从全局到局部建模 (278)14.3.1总的方法论 (278)14.3.2学习收缩曲线 (279)14.3.3已学习字典和优先的全局化 (286)14.3.4非局部均值算法 (292)14.3.53D-DCT收缩:BM3D去噪 (296)14.4SURE为自动参数的设定 (297)14.4.1SURE的发展 (298)14.4.2对全局阈值化进行SCURE演示 (300)14.5总结 (302)进一步阅读 (303)15其他应用 (309)15.1综述 (309)15.2通过MCA的图片分离 (310)15.2.1图片=Cartoon+Texture (310)15.2.2用全局MCA进行图片分离 (312)15.2.3用局部MCA进行图片分离 (316)15.3图像修复和去除脉冲噪声 (324)15.3.1修复稀疏-Land信号–核心原则 (324)15.3.2修复图像–局部K-SVD (327)15.3.3修复图像–全局MCA (335)15.3.4脉冲-噪音滤波器 (338)15.4图片放大 (341)15.4.1问题的建模 (343)15.4.2超分辨率算法 (346)15.4.3放大结果 (349)15.4.4图像放大:总结 (351)15.5总结 (353)进一步阅读 (354)16后记 (359)16.1What is it All About? (359)16.2还有什么缺失? (359)16.3概要 (360)索引 (371)。
浅析稀疏表示分析解析
3、稀疏表示的应用 系数表示在图像处理的反问题中,主要有三种应用: 1、图像去噪:主要适用于加性噪声 2、图像超分辨率的重建:训练高低分辨率图像的两个字 典(有的文章给出两个字典之间的关系系数)。 3、图像修复:利用待修复图像内的有效信息,采用K-SVD 算法对所有不重叠取块后的图像块进行训练,得到与待修复图 像相适应的新字典,求出稀疏系数,更新图像块,修复受损图像。
Original clean image
Noisy image, 20.1578dB Clean Image by Adaptive dictionary, 29.6051dB
3、稀疏表示的应用(稀疏去噪)
原始图像
JPEG失真图像 psnr=21.6077
用ksvd训练出的字 典处理后的图像 psnr=22.1077
i 1
L
x N×1
D N×L a L×1
其中:D—过完备字典, di—原子, a—稀疏表示的系数, a只有有限个(k个)非零元素,则称a是 k稀疏的。
1、获取稀疏的分解系数方法
已知信号x和字典D求解稀疏系数a是求解欠定方程组的问题,可以得到无数多 个解,在这些解构成的解空间中求最稀疏的解,就是要求的系数向量a中的非零向 量最少,稀疏问题就可以表示为求解公式(2),在实际中,我们还要将公式(2) 转换成公式(3)的形式,转化为稀疏逼近问题来求近似解。
式中 K —字典的原子总数; k —要更新的原子索引。
从Ek中除去没有用到原子dk(J-1)的列得到EkR,对EkR进行SVD分解从而更新 dk(J-1),同时更新aRk。
2、设计与构建有效的图像稀疏表示字典
DCT方法训练字典
MOD方法训练字典
K-SVD方法训练字典
基于稀疏表示的图像重建算法研究文献综述
---------------------------------------------------------------范文最新推荐------------------------------------------------------ 基于稀疏表示的图像重建算法研究+文献综述摘要图像在获取、存储、传输等过程中都会受到特定噪声的污染,造成图像质量的下降,因此图像的重建是图像处理中的一个重要问题。
其目的是通过一系列的运算,尽可能恢复原始图像。
近年来,稀疏表示理论受到人们的广泛关注。
其理论依据是,具有一定光滑性的干净图像在适当的过完备字典下存在稀疏表示,通过选择或设计适当的字典,求出图像在该字典下的稀疏表示,就可以达到重建的目的。
图像的重建是图像处理的重要课题之一,即是试图利用退化现象的某种先验知识来重建或恢复被退化的图像,最终达到改善给定图像的目的。
图像复原技术经过几十年的发展,逐步形成了一套统一的理论框架。
1 / 9本研究了在两种不同字典下的稀疏表示,同时实现基于稀疏正则化的图像信号复原。
实验结果表明,曲波字典比小波字典具有更好的适应性。
关键词数字图像处理稀疏表示正则化图像重建7090毕业设计说明书(论文)外文摘要TitleImage reconstructionalgorithmbased on the sparse representationAbstractImages in the process of acquisition, storage, and transmission are subject to specific noise pollution, which can cause the decline in image quality. So, the image denoising reconstruction is an important issue in image processing. Its goal is to restore the original image as far as possible by a series of operations .In recent years, the sparse representation theory has been widespread concerned. Its theoretical basis is that a clean image with a certain smoothness exists sparse in an appropriate---------------------------------------------------------------范文最新推荐------------------------------------------------------complete sub Highness or designing appropriate dictionary.We can get the purpose of denoising by finding the image in the dictionary under the sparseselecting .Reconstruction of the image is one of the important topics of image processing, that is trying to use some a priori knowledge to rebuild or restore the degraded image , and ultimately reach the purpose to improve the given image. After decades of development, image restoration techniques are gradually formed a unified theoretical framework .This paper based on the sparse representation of two different dictionaries, and at the same time to achieve recovery based on the sparse regularization of the image signal. Experimental dismissal the curvelet dictionary has better adaptability than the waveletdictionary.结论26致谢273 / 9参考文献281引言1.1课题的背景图像是客观世界的某种状态或能量以一定的方式在二维平面上的投影所转化成的一种可视形式,是人类社会活动中常用的信息载体之一。
字典原子优化的图像稀疏表示及其应用
色 关联度 选择 表征 能力 强 的原 子 , 提 高 字典 的表 征 能力 , 缓 解 了传 统 字典 设 计 对 原 子个 数 的依
赖; 同时, 降低 了算法的复杂度. 将该方法得到的字典用于 图像 去噪 , 结果表明, 视觉效果明显优 于 同类 算法 , 峰值 信噪 比提 高 2 d B左右 , 且 算 法复杂 度 显著 降低 . 关键词 :图像稀疏表示; 原子优化; 灰色关联度 ; 原子聚类
( 南通 大学 电子 信息 学院 , 南通 2 2 6 0 1 9 )
摘要 : 为了 提高 图像稀疏表示性能, 提 出了一种有效的结构化字典 图像稀疏表示方法. 针对过完 备字典构造和稀疏分解 中原子筛选 问题 , 提 出了一种基于灰色关联度 的字典原子筛选和结构聚 类方案. 首先 , 对测试 图 像分块处理, 利用块作为原子样本 ; 然后, 计算原子间的灰色关联度, 并设 置原子灰色关联度 的筛选准则; 最后 , 利用结构特征对原子聚类, 构造图像稀疏字典. 算法利用灰
a n d a s pa rs e r e p r e s e n t a t i o n d i c t i o na r y i s c o n s t r u c t e d.I n hi t s me h od,a t t o ms wi h t h i g h r e p r e s e n t a t i v e p e fo r r ma n c e re a s e l e c t e d b y he t g r e y r e l a io t n,i mpr o v i ng he t a bi l i t y o f c a p t u in r g he t i ma g e s t r u c t ur e . The me ho t d s ol ve s he t p r o b l e m o f a t r a d i t i o n a l di c io t n a r y d e s i g n e d de p e n d i n g o n he t nu mbe r o f s e — l e c t e d a t o ms a n d a l s o r e d u c e s he t c o mp l e x i t y.The s i mu l a t i o n r e s ul t s s h o w ha t t he t p r o po s e d me ho t d
基于KSVD学习字典稀疏表示的图像压缩传感方法研究
基于KSVD学习字典稀疏表示的图像压缩传感方法研究王宇;欧阳华【摘要】本文运用基于KSVD学习字典的稀疏表示方法,实现了图像信号的压缩传感.将实验结果与DCT变换和小波变换固定字典进行对比分析,分别采用25%、50%、75%三种测量率,三种测量率下的峰值信噪比(PSNR)明显高于相同测量率下的DCT变换与小波变换的峰值信噪比.尤其是在测量率为25%时,DCT变换与小波变换的PSNR分别为17.8982与11.0880,而KSVD学习字典的PSNR为28.3538.实验结果表明采用KSVD方法在图像压缩传感上有更好的实验效果.【期刊名称】《船电技术》【年(卷),期】2018(038)002【总页数】4页(P37-40)【关键词】压缩传感;小波变换;DCT变换;KSVD【作者】王宇;欧阳华【作者单位】海军工程大学电气工程学院,武汉 430033;海军工程大学电气工程学院,武汉 430033【正文语种】中文【中图分类】TN915传统的信号采集过程主要包括采样、压缩、传输和解压四个部分。
但在这个过程中,依照Nyquist-Shannon定理抽样频率至少要是原信号最高频率的两倍以上才能由抽样后的离散信号精确地恢复出原信号这一标准,将会产生大量的冗余数据,大大增加了处理数据的时间和存储数据占用的存储空间[1]。
2006年,Candes和Donoho提出压缩传感理论(Compressed Sensing, CS)[2-3],该理论认为稀疏的或具有稀疏表达的有限维数的信号可以利用远少于奈奎斯特采样数量的线性、非自适应的测量值无失真地重建出来。
其核心思想是:若信号在某个变换域上具有稀疏性,可将其线性投影到一个低维空间中实现信号压缩,此过程可将信号的采样以及压缩过程合二为一。
信号的重构可通过求解线性优化问题实现。
压缩传感技术能够通过观测直接获得压缩的信号,避免对大量信息的采集。
压缩传感技术在图像采集、图像压缩和医学成像等领域具有广阔的应用前景[4]。
机器学习中的稀疏表示方法
机器学习中的稀疏表示方法随着数据量和特征维度的不断增加,在机器学习中,如何实现高效的特征选择和数据降维成为了重要的研究问题之一。
稀疏表示方法就是在这个背景下应运而生的一种重要技术。
由于其具有高效、可解释性等优秀特性,因此在数据分析、图像处理、信号处理等领域都得到了广泛的应用。
本文将从什么是稀疏表示、稀疏表示的求解算法等方面对机器学习中的稀疏表示方法进行详细介绍。
一、稀疏表示的概念稀疏表示是指用尽可能少的基函数来表示信号,从而实现数据的压缩或降维。
在机器学习中,常用的基函数有Discrete Cosine Transform(DCT)、Karhunen-Loève Transform(KLT)、Wavelet Transform(WT)等。
这些基函数都能实现一种表示方法,即只有很少的系数会被激活,而其他的系数则保持为零。
一个简单的例子,假设我们有一个数据集D,其中每个数据样本为$x \in R^d$,则通常我们可以用以下线性模型去表示这个数据集:$$\min_{w_i} \sum_{i=1}^{d}{\left \| Xw_i - x_i \right \|_2^2} + \lambda\left \| w_i \right \|_1$$其中,$X$是基向量矩阵,$w_i$是用于表示$x_i$的系数向量,$\left \| \cdot \right \|$是$l_1$范数,$\lambda$是控制稀疏度的超参数。
通常,$l_1$范数最小化问题的解具有很强的稀疏性,即只有少数的元素被激活,而其他的元素均为零。
二、稀疏表示的求解算法上述线性模型的求解问题属于优化问题,通常我们可以采用一些求解稀疏表示问题的算法来实现。
1. LARS算法Least Angle Regression(LARS)算法是一种线性模型求解算法,它能够计算出一系列用于表示目标函数的基向量,从而解释数据集的大部分方差。
它可以看做是一种逐步回归算法的改进。
一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法
一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法滚动轴承作为一种重要的机械部件,在工业生产过程中发挥着至关重要的作用。
然而,随着轴承使用时间的不断增长,其工作状态可能发生变化,如果不及时采取措施进行维护和修理,轴承可能会出现故障,导致设备失灵、生产效率下降,甚至造成安全事故。
因此,轴承故障诊断一直是工程领域一个热门的研究方向。
在这篇文章中,我们将介绍一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法。
1. 轴承故障的类型在进行轴承故障诊断之前,我们需要了解常见的轴承故障类型。
一般来说,轴承故障可以分为以下几类:(1)疲劳故障:这是轴承最常见的故障类型,通常由于轴承长期运转、载荷变化等原因引起,主要表现为疲劳裂纹、划痕、脱落等。
(2)润滑不良引起的故障:由于轴承的润滑不良或润滑油的污染等原因,导致轴承表面磨损、氧化、腐蚀等现象。
(3)安装不当引起的故障:轴承在安装时,如果安装不当、过紧或过松等,会导致轴承内外圈失衡、轴承变形等故障。
(4)其他故障:例如轴承表面的异物和轴承材料的断裂等。
2. 双稀疏字典稀疏表示方法双稀疏字典稀疏表示方法是一种有效的信号处理方法,其主要原理是将所要处理的信号表示成两个稀疏系数向量的线性组合。
其中,一组系数向量表示信号的稀疏特性,另一组系数向量表示信号的字典特性。
利用这种方法可以有效地提取信号的特征,从而实现对轴承故障的有效诊断。
3. 滚动轴承故障诊断流程(1)采集轴承振动信号:首先需要采集轴承振动信号。
可以利用加速度传感器或振动传感器等设备来采集轴承振动信号。
(2)信号预处理:对采集到的轴承振动信号进行预处理,包括滤波、去噪等处理,以减少噪声干扰,提高信噪比。
(3)双稀疏字典构建:构建信号的双稀疏字典,以提取轴承振动信号的特征。
(4)信号稀疏表示:将处理后的轴承振动信号表示成两个稀疏系数向量的线性组合,分别表示信号的稀疏特性和字典特性。
(5)故障模式匹配:对表示后的信号进行特征提取和模式匹配,以识别轴承的故障类型,并给出相应的诊断结果。
高维数据稀疏表示-什么是字典学习(过完备词典)
⾼维数据稀疏表⽰-什么是字典学习(过完备词典)Table of Contents稀疏表⽰理论背景稀疏表⽰的由来稀疏表⽰理论最早是在研究信号处理应⽤中发展起来得。
其基础是多尺度分析理论,在此基础上拓展,形成了相应的理论框架。
主要是通过少数的稀疏稀疏来逼近原信号。
近年来,稀疏表⽰的⽅法主要应⽤于信号处理和图像处理⽅⾯。
啥是⾼维数据这⾥,信号和图像都可以看成是⼀个数据对象在所有维度上的信号,本⽂统称为“数据对象”。
因此,不难看出,这种数据对象必然是⼀个⾼维的。
何为⾼维?举个栗⼦:⽐如对⼀个10个⼈的薪酬表的描述。
表的⾏是这10个⼈;列是这是个⼈的属性,⽐如姓名、⽣⽇、职位、基本⼯资、⼯作年限等⼀共20个属性。
那么这个表就是⼀个10*20的表。
每个⼈即⼀个数据对象,是20维的。
那么问题来了,⽐如⼀个⼈脸的图像(简化⼀下,不是⾃拍照,是⼀⼨照。
再简化⼀下,⽐如这个图像要求的清晰度不⾼,只要32*32像素的)。
那么可以理解成这个图像有32*32个点,每个点有⼀个表⽰颜⾊的数值(再进⼀步简化,这是⿊⽩照⽚,每个点的数值表⽰的是这个点的深浅程度)。
那么这个照⽚就有32*32=1024个点。
如果我们有这要的照⽚100张,每张照⽚都有1024个表⽰颜⾊深浅的数据,那么就得到了⼀个100*1024的表。
这明显是⾼维了。
⽽真正的图像中,不可能是32*32的吧(难道都是⼩霸王⾥的超级玛丽?),要再是彩⾊的,俺的苍天啊,这个维度就更⾼了,⾼到我不想举例⼦了。
在实际⼯作的研究领域,⼀般20维以上即可以算作是⾼维数据了。
⾼维数据的特点1. 维灾:这个名字太贴切了,维度增加带来的灾难。
这个概念是⼀个叫Bellman的⼤叔在1962年提出来的(好像不是⼤叔,⼤爷都不⽌了)。
意思是对于⼀个多变量的函数,随着维数的增加(变量的增加),这样⾼维数据问题往往转化成为了⼀个多变量的优化求解问题。
但由于维度太⾼了,传统的算法就不⾏了。
⽐如,每个数据对象理解成⼀个点,我们⼀般⽤k近邻的概念时要找到距离这个点最近的k个点。
稀疏表示
( D) 2 || ||0
上面的符号表示:最小的线性相关的列向量所含的向量个 数。那么对于0范数优化问题就会有一个唯一的解。可即便是 证明了唯一性,求解这个问题仍然是NP-Hard。
时间继续来到2006年,华裔的数学家Terrence Tao出现, Tao和Donoho的弟子Candes合作证明了在RIP条件下,0范 数优化问题与以下1范数优化问题具有相同的解:
谢谢!
α=(0,0,0.75)
α=(0,0.24,0.75)
α=(0,0.24,0.75)
α=(0,0.24,0.65)
对于上面求内积找最匹配原子的一步,当时鉴于原 子个数太多,就想了可否在这里做个优化,就用了PSO (粒子群优化算法)查找最优原子,这个比遗传算法要 简单,我觉得这个算法也还挺有意思的。 基于学习的方法:
输入的刺激即照片不一样,则响应神经元也不一样
模拟人类视觉系统的感知机制来形成对于图像的稀疏表 示,将字典中的每个原子看作一个神经元,整个字典则对应 人类视觉皮层中神经元整体,并且字典中原子具有类似视觉 皮层中神bor函数作为简单细胞的感受野 函数,刻画其响应特性。
2 2 2 x k y x g K ( ) exp( ) cos(2 ) 2 2
( x x0 ) cos ( y y0 ) sin x
( x x0 ) sin ( y y0 ) cos y
Gabor函数
稀疏表示的应用 图像恢复,又左侧图像恢复出右侧结果
图像修补,左侧图像修补得到右侧结果
图像去模糊左上为输入模糊图像,右下为输出清晰图像, 中间均为迭代过程
物体检测
自行车,左侧输入图像,中间为位置概率图,右侧为检测结果
基于稀疏表示的医学图像融合
基于稀疏表示的医学图像融合邱红梅;李华锋;余正涛【摘要】In the traditional K order singular value decomposition (KSVD)-based methods,the dictionary learning process is time-consuming and the learned dictionary can't represent the source images well. Therefore,a novel dictionary learning method is proposed for the medical images fusion problem. In which,these image blocks with rich energy feature and detail information are firstly filtrated to form the training set and the dictionary is learned from the training set. Next,the sparse model is constructed according to the learned dictionary and the sparse coefficients are solved by the orthogonal matching pursuit(OMP) algorithm. Finally,the'max absolute'rule is employed to obtain the fused coefficient and the final fused image is obtained. The experiment has verified that the proposed method is effective for different medical images.%针对传统基于K 阶奇异值分解(KSVD)的字典学习算法时间复杂度高,学习字典对源图像的表达能力不理想,应用于医学图像融合效果差的问题,提出了一种新的字典学习方法:在字典学习之前对医学图像的特征信息进行筛选,选取能量和细节信息丰富的图像块作为训练集学习字典;根据学习得到的字典建立源图像的稀疏表示模型,运用正交匹配追踪算法(OMP)求解每个图像块的稀疏系数,采用"绝对值最大"策略构造融合图像的稀疏表示系数,最终得到融合图像.实验结果表明:针对不同的医学图像,提出的方法有效.【期刊名称】《传感器与微系统》【年(卷),期】2017(036)010【总页数】4页(P57-60)【关键词】稀疏表示;字典学习;医学图像融合;正交匹配追踪【作者】邱红梅;李华锋;余正涛【作者单位】昆明理工大学信息工程与自动化学院,云南昆明650500;昆明理工大学信息工程与自动化学院,云南昆明650500;昆明理工大学信息工程与自动化学院,云南昆明650500【正文语种】中文【中图分类】TP391图像融合技术已经广泛地应用到各个领域[1~4]。
稀疏表示字典的显示(MATLAB实现代码)
稀疏表⽰字典的显⽰(MATLAB实现代码)本⽂主要是实现论⽂--基于稀疏表⽰的图像超分辨率《Image Super-Resolution Via Sparse Representation》中的Figure2。
通过对100000个⾼分辨率和低分辨率图像块训练得到的⾼分辨率图像块字典,字典原⼦总数为512,图像块尺⼨⼤⼩为9X9⽅法⼀:clc;clear all;% load dictionaryload('Dictionary/D_512_0.15_9.mat');patch_size=9;nRow=24;nCol=22;D=Dh';w=nCol*patch_size;h=nRow*patch_size;gridx = 1:patch_size :w;gridx = [gridx, w-patch_size+1];gridy = 1:patch_size : h;gridy = [gridy, h-patch_size+1];K=512; %字典原⼦总数DD=cell(1,K);row=length(gridx);col=length(gridy);hIm=zeros([w,h]);for i=1:KDD{i}=D(i,:);endfor ii = 1:length(gridx),for jj = 1:length(gridy),yy = gridx(ii);xx = gridy(jj);if (ii-1)*nRow+jj >Kbreakendtemp=DD{(ii-1)*nCol+jj};hPatch=reshape(temp,[patch_size,patch_size]);hIm(yy:yy+patch_size-1, xx:xx+patch_size-1) = hIm(yy:yy+patch_size-1, xx:xx+patch_size-1) +hPatch;endendfigure;imagesc(hIm);colormap(gray);axis image;输出结果:能够看出,相⽐于论⽂中字典的显⽰图。
稀疏表示与稀疏分解
相关系数的大小与原子的相关性呈正比。若μ=1,即表明原子库中至少有两个原子相 同,当μ比较小时,即表明原子间的相关性不高即可称此原字库为非相干原字库。
此时您正浏览在第5页,共16页。
面对稀疏表示模型,有三个关键问题需要解决,如 下:
1.如何有效获取图像在字典中下最稀疏的分解系数?
2.如何设计与构建有效的图像稀疏表示字典? 3.如何将图像稀疏表示模型应用于具体的图像处理反问题中?
今天我主要讲的是求解稀疏系数问题。
此时您正浏览在第6页,共16页。
2.稀疏分解算法
获取信号在过完备字典下的最优稀疏表示或稀疏逼近的过程叫做信号的稀疏分解, 这是稀疏表示能否在实际图像处理中应用的基本问题。但是由于L0范数的非凸性,在 过完备字典之下求最。 主要采用的逼近算法
间,则大字典D是过完备的。
•
我们一般用的字典都是过完备的,因为在过完备的字典下分解稀疏
系数不唯一,这也恰恰为图像的自适应处理提供的可能,我们可以根据
自己处理的要求在第3页,共16页。
其实求解过完备的稀疏表示模型等价于寻求欠定系统的最稀疏解问题。
D∈R^(n×m)且m>n时,如何求解 y=Dx即如下
我们已经知道在过完备字典的条件下稀疏系数是不唯一的,但是否 我们可以求出最稀疏解呢?
此时您正浏览在第4页,共16页。
Elad和Bruckstein在2004年对下述定理进行了证明: 定理1:设D为一个相干系数是μ的原子库,D={gi,i=1....M}。如果一个N维的信号s可以表示为:
并且 <1/μ,那么上式就是信号s在D中最稀疏的表示。
即在每次选择的原子 用Rram-Schmidt正交化处理: 其中Up为上一次的原子正交结果,初始Up= 。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
从统计学的观点来看, 这个过程把数据当作服从低维高斯分布来建模,因此对于 高斯数据最有效。 与傅里叶变换相比,KLT 在表示效率上更优。然而,这个优势是用非结构性 和明显更复杂的转换换来的。 我们将会看到,这种在效率与自适应性之间的折衷 在现代字典设计方法学中仍扮演着重要的角色。 B. 非线性变革与现代字典设计元素 19 世纪 80 年代,统计学的研究领域出现的新的有力方法,即稳健统计。稳 健统计提倡将稀疏作为大范围的复原与分析任务的关键。 这种理念来源于经典物 理学,发展于近年的信息论,在指导现象描述上提升了简易性与简明性。在这种 理念的影响下,80 年代与 90 年代以搜寻更稀疏的表示和更高效的变换为特征。 增强稀疏性需要偏离线性模式,朝更灵活的非线性规划发展。在非线性的实 例中,每个信号都可以使用同一字典中一组不同的原子,以此实现最佳近似。因 此,近似过程变为
其中������������ (������)是分别适用于每个信号的索引集。 非线性观点为设计更新,更有效的变换铺平了道路。在这个过程中,许多指
导现代字典设计的基本概念形成了。我们将沿着历史的时间线,回溯许多最重要 的现代字典设计概念的出现。大部分概念是在 20 世纪的最后 20 年间形成的。
定位:为了实现稀疏性,变换需要更好的定位。受到集中支撑的原子能基于
其中w(∙)是一个定位在 0 处的低通窗口函数, 且α 和β 控制变换的时间和频率分 解。这种变换的很多数学基础都由 Daubechies,Grossman 和 Meyer 在 19 世纪 80 年代提出。他们从框架理论的角度研究该变换。Feichtinger 和 Grochenig 也是 Gabor 变换数学基础的建立者,他们提出了广义的群理论观点。离散形式变 换的研究及其数值实现紧接着在 19 世纪 90 年代早期开始进行。Wexler,Raz, Qian 和 Chen 对该研究做出了重要贡献。 在更高的维度下, 更复杂的 Gabor 结构被研究出来。这些结构通过改变正弦 波的朝向增加了方向性。 这种结构在 Daugman 的工作中得到了大力支持。他在视 觉皮质的简单细胞接受域中发现了方向性的类 Gabor 模式。 这些结果在 Daugman, Porat 和 Zeevi 的工作的引导下促进了图像处理任务中变换的调度。 现在, Gabor 变换的实际应用主要在于分析和探测方面,表现为一些方向滤波器的集合。
本地信号的特征提供更灵活的表示,并限制不规则的效应。观察发现这种效应是 大系数的主要来源。本着这种精神,一种首先被采用的结构是短时傅里叶变换 (STFT) , 它作为傅里叶变换的自然延伸出现。 在 STFT 中, 傅里叶变换被局部 (可 能重叠) 地应用于信号的某些部分, 从而展示出信号的时间-频率 (或空间-频率) 描述。JPEG 图像压缩算法就是 STFT 的一个例子。 在 19 世纪 80 年代与 90 年代, STFT 被广泛地研究与推广, 被更多地称作 Gabor 变换,为表示对在 1946 年最先建议时间-频率分解 Dennis Gabor 的敬意。Gabor 的工作在 19 世纪 80 年代被 Bastiaans 和 Janssen 各自独立地重新发现, 他们当 时在研究扩展的基本性质。 一种 1 维的 Gabor 字典由一组被加窗的波形构成。
实用的C(γ)的选取提高了表示的稀疏性, 意味着我们希望选取的系数能快速 衰减。 问题 (3) 常被称为稀疏编码。我们可以通过在鲁棒补偿函数中选择C(γ), 我们将这种函数宽松地定义为对大系数宽容而对小的非零系数极其不利的函数。 相关的例子有 Huber 函数以及各种������ ������ 成本函数,其中 0≤ p ≤ 1。 这三种问题,尤其是(3)问题,在过去的几年中都被广泛地研究。这也反过 来促进了新的使用通用过完备变换的信号处理算法的发展。然而,在从理论到实 践的过程中, 要面对为给定任务选择合适字典的挑战。早前的工作利用了传统的 字典,如傅里叶字典和小波字典。它们用于处理 1 维信号简单实用。然而,这些 字典不足以表示更复杂的自然高维信号数据。所以人们开始寻找新的改进字典。 在不断上升的需求下,各种字典被研究出来。这些字典从两种来源中产生。 一种是数据的数学模型, 另一种是一组数据的实现。第一种字典以分析公式和快 速的隐式实现为其特征。 第二种字典实现了增强的灵活性以及适应特定信号数据 的能力。最近,对于居于两种字典之间的字典的研究逐渐兴起。这种新的字典集 合了前两种字典的优点。这种结构刚刚开始出现,相关的研究还在进行中。 在这篇论文中,我们将介绍指导现代字典设计的基本概念。在第二部分中, 我们将以历史的观点, 追溯字典设计方法学从 19 世纪 60 年代到 19 世纪 90 年代 的演变, 主要介绍概念上的进展。在第三部分和第四部分我们会综述分析字典与 训练字典的先进技术。我们会在第五部分作总结并得出结论。
I. 引言
自然信号的数字化采样过程将它表示为一系列空间或时间中的脉冲函数的 和。这种表示虽然在显示或重放时提供了方便,却不利于我们进行分析。信号处 理技术通常需要更有意义的表示方法, 以抓住需识别信号的有用特征—用于识别 时,表示方法应该突出被处理信号的特征;用于降噪时,表示方法应该有效地分 离信号和噪声; 用于压缩时, 表示方法应该只用很少的系数来捕捉大部分的信号。 有趣的是, 在很多案例中这些看似不同的目标达到了一致,都以简化作为核心要 求。 信号的表示牵涉到字典的选取。 字典是一组用于分解信号的基本信号或原子。 每个信号都可以被独一无二地表示为字典原子的线性组合。在最简单的实例中, 字典是正交的,且表示系数可以用信号和原子的内积来计算;在不正交的时,系 数是信号和字典的逆的内积,这种字典也被表述为双正交基字典。 许多年来, 正交基与双正交基字典由于它们在数学上的简易性而占有主导地 位。然而,这些字典的弱点,也即它们有限的表达能力,最终覆盖了其简易性的 优势。这促进了更新的过完备字典的发展。过完备字典的原子多于信号的维度, 因此能表示更宽范围的信号现象。 为了减小失去正交基变换提供的优良性能带来的损失, 过完备字典的发展是 谨慎的。 很多字典形成了紧框架,确保了将信号表示为原子的线性组合的表示过 程仍能被确定为信号和字典的内积。另一种方法称为最优基算法。它使用一个特 定的字典结构, 使字典可以成为这样的原子集合--从中可以高效地选取正交子字 典。 有关通用过完备字典的研究主要开始于过去的十年中, 且仍在紧张地进行中。 这样的字典在信号的表示定义中引进了一种有趣的不确定性。我们设字典 D = [d1 d2 … dl ] ∈ RN×L ,其中的列构成了字典的原子,且L ≥ N。用字典表示一 个x ∈ RN 的信号有两种途径,一种是分析途径,信号用它自身与原子的乘积来表 示,
������a = ������T ������ ,
(1)
另一种是综合途径,信号被表示为原子的线性组合, ������ = ������������s . (2) 这两种定义在完备情况(L = N)时是完全一致的,这时分析字典和综合字典是双 正交的。然而在通常情况下,这两种字典是显著不同的。 分析字典方法提出了另一个有趣的问题:当 D 过完备时,满足(2)的������s 表示的族 实际上是无限大的, 它的自由度与 D 的零空间的维数相同。这允许我们参考价值 函数C(γ),来寻找信息量最大的信号表示方法: ������s = Arg������������������������ ������ (������) 满足 ������ = ������������ . (3)
多分辨率:19 世纪 80 年代最重大的概念上的进展是多尺度分析的出现。人
们注意到自然信号, 尤其是图像信号, 以通过多分辨率重建被极有效地分析和描述。 一种最简单与最著名的多尺 度结构是在 1984 年由 Burt 和 Adelson 提出的拉普拉斯金字塔。 拉普拉斯金字塔 将一幅图像由一系列不同的图像表示, 其中每一幅都有不同的大小和大致不同的 频带。 然而, 在 19 世纪 80 年代的后半期,信号处理领域因为一种新的有力工具而 格外兴奋。这种工具叫做小波分析。 1984 年,在一份具有开创性的工作中, Grossman 和 Morlet 提出了在一个单一基本函数的基础上进行一系列翻译和扩张, 并在这样形成的序列的基础上进行信号扩张,具有如下形式:
������ ������∈������������ (������ ������ ������)������������
,
(4)
1 其中{Ψ������ }������− 。这个过程是一个 ������ =0 通常是双正交基(Ψ������ = Φ������ 在标准正交的情况下) 未完成的������的线性变换。且在正确选择了基的情况下,可以实现压缩,即仅用很 少系数捕捉信号的有效部分的能力。事实上,压缩的概念将被稀疏代替,虽然这 两者是密切相关的[3]。 压缩优化是更有效的表示方法持续发展的主要推动力。 在 19 世纪 70 年代和 80 年代,一个新的极具吸引力的压缩资源被发现:数据本身。关注集中于在前 半个世纪被发展出来的一组统计工具。它们被称为 Karhunen-Loève 变换(KLT), 或主分量分析(PCA)。KLT 是一种线性变换,它可以适用于表示服从已知的确定 分布的信号。 适用过程适合低维的子空间中, 最小化������ 2 逼近误差的数据。 具体地, 给定数据协方差矩阵Σ (已知的或经验上的) ,KLT 原子是Σ 的本征值分解的前 K 个特征向量,
������∈������
.
信号通过投影到 K 最低频率的原子上的方法来近似到这个基上。 这种方法具有很
强的平滑和降噪效果。因此傅里叶基能高效地描述一致平滑信号。然而,定位能 力的不足使它表示断点时较困难,在所有频率上产生大数值的系数。因此傅里叶 变换通常产生在实际应用中过于平滑的结果。对于有限信号,傅里叶变换隐式地 信号的周期延拓,这在信号的边界处导致了不连续性。离散余弦变换(DCT)是假 定信号反对称延拓的结果,这会导致连续的边界,因此产生一个更有效的近似。 DCT 由于有产生非复杂系数这个额外的优点,在实际应用中通常是首选。 在傅里叶基上的信号近似很快被认为是线性近似的特定实例:假设在 ������ ������ 上 1 ������ 有一个基{Φ������ }������− ������ =0 ,信号 ������ ∈ ������ 通过投影到一个确定的子集,即 K < ������ 的基元素 上进行线性近似。 ������ ≈