一种改进的双库MP信号稀疏分解方法

合集下载

主要介绍MP

主要介绍MP

:稀疏表示的本质就是稀疏正规化约束下的信号分解。

提出一种改进的正交匹配追踪算法,使运算量较高的矩阵求逆运算转变为轻量级的向量运算或向量与矩阵的运算,可以加快逆矩阵和大矩阵乘积的求解主要介绍MP(Matching Pursuits)算法和OMP(Orthogonal Matching Pursuit)算法[1],这两个算法虽然在90年代初就提出来了,但作为经典的算法,国内文献(可能有我没有搜索到)都仅描述了算法步骤和简单的应用,并未对其进行详尽的分析,国外的文献还是分析的很透彻,所以我结合自己的理解,来分析一下写到博客里,算作笔记。

1. 信号的稀疏表示(sparse representation of signals)给定一个过完备字典矩阵,其中它的每列表示一种原型信号的原子。

给定一个信号y,它可以被表示成这些原子的稀疏线性组合。

信号y 可以被表达为y = Dx ,或者。

字典矩阵中所谓过完备性,指的是原子的个数远远大于信号y的长度(其长度很显然是n),即n<<k。

2.MP算法(匹配追踪算法)2.1 算法描述作为对信号进行稀疏分解的方法之一,将信号在完备字典库上进行分解。

假定被表示的信号为y,其长度为n。

假定H表示Hilbert空间,在这个空间H里,由一组向量构成字典矩阵D,其中每个向量可以称为原子(atom),其长度与被表示信号y 的长度n相同,而且这些向量已作为归一化处理,即|,也就是单位向量长度为1。

MP算法的基本思想:从字典矩阵D(也称为过完备原子库中),选择一个与信号y 最匹配的原子(也就是某列),构建一个稀疏逼近,并求出信号残差,然后继续选择与信号残差最匹配的原子,反复迭代,信号y可以由这些原子来线性和,再加上最后的残差值来表示。

很显然,如果残差值在可以忽略的范围内,则信号y就是这些原子的线性组合。

如果选择与信号y最匹配的原子?如何构建稀疏逼近并求残差?如何进行迭代?我们来详细介绍使用MP进行信号分解的步骤:[1] 计算信号y 与字典矩阵中每列(原子)的内积,选择绝对值最大的一个原子,它就是与信号y 在本次迭代运算中最匹配的。

利用遗传算法实现基于MP的跳频信号稀疏分解

利用遗传算法实现基于MP的跳频信号稀疏分解
,跳频信号的应用越来越广泛 ,而信号的稀疏表示在信号处理 的许 多方 面都 有着 重要 的应 用 。 将 跳 频信 号稀 疏分 解后 得 到 的稀 疏 表 示可 以方便 的应 用 到跳
频信 号 的参 数估计 及 后 续处 理 中去 。本文针 对 目前基 于 MP ( Ma t c h i n g p u r s u i t )的跳 频信 号 稀疏 分 解 中运 算量 巨大 的 问题 ,采用 遗传 算 法 ( GA) 快速地 寻找 MP算法 中每 一步分 解 的
最佳原子 ,提高 了 信号稀疏分解的速度。仿真分析验证 了此方法的有效性和适用性。 关键 词 :跳 频信 号 遗 传 算 法 稀 疏 表 示 稀 疏 分 解 Ma t c h i n gp u r s u i t( MP )
Us i ng g e ne t i c a l g o r i t hm t o r e a l i z e f r e que nc y ho ppi ng s i g na l s pa r s e de c o m po s i t i o n ba s e d o n M P
s p a r s e d e c o mp o s i t i o n b a s e d o n MP ( Ma t c h i n g p u r s u i t ) , g e n e t i c a l g o r i t h ms ( GA ) i s u s e d t o
2 0 1 3( 第六届 )全 国网络与信 息安全 学术会 议
Te l e co m ma r k e t
利 用 遗传 算 法 实现 基 于 M P的跳 频 信 号 稀 疏 分 解
秦乙 朱 卫纲 舒奇泉
( 1 . 装备学 院研 究生院,北京 1 0 1 4 1 6 ;2 . 装 备学院光 电装备系 ,北京 1 0 1 4 1 6 )

一种引入退火降温阈值函数约束的改进MP稀疏分解方法

一种引入退火降温阈值函数约束的改进MP稀疏分解方法

s l c e n n ee t d a o j h lo ih e i n d t a e mo e c a c st a h rg n lM P t h o et e e e t d a d u s lc e t ms t e a g rt m i d sg e o h v r h n e h n t eo i i a o c o s h s a o n t e s lc e t m ito a y a h p i a t m y a s mu a e a ne l g t r s o d f n to t u h t m i h ee t d a o d c i n r t e o tm la o b i l t n a i h e h l u c i n, h s t e s n
mp方法通过迭代将信号在过完备库上进行逐次分解用来表示信号成分的基原子可以自适应地根据信号本身的特点在迭代中灵活选取分解后就可以得到信号在过完备库上的一个非常简洁稀疏的表在本文中直接从对信号分解稀疏性的有利原则出发把原子过完备库分为新旧原子库引入退火降温控制函数在迭代的过程中迫使算法尽可能选择对稀疏性有利的旧原子库中的原子作为最佳原子从而让算法的分解具有更加稀疏能量集中的效果
结果,证 实了改进 MP方法对信号有更加稀疏的分解 结果 。 关键词 :信号处理 ;稀疏性 ;匹配追踪;退火函数 中图分类号 :T 1 . N9 1 7 文献标识码 :A 文章编号 :10 8 62 0 )7l 4 —4 0 95 9 fo 70 -6 50
A o i e P lo ihm nsr i d b h i u a e A n e ln m df d M i A g rt Co t ane y t e S m lt n a i g Th e h l o pa s e o po ii n o i n l r s od frS r eD c m sto fS g as

利用FFT实现基于MP的信号稀疏分解

利用FFT实现基于MP的信号稀疏分解

利用 F T实现基于 MP的信号稀疏 分解 F
尹忠 科。 邵 君 。 Per a drh y s。 ir V n eg e nt e
。西南交通大学计 算机 与通信 工程学 院 成都 603) ( 10 1
。信 号处理 实验 室,瑞士联邦 高工 ( 桑) 1 1 瑞士) ( 洛 05
摘 要 该文研究基于 Ma hn us i MP方 法实现 的信号稀疏分解算法,通过对信号稀疏分解中使用的过完备 t igP r t ) c u (
原子库 结构特性 的分析,提 出了一种新 的信 号稀疏 分解算法。该算法首先通过利用原子库 的结构特性 ,很好 地处 理 了稀疏分 解过程中计算量和存储量之 间的关系 。在 此基 础上,把信号稀疏分解 中计算量很大 的内积运 算转 换成
c mp t r p e d me r . e h s a g r h c n e t e i - o s mig i n rp o u t c lu a in n s a s o u e ’ s e d a mo S n y Th n t i lo i m o v r v r t t s y me c n u n n e r d c a c lt s i p r e o
互相关运算 ,最后用 F T实现互相关运算 ,从而大大提 高了信号稀疏分解的速度。算法的有效性为实验 结果所 证 F
实。 关键词 信号处理,稀疏表示,稀疏分解 ,Mac i us iMP ,F T thn P ru ( ) F g t 文献标识码 :A 文章编号 :10 -8 62 0 )40 1・5 0 95 9 (0 60 ・6 40
中图分类号 :T 1. N9 1 2 7
M P s d Si na pa s c m po ii n w ih FFT Ba e g l S r e De o sto t

改进的低复杂度稀疏控制mpnlms算法

改进的低复杂度稀疏控制mpnlms算法

改进的低复杂度稀疏控制mpnlms算法
1 引言
最近,随着数字信号处理技术的发展,稀疏控制算法逐渐受到业界的关注,具有很好的应用前景。

稀疏控制,也称稀疏估计,是建立在稀疏优化基础上的一种迭代算法,兼具了传统最小均方差算法的特性,更加关注模型的响应表示。

其中的MPNLMS算法是传统的LMS (Least mean squares)算法的改进,受到学术界和工业界青睐,应用广泛。

2 改进的MPNLMS算法
改进的MPNLMS算法是基于MPNLMS算法的,其基本思路是利用循环归一化的方法调整更新步长,从而实现低复杂度的稀疏控制。

具体的实现步骤如下:
(1)输入信号x[n]通过状态空间模型计算输出y[n],计算均方误差mi:[n];
(2)根据均方误差mi:[n]更新滤波器w,使得mi:[n]最小;
(3)建立一系列步长参数γ[n] 并存储;
(4)以一定概率允许更新步长参数γ[n] ,更新最新值γ[n]使其获得最小均方误差,并将其与之前的参数值相比,采用传统的循环归一化的方法,使得γ[n]的增量小,即γ[n]=γ[n-1]/2;
(5)重复(2)(3)(4)等步骤,至算法收敛。

3 结论
改进的MPNLMS算法具有低复杂度和可扩展性等优点,可以用于实现稀疏估计,有着更广泛的应用场景。

它可以有效地将噪声和干扰抑制,在实际应用中发挥重要的作用,为稀疏感知理论的发展和应用做出了重要的贡献。

利用FFT实现语音信号稀疏分解的改进算法

利用FFT实现语音信号稀疏分解的改进算法
Co ue gn e ig a d Ap l ain ,0 7,3 2 : 4 7 . mp tr En ie rn n pi t s 2 0 4 ( 6)7 - 5 c o
Ab ta t A tr s d ig o thn u s i MP) b s d v ie sg a p re d c mp st n. e mpo e n fs as e o sr c - f t yn fMac ig P rut e u ( a e oc in ls as e o o io a n w i rv me to p re d c m- i
Ma a 和Z ag首 先 于 19 lt h n l 9 3年 提 出 了信 号 在 过 完 备库 (vrcmp t dc oa ) oe-o l e iinr 上分解的思想l e t y 】 1 。通过在过 完备库上
p st n ag rt m s p e e t d b s d o n l ss f sr cu e r p r f t e o e - o l t t m i t n r u e n v i e in l o i o lo h i r s n e a e n a a y i i i o tu t r p e t o h v r c mp e e ao d ci a y s d i o c s a o y o g s a e d c mp st nAc o d n o h c a a tr o h v ie in l t e e lo t m a e o h 丌 p r e o o i o . c r ig t t e h r ce f t e o c sg a ,h n w a g r h b s d n t e F s i i ag r h lo t m t a e u e i h trd c s

基于余弦过完备原子库的语音信号MP稀疏分解

基于余弦过完备原子库的语音信号MP稀疏分解

语音 通信 在 人类 生活 中扮 演着 极其 重要 的 角色 。为 了保 证 语 音信 息 的有 效 获 取 , 实 际应 用 中需要 对 在 语音 信 号进行 去 噪 、 强 、 增 压缩 、 编码 等 一 系列处 理 ¨ 。而 这 些处 理 的 效果 都 依 赖 于信 号 的表示 方 式 。通 常 J 的做 法是 将语 音信 号分 解 在一组 完 备 的正交 基 上 , 方 法会 导 致用 基 的组合 表 示语 音 信 号 时表 达 的 不简 洁 该 性, 即语 音信 号表 示不 是稀 疏 的 。这 将 不利 于语 音信 号 的处 理 。Ma a S和 Z agZ首先 提 出信号 在过 完备 lt l hn 库上 分解 的思 想 。信 号在 过完 备库 上 的分解 , 分解 结 果将 可 以得 到信 号 一 个非 常 简 洁 的表达 ( : 疏 其 即 稀 表示 ) 。得 到信号 稀疏 表示 的过 程称 为信 号 的稀 疏 分 解 。由 于信 号 稀疏 表 示 的优 良特 性 , 表示 方 法 已经 该 被应 用 到信 号处 理 的多个 方面 , 信 号 去 噪 j 信 号 识 别 J 信 号 时频 分 布 等 。 目前 , 多 数 的稀 疏 分 解 如 、 、 大
第l 4卷 第 2 期 21 0 1年 6月
成 都 电 子 机 械 高 等 专科 学 校 学报
J ur a e d e r m e h n c lCol ge o n lofCh ng u Elcto c a i a l e
— —
Vo1 1 No. . 4. 2
J e .. 01 un 2 1
m eho t d,t u lt e r c n tu td s na a e g a a t e e n hl he d ci ay c n b a e he q ai oft e o sr c e i lc n b u r n e d m a w ie t it y h g on r a e m d a m alr a si l a d t r b h m e or on um p o nd h c m p a on l i e a t e ss l s po sbe n he e y t e e m y c s i t n a t e o utt a t c n bo h b i m

深度学习中的模型解决稀疏数据问题的方法

深度学习中的模型解决稀疏数据问题的方法

深度学习中的模型解决稀疏数据问题的方法深度学习(Deep Learning)是一种通过多层神经网络模拟人脑结构来进行模式识别和决策的机器学习方法。

在深度学习中,数据质量对于模型的性能至关重要。

然而,许多实际应用中的数据都存在稀疏性的问题,即大部分特征值都为零。

稀疏数据的问题在深度学习中经常遇到,因为例如在自然语言处理和推荐系统等领域,大多数特征都不会同时出现。

这导致输入的维度非常高,而具有真实意义的特征很少。

为了解决稀疏数据问题,研究人员提出了一些方法。

一、稀疏数据表示方法稀疏数据表示方法是处理稀疏数据最基本的一种方法。

其主要思想是通过适当的数据编码方式将稀疏数据转化为稠密数据。

常见的稀疏数据表示方法包括One-Hot编码、TF-IDF等。

以One-Hot编码为例,该方法将每个特征都编码成一个二进制的向量,向量的长度等于特征空间的维度数。

一个特征只在对应的位置上为1,其他位置为0,从而将稀疏数据编码为稠密数据。

使用稠密数据可以加速训练过程,提高模型的性能。

二、特征选择(Feature Selection)特征选择是另一种用于解决稀疏数据问题的方法。

该方法的主要思想是从原始数据中选择出对目标任务最有用的特征子集。

通过减少特征的维度,可以提高模型的效率和性能。

常用的特征选择方法包括相关系数法、卡方检验法、互信息法等。

这些方法都可以评估特征与目标之间的相关性,从而筛选出与目标任务最相关的特征。

三、嵌入式选择(Embedded Method)嵌入式选择是一种将特征选择与模型训练结合起来的方法。

在模型的训练过程中,嵌入式选择方法会自动选择与目标任务相关的特征,并将其纳入到模型当中。

常见的嵌入式选择方法有L1正则化、决策树等。

以L1正则化为例,该方法会通过对模型的目标函数添加L1惩罚项的方式,鼓励模型选择较少的特征,从而达到特征选择的目的。

四、特征补全(Feature Imputation)特征补全是一种通过预测或估计的方式填补稀疏数据中缺失的特征值。

基于改进的Ricker子波的地震信号MP稀疏分解

基于改进的Ricker子波的地震信号MP稀疏分解
Ab ta t s r c :An i pr v d ito r t hae a cl sp e e e r m heP c rw a ee n h sp p r m o e dc nay wih p s nd s ae i r sntd fo t ike v l ti ti a e .Theph s onr l t v ri i a e c tos hedie s— i f ft t f a on o eaomi se nd t c l on ol t ed v ri c ton oft e ao c atnu td se d.Th x rm e a eu t s w a e ci h cpha ,a he saec t sh i e sf a r i i t m te ae p e h i e e pei ntlr sls ho t tt h h
随着 地 震勘 测技 术 的发 展 , 震 勘 探所 得 的数 据 量也 在 大 幅 度 增 长 , 而也 对 信 号 处 理技 术 的要 求越 来 越 高 。稀 疏 分解 作 为 一 地 从
种信号处理 的手段是 Ma a 和 Z a ̄1 1 9 l t h n 9 3年提出的。稀疏分解 的思想是 : l 在 通过信号在过完备库上 的分解 , 用来表示信号的基可
M S f eiu g a a e v d f m thn u ut t el k rwaee it n r t h ea dsaerd cs4 ecn a E o s a s n tt d r e r mac igp r i wi t  ̄c e v ltdc o aywi p a c e u e 6 p re t n r dl i lh i o s hh i h s n l h t
摘 要 : Pi e 子 渡 进 行 了改进 , 对 c r k 增加 了相 位 参 数 和尺 度 参 数 。相 位 参 数 用 来控 制 原子 的 相位 变化 , 尺度 参数 用 来控 制 原 子 的 衰 而

基于A*OMP算法及其改进算法的宽带雷达信号稀疏分解

基于A*OMP算法及其改进算法的宽带雷达信号稀疏分解

Ab s t r a c t : I n t h e t r a d i t i o n a l s p a r s e d e c o mp o s i t i o n a l g o r i t h m
o  ̄ r t h o g n a l ma t c h i n g p u r s u i t( OM P)
t i ma l a t o m, t h e op t i ma l a t o m s e a r c h e d by u s i ng t he s e a r c h wa y ha s g l ob a l o pt i ma l i t y .Ex pe r i me nt s
S p a r s e De c o m po s i t i o n o f Br o a d b a n d Ra d a r S i g na l s Ba s e d o n A OM P Al g o r i t h m a n d I t s I mpr o v e d Al g o r i t hm
葛 明 , 钱 玲
( 南 京理工大学 , 南京 2 1 0 0 0 0 )
摘要 : 传 统稀疏分解算法正交匹配追踪 ( O MP ) 算法里采用 内积最 大值来 寻找最优原 子, 该方 法容易陷入 局部最优 ,
为 了弥补这一缺点 , 采 用 了新 的算 法 : A OMP算 法 , 该算 法使用 A 搜 索 ( 即最佳 优先搜 索技术 ) 寻找最优原 子 , 该 搜 索方 式 寻 找 的 最 优 原 子 具 有 全 局 最 优 性 。实 验 表 明相 比传 统 O MP算 法 而 言 , 该 算 法 有 效 地 提 高 了 信 号 的重 构 精度。
GE Mi n g , QI AN Li n g

基于FFT的MP信号稀疏分解算法的改进

基于FFT的MP信号稀疏分解算法的改进

用了当 F r算法 的变换长度是 2的整数次幂时运算速度最快的性质 , F 用基 2F 实现信号稀疏分解 中的相关运 兀’ 算. 理论分析显示 , 当数字信号长度为 10 4采样 点时 , F r 2 用 F 算法计算互相关 的速度为直 接计算 的 1 . . 0 6倍 仿 真实验结果表明 , 改进算 法的计算 速度为直接计算 的 8 0 倍 , .5 为原基于 F r的 MP算法 的 3 6 倍 . F .4
S AO J n Y N h n k , WA in ig H u , I Z o g e NG Ja yn (c ol f n r ai i c n eh , o t et i t gU i r t, hnd 10 1 hn ) S ho f m tnS e ea dT c. suh sJ oo n e i C eg u6 03 ,C ia o Io o c n w a n v sy
Abtat nip e F (at or rt nf m tn ae ( t i usi lo t src:A mvdF r fs Fu e as r ao )bsdMP ma hn pr t grh m i r o i c g u )a i m
W S p o o r d c e c lu a o a n sg a p re d c mp st n n te ag rt m ,a r d x a mp  ̄d t e u et ac l t n l d i in ls a s e o o i o .I o h h i o i h l i a i. 2F i p ro e o c c lt e c o s o r l t n e a s e c c l t n s e d i e fse tw e S ef r d t a u ae t r s c reai .b c u e t a u a o p e S t a t s h n m l h o h l i h

基于PSO和LM的信号稀疏分解快速算法

基于PSO和LM的信号稀疏分解快速算法

基 于 P O和 L 的信号稀疏分解 快速算法 S M
王 菊, 王朝 晖 , 刘 银
( 山大学信 息科 学与工程学院 , 燕 河北 秦皇岛 0 60 60 4)

要 : 感矩 阵和: 算 法 的性 能分 析和 优化 是 目前 压 缩传 感 领 域 研 究 的热 点。 针 对 匹配 传 重建
显然 , L g 正交 , l和 厂 可以得到 :

以取 A 小 , 而 成 为类 牛顿 步 长 , 部 收敛 速度 较 进 局 大 大加快 ; 当方 法进 展较差 时 可 以取 较 大的 A 而 从
成 为最 速下 降步 长 , 进 行 全局 搜 索 。这 样 当残 量 可 r 小 时具 有 牛 顿 法 的性 态 , 当残 量 较 大 时 又 具 变 而
( ol eo f mao cec n nier g Y nh nU i r t, i un do 6 04,hn ) C l g f no tnSineadE g e n , asa nv sy Qn a ga 6 0 C i e I r i n i ei h 0 a
Ab t a t P r r n e a ay i a d o t z t n o e sn t x a d rc n tu t n ag r h h v e o o e sr c : ef ma c n lss n p i ai f n i g ma r n e o sr ci o t m a e b c me a h tr— o mi o s i o l i
Fa tag rt fs a s ina e o p st n b s d o O nd LM s l o i hm o p r e sg ld c m o ii a e n PS a o

基于MPI并行计算的信号稀疏分解

基于MPI并行计算的信号稀疏分解
MP方 法 分 解 信 号 过 程 如 下 :
信号处理理论的发展 ,近 年来信号 的非正交 分解 引起 了学者 越来越多的重视 。Ma a l t和 Z ag于 1 9 l hn 3年提 出了信号在 9 过完备库上分解的思想…:将信号 分解在 一组过完备 的非正 交基上 ,由分解的结 果,可 以得到信号 的一个非常简洁 的表
系统 实现信 号稀疏 分解的 方法 。该方法利用 8台微机 , 用 MP 消息传递机 制 ,以 10 高速 以太网作为 互联 网络,构建 了一套 B o u 采 I 0 M ew l f 并行计算 系统,在此系统上通过编制并行程序来实现 MP算法。实 际测试表 明这种方法具有很 高的并行计 算效率 ,分解时 间从单机 7 i 5 n m 左 右下降到 8 并行 1 m n 右,大大提 高了信 号稀疏 分解的速度。 机 1 i左 关健 诃 :稀疏 分解 ;匹配追踪 ;并行计 算;MP 消息传递 I
Me sg — a s g ltr c ( 1. n 0 Mb s ih s e dE h r e ewo kitro n cs l P . e t s d s gp a e o ui gpo r m sa eP si — e f e MP ) a da 1 0 / hg e ten t t r ec n e t al Cs T s i ma eu i a l l mp t rg a n n a p n n n r l c n
s e d o P a g rt m, n td s rbe w O bu l o p e fM l o i h a di ec i sho t id a Be wu fp a l lc l a le ompu i g s se wi r t y t m t 8 PCs Isp a l lc mpu a i n i mp e n h . t a l o r e tto s i l me td b ne y

mp算法及思想

mp算法及思想

1. 信号的稀疏表示(sparse representation of signals)给定一个过完备字典矩阵,其中它的每列表示一种原型信号的原子。

给定一个信号y,它可以被表示成这些原子的稀疏线性组合。

信号y 可以被表达为y = Dx ,或者。

字典矩阵中所谓过完备性,指的是原子的个数远远大于信号y的长度(其长度很显然是n),即n<<k。

2.MP算法(匹配追踪算法)2.1 算法描述作为对信号进行稀疏分解的方法之一,将信号在完备字典库上进行分解。

假定被表示的信号为y,其长度为n。

假定H表示Hilbert空间,在这个空间H里,由一组向量构成字典矩阵D,其中每个向量可以称为原子(atom),其长度与被表示信号y 的长度n相同,而且这些向量已作为归一化处理,即|,也就是单位向量长度为1。

MP算法的基本思想:从字典矩阵D(也称为过完备原子库中),选择一个与信号y 最匹配的原子(也就是某列),构建一个稀疏逼近,并求出信号残差,然后继续选择与信号残差最匹配的原子,反复迭代,信号y可以由这些原子来线性和,再加上最后的残差值来表示。

很显然,如果残差值在可以忽略的范围内,则信号y就是这些原子的线性组合。

如果选择与信号y最匹配的原子?如何构建稀疏逼近并求残差?如何进行迭代?我们来详细介绍使用MP进行信号分解的步骤:[1] 计算信号y 与字典矩阵中每列(原子)的内积,选择绝对值最大的一个原子,它就是与信号y 在本次迭代运算中最匹配的。

用专业术语来描述:令信号,从字典矩阵中选择一个最为匹配的原子,满足,r0 表示一个字典矩阵的列索引。

这样,信号y 就被分解为在最匹配原子的垂直投影分量和残值两部分,即:。

[2]对残值R1f进行步骤[1]同样的分解,那么第K步可以得到:,其中满足。

可见,经过K步分解后,信号y 被分解为:,其中。

2.2 继续讨论(1)为什么要假定在Hilbert空间中?Hilbert空间就是定义了完备的内积空。

一种基于互相关运算信号稀疏分解的快速算法

一种基于互相关运算信号稀疏分解的快速算法

一种基于互相关运算信号稀疏分解的快速算法摘要:提出了一种信号稀疏分解的快速算法,它利用一种互相关的快速运算来代替稀疏分解中计算量巨大的内积运算,提高了运算时间。

通过理论仿真和实验表明,在保证稀疏精度的情况下,可以将信号稀疏分解的时间缩短至普通MP算法的1/10至1/20,大大提高了信号在过完备原子库上分解的速度。

关键词:稀疏分解;快速计算;互相关运算0引言近几年来,突破传统奈奎斯特采样定理的压缩感知(CS)理论框架得到了研究者们越来越多的关注。

CS理论主要由3个部分组成:信号的稀疏分解;投影,观测;信号重构。

由此可见,CS理论实现的前提就是要求被采样信号具有稀疏性,因此,对信号稀疏分解算法进行研究,有着极其重要的理论意义和广泛的应用价值。

而其中以贪婪算法为核心的匹配追踪(MP)算法在计算复杂度和逼近效果方面要优于其他的算法,是目前研究者们最常用的算法。

但是,MP算法的不足之处是基于MP的稀疏分解过程中,每一步都要计算残余信号在过完备原子库中每一个原子上的投影,这就造成了分解过程中相当巨大的计算量。

高复杂度的计算量使得信号的稀疏分解在实际的研究应用中难以推广。

针对这种情况,目前研究者们都在针对如何提高信号稀疏分解的速度、降低运算量这两个方面的问题进行研究。

本文提出一种基于互相关运算的信号稀疏分解的快速算法来改进信号的稀疏分解算法,该算法的思想是通过将基于MP的信号稀疏分解中花费大部分时间的内积运算转换成一次互相关运算,并且通过一种互相关运算的快速算法来对内积运算进行改进,这样一来,大大地提高了计算速度,在不增大计算误差的情况下缩短了计算时间,具有良好的应用前景。

1匹配追踪算法的基本思想我们假设待分解信号f的长度为N。

其中,f∈H H为有限维Hibert空间,D为过完备原子库(DH)。

过完备原子库的形成方法引用参考资料[2],这种由Gabor原子组成的过完备原子库是颇具代表性的,它在多个文献中被研究者引用。

基于稀疏分解的信号去噪方法研究

基于稀疏分解的信号去噪方法研究

基于稀疏分解的信号去噪方法研究一、综述随着科学技术的发展,信号处理技术在图像、通信、生物医学等众多领域的应用越来越广泛。

在实际应用中,信号往往受到噪声的干扰,这给信号处理带来了诸多挑战。

信号去噪成为了重要的研究方向。

基于稀疏分解的信号去噪方法受到了广泛关注。

稀疏分解是一种新的信号处理方法,它认为信号具有稀疏或可压缩性质,并采用稀疏表示的方法来对信号进行表示和去噪。

相较于传统的信号处理方法,稀疏分解具有较好的去噪效果和鲁棒性。

本文将对基于稀疏分解的信号去噪方法进行综述,探讨其原理、算法及其优缺点。

二、稀疏分解基本原理随着数学和计算机科学的飞速发展,信号处理领域正经历着一场革命性的变革。

稀疏分解作为一种强大的信号处理工具,在众多应用场景中得到了广泛关注和研究。

稀疏分解主要基于数学变换基的问题转换,将时域信号转换到变换域,从而利用稀疏或可压缩特性进行信息提取及去噪处理。

稀疏性:根据信号的自适应变换特性,信号在某些变换域(如傅里叶变换、小波变换等)中呈现稀疏分布,即大部分元素为零或近似为零。

这种稀疏性使得信号在相应的变换域中具有较高的可压缩性和辨识度,为信号的去噪处理提供了有利条件。

字典学习与匹配:为了实现信号的稀疏分解,首先需要构建一个合适的字典。

字典的优劣直接影响稀疏分解的效果。

当前常用的字典学习方法包括匹配追踪法(Matching Pursuit, MP)、基追踪法(Basis Pursuit, BP)等。

这些方法能够从训练样本中学习得到具有良好相似度的原子,从而构成可用于信号稀疏分解的字典。

在信号稀疏分解过程中,通过逐层迭代匹配策略,逐渐逼近信号稀疏表示的最优解,以实现信号的高效去噪。

基追踪去噪算法:结合稀疏分解和字典学习的思想,一种名为基追踪去噪算法( Basis Pursuit Denoising, BPDN)被提出并应用于信号去噪处理中。

该算法不仅能够充分利用信号的稀疏性,还能有效克服传统去噪方法中可能出现的过平滑问题和伪迹残留问题。

稀疏表示算法在信号处理中的研究与应用

稀疏表示算法在信号处理中的研究与应用

稀疏表示算法在信号处理中的研究与应用随着科技的不断发展,信号处理作为计算机科学的一个重要分支已经逐渐趋于成熟。

在信号处理中,稀疏表示算法的研究和应用已经成为了一个热门话题。

稀疏表示算法可以用于信号压缩、降噪、图像恢复等领域,具有广泛的应用前景。

本文将从稀疏表示算法的理论基础、发展过程和应用案例等方面探讨其在信号处理中的研究和应用。

一、稀疏表示算法的理论基础稀疏表示算法的理论基础是信号稀疏性假设。

信号稀疏性是指在某个特定的基向量集(或字典)下,信号可以用很少的非零系数表示。

这个基向量集也被称为稀疏字典。

稀疏表示算法最早是由欧洲数学领域的研究者提出来的,在几何、图像处理和机器学习中也有很多相关应用。

稀疏表示算法的核心思想是将信号表示为一个稀疏线性组合的形式,其中每个基向量具有不同的重要程度。

稀疏表示算法可以用于解决许多实际问题,如信号降噪、压缩、图像恢复等。

它可以更好地捕捉信号的特征信息,而忽略噪声和无用信息。

因此,稀疏表示算法在信号处理中越来越受到重视。

二、稀疏表示算法的发展过程稀疏表示算法的发展历程可以追溯到上世纪60年代。

当时的科学家认为,一个低维信号一般可以由少量的高维向量表示。

但是在当时的技术条件下,无法直接进行高维信号的表示和编码。

因此,这个领域的研究也停滞了很长时间。

随着计算机技术的飞速发展,科学家们开始重新关注这一领域。

他们发现,通过构建适当的基向量或字典,可以将低维信号分解为若干个高维向量的线性组合,这些向量的系数是可以稀疏的。

因此,研究者们开始探索构建和使用合适的字典的方法,并发展出了一系列的稀疏表示算法,如MP算法、BP算法、OMP算法等。

稀疏表示算法的发展为信号处理提供了更多的工具和方法,同时也促进了相关学科的研究和发展。

三、稀疏表示算法的应用案例稀疏表示算法在信号处理领域的应用非常广泛。

下面我们将介绍一些实际的应用案例。

1. 信号压缩在信号采集与传输中,通常需要对信号进行压缩以节省存储空间和传输带宽。

基于人工鱼群和MP算法的信号稀疏分解

基于人工鱼群和MP算法的信号稀疏分解

作者: 卢晶
作者机构: 商洛学院数学与计算科学系,陕西商洛726000
出版物刊名: 牡丹江大学学报
页码: 116-118页
年卷期: 2011年 第9期
主题词: 稀疏分解 匹配追踪算法 人工鱼群优化算法
摘要:为提高信号稀疏分解的速度,提出了一种基于人工鱼群优化的MP信号稀疏分解算法。

该算法先利用模拟退火算法来快速寻找Matching Pursuit(MP)过程每一步的最优原子,然后采用人工鱼群算法优化稀疏分解,仿真实验结果表明在分解中不需要存储整个冗余字典,降低了算法的空间复杂度,从而能有效和快速地进行信号稀疏分解。

冗余字典——精选推荐

冗余字典——精选推荐

冗余字典在众多的信号处理应用中,人们希望找到一种稀疏的数据表示,用稀疏逼近取代原始数据表示可从实质上降低信号处理的成本,提高压缩效率。

传统的信号表示理论基于正交线性变换,但许多信号是各种自然现象的混合体,这些混合信号在单一的正交基变换中不能非常有效地表现出来。

例如,一个含有脉冲和正弦波形的混合信号,既不能用单一的脉冲基函数,也不能用单一的正弦基函数有效地表示。

在这个例子中,有两种结构类型同时出现在信号里,但它们却完全不同,其中哪一个都不能有效地模拟另一个。

所以,人们希望寻找一种能够同时建立在两种基函数之上的信号表示,其结果应该比采用其中任一种基函数有效得多。

在图像和视频处理方面,常用的信号分解方式通常是非冗余的正交变换,例如离散余弦变换、小波变换等。

离散余弦变换其基函数缺乏时间/空间分辨率,因而不能有效地提取具有时频局部化特性的信号特征。

小波分析在处理一维和二维的具有点状奇异性的对象时,表现出良好的性能,但图像边缘的不连续性是按空间分布的,小波分析在处理这种线状奇异性时效果并不是很好。

因而说,小波分析对于多维信号来说并不是最优的,不能稀疏地捕捉到图像结构的轮廓特征,因此在图像和多维编码方面的新突破,必定取决于信号表好似的深刻变革。

最近几年,研究人员在改变传统信号表示方面取得了很大的进展。

新的信号表示理论的基本思想就是:基函数用称之为字典的超完备的冗余函数系统取代,字典的选择尽可能好地符合被逼近信号的结构,其构成可以没有任何限制,字典中的元素被称为原子。

从字典中找到具有最佳线性组合的m项原子来表示一个信号,称作信号的稀疏逼近或高度非线性逼近。

从非线性逼近的角度来讲,高度非线性逼近包含两个层面:一是根据目标函数从一个给定的基库中挑选好的或最好的基;二是从这个好的基中拣选最好的m项组合。

利用贪婪算法和自适应追踪,从一个冗余函数系统中进行m 项逼近方法的理解只是些零星的片段,用高度非线性方法以指定的逼近速率来描述函数仍然是一个富有挑战的问题。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Two dictionaries Matching Pursuit for sparse decomposition of signalsPeng XuCenter of Neuroinformatics, School of Life Scienceand Technology, University of Electronic Science andTechnology of China, ChengDu, 610054, China leisure_xp@Dezhong Yao Center of Neuroinformatics, School of Life Science and Technology, University of Electronic Science and Technology of China, ChengDu, 610054, China dyao@AbstractSignal may be decomposed sparsely and power-focally in an over-complete dictionary with Matching Pursuit (MP). In this paper, proposed is a modified MP method named two dictionaries MP to decompose signal more sparsely. In the iteration procedure of the two dictionaries MP , the over-complete dictionary is classified into two separate dictionaries with the selected and unselected atoms, and in each iteration, the algorithm was designed to have more chances than the original MP to choose the atom in the selected atom dictionary as the optimal atom by a simulate annealing threshold function, thus the algorithm avails for a more sparse decomposition. The decomposition results for a cosine-modulated exponential signal and an actual speech signal showed that the proposed two dictionaries MP could decompose signal more sparsely.Keywords : Sparsity; Over-complete dictionary; Matching pursuit; Simulate annealing threshold function1. IntroductionHunting for a compact and effective signal expression is one of the research focuses in the signal processing (SP) because the more compact expression the signal has, the higher ratio compression the signal can attain [1-4]. Sparse component analysis (SCA), developed recently, is an effective signal processing method for signal compact representation. The principle of SCA could be briefly stated as the following. Once a certain signal only has several non-null entries in time or other transformation domains, it means that the power of signal is focally concentrated and this signal could be compactly represented in the corresponding domain with only a few non-null entries [2-5]. Sparsity is adopted to measure how compact a signal is. Signal sparsity could be measured with )1(≤p l p norm or the decaying-to-null speed of the sorted absolute signal entries [3-4, 6]. Most of the current SCA algorithms are to decompose signals sparsely in an over-complete dictionary because the decomposition in the over-complete dictionary is not unique and has great freedom for the basis selection, moreover when the over-complete dictionary is large enough, the signal must have the sparse representation in the over-complete dictionary if sparse constraints are emphasized [3-6]. The construction of over-complete dictionary is adapted with different applications and in this paper, the Symmlet wavelet was taken to construct the over-complete dictionary [3-4]. There are many approaches to the SCA decomposition, among which Matching Pursuit (MP) developed by Mallat and Zhang is a popularly used one [7-8]. MP decomposes signal into sparse representation iteratively in the over-complete dictionary and in thedecomposition procedure, the optimal basis (atom) for the signal representation could be adaptively selected according to the characteristic of signal.In this paper, to get a more sparse decomposition, the over-complete dictionary is classified into two separate dictionaries with the selected (old) and unselected (new) atoms, and similar to the selection of optimal atom in the original MP , two local optimal atoms in the old and new atom dictionaries will be firstly taken out. If the local optimal atom in the old-atom dictionary has larger coefficient (inner product) than that in the new-atom dictionary does, the former one will be considered as the global optimal atom for this iteration. Otherwise, the relative error (RE) between two residuals, which corresponds to these two local optimal atoms, is taken as a measure to decide the global optimal atom, if RE is smaller than a supposed threshold, the old one will be chosen, else the one in new atom dictionary will be considered, thus the algorithm will have more chances than the original MP to select the atom in the old-atom dictionary as the optimal atom, which avails for a more sparse decomposition.The two dictionaries MP (TDMP) was introduced in detail in Section 2 and a comparative study to original MP was conducted in Section 3. Discussions and conclusions concluded this paper in Section 4.2. Methods2.1 Sparsity of signalFor a signal denoted by X , if there are only a few non-null entries in its coefficients of representation and the number of non-null entries is relatively small compared with the length of signal, the signal can be supposed to be sparse. The sparseness of signal X could be measured with )1(≤p l p norm as follows,p n j pj p x X 11)||(∑== (1)where 10≤≤p , and n is the signal dimension of X . The sparser a signal is, the smaller )1(≤p l p norm is. At the same time, the sparseness can be expressed in another intuitionistic way. Let X and Y be two different signal arrays, if these two arrays are sorted in the descending order by their absolute values of coefficients, the one with faster decaying-to-null speed is sparser than the other one. As shown in Fig.1, X is sparser than Y . [3-4]Fig.1. An intuitionistic way to compare the sparseness of signals2.2 Construction of wavelet over-complete dictionaryIn signal processing, the usually adopted transform dictionary (matrix) is orthogonal and the decomposition is unique [4]. The current SCA methods are mainly based on the learning in a over-complete dictionary to decompose a signal sparsely. The over-complete dictionary can be derived from the complete dictionary by over-sampling. The difference between the over-complete dictionary and the complete dictionary is that the basis in the complete dictionary is orthogonal to each other, while the orthogonality may not be true in an over-complete dictionary. According to different problems, different over-complete dictionaries avail for various situations [2-4, 6]. In our work, we adopted the over-complete dictionary based on the wavelet. A wavelet basis function can be expressed as,)()(,sb t t W b s −Ψ= (2) where s,b are the scale and translation parameters, respectively. If over-sampling is implemented for scale and translation parameters in the wavelet function, a wavelet over-complete dictionary could be expanded from the traditional orthogonal dictionary [3-4], and in our work, the Symmlet wavelet was taken to construct the over-complete dictionary. Certainly, a large over-complete dictionary is good to sparse decomposition, but the decomposition time will increase a lot accordingly. To consider the decomposition effect and time, in our work, the number of atoms consisting of the over-complete dictionary was 6 times of signal length. In Fig.2, three S ymmlet wavelet atoms at scale s =64 with different translations b, 85, 95 and 105, are shown. It shows that these three atoms in the over-complete dictionary are not orthogonal.Fig.2. Three atoms in the Symmlet wavelet over-complete dictionary. The scales are all 64 and from leftto right, the translations are 85, 95 and 105, respectively. 2.3 Signal decomposed with Matching PursuitMP was developed by Mallat and Zhang to decompose signal into sparse representation iteratively in the dictionary Φ[7]. In each iteration, a certain atom with the maximum inner product between itself and the residual signal is selected as the optimal one. After several iterations, when the convergence condition is satisfied, a sparse decomposition of signal in the corresponding dictionary is achieved. The iterative MP algorithm can be briefly stated as follows.(1) Initialization: Set S R S k ===)0()0(,0,1, where S is the signal to be decomposed, R isthe residual signal during the iterations; the superscript is the current iteration number; initializing the stopping error ε with a small positive number; initializing the coefficients adders for all the atoms with 0.(2) Atom selection: Calculate inner product between current residual signal and each atom inthe over-complete dictionary, and find the atom with maximum inner product as follows: ><=−j k jk R φα,max )1(, where j φis the jth atom in the dictionary and <·> is the inner product operator.(3) Update: Accumulate the current maximum coefficient k α to the adder of current optimalatom; add the weight of the selected atom to the decomposed signal )(k S and remove the corresponding contribution of this atom from the residual signal )(k Ras,)()()1()(,k k k k k k S S R S S −=+=−φα(4) Convergence judgment: If ε≤||||)(k R , stop the iterative procedure; else 1+=k k ,jump to step 2 and go on.When algorithm converges, signal will be sparsely decomposed into a linear combination of some atoms in the over-complete dictionary.2.4 Two dictionaries Matching PursuitConsidering the sparsity of signal decomposition, the fewer the selected atoms are during the decomposition, the more sparsely the signal will be decomposed [3, 6]. During the MP decomposition procedure, the selected optimal atoms can be divided into two kinds: one has been considered as the optimal atom in the previous iterations, and the other belongs to such kind that has not been selected in the previous iterations. To be consistent with the above two kinds of atoms, the over-complete dictionary consists of two kinds of separate dictionaries, one is constructed by the “old atoms ” selected as the optimal atoms in iterations, the other includes those “new atoms ” never considered as the optimal atoms in iterations. For convenience to describe the algorithm, the former kind of dictionary is named the old-atom dictionary and the latter one is the new-atom dictionary. Accordingly, at the beginning, all atoms belong to the new-atom dictionary. In the previous iterations of MP decomposition procedure, most of the selected optimal atoms are in the new-atom dictionary and with the iterations on, the old-atom dictionary will be expanded. When the old-atom dictionary is large enough, the selected optimal atom may be either in the old-atom dictionary or in the new-atom dictionary. From the view of sparsity, the selection of the new atom does not avail for the sparsity of decomposition and to select the atoms in the old-atom dictionary as possible is expected for a sparse decomposition. Thus to get a more sparse decomposition, we propose that the criteria for optimal atom selection can be adjusted as follows.The over-complete dictionary is divided into the old-atom dictionary old Φand thenew-atom dictionary new Φ, then the inner product between the residual signal and each atom inthese two dictionaries is calculated respectively, thus two local maximum coefficients of inner product, old c and new c , can be achieved in the old-atom dictionary and new-atom dictionary respectively. Accordingly, the two local optimal atoms, old φ and new φcorresponding to old c and new c , can be determined in the old and new atom dictionaries too.If ||||new old c c ≥, the atom old φ is the global optimal atom for the current iteration and update the searching variables with old opt old opt c c φφ==,and opt opt c R R φ−=. Finally, accumulate current coefficient old c to the adder of the selected old atom old φ.If ||||new old c c <, the global optimal atom in the kth iteration will be decided with the following steps.(1) Calculate the two residual signals in the old and new atom dictionaries as:new new k new old old k old c R R c R R φφ−=−=−−11,, with 1−k R the residualsignal in the prior iteration.(2) Calculate the relative error r between the residual signals in the old and new atomdictionaries as:||R ||||R R ||r new new old −= (3) Decide the global optimal atom by the given threshold function T. If T r ≤, the old atomold φ is considered as the global optimal atom and update the variables with old opt old opt c c φφ==,; If T r >, the new atom new φis newly selected as the global optimal atom and update the variables with new opt new opt c c φφ==,, insert this new atom into the old-atom dictionary and remove the new atom from the new-atom dictionary. After the optimal atom is decided, the corresponding coefficients opt c is accumulated to the adder of the optimal atom.(4) Update the residual signal: opt opt 1k k c R R φ−=−.The main difference between the original MP and TDMP lies in that the selection of the global optimal atom is decided in the divided new and old atom dictionaries by a given threshold function T . If T=0, our method reduces to the original MP . To be convergent and stable, T is a descending function with iteration steps and in this paper, the annealing function used in the popular simulate annealing algorithm is adopted [9],N /1k 0T )k (T α×= (3) where 17.0<≤α, 0T is the initialization temperature and set to smaller than 1 in our work, k is the current iteration number, N is the annealing speed factor. With the increasing of iteration, T is close to 0, thus in the final iteration steps, the effect of threshold function on the atom selection is lowered and the decomposition coefficients are small, so the decompositions in the final iterations mainly correspond to the detailed information of signal and the convergence can beguaranteed too.3. Results3.1 Numeric comparative studyIn this section, we took a cosine-modulated exponential signal as the test signal to numerically compare TDMP with MP . The adopted test signal was,)64/2cos(985.0)(|128|x x f x π−= (4) where 2561≤≤x and the test signal was of 256 sampling points length. The over-complete dictionary with 1536 )62561536(×=atoms was constructed by the Symmlet wavelet. The Symmlet wavelet, original MP and TDMP were taken to decompose signal. In original MP and TDMP , the terminating error was both 1.0E-6. The simulate annealing function was defined as 4.0k 0.935*0.9=T(k), with 9.00=T , N =2.5 and 935.0=α. The decomposition coefficients of these three methods were descendingly sorted by their absolute values and the curves of sorted coefficients were shown in Fig.3. Among these three methods, the wavelet coefficients descended slowly and the MP coefficients decayed faster than those of wavelet, whereas, TDMP had the steepest descending coefficients curve.Fig.3. The sorted decomposition coefficients of wavelet, MP and modified MP .To compare the difference of atom selection in the decomposition procedure between the original MP and TDMP, we showed the index of selected atom in each iteration step in Fig.4.(a)(b)Fig.4. The indexes of selected atoms during the decomposition iterations. (a) original MP; (b) TDMP; the green circles are the atoms in the old-atom dictionary; the blue asterisk are the atoms in the new-atom dictionary.The signal was reconstructed with different number of the atoms (coefficients) and the relative error (RE) between the recovered signal and the original signal was calculated. In this paper, the reconstruction with n atoms (coefficients) was referred to that the former n large coefficients and the corresponding atoms were taken to recover the signal. The reconstruction results were shown in Fig.5.(a) 5 atoms(b) 10 atoms(c) 15 atomsFig.5. Signal recovered with different number of atoms (coefficients). The left column was the results recovered from wavelet coefficients; the middle column was the results recovered from the original MP coefficients; the right column was the results recovered from the modified MP coefficients. The green signal was the error signal, the blue one was the reconstructed signal and the red one was the original test signal.3.2 Decomposition of an actual speech signalThe speech signal usually needed to be highly compressed. In this section, a speech signal with 512 sampling points was decomposed and recovered with Symmlet wavelet, original MP and TDMP , respectively. The over-complete dictionary with 3072 )65123072(×= atoms was constructed with Symmlet wavelet and the simulate annealing threshold function was similar to that in Section 3.1. The signals recovered with 40 atoms (coefficients) for these 3 methods wereshown in Fig.6.Fig.6. The speech signal reconstructed with 40 atoms (coefficients). The green signal was the errorsignal and the blue one was the reconstructed signal.4. Discussion and ConclusionsAccording to the decaying speed of the sorted coefficients shown in Fig.3, the decomposition coefficients of wavelet were much scattered compared to other two methods and the coefficients of original MP and TDMP were relatively sparse and power concentrated. Compared to the original MP , TDMP could decompose signal more sparsely.As shown in Fig.4, the selection of optimal atom during the decomposition was largely different between the original MP and TDMP . During the decomposition procedure of the original MP , many of the selected optimal atoms were in the new-atom dictionary, which went against the decomposition sparsity. Whereas, in the decomposition procedure of TDMP , the atoms in the old-atom dictionary were selected as the optimal atoms in most of the iterations, except for the first and final several iterations. In the first several iterations, though the annealing temperatureinvolved in the threshold function was high, the new-atom dictionary was relatively large and the old-atom dictionary was very small, thus most of the selected optimal atoms in these iterations belonged to the new-atom dictionary. With the iterations on, the annealing temperature was descending and the old-atom dictionary was expanded fast. When the old-atom dictionary was large enough compared to the shrinking new-atom dictionary, though the annealing temperature was relatively low, most of the selected optimal atoms were in the old-atom dictionary in the middle stage of the decomposition procedure. In the final iterations before convergence, the simulate annealing threshold function was close to 0 and it has little effect on the atom selection, so some new atoms were selected. Furthermore, in these final iterations, the coefficients of optimal atom were small and they mainly represented the detail of signals, thus the convergence of algorithm could be guaranteed.In Fig.5, the reconstruction differences among these three methods were obvious. Based on the sparse decomposition in the over-complete dictionary, only 10 atoms were needed to recover the signal with small REs, 3.9% for the original MP and 0.5% for TDMP, while with 10 coefficients of wavelet to reconstruct, the RE was nearly 80%. Especially, when 15 atoms (coefficients) were taken for signal reconstruction, the RE (0.09%) of TDMP was much smaller than the REs of the MP (0.3%) and the wavelet (72.6%). So among these three decomposition methods, TDMP could decompose signals into a more sparse and power concentrated representation, and could recover the signal with high quality. In the decomposition test for an actual speech signal, a good recovery signal was achieved with TDMP too.The above results showed that a signal could be decomposed more sparsely with TDMP than with the original MP because during the decomposition procedure of TDMP, the selection of atom was affected by an introduced annealing strategy threshold function to select the old atoms availing for sparse decomposition more easily.MP is very time consuming when the greedy exhaustive search in the whole huge over-complete dictionary is adopted. How to improve the efficiency of sparse decomposition is still a challenging problem. With SCA decomposition in the over-complete dictionary, the power of signal will be concentrated on several atoms and by suitable choice of atoms for signal representation, the noise can be effectively removed [3-4, 6]. Furthermore, the visual processing system are proved to encode the visual information sparsely [10-11], so if an visual image or signal is decomposed and processed with SCA, a sparse representation of visual signal consistent with the visual physiology can be expected.References[1] A.N. Skodras, C.A. Christopoulos, T. Ebrahimi, JPEG2000: The upcoming still imagecompression standard, Pattern recognition letters, 22 (October 2001) 1337-1345.[2] R. Adelino, F.D. Silva, Atomic decomposition with evolutionary pursuit, Digital signalprocessing, 13 (April 2003) 317-337.[3] S. Chen, D.L. Donoho, M. Saunders, Atomic Decomposition by Basis Pursuit, SIAM J.SciComp, 20(1) (1998) 33-61.[4] X.M. Huo, Sparse Image Representation via Combined Transforms, PHD Paper of Stanforduniversity, 1999, available online at: /xiaoming.[5] P. Bofill, M. Zibulevsky, Underdetermined blind source separation using sparse representations,Signal Processing, 81 (November 2001) 2353-2362.[6] D.L. Donoho, Sparse Components of Images and Optimal Atomic Decompositions, 1998,available online at: http://www. /donoho/Reports.[7] Mallat S, Zhang Z. Matching Pursuit in a time-frequency dictionary. IEEE Transactions onSignal Processing, 41 (December 1993), 3397-3415.[8] M.R., McClure, L. Carin, Matching pursuits with a wave-based dictionary, IEEE Transactionson Signal Processing, 45(12) (December 1997) 2912-2927.[9] L. Ingber, V ery fast simulated reannealing, Math Comput Modeling, 12 (1989) 967-973.[10] B.A. Olshausen, D.J. Field, Sparse coding with an overcomplete basis set: a strategyemployed by V1, Vision Research, 37 (December 1997) 3311-3325.[11] D. Marr, Vision: A computational investigation into the human representation and processingof visual information, Freeman New York, 1982.。

相关文档
最新文档