盲源分离问题综述
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
盲源分离问题综述
摘要:盲源分离,是从观测到的混合信号中恢复不可观测的源信号的问题。作为阵列信号处理的一种新技术,近几年来受到广泛关注。本文主要阐述了盲源分离问题的数学模型、典型算法以及盲源分离的应用,并结合盲源分离问题的研究现状,分析了其未来的发展方向。主题词:盲源分离;盲源分离的典型算法
1. 引言
盲信号分离问题起源于人们对“鸡尾酒会”问题的研究。在某个聚会上,我们正在相互交谈,同一时刻同一场景下其他人的交谈也在同时进行着,可能还有乐队的音乐伴奏,这时整个会场上是一片嘈杂。但是非常奇妙的是,作为交谈对象的双方,我们能够在这混乱的众多声音中很清晰的听到对方的话语,当然,如果我们偶尔走神,将精力放在乐队奏出的音乐时,我们也同样可以听清楚音乐的主旋律。这种可以从由许多声音所构成的混合声音中选取自己需要的声音而忽视其他声音的现象就是鸡尾酒会效应。如何在这种从观察到的混合信号中分离出源信号的问题就是所谓的盲分离(Blind Signal Separation, BSS)问题,有时也被称为盲源分离(Blind Source Separation)问题。1986年,法国学者Jeanny Herault和Christian Jutten提出了递归神经网络模型和基于Hebb学习律的学习算法,以实现两个独立源信号混合的分离,这一篇开创性论文的发表使盲源分离问题的研究有了实质性的进展。随着数字信号处理理论和技术的发展以及相关学科的不断深入,大量有效的盲分离算法不断被提出,使盲分离问题逐渐成为当今信息处理领域中最热门的研究课题之一,在无线通信、图象处理、地震信号处理、阵列信号处理和生物医学信号处理等领域得到了广泛的应用。
2. 盲源分离问题的数学模型
盲源分离是指在不知道源信号和信道传输参数的情况下,根据输入信号的统计特性,仅由观测信号恢复出源信号各个独立成分的过程。盲源分离研究的信号模型主要有三种:线性混合模型、卷积混合模型和非线性混合模型。
2.1 线性混合模型
线性混合模型在神经网络、信号处理等研究中常常用到,其数学模型描述为:
S1(t),S2(t)…S n(t)是一个随机的时间序列,用m个话筒表示接收到的混合信号,用X1(t),X2(t)…X m(t)来表示。它们有如下关系:
{
X1(t)=a11S1(t)+⋯+a1n S n(t)
…
X m(t)=a m1S1(t)+⋯+a mn S n(t)
其中{a ij}是未知的混合系数,在线性瞬时混合中,一般假定{a ij}是未知的常数矩阵。盲源分离需要解决的问题就是如何从接收到的观察信号中估计出源信号S1(t),S2(t)…S n(t)和混合矩阵的过程。实际上式还应该存在一个干扰存项,如果考虑到噪声的存在,那么上式可以
推广到更一般的情况,即为:
X(t)=AS(t)+n(t)
X(t)= (X 1(t ),X 2(t ) … X m (t ))为接收到的m 维随机向量,又称为观察向量,也是唯一可以利用的条件,S(t)= (S 1(t ),S 2(t ) … S n (t ))是n 维独立的源信号组成的向量,又称为隐含向量,因为它们是未知的观察不到的向量,有时也称为独立分量,n(t)为噪声向量,A 是{a ij }系数组成的混合矩阵。
盲分离问题就是求得一个分离矩阵W ,通过W 就可以仅从观察信号X(t)中恢复出源信号S(t)。设y(t)是源信号的估计矢量,则分离系统可由下式表示:
Y(t)=WX(t)
2.2 卷积混合模型
考虑到延迟和滤波的混迭信号的线性混合,这通常被称为卷积混合,其数学模型描述为:
Y(t)=∑W(k)x(t −k)∞k=−∞
因为传输的延时以及接收系统频响的差异,瞬时混合系统盲分离算法一般不能够处理卷积混合问题。一类很有研究前景的方法就是频域盲源分离算法,利用频域算法可以提高BSS 方法的收敛速度和学习速度,另外时域卷积问题可以变换为频域相乘问题。
2.3 非线性混合模型
非线性混合是一种研究最为广泛的模型,即将源信号线性混合后再通过一个非线性函数得到观察信号,其数学模型描述为:
Y(t)=f(Z(t))=f(AS(t))
求解时首先寻找一个非线性函数g(t),使得g(t)=f −1(t),即非线性的校正阶段,然后同线性瞬时混合的盲分离求解一样寻找一个分离矩阵从而求得源信号的近似。
3. 盲源分离问题的典型算法
3.1 H-J 算法
Herault 和Jutten 可能是最早对盲源分离问题进行研究的,他们引进了仿神经的算法,是一种逐步调整权重的神经网络。
图一 H-J 算法仿神经网络
由图可知,Y(t)= X(t)- WY(t),即Y(t)=(I +W)−1X(t),算法的实质就是引入了信号的高阶统计信息,不过由于学习每一步过程中都要对矩阵(I+W )求逆,导致运算量增加。H -J 算法中非线形函数的选取具有随意性,在理论上没有给出令人满意的收敛性证明,但是在实际应用中的收敛性相当不错。不过需要注意的是H -J 算法仅用于观察信号数目与源信号数目相同的情况下,仍然具有一定的局限性。
3.2 最大熵算法
从信息理论角度来考虑,盲信号分离问题就是一个以分离系统最大熵为准则,利用神经网络或自适应算法,通过非线性函数来间接获得高阶累积量的过程。这种方法的思想就是当神经元输出Z的各个分量z i相互独立时,其熵最大,所以这种方法又称为最大熵算法。
Bell和Sejnowski的这种方法是将Linskers的信息传输最大化理论推广到非线性单元来处理任意分布的输入信号。这一原理具体内容如下:假设信号通过S型函数传输时,如果该S型函数的斜率部分与信号的高密部分保持一致时,则可以实现信息的最大化传输。由最大熵原理可以知道,当输出熵最大时,互熵也最大,即有最多的信息通过了可逆变换从输入端传输到输出端。这时输入变量的概率密度函数和可逆变换G之间的关系由Linsker的最多信息原理(Infomax Principle)描述:当函数G的最陡部分与输入变量的最陡概率部分向重合时,最大的信息从输入端传导了输出端。
图二最大熵算法网络结构示意图
对于最大熵算法所处理的最基本的问题就是要使得一个神经网络处理单元的输出Y(t)中包含的关于其输入X(t)的互信息最大。这个算法只能够分离出超高斯信号的混合,这个限制的重要原因是在算法中使用了非线性函数log,非线性函数是log就相当于强加一个先验知识超高斯分布给源信号。
3.3 最小互信息算法
最小互信息(Minimum Mutual Information, MMI)的基本思想是选择神经网络的权值矩阵W,使得输出Y的各个分量之间的相关性最小化。这里的信号间的相互依赖关系可以用Y的概率密度函数及其各个边缘概率密度函数的乘积间的K-L散度来表示。在使用互信息作为信号分离的代价函数时,对输出的各个分量无需使用非线性变换这种预处理手段。由随机梯度算法得到:
dW(t)
=η(t){W−T−ϕ(Y)x T
dt
其中η(t)为学习率,ϕ(Y)函数的选取与独立元的本身性质有关。函数ϕ(Y)的选取对于整个算法的性能有很大的影响,如果知道了真正的概率密度函数,最好的选择就是使用它们,但是实际中我们很难知道这些知识,只能够进行概率密度的自适应估计,所以对这个关键的非线性函数进行研究,也是一个值得关注的问题。
3.4 最大似然算法
最大似然估计(Maximum Likelihood Estimation, MLE)是利用已经获得的观测样本来估计样本的真实概率密度。具有诸如一致性、方差最小性以及全局最优性等很多优点,但是最大似然估计需要知道关于输入信号概率分布函数的先验知识,这是很难满足的,所以必须尽量避开它。最大似然估计首先是由Girolami和Fyfe于1996年提出用于盲分离问题,而