论文部分内容阅读
盲信号分离是近十几年来发展起来的新兴课题。随着其分离技术的日益成熟,已被广泛的应用于语音信号处理、图像处理、生物医学工程、环境工程、工业工程等众多领域。由于其实用性和应用领域的广泛性,很多专家和学者投入了大量的时间和精力致力于盲信号分离的研究。目前现有的盲分离方法,其基本思想都是抽取出统计独立的特征来表示输入,属于在目标函数下的无监督学习。算法过程大都是迭代计算过程,运算速度比较慢,且分离出的信号存在两个不确定性:即信号绝对幅值的不确定性和排列顺序的不确定性。虽然,现有盲分离方法的应用十分广泛,但对于一些要求信号幅值和排序信息的特殊领域,其局限性就显现出来了。针对现有盲分离方法的这些不足之处,本文提出了“两输入两输出全息盲信号的解析分离”。本文提出的算法主要分为两大部分。第一,应用独立谱线在时域的配准原则,得到两通道的幅值比参数和相对时延参数,完成参数估计部分。这也是本课题的核心部分,参数估计的好坏,直接影响到以后分离的精度。第二,以估计出的参数为依托,重组线性方程组,利用函数方程组的特殊性质及三角函数的特性,摒弃传统的迂回迭代算法,应用解析的方法分离混合信号。本文通过设计一系列不同信号条件下的仿真实验,验证本文提出的算法可以在无噪声干扰(或噪声干扰微弱时)和无频谱泄漏(或频谱泄漏不严重时)的情况下,精确的分离出两路相关信号。本分离算法应用的是解析算法,除数学计算上的误差外,基本无其它误差,算法精确、快速。分离出的信号除信号的频谱特征外,还包含了其幅值比信息和相对时延信息,即“全息”。本文提出的分离方法是全盲输入、全盲输出的一种解析分离方法,分离出的信号获得的信息比以往的算法全面,且应用数学上的解析算法,提高了算法的运算速度。这都是与其它传统算法的不同之处,也是本文的创新所在。