您当前的位置:首页>论文资料>卡尔曼滤波语音增强算法的CUDA实现

卡尔曼滤波语音增强算法的CUDA实现

资料类别:论文资料

文档格式:PDF电子版

文件大小:1538.8 KB

资料语言:中文

更新时间:2025-01-09 13:44:58



推荐标签:

内容简介

卡尔曼滤波语音增强算法的CUDA实现 日应用技术
卡尔曼滤波语音增强算法的CUDA实现
苏洁洪李宇
(广东药学院医药信息工程学院)
摘要:提出一种卡尔曼滤波语音增强算法的统一计算设备架构并行实现方案。该方案通过离散余弦变换把含噪语音分解为不相关的DCT系数,使原来的时域串行处理转化为统一计算设备架构并行处理,只需较少的线性预测阶数,节省运算时间。实验结果表明:与时域卡尔曼滤波比较,该方法有更高的输出分段信噪比,其统一计算设备架构加速方案可有效缩短语音增强运算的时间。
关键词:语音增强:卡尔曼;高散余弦变换;统一计算设备架构
0引言
Paliwal提出的时域卡尔曼(Kalman)滤波语音增强"方法通过状态空间模型描述含噪语音的进化过程,对语音信号预测与估计获得MMSE估计值,非常适合语音信号的非平稳特性,不存在音乐噪声,自然度高。近年来,出现了多种基于Kalman滤波的语音增强方法。时域Kalman滤波需要的线性预测阶数多,算法复杂度高。文献[2-3]提出子带Kalman滤波,降低了一定的阶数,计算量仍然比较大。Zavarehei 等人尝试用AR模型描述短时傅立叶变换(DFT)域的频谱进化过程,并提出在短时DFT域对含噪语音进行Kalman滤波(3。该方法需要的阶数较少,但要同时对DFT的实部和虚部系数运用Kalman滤波。文献[4]先用Ephraim的MMSE方法估计语音信号的对数DFT幅度谱,再串接Kalman滤波进行,显然该方法复杂度高。
本文提出利用离散余弦变换(discretecosine transformation,DCT)去除顿内语音相关性,然后在每个语音通道分别对DCT系数进行Kalman滤波获得语音。由于DCT系数为不相关的实数,省去了文献[5]在虚部也要Kalman滤波的运算,同时用于描述状态空间方程所需要的阶数少的特点得以保留,适合并行处理。符合统一计算设备架构(computeunified devicearchitecture,CUDA)计算的图形处理单元(graphicsprocessingunit,GPU)具有上百个并行计算单元,大大缩短运算时间。为了提高该方法的工程
*基金项目:广东省级大学生创新训练项目(1057312043)
实用性,本文实现了基于CUDA平台的并行设计。实验结果表明:DCT-Kalman语音增强方法可以有效去除噪声还原语音信号,基于CUDA平台的实现可以有效地缩减DCT-Kalman语音增强程序的运算时间。 1DCT-Kalman滤波语音增强
对时域被加性噪声污染的带噪语音信号进行分顿后,对应的带噪语音信号的DCT系数、纯净语音信号DCT系数与观察噪声的DCT系数分别设为 Y(i.k)、X(i.k)与Vi.k),其中j为系数索引, k为时间顿索引。(为了方便表示,省去。)
由于DCT具有正交分解特性,每顿语音的DCT 系数是相互独立的,而信号顿之间仍然存在较强的相关性,可用AR模型描述语音DCT系数的进化过程
X(k)= Za(k)X(k-i)+o(k)
(1)
其中,の(k)是某一频率通道,第k顿的均值为0,方差为的过程噪声;a(k)[a,(k),,a(k))是 DCT系数的AR系数向量,由Yule-Walker方程可得
a(k)= (Rx(k)-r(k)
(2)
其中,R(k)是X(k)的自相关矩阵,r(k)是由 X(k)组成的向量。
Kalman滤波方法利用状态方程和测量方程描述随机系统的时间演进,使得该滤波方法能够适用于非平稳条件,结合语音AR模型,用状态空间描述含噪语音、测量噪声与纯净语音之间的关系如下
2014年第35卷第5期自动化与信息工程31
上一章:群塔防撞自动控制系统无线通讯方式研究 下一章:工业自动化控制技术的研究

相关文章

WSNs环境下基于高斯混合容积卡尔曼滤波的移动机器人定位算法 语音信号盲分离与增强算法的研究 基于matlab的四元数卡尔曼滤波组合导航算法 基于FPGA的图像中值滤波算法硬件系统实现 采用快速导向滤波的暗通道先验去雾算法的研究与实现 自适应滤波算法实现 自适应滤波算法与实现 第四版 LP-SVM在CUDA架构上的加速实现