首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 109 毫秒
1.

针对传统小波语音增强算法存在过度阈值处理的问题,提出一种改进的时间自适应阈值小波包去噪算法.该方法采用听觉感知小波包对噪声语音进行分解,得到小波包听觉感知节点上的系数,并基于语音存在概率估计按帧自动调节去噪阈值.因改进的阈值能更好地避免语音小波包系数被过度阈值处理的情况,从而在抑制噪声的同时保留了更多的原始语音成分,进一步提高了降噪效果.实验结果表明,该算法比常规小波自适应阈值算法能得到更清晰的语音增强信号.

  相似文献   

2.
针对传统自适应小波包阈值算法增强的语音存在失真的问题,提出联合改进子空间的自适应小波包阈值语音增强算法。提出的新算法对带噪语音首先做KL变换(Karhunen Loeve Transform)得到其特征值,并用自适应小波包阈值算法对该特征值进行处理,以去除部分噪声子空间;接着用递归最小二乘算法(RLS)对噪声的特征值进行估计,修正传统子空间算法容易导致的特征值估计偏差问题;最后用经过自适应小波包阈值算法处理得到的新的特征值减去噪声特征值,以去除所有噪声子空间并由KL逆变换最终还原出纯净语音。仿真结果表明新算法相比传统自适应小波包阈值算法有更优的增强效果,减少了语音失真。并且在信噪比较低的情况下,新算法对增强的语音的信噪比和分段信噪比提高得更多。  相似文献   

3.
一种新阈值函数的小波包语音增强算法   总被引:1,自引:1,他引:0  
针对传统软、硬阈值函数去噪方法增强的语音存在失真的问题,提出一种新阈值函数的小波包语音增强算法,同时给出了新阈值函数和新的Bark尺度小波包分解结构。新阈值函数在小波包系数绝对值大于给定阈值的区间内,灵活地结合了软、硬阈值函数;在小波包系数绝对值小于给定阈值的区间内,用一种非线性函数代替传统阈值函数中的简单置零,实现了阈值函数的平缓过渡;新的60个频带Bark尺度小波包分解结构能更好地模拟人耳的听觉感知特性。仿真实验结果表明,在高斯白噪声和有色噪声背景下,与传统软、硬阈值函数去噪方法相比,新算法有效提高了增强语音信噪比和分段信噪比,减少了语音失真,具有更好的去噪效果。  相似文献   

4.
传统的小波阈值去噪方法会造成有用语音信号的损失, 信噪比改善情况不理想. 通过分析小波去噪原理, 提出了一种改进的小波阈值函数语音增强方法. 该方法结合小波软、硬阈值函数去噪的优点, 克服了硬阈值函数的不连续及软阈值函数存在偏差的缺点. 该方法首先对清浊音信号进行判断, 接着采用变化的阈值对清浊音信号的小波系数进行不同的阈值处理. 仿真实验结果表明, 改进的方法非常适用于强噪声背景下的语音增强, 无论在保留含噪语音信号中的清音信息, 还是在信噪比改善指标上均优于传统的软阈值法、谱减法和听觉感知小波变换法.  相似文献   

5.
针对传统的小波包语音增强算法增强后的语音失真严重的问题,本文提出了一种基于自适应阈值和新阈值函数的小波包语音增强算法。该算法在小波包域将带噪语音加窗分帧,基于相邻帧快速傅立叶变换功率谱的互相关值,计算各帧存在语音的概率,然后通过语音存在概率对传统通用小波包阈值进行调整,使得阈值在非语音帧中较大,在语音帧中较小,实现阈值的自适应调整,可以在最大程度消除噪声的同时,尽可能的保留语音,减小语音失真。本文还设计了一种新阈值函数,克服了传统硬阈值函数不连续和软阈值函数会带来恒定偏差的缺点,进一步减小了语音失真。本文采用TIMIT 数据库和NOISEX-92 数据库中的语音和噪声进行了大量的模拟实验,主观评比和客观评比结果均证明本文提出的语音增强算法比现有的两种算法有更好的增强效果,采用本文算法增强后的语音失真更小,听觉效果更好。  相似文献   

6.
针对固定阈值小波包语音增强算法在去噪时会损失语音信号的问题,文中提出了一种新的自适应阈值小波包语音增强算法。该算法先利用带噪语音的小波包变换系数估计出后验信噪比,再由含有后验信噪比因子的sigmoid函数作为平滑因子对随尺度变化的阈值进行相邻帧的平滑,最后由后验信噪比自适应修正平滑阈值,减少语音失真;仿真实验结果表明,该算法在去噪的同时减少了语音信号的损失,有效地提高了增强语音的信噪比和分段信噪比,较固定阈值小波包语音增强算法具有明显的优越性。  相似文献   

7.
语音增强主要用来提高受噪声污染的语音可懂度和语音质量,它的主要应用与在嘈杂环境中提高移动通信质量有关。传统的语音增强方法有谱减法、维纳滤波、小波系数法等。针对复杂噪声环境下传统语音增强算法增强后的语音质量不佳且存在音乐噪声的问题,提出了一种结合小波包变换和自适应维纳滤波的语音增强算法。分析小波包多分辨率在信号频谱划分中的作用,通过小波包对含噪信号作多尺度分解,对不同尺度的小波包系数进行自适应维纳滤波,使用滤波后的小波包系数重构进而获取增强的语音信号。仿真实验结果表明,与传统增强算法相比,该算法在低信噪比的非平稳噪声环境下不仅可以更有效地提高含噪语音的信噪比,而且能较好地保存语音的谱特征,提高了含噪语音的质量。  相似文献   

8.
提出一种基于人类听觉特性的自适应小波滤波算法。该方法用听觉感知小波变换对含噪语音信号进行小波分解,这样可以保证对信号频率和幅值的听觉特性,将经听觉感知小波变换所分离出来的噪声成分作为自适应滤波器的输入。通过采用递推最小二乘算法从而实现信噪分离的最佳滤波,以保证去除信号中的相关噪声。结果表明,该方法能实现非平稳信号在同频段对噪声成分和有用信号的最佳估计,提高了语音的清晰度和可懂度。  相似文献   

9.
基于阈值的小波域语音增强新算法   总被引:1,自引:0,他引:1  
提出了一种新的基于阈值的小波域语音增强算法,采用Bark尺度小波包对含噪语音进行分解,以模拟人耳的听觉特性.采用结点阈值法,用基于谱熵的方法估计结点噪声,实验表明,该算法在多种噪声,尤其是有色噪声和非平稳噪声条件下均有较好的语音增强效果.  相似文献   

10.
基于最大信息熵的小波包阈值去噪语音增强算法   总被引:1,自引:0,他引:1  
杨桂芹  徐红莉 《测控技术》2011,30(10):12-14
去噪算法在语音增强中占有极为重要的地位.而传统的小波阈值去噪算法会不可避免地造成部分有用语音信号的损失.为了更好地对含噪语音信号进行去噪,选用小波包分析法进行语音分解,采用一种新的阈值函数,同时基于最大信息熵的原理确定了阈值和加权阈值函数中的权因子.仿真结果表明,该算法能够很好地抑制噪声,保证重建信号质量.无论在听觉效...  相似文献   

11.
端点检测是语音识别过程中的一个重要的环节,因此改善端点检测的效果一直是语音识别领域的一个重要课题。为了提高在背景噪声下语音信号端点检测的准确率,提出了一种基于小波包的谱熵端点检测方法。该方法对语音信号进行小波包变换,将每帧信号分解成多个子带,在此基础上计算每帧信号的子带能量,通过子带能量所占比例求出每帧信号的谱熵,最后确定新的门限值。仿真实验表明,该方法比传统方法更有效、更优越,能够比较准确地检测语音信号。  相似文献   

12.
双树复小波包变换语音增强新算法   总被引:7,自引:0,他引:7  
实小波包变换是语音增强中效果较好的一种算法,利用阈值的方法对小波包系数进行压缩进而重构语音信号.分析了实小波包变换的平移敏感性,以及其对语音进行增强时的缺陷.提出采用双树复小波包变换方法进行语音增强,当低通滤波器和高通滤波器对应的小波基近似为希尔伯特变换对时,该变换能大大减小实小波包变换中的平移敏感性.同时考虑小波包系数之间的相互关系,提出了重叠块复阈值算法.结果表明,算法优于传统实小波包变换及点阈值算法,尤其对含周期噪声的语音信号,双树复小波包变换算法的优势更为明显.  相似文献   

13.
为了克服低信噪比输入下,语音增强造成清音弱分量损失,导致信号重构失真的问题,提出了一种新的语音增强方法。该方法采用小波包拟合语音感知模型的临界带,按子带能量对语音清浊音分离,然后对清音和浊音信号分别作8层和4层小波包分解,在阈值计算上采用Bark子带小波包自适应节点阈值算法,在Bark子带实时跟踪噪声水平,有效保护清音中高频弱分量,减少失真。通过与传统语音增强方法的仿真对比实验,证实该方法在低信噪比输入时,具有明显优势,输出信噪比高,语音失真度低。将该方法与谱减法相结合,进行语音二次增强,能进一步提高增强语音质量。  相似文献   

14.
丁卫  王忠 《计算机工程与设计》2011,32(11):3768-3771,3856
针对浊音、清音和噪声的不同特性,结合听觉掩蔽并使用随尺度变化的多阈值对语音信号进行处理.提出了多小波门限估计法,该方法针对不同声音成分,使用不同的与尺度有关的缩小因子调节门限值;通过估计各频带内的信噪比,实现了阈值的时频自适应变化;用巴克小波包分解法模拟人耳临界带特性,用小波谱减法对带噪语音进行预增强,采用Johnst...  相似文献   

15.
小波包分解下的多窗谱估计语音增强算法   总被引:1,自引:0,他引:1       下载免费PDF全文
查诚  杨平  潘平 《计算机工程》2012,38(5):291-292
传统谱减法是基于短时傅里叶变换的单一分辨率算法,具有较大方差。为此,提出一种基于小波包分解下的多窗谱估计语音增强算法。将含噪语音在小波包下分解成不同频段,在不同频段下进行多窗谱谱减运算,并逐一进行小波包重构,以得到去噪后的语音信号。仿真结果表明,该算法能提高含噪语音的信噪比,降低语言失真度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号