首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 78 毫秒
1.
该文针对单通道频域语音增强方法存在的问题,提出了一种频域联合语音增强新方法,即将改进的基于先验信噪比频域语音增强方法与迭代谱减法相结合进行语音降噪的方法。实验表明,该方法消噪量大,对语音的损伤小,同时有效地降低了音乐噪声。  相似文献   

2.
基于联合语音出现概率的先验信噪比估计算法   总被引:2,自引:0,他引:2  
先验信噪比是语音增强的关键参数。该文分析了几种典型的先验信噪比估计算法,并得到这几种算法的统一形式,最后提出了基于联合语音出现概率的先验信噪比估计算法。测试结果表明,该算法在不引入音乐噪声的同时,平均段信噪比提高和平均对数谱距离等客观评价指标,都优于其它算法。  相似文献   

3.
传统语音增强算法中因为谱减法算法简单易于实现而得到广泛研究,谱减法的原理是将带噪语音幅度与估计的噪声幅度进行相减,并叠加带噪语音相位,进而重构增强语音谱。该方法在低信噪比下因为没有进行相位估计,会存在较大的估计误差,并且因为对噪声估计的不准确,会产生 音乐噪声。基于谱减法的缺点该文提出一种基于最大后验相位估计的多带谱减法,其中多带谱减法可减少音乐噪声的影响,最大后验方法估计纯净语音相位,可以减少在低信噪比时的估计误差。实验结果表明该方法在低信噪比时取得了较好的增强效果。  相似文献   

4.
一种低信噪比语音的增强算法   总被引:2,自引:0,他引:2  
为改善低信噪比环境下语音的质量,论文提出了一种新的语音增强算法。算法首先根据噪声频谱的高斯统计模型得到用先验信噪比形式表示的噪声频谱估计值,然后利用帧内、帧间平滑算法估计每一个频点的先验信噪比,从而能够更好地跟踪先验信噪比的变化。算法接着引入一种简便的估计语音在每一个频点出现概率的方法,得出一种新的语音增强算法。客观测试和非正式听音测试表明:该算法在几乎不损伤语音清晰度的前提下,能够更好地抑制低信噪比语音增强所产生的音乐噪声,同时使语音信噪比得到了明显提高。  相似文献   

5.
基于先验信噪比估计的语音增强方法   总被引:3,自引:0,他引:3  
杨秋成  范炜玮 《信号处理》2008,24(2):329-332
本文主要研究了噪声环境下频域语音增强问题。首先,总结了频域语音增强算法的主要特点;其次,分析了基于先验信噪比估计的最小均方误差和对数谱最小均方误差方法能够抑制噪声的主要原因;最后,根据"直接判决"的思想,提出了谱减法、最大似然估计法及维纳滤波法改进方法。实验结果表明,与传统的增强方法相比,所提出的方法能更好的抑制背景噪声和残留的"音乐噪声"。  相似文献   

6.
张涛  李辉 《通信技术》2010,43(2):60-62
传统维纳滤波语音增强方法采用直接判决法来估计先验信噪比,直接判决法利用当前帧和当前帧之前的信息,这种方法对信号突变不能很好的估计,且在低信噪比区域的平滑程度也不够。针对上述两个缺点,提出一种基于非因果先验信噪比估计器的维纳滤波语音增强方法,这种方法利用当前帧之前、当前帧和当前帧之后的信息来联合估计先验信噪比。由于利用当前帧之后的信息,这种方法能够对信号突变进行很好的估计,且在低信噪比区域对后验信噪比进行深度平滑。实验结果表明,本文的方法优于传统的维纳滤波语音增强方法。  相似文献   

7.
欧世峰  赵晓晖 《电子学报》2007,35(10):2007-2013
通过讨论纯净语音分量的概率分布特征以及相邻分量间的统计相关特性,在自适应K-L变换(KLT,Karhunen-Loève Transform)域给出了一种新的语音信号统计模型,然后基于该信号模型,利用最大后验(MAP,Maximum a Posterior)估计理论提出了一种新型的单通道语音增强算法.该算法充分考虑到在KLT域相邻时刻语音分量间存在的相关信息,利用信号的高斯模型假设条件,以联合概率密度函数的形式将这种相关信息融合到MAP中,获得纯净语音分量的估计.算法不仅结构简单利于实现,且有效地避免了传统算法对语音分量估计的不足.仿真结果表明本文算法在客观和主观测试中都具有较好的语音增强效果.  相似文献   

8.
先验信噪(SNR,Signal Noise Ratio)估计的精度影响着语音增强算法的性能。直接判决算法 (DD, Decision Directed)算法的计算简单且音乐噪声残留少,是最常用的先验信噪比估计算法,但是,该算法估计的增强语音语音失真严重。本文首先介绍了语音增强算法的基本理论并分析了DD算法、TSNR算法和融入动量项算法,然后运用MATLAB软件进行实验仿真,对比分析了融入动量项算法的性能优势。  相似文献   

9.
先验信噪比(Signal Noise Ratio,SNR)估计的精度影响着语音增强算法的性能.直接判决(Decision Directed,DD)算法是最常用的先验信噪比估计算法,但是,该算法估计的增强语音语音失真严重.首先介绍了语音增强算法的基本理论并分析了DD算法、TSNR算法和融入动量项算法,然后运用MATLAB软件进行实验仿真,对比分析了融入动量项算法的性能优势.  相似文献   

10.
一种基于听觉掩蔽模型的语音增强算法   总被引:14,自引:0,他引:14  
本文提出一种基于听觉掩蔽模型的语音增强算法。该算法对应用于语音编码中的听觉掩蔽模型进行了适当的修正,动态地确定第一帧语音信号各个关键频率段的听觉掩蔽阈值,有选择性地进行谱减。计算机仿真表明所提算法优于基本谱减法,不仅信噪比有较大的提高而且有效地减少了主观听觉的失真和残留音乐噪声。  相似文献   

11.
An improved method based on minimum mean square error-short time spectral amplitude (MMSE-STSA) is proposed to cancel background noise in whispered speech. Using the acoustic character of whispered speech, the algorithm can track the change of non-stationary background noise effectively. Compared with original MMSE-STSA algorithm and method in selectable mode Vo-coder (SMV), the improved algorithm can further suppress the residual noise for low signal-to-noise radio (SNR) and avoid the excessive suppression. Simulations show that under the non-stationary noisy environment, the proposed algorithm can not only get a better performance in enhancement, but also reduce the speech distortion.  相似文献   

12.
改进的谱减法在语音增强中的应用   总被引:1,自引:1,他引:0  
提出了一种谱减法的改进形式,算法打破了噪声和语音是相互独立且噪声是零均值的高斯分布假设.实验表明这种改进型谱减算法有效提高了增强效果,更好地抑制了音乐噪声.  相似文献   

13.
亓贺  张雪英  武奕峰 《电声技术》2011,35(10):55-58
提出了在频域内实现的卡尔曼滤波算法,该算法利用语音和噪声幅度谱的时变特性,先对语音幅度谱进行初步修正,提取较为准确的LPC系数,然后在每一频率点下对语音幅度用卡尔曼滤波进行递推估计,最终得到效果更好的增强语音.实验结果表明,本文算法有效地提高了增强语音的SNR,尤其是在高信噪比的情况下,效果更加明显.  相似文献   

14.
针对传统谱减法会产生“音乐噪声”及在低噪比环境下降噪效果不理想的问题,提出一种基于语谱图分析的语音增强算法.所提方法先对带噪语音进行谱减处理,再通过语谱图分析对处理后的语音信号进行去小亮块处理,即对“音乐噪声”进行有效的削弱,最后通过设置阈值,滤除低灰度值的成份,即消除残留近似高斯噪声.实验结果表明,提出的算法可以有效地解决谱减法后残留的“音乐噪声”及低信噪比下谱减法残留噪声较大的问题.  相似文献   

15.
提出了一种基于听觉掩蔽效应的语音增强算法。算法对含噪语音的增强包括谱减法语音增强和感知加权语音增强两个步骤,分别从客观和主观两方面来提高含噪语音的质量。在谱减法阶段考虑了语音和噪声谱的交叉项,有效地减少了增强语音中的残余噪声;在感知加权处理中充分利用了人耳的掩蔽效应,设计了感知加权滤波器,对谱减法增强后的语音进行滤波,进一步消除残余噪声。对算法进行了数值实验,实验结果表明该算法能有效提高含噪语音的质量,比传统的谱减法有较大改进。  相似文献   

16.
孙静  陶智  顾济华  赵鹤鸣 《通信技术》2007,40(12):394-396
文中针对带噪的耳语音提出了一种LMS自适应滤波的耳语音增强算法。首先采用谱减法得到一个增强耳语音信号,取得较好的谱包络后对增强信号进行LMS自适应滤波,消除由谱减法产生的音乐噪声。结果表明,采集到的耳语音信号的质量得到明显提高,即使在低信噪比的情况下,信噪比也能提高20dB左右。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号