首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
汉语语音合成技术综述   总被引:1,自引:1,他引:0  
汉语语音合成技术经历了三十几年的发展,涌现出许多新技术、新模式.首先介绍了汉语语音合成系统的原理,在综合对比目前所有语音合成技术的基础上,以效果较好的合成技术为重点,对汉语语音合成系统的文本分析、韵律控制、语音合成、语料库的建立4个关键性模块的实现技术进行了详细论述.并针对嵌入式与PC下汉语语音合成系统的开发提出了通用的方案,为汉语语音合成系统的后续研究提供参考借鉴作用.  相似文献   

2.
语音合成技术在人机交互中扮演着重要角色,深度学习的发展带动语音合成技术高速发展.基于深度学习的语音合成技术在合成语音的质量和速度上都超过了传统语音合成技术.从基于深度学习的声码器和声学模型出发对语音合成技术进行综述,探讨各类声码器和声学模型的工作原理及其优缺点,在此基础上对语音合成系统进行综述,系统综述经典的基于深度学...  相似文献   

3.
情感语音合成是情感计算和语音信号处理研究的热点之一,进行准确的语音情感分析是合成高质量情感语音的前提.文中采用PAD情感模型作为情感分析量化模型,对情感语料库中的语音进行情感分析和聚类,获得各情感PAD参数模型.由HMM语音合成系统合成的情感语音,通过PAD模型进行参数修正,使得合成语音的情感参数更加准确,从而提高情感语音合成的质量.实验表明该方法能较好地提高合成语音的自然度和情感清晰度,在同性别不同说话人中也能达到较好的性能.  相似文献   

4.
语音情感识别研究进展综述   总被引:6,自引:2,他引:6  
对语音情感识别的研究现状和进展进行了归纳和总结,对未来语音情感识别技术发展趋势进行了展望. 从5个角度逐步展开进行归纳总结,即情感描述模型、具有代表性的情感语音库、语音情感特征提取、语音情感识别算法研究和语音情感识别技术应用,旨在尽可能全面地对语音情感识别技术进行细致的介绍与分析,为相关研究人员提供有价值的学术参考;最后,立足于研究现状的分析与把握,对当前语音情感识别领域所面临的挑战与发展趋势进行了展望.侧重于对语音情感识别研究的主流方法和前沿进展进行概括、比较和分析.  相似文献   

5.
本文是对于藏语天气预报的语音合成系统的简单研究,针对藏文的特殊性设计相应的语料库以及韵律参数库、合成参数库,提供基音同步叠加算法(PLOSA)需要的修改因子,通过修改时长、基频等参数最终实现语音的合成。  相似文献   

6.
合成语音的基元是通过最小化目标代价和拼接代价来选取。由于拼接基元涉及复杂的语言学、声学特性,如何选择能准确描述基元信息的声学特征(或语言学特征)并构建相应目标代价是提高合成语音质量的关键。从声学特征和声学模型两个方面对目标代价构建进行了探究。实验结果表明,经过相似语料训练后微调的深度声学网络模型,预测的瓶颈特征更能表征拼接基元特性,从而指导目标代价筛选理想候选单元,提高合成语音的质量。  相似文献   

7.
汉语语音合成语料库管理系统的建立   总被引:3,自引:0,他引:3  
本文介绍的语料库管理系统主要用于语音合成的研究或开发工作 .语料的设计考虑了音段和韵律 ,语料库中包括汉语的音节、词语、独白语句和情景对话语篇 ,语音的录制是在卦限录音室完成 .管理系统对各种语音数据进行综合有效的管理 ,它具有查询、浏览和更新等功能  相似文献   

8.
在语音合成技术的研究中,情感语音合成是当前研究的热点.在众多研究因素中,建立恰当的韵律模型和选取好的韵律参数是研究的关键,它们描述的正确与否,直接影响到情感语音合成的输出效果.为了攻克提高情感语音自然度这一难点,对影响情感语音合成技术韵律参数进行了分析,建立了基于关联规则的情感语音韵律基频模型.本文通过研究关联规则、改进数据挖掘Apriori算法并由此来获得韵律参数中基频变化规则,并为情感语音合成的选音提供指导和帮助.  相似文献   

9.
粤语语音合成系统语料库设计研究   总被引:1,自引:1,他引:0  
介绍了语料库设计的原理和过程,并结合粤语语音合成系统语料库实现,提出了“语境矢量”的独特设计和“语境总量”的概念,给出了语境总量的计算方法。最后介绍了Greedy算法,并给出了文奉语料搜索的具体流程。  相似文献   

10.
提出了一种基于数据驱动的语调建模方法.该方法采用主成分分析 (Principal component analysis, PCA) 技术, 给出了特征语调, 统计了语音情感模式在特征语调空间中的分布规律, 经过分析得出了普通话中情感模式所对应的情感语调.针对语音产生的机理复杂、语音语调受众多因素影响的特点, 为了避免这些干扰因素的影响, 设计了相应的情感语音库.利用所设计的语音库, 进行了相关实验.实验结果表明, 利用所提出的特征语调模型不仅能够非常完美地重构出语调样本的语调, 而且具有相当的情感表达能力.  相似文献   

11.
情感是语音识别研究中一个不可避免的问题,不同的情感对于语音有着不同的影响,这种影响使得中性语音识别系统在实际应用中的识别效果大打折扣。对于类似的影响通常的解决方法有寻找鲁棒特征,特征归一化以度模型调整训练等。本文通过自适应方法,使用少量情感数据,在中性语音模型的基础上自适应得到新的情感语音模型。实验证明,新模型对于情感语音有着更好的整体识别率。  相似文献   

12.
语音合成与语音识别提供了全新的人机交互方式,在信息处理、教育与商务应用等方面已显示出了巨大的优势。本文分析了MS Agent的工作原理,论述了基于MS Agent的语音系统的开发步骤,给出了系统运行示意图。  相似文献   

13.
语音情感识别是语音处理领域中一个具有挑战性和广泛应用前景的研究课题。探索了语音情感识别中的关键问题之一:生成情感识别的有效的特征表示。从4个角度生成了语音信号中的情感特征表示:(1)低层次的声学特征,包括能量、基频、声音质量、频谱等相关的特征,以及基于这些低层次特征的统计特征;(2)倒谱声学特征根据情感相关的高斯混合模型进行距离转化而得出的特征;(3)声学特征依据声学词典进行转化而得出的特征;(4)声学特征转化为高斯超向量的特征。通过实验比较了各类特征在情感识别上的独立性能,并且尝试了将不同的特征进行融合,最后比较了不同的声学特征在几个不同语言的情感数据集上的效果(包括IEMOCAP英语情感语料库、CASIA汉语情感语料库和Berlin德语情感语料库)。在IEMOCAP数据集上,系统的正确识别率达到了71.9%,超越了之前在此数据集上报告的最好结果。  相似文献   

14.
语音合成技术的发展与展望   总被引:1,自引:0,他引:1  
阐述了语音合成的内涵和框架,对语音合成技术的算法和韵律研究现状做了系统的总结,分析了该领域目前所面临的问题。并介绍了基于谐波噪声内核的合成系统的实现。最后对高质量语音合成系统的属性做了阐述,对未来的发展做了展望。  相似文献   

15.
针对前后相邻情感语句的情感变化存在相互关联的特性,提出基于情感上下文的情感推理算法.该算法首先利用传统语音情感特征和上下文语音情感特征分别识别待分析情感语句的情感状态,然后借助情感交互矩阵及两类情感特征识别结果的置信度对待测试语句的情感状态进行融合推理.在此基础上,建立语音情感上下文推理规则,利用该规则根据相邻语句的情感状态对待分析情感语句情感状态进行调整,最终得出待分析情感语句所属的情感类别.在自行录制的包含6种基本情感数据库上的实验结果表明,与仅采用声学特征的方法相比,文中提出方法平均识别率提高12.17%.  相似文献   

16.
针对商品评论中的细粒度情感要素抽取问题,提出基于条件随机场模型( CRFs)和支持向量机( SVM)的层叠模型。针对情感对象与情感词的识别,将评论的句法信息、语义信息等引入CRFs模型,进一步提高CRFs特征模板的鲁棒性。在SVM模型中,引入情感对象和情感词的深层词义及情感词的基本情感倾向等特征,改进传统的词包模型,对掖情感对象,情感词业词对进行细粒度的情感分类判断,从而获得商品评论中的情感关键信息:(情感对象,情感词,情感倾向性)三元组。实验表明,文中的CRFs和SVM层叠模型可提高情感要素抽取与情感分类判断的准确性。  相似文献   

17.
In recent years, speech synthesis systems have allowed for the production of very high-quality voices. Therefore, research in this domain is now turning to the problem of integrating emotions into speech. However, the method of constructing a speech synthesizer for each emotion has some limitations. First, this method often requires an emotional-speech data set with many sentences. Such data sets are very time-intensive and labor-intensive to complete. Second, training each of these models requires computers with large computational capabilities and a lot of effort and time for model tuning. In addition, each model for each emotion failed to take advantage of data sets of other emotions. In this paper, we propose a new method to synthesize emotional speech in which the latent expressions of emotions are learned from a small data set of professional actors through a Flowtron model. In addition, we provide a new method to build a speech corpus that is scalable and whose quality is easy to control. Next, to produce a high-quality speech synthesis model, we used this data set to train the Tacotron 2 model. We used it as a pre-trained model to train the Flowtron model. We applied this method to synthesize Vietnamese speech with sadness and happiness. Mean opinion score (MOS) assessment results show that MOS is 3.61 for sadness and 3.95 for happiness. In conclusion, the proposed method proves to be more effective for a high degree of automation and fast emotional sentence generation, using a small emotional-speech data set.  相似文献   

18.
Since the industrial revolution, fashion and technology have been linked through the textile and manufacturing industries, a relationship that has propelled technical innovation and aesthetic and social change. Today, a new alliance is emerging through the integration of electronic technology and smart materials on the body. This study addresses the integration of technology with clothing from a fashion perspective, and examines its expressive and interactive potential. It proposes the concept of The Emotional Wardrobe: clothing that represents and stimulates emotional response through the interface of technology. It asks if fashion can offer a more personal and provocative definition of self, which actively involves the wearer in a mutable aesthetic identity. A multi-disciplinary framework combines fashion, material science and the real-time, affective computing platform, called AffectiveWare. By merging technology and fashion, The Emotional Wardrobe becomes a poetic interface, shifting emphasis from human–computer interaction to computer-aided, human–human communication.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号