首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
自然科学   3篇
  2013年   1篇
  2011年   1篇
  2009年   1篇
排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
由于传统语料标注方法耗时耗力,已经难以适应大数据语料的处理,该文提出了大数据语音语料库的社会标注策略。引入了针对语音数据标注的六元组模型,将语音资源的自身特征考虑进去,并将标签对象扩展为更为广义的标记。提出基于"兴趣+收获+报酬"的标注模式,并建立标注质量的3层检验机制。通过工程实现和应用,验证了本文方法在标注效率、质量和成本等方面都具有明显优势。同时,该标注策略可以推广到其他语料的标注,特别是对主观性较强的翻译语料和评价型语料的标注。  相似文献   
2.
流利度评分是目前计算机辅助自动发音评分系统中一个重要组成部分。为了解决流利度特征表述中和内容、韵律等高级表述技巧相关的广义流利问题,该文提出了一种能够全面客观地评价口语流利度通顺性和韵律性的评分方法。该方法除了通顺性之外,可以提取停顿、韵律、连读和失去爆破等特征;评分过程中,系统采用多层次融合方法,分别从句子级和篇章级提取流利度特征,其中篇章级得分由句子级加权得分和篇章级特征进行融合得到。在实验中,分别以机器得分和人工平均分的相关度、均方差等指标比较了多元线性回归(LR)、BP神经网络、支持向量回归机(SVR)3种算法的性能。结果表明:基于非线性建模的BP神经网络和支持向量回归机拟合的得分模型要好于多元线性回归;该方法可以作为一个重要指标,应用在计算机辅助语音评分系统中。  相似文献   
3.
针对口语重复修正检错这一计算机辅助语言教学中的难点,提出一种基于音节单元WFST(weighted finite-state transducer)网络的容错对齐和搜索过滤算法。该算法将对齐后识别结果中邻近匹配词所对应的脚本建立上述语法网络进行二次识别下的容错对齐,得到的候选被修改部分和替换部分作为搜索过滤的查询和模板。最终,重复修正检错结果由搜索过滤算法的置信度决定。为此,提出了基于顺序假设的k-difference算法和基于随机假设的n-gram算法。实验表明:不使用二次容错对齐时,以音节为建模单元的多n-gram混合搜索过滤取得了相对最优的结果;使用二次容错对齐时,能够使F-measure获得3~4个百分比的进一步提升。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号