全文获取类型
收费全文 | 493篇 |
免费 | 59篇 |
国内免费 | 62篇 |
学科分类
工业技术 | 614篇 |
出版年
2024年 | 5篇 |
2023年 | 20篇 |
2022年 | 17篇 |
2021年 | 19篇 |
2020年 | 20篇 |
2019年 | 36篇 |
2018年 | 26篇 |
2017年 | 13篇 |
2016年 | 14篇 |
2015年 | 17篇 |
2014年 | 28篇 |
2013年 | 28篇 |
2012年 | 27篇 |
2011年 | 41篇 |
2010年 | 36篇 |
2009年 | 41篇 |
2008年 | 43篇 |
2007年 | 59篇 |
2006年 | 41篇 |
2005年 | 14篇 |
2004年 | 13篇 |
2003年 | 19篇 |
2002年 | 8篇 |
2001年 | 5篇 |
2000年 | 3篇 |
1999年 | 6篇 |
1997年 | 4篇 |
1996年 | 2篇 |
1995年 | 1篇 |
1994年 | 2篇 |
1988年 | 1篇 |
1987年 | 1篇 |
1986年 | 1篇 |
1983年 | 2篇 |
1981年 | 1篇 |
排序方式: 共有614条查询结果,搜索用时 15 毫秒
61.
62.
63.
64.
基音轨迹F_0~t转换是实现高质量源-目标说话人声音转换的重要组成部分。本文给出了一种与说话内容无关的F_0~t转换方法,为了在与文本无关的前提下,提取出尽可能反映说话人个性特征的基音起伏的较长时的信息,本文采用了从n个短时帧组成的基元段提取特征矢量,并以基元段矢量为单元进行转换,采用了基于高斯混合模型(GMM)的概率加权转换算法使每个特征矢量的转换规则是由多个类规则的线性加权组合得到的,从而提高了转换精度,同时还解决了一般分类器中处于类边界数据的分类错误。实验表明,基于基元段特征矢量和GMM的转换方法具有很好的效果。 相似文献
65.
66.
67.
最近,基于自注意力的Transformer结构在不同领域的一系列任务上表现出非常好的性能。探索了基于Transformer编码器和LAS(listen,attend and spell)解码器的Transformer-LAS语音识别模型的效果,并针对Transformer不善于捕捉局部信息的问题,使用Conformer代替Transformer,提出Conformer-LAS模型。由于Attention过于灵活的对齐方式,使得在嘈杂环境中的效果急剧下降,采用连接时序分类(connectionist temporal classification,CTC)辅助训练以加快收敛,并加入音素级别的中间CTC损失联合优化,提出了效果更好的Conformer-LAS-CTC语音识别模型。在开源中文普通话Aishell-1数据集上对提出来的模型进行验证,实验结果表明,Conformer-LAS-CTC相对于采用的基线BLSTM-LAS和Transformer-LAS模型在测试集上的字错率分别相对降低了22.58%和48.76%,模型最终字错误率为4.54%。 相似文献
68.
遥感图像因为其自身小目标多、密集的特点而对于目标检测任务是一个挑战。设计一种多层特征融合的Faster Rcnn,丰富各特征层的信息、平衡位置信息和分类信息。算法采用ResNet作为骨干网络提取特征,通过自上而下的特征融合,得到多尺度特征图,从而增强位置信息和分类信息以得到更加精准的检测结果。与Faster Rcnn算法相比,该算法对位置信息更加敏感,准确率提高了2.7百分点。相对于经典的目标检测框架SSD, Yolo v3等的检测效果,结合了特征融合的Faster Rcnn效果得到了明显提升。 相似文献
69.
70.
近年来,深度神经网络模型在语音识别领域成为热门研究对象。然而,深层神经网络的构建依赖庞大的参数和计算开销,过大的模型体积也增加了其在边缘设备上部署的难度。针对上述问题,提出了基于Transformer的轻量化语音识别模型。首先使用深度可分离卷积获得音频特征信息;其次构建了双半步剩余权重前馈神经网络,即Macaron-Net结构,并引入低秩矩阵分解,实现了模型压缩;最后使用稀疏注意力机制,提升了模型的训练速度和解码速度。为了验证模型,在Aishell-1和aidatatang_200zh数据集上进行了测试。实验结果显示,所提模型与Open-Transformer相比,所提模型在字错误率上相对下降了19.8%,在实时率上相对下降了32.1%。 相似文献