首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   56743篇
  免费   7270篇
  国内免费   5602篇
工业技术   69615篇
  2024年   819篇
  2023年   3105篇
  2022年   3413篇
  2021年   4006篇
  2020年   3621篇
  2019年   3632篇
  2018年   1549篇
  2017年   1725篇
  2016年   1618篇
  2015年   1738篇
  2014年   2698篇
  2013年   2373篇
  2012年   2856篇
  2011年   3052篇
  2010年   3004篇
  2009年   3298篇
  2008年   3523篇
  2007年   3324篇
  2006年   2915篇
  2005年   2769篇
  2004年   2383篇
  2003年   2009篇
  2002年   1626篇
  2001年   1445篇
  2000年   1332篇
  1999年   1131篇
  1998年   953篇
  1997年   857篇
  1996年   824篇
  1995年   635篇
  1994年   418篇
  1993年   327篇
  1992年   277篇
  1991年   135篇
  1990年   96篇
  1989年   67篇
  1988年   10篇
  1987年   10篇
  1986年   12篇
  1985年   6篇
  1984年   13篇
  1983年   4篇
  1982年   1篇
  1980年   1篇
  1977年   1篇
  1959年   1篇
  1951年   3篇
排序方式: 共有10000条查询结果,搜索用时 93 毫秒
51.
52.
53.
胡章芳  张力  黄丽嘉  罗元 《计算机应用》2019,39(8):2480-2483
针对目前运动想象脑电(EEG)信号识别率较低的问题,考虑到脑电信号蕴含着丰富的时频信息,提出一种基于时频域的卷积神经网络(CNN)运动想象脑电信号识别方法。首先,利用短时傅里叶变换(STFT)对脑电信号的相关频带进行预处理,并将多个电极的时频图组合构造出一种二维时频图;然后,针对二维时频图的时频特性,通过一维卷积的方法设计了一种新颖的CNN结构;最后,通过支持向量机(SVM)对CNN提取的特征进行分类。基于BCI数据集的实验结果表明,所提方法的平均识别率为86.5%,优于其他传统运动想象脑电信号识别方法;同时将该方法应用在智能轮椅上,验证了其有效性。  相似文献   
54.
为了充分利用RGB-D图像的深度图像信息,提出了基于张量分解的物体识别方法。首先将RGB-D图像构造成一个四阶张量,然后将该四阶张量分解为一个核心张量和四个因子矩阵,再利用相应的因子矩阵将原张量进行投影,获得融合后的RGB-D数据,最后输入到卷积神经网络中进行识别。RGB-D数据集中三组相似物体的识别结果表明,利用张量分解融合RGB-D图像的物体识别准确率高于未采用张量分解的物体识别准确率,并且单一错分实例的准确率最高可提升99%。  相似文献   
55.
56.
57.
58.
针对常规PID控制参数固定难于满足时变不确定非线性系统的控制要求,利用模糊控制的良好收敛性和对模糊量的运算优势,以及神经网络自学习、自适应的特性,将常规PID控制与模糊控制、神经网络结合起来,提出一种基于模糊RBF神经网络的PID控制方法,实现了对PID参数的实时在线整定。将算法运用到柴油发电机调速系统的PID参数寻优中,MATLAB仿真试验结果表明,模糊RBF神经网络的PID控制具有更好的动静态特性和抗干扰性能,提高了对非线性时变被控对象的控制效果。  相似文献   
59.
60.
基于文档的自动问答,尤其是语义匹配,其目标是计算两个文本之间的相似度。这是自然语言处理中的典型任务,并且用以衡量对自然语言的理解程度。深度学习方法得益于可以自动化地学习到给定任务的最优特征表示,在许多研究中取得成功,也包括文本匹配。针对基于文档的自动问答,提出一个基于卷积深度神经网络的语义匹配模型,以便对每一对问题和文档提取特征,并据此计算它们的得分。通过问题和文档之间的交互计算,利用重叠词等文本特征,在中文开放域上的自动问答任务中取得的实际效果证明了该模型的有效性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号