首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   213945篇
  免费   9962篇
  国内免费   10610篇
工业技术   234517篇
  2024年   942篇
  2023年   3635篇
  2022年   4168篇
  2021年   5025篇
  2020年   4498篇
  2019年   5454篇
  2018年   2706篇
  2017年   4238篇
  2016年   4843篇
  2015年   6208篇
  2014年   15797篇
  2013年   12329篇
  2012年   14616篇
  2011年   15801篇
  2010年   15168篇
  2009年   16800篇
  2008年   17178篇
  2007年   13032篇
  2006年   11629篇
  2005年   11807篇
  2004年   10437篇
  2003年   8869篇
  2002年   6807篇
  2001年   5294篇
  2000年   4062篇
  1999年   2843篇
  1998年   2340篇
  1997年   2024篇
  1996年   1714篇
  1995年   1208篇
  1994年   932篇
  1993年   552篇
  1992年   413篇
  1991年   346篇
  1990年   347篇
  1989年   366篇
  1988年   46篇
  1987年   13篇
  1986年   16篇
  1985年   4篇
  1984年   5篇
  1980年   1篇
  1979年   1篇
  1951年   3篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
101.
102.
103.
互联网在大数据下的时代,作为全球最重要的信息基础设施和推动经济社会发展的重要驱动力量,成为了人们生活中必不可少的重要组成部分,但计算机在发展过程中的问题也是逐日递增,计算机的安全也是网络安全的关键之处。本文就计算机的安全问题,从软件和硬件方面入手,对其中的问题做出了分析,研究,提出了改进计算机安全的策略。  相似文献   
104.
105.
作为磨矿过程的主要生产质量指标, 磨矿粒度是实现磨矿过程闭环优化控制的关键.将磨矿粒度控制在一定范围内能够提高选别作业的精矿品位和有用矿物的回收率, 并减少有用矿物的金属流失.由于经济和技术上的限制, 磨矿粒度的实时测量难以实现.因此, 磨矿粒度的在线估计显得尤为重要.然而, 目前我国所处理的铁矿石大多数为性质不稳定的赤铁矿, 其矿浆颗粒存在磁团聚现象, 所采集的数据存在大量异常值, 使得利用数据建立的磨矿粒度模型存在较大误差.同时, 传统前馈神经网络在磨矿粒度数据建模过程中存在收敛速度慢、易于陷入局部最小值等缺点, 且单一模型泛化性能较差, 现有的集成学习在异常值干扰下性能严重下降.因此, 本文在改进的随机向量函数链接网络(random vector functional link networks, RVFLN)的基础上, 将Bagging算法与自适应加权数据融合技术相结合, 提出一种基于鲁棒随机向量函数链接网络的集成建模方法, 用于磨矿粒度集成建模.所提方法首先通过基准回归问题进行了实验研究, 然后采用磨矿工业实际数据进行验证, 表明其有效性.   相似文献   
106.
107.
张宏科  冯博昊  权伟 《电子学报》2019,47(5):977-982
现有互联网因其原始设计不足已在服务质量、资源利用率、管控能力等诸多方面暴露出严重弊端,难以支撑起"互联网+"新业态高速发展对通信网络与服务日趋复杂化、多元化的需求.因此,如何设计全新的互联网已成为信息领域最为迫切与核心的研究内容之一,受到学术界与产业界的高度重视.本文基于前期"标识网络"与"智慧标识网络"研究,创造性提出"智融标识网络"体系及其关键机制,通过全网多空间、多维度资源的智慧融合,实现个性化服务的按需供给与灵活化组网的有效支撑,为不同行业与用户提供高效的差异化、定制化通信网络服务,以普遍适用于高铁网络、工业互联网、车联网等各类迥异应用情景.  相似文献   
108.
强化学习问题中,同一状态下不同动作所对应的状态-动作值存在差距过小的现象,Q-Learning算法采用MAX进行动作选择时会出现过估计问题,且结合了Q-Learning的深度Q网络(Deep Q Net)同样存在过估计问题。为了缓解深度Q网络中存在的过估计问题,提出一种基于优势学习的深度Q网络,通过优势学习的方法构造一个更正项,利用目标值网络对更正项进行建模,同时与深度Q网络的评估函数进行求和作为新的评估函数。当选择的动作是最优动作时,更正项为零,不对评估函数的值进行改动,当选择的动作不是最优动作时,更正项的值为负,降低了非最优动作的评估值。和传统的深度Q网络相比,基于优势学习的深度Q网络在Playing Atari 2600的控制问题breakout、seaquest、phoenix、amidar中取得了更高的平均奖赏值,在krull、seaquest中取得了更加稳定的策略。  相似文献   
109.
110.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号