全文获取类型
收费全文 | 14929篇 |
免费 | 2717篇 |
国内免费 | 1940篇 |
学科分类
工业技术 | 19586篇 |
出版年
2024年 | 433篇 |
2023年 | 1623篇 |
2022年 | 1858篇 |
2021年 | 2143篇 |
2020年 | 1798篇 |
2019年 | 1650篇 |
2018年 | 646篇 |
2017年 | 472篇 |
2016年 | 310篇 |
2015年 | 305篇 |
2014年 | 514篇 |
2013年 | 413篇 |
2012年 | 496篇 |
2011年 | 576篇 |
2010年 | 555篇 |
2009年 | 600篇 |
2008年 | 582篇 |
2007年 | 587篇 |
2006年 | 476篇 |
2005年 | 593篇 |
2004年 | 515篇 |
2003年 | 468篇 |
2002年 | 363篇 |
2001年 | 254篇 |
2000年 | 225篇 |
1999年 | 119篇 |
1998年 | 127篇 |
1997年 | 137篇 |
1996年 | 133篇 |
1995年 | 144篇 |
1994年 | 105篇 |
1993年 | 61篇 |
1992年 | 74篇 |
1991年 | 71篇 |
1990年 | 76篇 |
1989年 | 59篇 |
1988年 | 5篇 |
1987年 | 7篇 |
1986年 | 7篇 |
1985年 | 5篇 |
1983年 | 1篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
72.
随着道路场景理解技术的快速发展,自主驾驶领域取得了长足的进步。在相关任务中,包括道路分割、分类和车辆检测的实时性和准确性是安全性的一个关键问题。为此,提出了一个具有编/解码器网络结构的基于深度残差学习的方法。一方面,编码器网络结构使用不同层次的残差网络来提取高维中的抽象特征,这些特征在接下来的三个任务中共享使用;另一方面,解码器网络结构采用一种子任务的并行计算机制,即道路分割、车辆检测和道路分类任务同时执行。此外,全卷积神经网络用于对提取的图像特征进行上采样以解决道路分割问题。最终,实验结果表明在保证高精度的前提下处理帧率可达到15 fps以上。 相似文献
73.
《软件》2019,(10):46-49
针对传统卷积神经网络(如Lenet5)在图像的多分类任务中识别率不高、较新的卷积神经网络(如VGG16)在图像的多分类任务中待优化的参数达到千万级别的问题。采用将SqueezeNet神经网络与FractalNet神经网络相结合的方法。本文使用SqueezeNet神经网络中的FireModule来减少模型的参数、FractalNet神经网络的基本架构来保证神经网络模型的准确度。结果显示:在其它超参数基本相同的前提下,迭代40代时,DenseNet模型的测试集准确度为79.92%,而混合模型的测试集准确度为84.56%,其待优化的参数降至二百万个左右,故混合模型对数据的拟合能力更强,模型参数保持较低水平。 相似文献
74.
75.
伴随智能交通图片数据爆炸式增长,交通大数据车辆精确定位管理需求增加.针对SSD(singleshotmultibox detector)检测算法对小目标定位不稳定与距离弥散导致的车辆定位偏差问题,提出了一种端到端的车辆及内部细节定位方法.包括引入无效目标过滤机制,以有效地抑制定位偏差;添加区域位置信息反传层,共享低卷积层局部特征,扩大小目标局部感受野,有效地进行车辆内部细节定位.采用PASCALVOC2007数据集进行的实验结果表明,文中方法达到了良好的效果. 相似文献
76.
78.
对于重建图像存在的边缘失真和纹理细节信息模糊的问题,提出一种基于改进卷积神经网络(CNN)的图像超分辨率重建方法。首先在底层特征提取层以三种插值方法和五种锐化方法进行多种预处理操作,并将只进行一次插值操作的图像和先进行一次插值后进行一次锐化的图像合并排列成三维矩阵;然后在非线性映射层将预处理后构成的三维特征映射作为深层残差网络的多通道输入,以获取更深层次的纹理细节信息;最后在重建层为减少图像重建时间在网络结构中引入亚像素卷积来完成图像重建操作。在多个常用数据集上的实验结果表明,与经典方法相比,所提方法重建图像的纹理细节信息和高频信息能得到更好的恢复,峰值信噪比(PSNR)平均增加0.23 dB,结构相似性(SSIM)平均增加0.0066。在保证图像重建时间的前提下,所提方法更好地保持重建图像的纹理细节并减少图像边缘失真,提升重建图像的性能。 相似文献
79.
80.
为了解决全卷积孪生网络(SiamFC)跟踪算法在跟踪目标经历剧烈的外观变化时容易发生模型漂移从而导致跟踪失败的问题,提出了一种双重注意力机制孪生网络(DASiam)去调整网络模型并且不需要在线更新。首先,主干网络使用修改后表达能力更强的并适用于目标跟踪任务的VGG网络;然后,在网络的中间层加入一个新的双重注意力机制去动态地提取特征,这种机制由通道注意机制和空间注意机制组成,分别对特征图的通道维度和空间维度进行变换得到双重注意特征图;最后,通过融合两个注意机制的特征图进一步提升模型的表征能力。在三个具有挑战性的跟踪基准库即OTB2013、OTB100和2017年视觉目标跟踪库(VOT2017)实时挑战上进行实验,实验结果表明,以40 frame/s的速度运行时,所提算法在OTB2013和OTB100上的成功率指标比基准SiamFC分别高出3.5个百分点和3个百分点,并且在VOT2017实时挑战上面超过了2017年的冠军SiamFC,验证了所提出算法的有效性。 相似文献