全文获取类型
收费全文 | 83668篇 |
免费 | 10093篇 |
国内免费 | 7515篇 |
学科分类
工业技术 | 101276篇 |
出版年
2024年 | 992篇 |
2023年 | 3598篇 |
2022年 | 3623篇 |
2021年 | 4370篇 |
2020年 | 3911篇 |
2019年 | 4302篇 |
2018年 | 1970篇 |
2017年 | 2675篇 |
2016年 | 2957篇 |
2015年 | 3517篇 |
2014年 | 6134篇 |
2013年 | 5213篇 |
2012年 | 6313篇 |
2011年 | 6749篇 |
2010年 | 6179篇 |
2009年 | 5552篇 |
2008年 | 5957篇 |
2007年 | 5183篇 |
2006年 | 4077篇 |
2005年 | 3996篇 |
2004年 | 3452篇 |
2003年 | 2670篇 |
2002年 | 2010篇 |
2001年 | 1538篇 |
2000年 | 1140篇 |
1999年 | 700篇 |
1998年 | 545篇 |
1997年 | 446篇 |
1996年 | 333篇 |
1995年 | 297篇 |
1994年 | 257篇 |
1993年 | 148篇 |
1992年 | 120篇 |
1991年 | 99篇 |
1990年 | 96篇 |
1989年 | 98篇 |
1988年 | 8篇 |
1987年 | 8篇 |
1986年 | 16篇 |
1985年 | 3篇 |
1984年 | 3篇 |
1983年 | 3篇 |
1982年 | 8篇 |
1981年 | 4篇 |
1980年 | 3篇 |
1959年 | 2篇 |
1951年 | 1篇 |
排序方式: 共有10000条查询结果,搜索用时 0 毫秒
992.
为了充分利用RGB-D图像的深度图像信息,提出了基于张量分解的物体识别方法。首先将RGB-D图像构造成一个四阶张量,然后将该四阶张量分解为一个核心张量和四个因子矩阵,再利用相应的因子矩阵将原张量进行投影,获得融合后的RGB-D数据,最后输入到卷积神经网络中进行识别。RGB-D数据集中三组相似物体的识别结果表明,利用张量分解融合RGB-D图像的物体识别准确率高于未采用张量分解的物体识别准确率,并且单一错分实例的准确率最高可提升99%。 相似文献
993.
针对基于规则和统计的传统中文简历解析方法效率低、成本高、泛化能力差的缺点,提出一种基于特征融合的中文简历解析方法,即级联Word2Vec生成的词向量和用BLSTM(Bidirectional Long Short-Term Memory)建模字序列生成的词向量,然后再结合BLSTM和CRF(Conditional Random Fields)对中文简历进行解析(BLSTM-CRF)。为了提高中文简历解析的效率,级联包含字序列信息的词向量和用Word2Vec生成的词向量,融合成一个新的词向量表示;再由BLSTM强大的学习能力融合词的上下文信息,输出所有可能标签序列的分值给CRF层;再由CRF引入标签之间约束关系求解最优序列。利用梯度下降算法训练神经网络,使用预先训练的词向量和Dropout优化神经网络,最终完成对中文简历的解析工作。实验结果表明,所提的特征融合方法优于传统的简历解析方法。 相似文献
994.
995.
针对深度卷积神经网络模型缺乏对语义信息的表征能力,而细粒度视觉识别中种类间视觉差异微小且多集中在关键的语义部位的问题,提出基于语义信息融合的深度卷积神经网络模型及细粒度车型识别模型.该模型由定位网络和识别网络组成,通过定位网络FasterRCNN获取车辆目标及各语义部件的具体位置;借助识别网络提取目标车辆及各语义部件的特征,再使用小核卷积实现特征拼接和融合;最后经过深层神经网络得到最终识别结果.实验结果表明,文中模型在斯坦福BMW-10数据集的识别准确率为78.74%,高于VGG网络13.39%;在斯坦福cars-197数据集的识别准确率为85.94%,其迁移学习模型在BMVC car-types数据集的识别准确率为98.27%,比该数据集目前最好的识别效果提高3.77%;该模型避免了细粒度车型识别对于车辆目标及语义部件位置的依赖,并具有较高的识别准确率及通用性. 相似文献
996.
为解决城市交通拥堵问题,分析了5G技术和智能网联汽车的发展、战略轨迹,介绍了其研究意义和发展趋向;同时提出了将5G技术与智能网联汽车有机融合,发挥两者共同优势,以利于ICV的规模化、定制化技术架构的完善,实现ICV车辆间的信息实时换接、均布负载和信息抗干扰与安全的构想;进而对ICV的发展提出展望。 相似文献
997.
998.
999.
鱼眼图像在全景图拼接中优势明显,然而,由于鱼眼图像存在严重的透视畸变缺陷,往往导致拼接图像效果不理想,甚至导致拼接失败,针对该问题,提出基于 SIFT特征的鱼眼图像拼接算法,该算法先对鱼眼图像进行校正,采用SIFT特征算子对校正后的鱼眼图像进行特征提取和匹配,再利用RANSAC鲁棒算法对变换参数进行估计,最后使用加权平均法对图像进行拼接融合? 通过对不同场景下、不同重叠区域图像的全景图像拼接实验验证,与现有的拼接方法相比较,同等拼接质量下该算法得到的全景图像能够有效减少计算量、减少拼接次数,证明了该算法的适用性和有效性。 相似文献
1000.