首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6012篇
  免费   950篇
  国内免费   1052篇
工业技术   8014篇
  2024年   84篇
  2023年   288篇
  2022年   310篇
  2021年   423篇
  2020年   333篇
  2019年   375篇
  2018年   239篇
  2017年   264篇
  2016年   329篇
  2015年   310篇
  2014年   445篇
  2013年   360篇
  2012年   450篇
  2011年   347篇
  2010年   317篇
  2009年   300篇
  2008年   427篇
  2007年   338篇
  2006年   276篇
  2005年   313篇
  2004年   312篇
  2003年   187篇
  2002年   142篇
  2001年   138篇
  2000年   110篇
  1999年   102篇
  1998年   80篇
  1997年   64篇
  1996年   74篇
  1995年   64篇
  1994年   45篇
  1993年   28篇
  1992年   35篇
  1991年   35篇
  1990年   22篇
  1989年   28篇
  1988年   4篇
  1987年   2篇
  1986年   8篇
  1985年   1篇
  1984年   3篇
  1982年   1篇
  1980年   1篇
排序方式: 共有8014条查询结果,搜索用时 281 毫秒
131.
基于体素表示的三维物体重建计算代价会随着体素分辨率的增加呈立方增长.为了缓解这一问题,提出组件感知的三维物体重建方法,将三维物体分解成多个组件,通过预测组件几何结构和组装组件的方式重建三维物体,从而将高分辨率三维物体的重建问题分解成一系列低分辨率组件的重建问题.组件感知的三维物体重建方法使用组件位置预测模块预测所有组件的位置;使用组件特征提取模块融合组件表观特征与组件几何特征生成组件联合特征;使用组件几何结构重建模块根据组件联合特征重建组件的几何形状;最后将所有组件按其位置信息组装成高分辨率的三维物体.实验使用ShapeNet数据集在一个拥有12 GB内存的NVIDIA 1080 Maxwell GPU上进行.对比方法包括一个基于八叉树的高分辨率重建方法、一个基于LSTM的低分辨率重建方法和一个使用编码器-解码器架构的Baseline方法.高分辨率重建结果显示,组件感知的三维物体重建方法能够以较小的计算代价取得满意的高分辨率三维物体重建精度.在低分辨率重建实验上,该方法也取得了更高的重建精度,在13个类别上的平均精度达到了0.618.  相似文献   
132.
针对基于稀疏表示(Sparse representation,SR)的数据压缩压缩率低、重构精度低等问题,本文提出一种基于双迭代的聚能量字典学习算法,把高维信号映射到低维特征空间,当低维特征空间保留高维原始信号越多的特征时,高维信号从低维特征空间中恢复出来的精度越高。为了使低维字典保留高维字典更多的主成分,本文提出了一个新的变换,被命名为?变换,能提升高维字典的能量集中性。除此之外,针对高维字典与低维字典的耦合关系,建立了双循环迭代训练,增加字典的能量集中性与字典的表达能力。实验表明,相比于传统算法,本文提出算法字典学习收敛速度提升了3倍以上。此外,该方法可以得到较高的压缩比和更高质量的重构信号。  相似文献   
133.
目的 视觉检索需要准确、高效地从大型图像或者视频数据集中检索出最相关的视觉内容,但是由于数据集中图像数据量大、特征维度高的特点,现有方法很难同时保证快速的检索速度和较好的检索效果。方法 对于面向图像视频数据的高维数据视觉检索任务,提出加权语义局部敏感哈希算法(weighted semantic locality-sensitive hashing, WSLSH)。该算法利用两层视觉词典对参考特征空间进行二次空间划分,在每个子空间里使用加权语义局部敏感哈希对特征进行精确索引。其次,设计动态变长哈希码,在保证检索性能的基础上减少哈希表数量。此外,针对局部敏感哈希(locality sensitive hashing, LSH)的随机不稳定性,在LSH函数中加入反映参考特征空间语义的统计性数据,设计了一个简单投影语义哈希函数以确保算法检索性能的稳定性。结果 在Holidays、Oxford5k和DataSetB数据集上的实验表明,WSLSH在DataSetB上取得最短平均检索时间0.034 25 s;在编码长度为64位的情况下,WSLSH算法在3个数据集上的平均精确度均值(mean average precision,mAP)分别提高了1.2%32.6%、1.7%19.1%和2.6%28.6%,与几种较新的无监督哈希方法相比有一定的优势。结论 通过进行二次空间划分、对参考特征的哈希索引次数进行加权、动态使用变长哈希码以及提出简单投影语义哈希函数来对LSH算法进行改进。由此提出的加权语义局部敏感哈希(WSLSH)算法相比现有工作有更快的检索速度,同时,在长编码的情况下,取得了更为优异的性能。  相似文献   
134.
135.
黄鑫  李赟  熊瑾煜 《计算机工程》2021,47(6):188-196
针对连续时间动态网络的节点分类问题,根据实际网络信息传播特点定义信息传播节点集,改进网络表示学习的节点序列采样策略,并设计基于信息传播节点集的连续时间动态网络节点分类算法,通过网络表示学习方法生成的节点低维向量以及OpenNE框架内的LogicRegression分类器,获得连续时间动态网络的节点分类结果。实验结果表明,与CTDNE和STWalk算法相比,该算法在实验条件相同的情况下,网络表示学习结果的二维可视化效果更优且最终的网络节点分类精度更高。  相似文献   
136.
李志鹏  张睿 《计算机工程》2021,47(6):262-270
目标跟踪指在视频帧中找到感兴趣目标的运动位置,广泛应用于环境感知、安防监控和无人驾驶等领域。为进行高效的目标跟踪,建立一种基于对抗学习和特征压缩的相关滤波器目标跟踪模型。为了同时兼顾精度与速度,在模型中引入特征提取优化、特征压缩和特征聚合等步骤。在提取图像特征前,采用对抗学习方法解决特征提取模型中训练数据与任务数据分布不匹配的问题。在特征压缩阶段,应用双通道自编码器结构和特征聚合来增强模型对图像风格的泛化能力。实验结果表明,与非实时跟踪算法相比,该模型在精度损失不超过3%的情况下能取得明显的速度提升,其跟踪速度高达103FPS。  相似文献   
137.
提出了称作一次变色龙哈希函数的新密码学原语:同一哈希值的2个原像(一次碰撞)不会暴露任何陷门信息,而同一哈希值的3个原像(二次碰撞)则会暴露部分陷门信息,但足以导致严重的安全危害.基于经典的RSA困难问题构造了简单高效的一次变色龙哈希函数方案,并在随机预言模型下证明了其安全性.应用该一次变色龙哈希函数方案,进一步高效实现了对每个区块仅允许至多一次修正的可修正区块链,而任何区块的二次修改都将导致区块链崩溃的惩罚.对区块链进行有效治理是网络空间安全治理的关键领域,而可修正区块链则构成了区块链监管和治理的最核心技术.所提出的可修正区块链方案具有高效和修正权限契合实际需求的两大特点,有望为区块链监管(尤其是链上有害数据的事后治理)提供有力的技术参考.  相似文献   
138.
现有图像感知算法侧重于减少相似图像感知哈希值间的差异性,较少关注增大不同图像感知哈希值间的差异性问题.针对这一局限性,提出并实现循环贯序差分和拉普拉斯算子两种基于差分的图像感知哈希算法,并分别在小规模相似图像集合和大规模不同图像集合上进行测试.与现有图像感知哈希算法相比,所提算法体现了图像像素点间的局部关联性,增加了不同图像哈希值间的差异,显著提升了不同图像的区分概率.  相似文献   
139.
SDPBloom算法减小了基于简单发现协议的自动发现算法SDP_ADA的网络数据传输量和内存消耗,但在自动发现过程中存在哈希运算量大的问题,导致参与者端点之间发布/订阅消息的时间过长.为解决这一问题,在简单发现协议的基础上,提出一种基于单哈希多维布隆过滤器的自动发现算法SDP_OMBF.该算法将单哈希多维布隆过滤器向量(OMBF)用于参与者端点信息的匹配.实验结果表明,该算法提高了数据分发服务(Data Distribution Service,DDS)自动发现过程中的实时性.  相似文献   
140.
通常给定超参数的若干取值选取性能最大的为最优组合(称为直接选优法),但是此方法的稳健性差。为此,提出了一种基于稳健设计的超参数调优方法(称为稳健调优法)。具体地,以SGNS算法中的超参数调优为例,在词语推断任务上实验并得出:经方差分析得到SGNS算法中的七个超参数中的五个对算法预测性能有显著影响,确定为主控因子,其余两个确定为噪声因子,且主控因子中有三个对性能估计的方差有显著影响,因此,调优中仅从期望最大来直接选优是不合理的;稳健调优法与直接选优法两者在预测性能上没有显著差异,但稳健调优法对噪声因子具有较好的稳健性。稳健调优法对一般的深度神经网络的调参有实际的借鉴意义。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号