首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   50664篇
  免费   7355篇
  国内免费   6233篇
工业技术   64252篇
  2024年   666篇
  2023年   2026篇
  2022年   1854篇
  2021年   2417篇
  2020年   2053篇
  2019年   2199篇
  2018年   1194篇
  2017年   1665篇
  2016年   1791篇
  2015年   2213篇
  2014年   3466篇
  2013年   3041篇
  2012年   3683篇
  2011年   3743篇
  2010年   3565篇
  2009年   4028篇
  2008年   4330篇
  2007年   3886篇
  2006年   3042篇
  2005年   2952篇
  2004年   2638篇
  2003年   2078篇
  2002年   1537篇
  2001年   1160篇
  2000年   860篇
  1999年   479篇
  1998年   389篇
  1997年   297篇
  1996年   230篇
  1995年   213篇
  1994年   177篇
  1993年   112篇
  1992年   70篇
  1991年   70篇
  1990年   57篇
  1989年   56篇
  1988年   3篇
  1987年   2篇
  1986年   8篇
  1959年   2篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
981.
目的 多部位病灶具有大小各异和类型多样的特点,对其准确检测和分割具有一定的难度。为此,本文设计了一种2.5D深度卷积神经网络模型,实现对多种病灶类型的计算机断层扫描(computed tomography,CT)图像的病灶检测与分割。方法 利用密集卷积网络和双向特征金字塔网络组成的骨干网络提取图像中的多尺度和多维度信息,输入为带有标注的中央切片和提供空间信息的相邻切片共同组合而成的CT切片组。将融合空间信息的特征图送入区域建议网络并生成候选区域样本,再由多阈值级联网络组成的Cascade R-CNN(region convolutional neural networks)筛选高质量样本送入检测与分割分支进行训练。结果 本文模型在DeepLesion数据集上进行验证。结果表明,在测试集上的平均检测精度为83.15%,分割预测结果与真实标签的端点平均距离误差为1.27 mm,直径平均误差为1.69 mm,分割性能优于MULAN(multitask universal lesion analysis network for joint lesion detection,tagging and segmentation)和Auto RECIST(response evaluation criteria in solid tumors),且推断每幅图像平均时间花费仅91.7 ms。结论 对于多种部位的CT图像,本文模型取得良好的检测与分割性能,并且预测时间花费较少,适用病变类别与DeepLesion数据集类似的CT图像实现病灶检测与分割。本文模型在一定程度上能满足医疗人员利用计算机分析多部位CT图像的需求。  相似文献   
982.
目的 青光眼是导致失明的主要疾病之一,视盘区域的形状、大小等参数是青光眼临床诊断的重要指标。然而眼底图像通常亮度低、对比度弱,且眼底结构复杂,各组织以及病灶干扰严重。为解决上述问题,实现视盘的精确检测,提出一种视觉显著性的眼底图像视盘检测方法。方法 首先,依据视盘区域显著的特点,采用一种基于视觉显著性的方法对视盘区域进行定位;其次,采用全卷积神经网络(fully convolutional neural network,FCN)预训练模型提取深度特征,同时计算视盘区域的平均灰度,进而提取颜色特征;最后,将深度特征、视盘区域的颜色特征和背景先验信息融合到单层元胞自动机(single-layer cellular automata,SCA)中迭代演化,实现眼底图像视盘区域的精确检测。结果 在视网膜图像公开数据集DRISHTI-GS、MESSIDOR和DRIONS-DB上对本文算法进行实验验证,平均相似度系数分别为0.965 8、0.961 6和0.971 1;杰卡德系数分别为0.934 1、0.922 4和0.937 6;召回率系数分别为0.964 8、0.958 9和0.967 4;准确度系数分别为0.996 6、0.995 3和0.996 8,在3个数据集上均可精确地检测视盘区域。实验结果表明,本文算法精确度高,鲁棒性强,运算速度快。结论 本文算法能够有效克服眼底图像亮度低、对比度弱及血管、病灶等组织干扰的影响,在多个视网膜图像公开数据集上进行验证均取得了较好的检测结果,具有较强的泛化性,可以实现视盘区域的精确检测。  相似文献   
983.
目的 基于光学遥感图像的舰船目标识别研究广受关注,但是目前公开的光学遥感图像舰船目标识别数据集存在规模小、目标类别少等问题,难以训练出具有较高舰船识别精度的深度学习模型。为此,本文面向基于深度学习的舰船目标精细识别任务研究需求,搜集公开的包含舰船目标的高分辨率谷歌地球和GF-2卫星水面场景遥感图像,构建了一个高分辨率光学遥感图像舰船目标精细识别数据集(fine-grained ship collection-23,FGSC-23)。方法 将图像中的舰船目标裁剪出来,制作舰船样本切片,人工对目标类别进行标注,并在每个切片中增加舰船长宽比和分布方向两类属性标签,最终形成包含23个类别、4 052个实例的舰船目标识别数据集。结果 按1:4比例将数据集中各类别图像随机划分为测试集和训练集,并展开验证实验。实验结果表明,在通用识别模型识别效果验证中,VGG16(Visual Geometry Group 16-layer net)、ResNet50、Inception-v3、DenseNet121、MobileNet和Xception等经典卷积神经网络(convolutional neural network,CNN)模型的整体测试精度分别为79.88%、81.33%、83.88%、84.00%、84.24%和87.76%;在舰船目标精细识别的模型效果验证中,以VGG16和ResNet50模型为基准网络,改进模型在测试集上的整体测试精度分别为93.58%和93.09%。结论 构建的FGSC-23数据集能够满足舰船目标识别算法的验证任务。  相似文献   
984.
包俊  刘宏哲 《计算机工程》2021,47(4):248-255
环视鱼眼图像具有目标形变大和图像失真的缺点,导致传统网络结构在对鱼眼图像进行目标检测时效果不佳。为解决环视鱼眼图像中由于目标几何畸变而导致的目标检测难度大的问题,提出一种基于可变形卷积网络的鱼眼图像目标检测方法。将Cascade_RCNN中固定的卷积层和池化层分别替换为可变形卷积层和可变形池化层,使用Resnet50网络提取候选区域以获得检测框,级联具有不同IoU阈值的检测网络进行检测框抑制。在公开鱼眼图像数据集SFU_VOC_360和本文所采集的真实道路场景鱼眼图像数据集上进行实验,结果表明,该方法在鱼眼图像目标检测中具有有效性,目标检测准确率高于Cascade_RCNN网络。  相似文献   
985.
顾砾  季怡  刘纯平 《计算机工程》2021,47(2):279-284
针对点云数据本身信息量不足导致现有三维点云分类方法分类精度较低的问题,结合多模态特征融合,设计一种三维点云分类模型。通过引入投影图对点云数据信息进行扩充,将点云数据与图像数据同时作为输入,对PointCNN模型提取的点云特征与CNN模型提取的投影图特征进行加权融合,从而得到最终分类结果。在ModelNet40数据集上的分类结果表明,该模型的分类精度达到96.4%,相比PointCNN模型提升4.7个百分点。  相似文献   
986.
为了改善对多聚焦图像融合的视觉效果和时效性.借助非下抽样剪切波(NSST)变换的平移不变性和较强的方向选择性,提出改进的融合策略.通过NSST变换对源图像进行分解,获得与源图像大小相同但尺度不同的低频子带和高频子带,再采用改进平均梯度的策略对低频子带进行融合,对高频子带则利用改进的自适应PCNN策略进行融合.对融合后的高低频子带进行NSST逆变换,重构出整体更自然明亮和细节纹理更清晰的融合图像.仿真结果表明:改进融合策略较好地提取出了源图像的细节信息,在主观视觉和五种客观评价指标上均优于其他几种比较算法,且由于NSST引入了快速傅里叶变换,明显提高了运算的时效性.  相似文献   
987.
现有图像感知算法侧重于减少相似图像感知哈希值间的差异性,较少关注增大不同图像感知哈希值间的差异性问题.针对这一局限性,提出并实现循环贯序差分和拉普拉斯算子两种基于差分的图像感知哈希算法,并分别在小规模相似图像集合和大规模不同图像集合上进行测试.与现有图像感知哈希算法相比,所提算法体现了图像像素点间的局部关联性,增加了不同图像哈希值间的差异,显著提升了不同图像的区分概率.  相似文献   
988.
为实现室内机器人自身精准定位,提出一种由粗匹配到精定位相融合的视觉定位方法.利用搭载在机器人上方的1台相机观测室内天花板、水平方向的4台相机观测周边环境,得到当前环境特征形成指纹信息库.定位时,将测试图像的周边环境信息与信息库中对应的信息粗匹配,得到机器人粗略位置;使用改进的GMS算法对测试图像及粗匹配结果中对应的天花板图像进行拼接,计算距离差与偏转度,得到精确位置.实验结果表明,该方法位移误差可控制在4 cm之内,偏转角误差在2.4°之内;对光照变化、行人闯入等情况鲁棒性明显,定位精度优于O RB视觉定位及指纹定位方法.  相似文献   
989.
为解决现有肺结节检测模型精度低、漏诊率和误诊率高等问题,提出融合残差模块的肺结节检测算法.候选结节检测阶段,提出残差U-Net (residual U-Net,RU Net)分割网络,将改进的残差网络(residual network,ResNet)模块与UNet结构融合,提升模型特征提取能力;加入改进的损失函数解决数据类别不均衡问题,提高检测敏感度.假阳性减少阶段,采用三维卷积神经网络(3D CNN)用于候选结节分类,充分获得结节空间信息,达到降低假阳性的目的.实验结果表明,该算法能够准确并高效地分割和检测肺结节.  相似文献   
990.
通常无监督算法在对高光谱数据进行聚类时仅使用光谱信息,忽略了空间信息,使得聚类准确率较低.针对上述问题提出一种基于深度谱空网络和无监督判别极限学习的高光谱图像聚类算法.利用深度谱空网络对高光谱数据进行光谱特征和空间特征的分层交叉学习,通过反复学习获得深度空谱特征,为后续无监督聚类提供方便.在三种高光谱图像上进行实验,结果表明,该算法获得的聚类效果优于其他基于极限学习机的方法和其他无监督方法.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号