首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   12189篇
  免费   2633篇
  国内免费   1836篇
工业技术   16658篇
  2024年   188篇
  2023年   702篇
  2022年   668篇
  2021年   785篇
  2020年   740篇
  2019年   726篇
  2018年   355篇
  2017年   492篇
  2016年   512篇
  2015年   568篇
  2014年   828篇
  2013年   742篇
  2012年   921篇
  2011年   975篇
  2010年   955篇
  2009年   940篇
  2008年   989篇
  2007年   910篇
  2006年   732篇
  2005年   661篇
  2004年   519篇
  2003年   434篇
  2002年   299篇
  2001年   223篇
  2000年   182篇
  1999年   141篇
  1998年   129篇
  1997年   65篇
  1996年   65篇
  1995年   53篇
  1994年   38篇
  1993年   13篇
  1992年   29篇
  1991年   23篇
  1990年   23篇
  1989年   19篇
  1988年   7篇
  1987年   1篇
  1986年   3篇
  1985年   1篇
  1982年   1篇
  1959年   1篇
排序方式: 共有10000条查询结果,搜索用时 31 毫秒
71.
目的 视频目标分割(video object segmentation,VOS)是在给定初始帧的目标掩码条件下,实现对整个视频序列中感兴趣对象的分割,但是视频中往往会出现目标形状不规则、背景中存在干扰信息和运动速度过快等情况,影响视频目标分割质量。对此,本文提出一种融合视觉词和自注意力机制的视频目标分割算法。方法 对于参考帧,首先将其图像输入编码器中,提取分辨率为原图像1/8的像素特征。然后将该特征输入由若干卷积核构成的嵌入空间中,并将其结果上采样至原始尺寸。最后结合参考帧的目标掩码信息,通过聚类算法对嵌入空间中的像素进行聚类分簇,形成用于表示目标对象的视觉词。对于目标帧,首先将其图像通过编码器并输入嵌入空间中,通过单词匹配操作用参考帧生成的视觉词来表示嵌入空间中的像素,并获得多个相似图。然后,对相似图应用自注意力机制捕获全局依赖关系,最后取通道方向上的最大值作为预测结果。为了解决目标对象的外观变化和视觉词失配的问题,提出在线更新机制和全局校正机制以进一步提高准确率。结果 实验结果表明,本文方法在视频目标分割数据集DAVIS (densely annotated video segmentation)2016和DAVIS 2017上取得了有竞争力的结果,区域相似度与轮廓精度之间的平均值J&F-mean (Jaccard and F-score mean)分别为83.2%和72.3%。结论 本文提出的算法可以有效地处理由遮挡、变形和视点变化等带来的干扰问题,实现高质量的视频目标分割。  相似文献   
72.
目的 肠胃镜诊断一直被认为是检测及预防结直肠癌的金标准,但当前的临床检查中仍存在一定的漏诊概率,基于深度学习的肠胃内窥镜分割方法可以帮助医生准确评估癌前病变,对诊断和干预治疗都有积极作用。然而提高目标分割的准确性仍然是一项具有挑战性的工作,针对这一问题,本文提出一种基于双层编—解码结构的算法。方法 本文算法由上、下游网络构成,创新性地利用上游网络训练产生注意力权重图,对下游网络解码过程中的特征图产生注意力引导,使分割模型更加注重目标区域;提出子空间通道注意力结构,在跨越连接中提取多分辨率下的跨通道信息,可以有效细化分割边缘;最终输出添加残差结构防止网络退化。结果 在公共数据集CVC-ClinicDB(Colonoscopy Videos Challenge-ClinicDataBase)和Kvasir-Capsule上进行测试,采用Dice相似系数(Dice similariy coefficient,DSC)、均交并比(mean intersection over union,mIoU)、精确率(precision)以及召回率(recall)为评价指标,在两个数据集上的DSC分别达到了94.22%和96.02%。进一步将两个数据集混合,测试了算法在跨设备图像上的鲁棒性,其中DSC提升分别达到17%—20%,在没有后处理的情况下,相较其他先进模型(state-of-the-art,SOTA),如U-Net在DSC、mIoU以及recall上分别取得了1.64%、1.41%和2.54%的提升,与ResUNet++的对比中,在DSC以及recall指标上分别取得了2.23%和9.87%的提升,与SFA (selective feature aggregation network)、PraNet和TransFuse等算法相比,在上述评价指标上也均有显著提升。结论 本文算法可以有效提高医学图像分割效果,并且对小目标分割、边缘分割具有更高的准确率。  相似文献   
73.
城市快速路的绿化分割带排水设计采用塑料盲沟排水,可有效地排除绿化带的下渗雨水,使路基保持干燥,不会因积水而产生损坏。以南昌市昌湾大道道路排水工程为实例,介绍塑料盲沟排水在城市快速路中的应用。  相似文献   
74.
75.
刘鹏  王亮  贾旭斌 《工程勘察》2023,(6):61-65+72
近年来,基于无人机摄影的滑坡体识别技术发展迅速,应用广泛且精度较高。本文针对后期图像处理中的单一多尺度分割方法在滑坡体边界提取方面存在的不足,提出基于光谱差异分割的方法,对已分割的图像进行二次优化处理,再采用模糊分类与决策树提取滑坡体边界信息,形成滑坡体边界提取的二元处理方法。以某滑坡多发区为研究对象,将常规处理方法与二元处理方法的效果进行对比,后者提取错误的区域减少30%以上,生产者精度和用户精度分别提升2.9%和8.7%。结果表明,该精度提升方法在实际应用中是可行的,其在滑坡体的调查与评估方面具有一定的工程推广价值。  相似文献   
76.
现有的玻璃瓶瓶身质量检测方法中,缺乏对有纹理图案的玻璃瓶的缺陷检测,针对这一问题,提出一了种仅基于相位变换(phase only based transition,POBT)的玻璃瓶纹理区域缺陷检测算法。该算法采用基于灰度投影的方法求取玻璃瓶瓶身中心坐标,利用基于相位的变换方法,通过归一化过程去除玻璃瓶规则纹路区域的低频纹路分量,仅保留下缺陷图像,应用概率修正自适应阈值分割方法对经过POBT变换后去除纹理留下的缺陷的图像进行分割,提取缺陷,并将该分割方法与3种传统型的方法进行对比。实验结果表明,该方法可实现瓶身规则纹路区域的高速高精度缺陷检测。  相似文献   
77.
随着工业机器人和现代化工业的快速发展,人们对工业机器人的性能要求越来越高,为了提高工业生产的效率和产品的质量,智能、高速、高精度是工业机器人的必备要求。国内基于机器视觉的智能啤酒瓶口缺陷检测方法中,高速、高精度仍是一个亟待解决的问题。为此,提出了一种基于随机圆拟合评估的四圆周定位法,大大提高了瓶口检测区域的定位精度,并提出了基于投影特征的分区域磁滞阈值分割的智能瓶口缺陷检测方法。对采集的488幅灰度图像进行测试,检测正确率为99.4%,检测平均速度为38 ms,算法的检测速度快,检测精度高,可以很好地应用到高速、高精度的现代化工业机器人中。  相似文献   
78.
提出一种快速、简便、高效的眼底血管分割方法。分析眼底图像的灰度值分布和对比度变化,利用匹配滤波克服背景干扰,消除噪声影响,达到灰度均衡,实现眼底图像的亮度归一化。估计眼底图像中背景像素所占比例,利用直方图自动选择阈值,完成对眼底图像中血管的有效分割。在公开的眼底图像数据库上进行测试,该方法对眼底血管分割具有较好的性能指标。实验表明,提出的基于匹配滤波和阈值优化的眼底血管分割方法,准确率高、复杂度低,对眼科疾病的计算机辅助诊断有一定的实用价值。  相似文献   
79.
随着遥感影像空间分辨率的不断提高,由于阴影导致的弱边缘及虚假边缘等对于准确定位对象边缘所造成的干扰也更加突出。在传统的影像分割中进一步引入阴影补偿策略,在之前所提出的WJSEG算法基础上,通过将阴影视为出界点并利用卡方变换进行阴影识别,提出了一种结合阴影补偿的城市场景高分辨率遥感影像分割算法SWJSEG。实验表明,该方法能够有效应对阴影造成的干扰,有助于更加准确地定位对象边缘,使影像分割的精度及可靠性显著提高。  相似文献   
80.
针对生产线上金属板表面光照不均匀和白、灰细颗粒相间的特点,将一维、二维Wellner自适应阈值算法应用到这种场景,并结合高斯加权距离,将算法推广,提出了一种针对金属板表面图像分割的高斯加权自适应分割算法.该方法首先通过计算区域内像素间的高斯加权距离,形成一张加权距离图,然后利用Wellner的“中心-周围比较思想”直接求算二值图像.最后对实际产线上采集的图片进行了实验,将二维otsu算法、均匀性度量算法、一维、二维Wellner自适应算法和最后改进的算法在分割效果进行比较.实验结果表明,相对于其他算法,最后应用的算法在分割效果上具有明显的优势.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号