首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   13篇
  免费   3篇
  国内免费   2篇
工业技术   18篇
  2024年   3篇
  2023年   3篇
  2022年   3篇
  2021年   6篇
  2019年   1篇
  2014年   1篇
  2012年   1篇
排序方式: 共有18条查询结果,搜索用时 15 毫秒
1.
目的 基于神经网络的图像超分辨率重建技术主要是通过单一网络非线性映射学习得到高低分辨率之间特征信息关系来进行重建,在此过程中较浅网络的图像特征信息很容易丢失,加深网络深度又会增加网络训练时间和训练难度。针对此过程出现的训练时间长、重建结果细节信息较模糊等问题,提出一种多通道递归残差学习机制,以提高网络训练效率和图像重建质量。方法 设计一种多通道递归残差网络模型,该模型首先利用递归方法将残差网络块进行复用,形成32层递归网络,来减少网络参数、增加网络深度,以加速网络收敛并获取更丰富的特征信息。然后采集不同卷积核下的特征信息,输入到各通道对应的递归残差网络后再一起输入到共用的重建网络中,提高对细节信息的重建能力。最后引入一种交叉学习机制,将通道1、2、3两两排列组合交叉相连,进一步加速不同通道特征信息融合、促进参数传递、提高网络重建性能。结果 本文模型使用DIV2K (DIVerse 2K)数据集进行训练,在Set5、Set14、BSD100和Urban100数据集上进行测试,并与Bicubic、SRCNN (super-resolution convolutional neural network)、VDSR (super-resolution using very deep convolutional network)、LapSRN (deep Laplacian pyramid networks for fast and accurate super-resolution)和EDSR_baseline (enhanced deep residual networks for single image super-resolution_baseline)等方法的实验结果进行对比,结果显示前者获取细节特征信息能力提高,图像有了更清晰丰富的细节信息;客观数据方面,本文算法的数据有明显的提升,尤其在细节信息较多的Urban100数据集中PSNR (peak signal-to-noise ratio)平均分别提升了3.87 dB、1.93 dB、1.00 dB、1.12 dB和0.48 dB,网络训练效率相较非递归残差网络提升30%。结论 本文模型可获得更好的视觉效果和客观质量评价,而且相较非递归残差网络训练过程耗时更短,可用于复杂场景下图像的超分辨率重建。  相似文献   
2.
精确煤矸分类及识别能力是煤矿智能煤矸分选机器人要解决的关键问题。在通过深度学习图像分类方法的检测煤矸石中,为克服当前残差网络计算量大、复杂度高以及信息丢失的问题,提出了基于改进深度残差网络的图像分类方法。并提出了一种新的损失函数soft-center loss,克服由于softmax分类器对特征的区分判别能力差以及易造成模型过度自信的问题。同时在图像预处理阶段利用CBDNet去噪网络,提高了井下图像的质量,进一步提升了煤矸分类的准确率。实验结果表明,基于改进深度残差网络分类模型相比于其他分类网络模型在井下图像分类准确率提高了4.12%,在公开数据集CIFAR-10准确率提高了1.5%。  相似文献   
3.
无监督跨域行人重识别旨在使有标签源域数据集上训练的模型适应目标域数据集。然而,基于聚类的无监督跨域行人重识别算法在网络特征学习过程中常因输入行人图片情况各异而产生噪声,从而影响聚类效果。针对这一问题,提出一种基于语义融合的域内相似性分组行人重识别网络,首先在Baseline网络的基础上添加语义融合层,依次从空间和通道2个方面对中间特征图进行相似特征的语义融合,从而提升网络的自适应感知能力。此外,通过充分利用域内相似性细粒度信息,进而提高网络对全局和局部特征的聚类精准度。通过在DukeMTMC-ReID、Market1501和MSMT17这3个公开数据集上进行实验,结果表明,所提算法的均值平均精度(m AP)和Rank识别准确率与近年无监督跨域行人重识别算法相比有显著提升。  相似文献   
4.
煤粒粒度分布特征与煤中甲烷气体传播规律的分析密切相关。目前,基于图像分割的煤粒粒度分析方法已成为获取煤粒粒度的主流方案之一,但存在上下文信息丢失、煤粒特征融合不当造成煤粒漏分割和过分割等问题。针对上述问题,设计了一种基于双层路由注意力机制(BRA)的煤粒粒度分析模型。在残差U型网络ResNet-UNet中嵌入BRA模块,得到B-ResUNet网络模型:为减少在煤粒分割过程中出现的漏分割问题,在ResNet-UNet网络的上采样前添加BRA模块,使网络根据上一层的特征调整当前特征层的重要性,增强特征的表达能力,提高长距离信息的传递能力;为减少在煤粒分割过程中出现的过分割问题,在ResNet-UNet网络的特征拼接模块后添加BRA模块,通过动态选择和聚合重要特征,实现更有效的特征融合。对分割出的煤粒进行特征信息提取,针对实验分析中采用的煤粒数据集的煤粒粒度与细胞大小相当,为精确表征煤粒粒度,采用等效圆粒径获取煤粒粒度及粒度分布。实验结果表明:(1) B-ResUNet网络模型的准确率、平均交并比、召回率较ResNet-UNet基础网络分别提高了0.6%,14.3%,35.9%,准确率达99...  相似文献   
5.
程德强  朱星光  寇旗旗  陈亮亮  王晓艺  赵佳敏 《智能系统学报》2012,(收录汇总):1173-1184
针对目前诸多图像超分辨率重建算法通过采用单一通道网络结构无法充分利用特征信息的问题,提出了一种可以高效利用特征信息的融合分层特征与残差蒸馏连接的超分辨率重建算法。该方法首先设计了一种将分层特征融合与残差连接相结合的连接方式,对图像深层特征与浅层特征进行充分融合,提升了网络对于特征信息的利用率;其次设计出一种残差蒸馏注意力模块,使网络更高效地关注图像关键特征,从而可以更好地恢复出重建图像的细节特征。实验结果表明,所提出的算法模型不仅在4种测试集上呈现出更优秀的客观评价指标,而且在主观视觉效果上也呈现出更好的重建效果。具体在Set14测试集上,该模型4倍重建结果的峰值信噪比相对于对比模型平均提升了0.85 dB,结构相似度平均提升了0.034,充分证明了该算法模型的有效性。  相似文献   
6.
传统深层神经网络通常以跳跃连接等方式堆叠深层特征,这种方式容易造成信息冗余。为了提高深层特征信息的利用率,该文提出一种深层特征差异性网络(DFDN),并将其应用于单幅图像超分辨率重建。首先,提出相互投影融合模块(MPFB)提取多尺度深层特征差异性信息并融合,以减少网络传输中上下文信息的损失。第二,提出了差异性特征注意力机制,在扩大网络感受野的同时进一步学习深层特征的差异。第三,以递归的形式连接各模块,增加网络的深度,实现特征复用。将DIV2K数据集作为训练数据集,用4个超分辨率基准数据集对预训练的模型进行测试,并通过与流行算法比较重建的图像获得结果。广泛的实验表明,与现有算法相比,所提算法可以学习到更丰富的纹理信息,并且在主观视觉效果和量化评价指标上都取得最好的排名,再次证明了其鲁棒性和优越性。  相似文献   
7.
针对当前图像检索算法存在特征维度高、检索耗时久、精度低等问题,提出一种基于颜色信息和纹理信息相融合的图像检索算法.首先对彩色图像进行颜色量化和统计以获取其颜色直方图,利用海森矩阵提取彩色图像的表面几何结构曲率信息,并根据提取的曲率信息构建方向梯度加权联合直方图;然后对获得的颜色直方图和加权联合方向梯度直方图进行融合,得到最终检索结果.与其他算法在Corel-1k,FTVL和COIL-100数据库上的实验结果表明,该算法具有精度高、维度低的优点.  相似文献   
8.
9.
针对现有彩色图像检索算法存在旋转变化鲁棒性差、特征维度高和检索时间长的问题,通过融合主曲率的改进方向梯度特征与HSV颜色特征,提出了一种创新的多尺度图像检索方法.该方法从多个尺度将图像表面的几何曲率信息融合到FHOG描述符中,得到基于主曲率的改进方向梯度算法(P-FHOG),在此基础上进一步融合图像的颜色信息,得到基于颜色特征与改进方向梯度特征的多尺度图像检索方法(CP-FHOG).在Corel-1000与Coil-100数据集上与先进的图像检索方法进行对比实验,分别取得了85.89%和93.38%的平均准确率,该算法相比其他算法准确率更高、旋转变化鲁棒性更强、检索时间更短,提高了检索效率.  相似文献   
10.
为了解决传统算法在全自动跟踪过程中遇到遮挡或运动速度过快时的目标丢失问题,本文提出一种基于YOLOv3和ASMS的目标跟踪算法。首先通过YOLOv3算法进行目标检测并确定跟踪的初始目标区域,然后基于ASMS算法进行跟踪,实时检测并判断目标跟踪效果,通过二次拟合定位和YOLOv3算法实现跟踪目标丢失后的重新定位。为了进一步提升算法运行效率,本文应用增量剪枝方法,对算法模型进行了压缩。通过与当前主流算法进行对比,实验结果表明,本算法能够很好地解决受到遮挡时跟踪目标的丢失问题,提高了目标检测和跟踪的精度,且具有计算复杂度低、耗时少,实时性高的优点。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号