首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 375 毫秒
1.
针对RetinaNet在遥感目标检测任务中多尺度、密集小目标问题,提出了ACFEM-RetinaNet遥感目标检测算法。针对原主干特征提取不充分的问题,采用Swin Transformer作为主干网络,以提升算法的特征提取能力,提高检测精度。针对遥感图像多尺度问题,提出自适应上下文特征提取模块,使用SK注意力引导不同空洞率的可变形卷积自适应调整感受野、提取上下文特征,改善多尺度目标检测效果。针对遥感图像中密集小目标问题,引入FreeAnchor模块,从极大释然估计的角度设计优化锚框匹配策略,提高检测精度。实验结果表明,在公共遥感图像目标检测数据集RSOD上,ACFEM-RetinaNet算法取得了91.1%的检测精度,相较于原算法提高了4.6个百分点,能更好地应用于遥感图像目标检测。  相似文献   

2.
史文旭  鲍佳慧  姚宇 《计算机应用》2005,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

3.
为了解决遥感图像配准的可靠性和实时性问题,提出了一种基于SURF算子的图像自动配准方法。SURF算法提取图像中适应旋转尺度变化的局部不变特征角点时使用积分图像的计算,可有效提高检测速度,用于对实时性要求高的场合,选择基于欧氏距离的最近邻与次近邻的距离之比作为相似度测量方法。多种不同场景图像对比实验结果表明,该方法可实现多种复杂图像的精确配准,自动化配准程度高。  相似文献   

4.
由于遥感图像中的目标具有方向任意、分布密集和尺度差异大等特点,使得遥感图像目标检测成为一个颇具挑战性的难题。针对该难题,系统梳理了近三年来深度学习遥感图像旋转目标检测的相关工作,首先介绍旋转框的表示方法及其特点;然后按照特征提取网络、旋转锚框和候选框生成、标签分配及采样策略、损失函数四个方面对当前遥感图像旋转目标检测的现有方法进行分析;再对常用的遥感图像旋转目标数据集进行介绍,对比分析不同算法的性能;最后对遥感图像旋转目标检测进行了展望。  相似文献   

5.
遥感目标检测是从遥感图像中对目标进行类别识别与定位的过程,它是遥感图像处理领域中一个重要的研究分支。目标尺度变化大和目标姿态旋转多变是制约遥感图像目标检测性能的重要因素之一。针对上述难点,本文提出了基于多尺度特征与角度信息的无锚定框目标检测方法。首先,该方法在经典特征金字塔网络中嵌入特征选择与对齐模块解决现有的特征金字塔网络存在的特征错位和通道信息丢失两种缺陷,从特征层面提升检测模型多尺度学习能力;其次,针对现有基于锚定框的旋转目标检测方法存在超参数敏感的问题,在基于无锚定框目标检测网络基础上加入了旋转边界框定位方式,无需对检测性能敏感的锚定框超参数进行设置;最后,为了解决旋转边界框存在边界突变问题,该方法将旋转边界框转换为二维高斯分布表示,并引入基于二维高斯分布的旋转回归定位损失函数来驱动检测网络学习目标的方向信息。实验结果表明,在多尺度和旋转目标检测方面,该方法的性能优于近几年提出的遥感目标检测方法。  相似文献   

6.
史文旭  鲍佳慧  姚宇 《计算机应用》2020,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

7.
为解决遥感飞机检测算法网络计算复杂、检测精度低的问题,以主流网络 YOLOv4为基础,从提高精度和简化模型两个方面进行改进研究,提出一种轻量级多尺度监督网络 LDS_YOLO(light dense supervision YOLO)。针对遥感飞机目标细节信息提取不足的问题,改进三组多尺度融合预测层结构,在每一个支路第一次上采样前的四个卷积块之间设计密集连接方式,可以增强融合不同尺度飞机,丰富特征细节信息,提高预测准确率;针对目标特征关联度低的问题,引入一致性监督损失函数,通过监督分类网络辅助预测的同时提高检测精度;通过增加包含全局平均池化层、全连接层和特征映射层的轻量化模块,调整通道结构减少权重模型的特征冗余,降低网络参数量。在保证检测率的基础上将模型参数量降低为 3.6×106,计算量为 77 MFLOPs,测试检测率比原始模型损失不到 2.3%,速度达到 17 frame/s;通过与主流检测算法进行对比,分析轻量化后算法模型的抗过拟合能力和鲁棒性,证明轻量化遥感飞机目标检测算法的有效性和可行性。  相似文献   

8.
为了解决传统特征提取方法在遥感图像中飞机检测准确率和实时性不足的问题,基于YOLOv3-tiny网络在准确率提升方面提出两点改进。改进点一:将网络提取图像特征点的方式改进为分组卷积,即将一幅图像分成三个通道进行卷积操作,配合通道特征变换以加强各通道之间的语义关联;改进点二:将网络深层特征增加一个尺度检测,并进行上采样与浅层特征图进行融合预测。在速度提升方面引入深度可分离卷积代替传统卷积以降低参数计算量,达到模型轻量化。根据改进后的网络提出一种包含33个卷积层的改进型卷积神经网络DS-YOLO,对改进前后网络分别在自制遥感飞机图像上进行训练,选出最优的权重,用来对目标小、曝光度高、背景干扰等低质量测试集进行测试分析。实验结果表明,改进后的算法在测试集上精准度提升了14.1%,召回率提升了16.8%,检测低质量遥感飞机图像效果更佳。  相似文献   

9.
针对遥感图像背景复杂、小目标多、特征提取难等问题,提出了一种注意力特征融合的快速遥感图像目标检测算法——YOLO-Aff。该算法设计了一种带通道注意力的主干网络模块(ECALAN)以及模糊池(BP)模块来减小下采样带来的损失。此外,采用了一种无跨步卷积的特征金字塔网络(SPD-FPN)结合SimAM注意力特征融合模块(CBSA)来增强特征的跨尺度融合能力。最后,通过使用Wise-IoU作为网络的坐标损失来优化样本不均衡问题。实验结果表明,改进的YOLO-Aff算法在NWPU VHR-10数据集上的mAP值达到96%,较原算法mAP提高了2.9个百分点,为遥感图像的快速、高精度目标检测提供了新的解决方案。  相似文献   

10.
由于遥感图像背景复杂、目标密集分布以及目标尺度、形状差异巨大,给检测带来挑战.当前基于R-CNN的两阶段算法在水平框(HBB)检测上取得了良好效果,然而在定向框(OBB)检测上效果有限.基于点估计的HBB目标检测框架,提出用于定向遥感目标检测的旋转中心点估计网络(RCNet),大幅提升一阶段anchor-free算法在倾斜目标检测上的性能,同时保持较高的检测速度.RCNet通过添加一个用于方向预测的分支,实现旋转中心点估计.提出新的角度表示方式,解决回归角度参数loss不连续以及宽高交换导致训练过程不稳定的问题.所提方法在DOTA数据集上取得66.68 mAP的检测精度以及29.4 fps的检测速度,实现了最佳的速度和精度平衡.  相似文献   

11.
目标检测是遥感影像智能解译的重要内容,是将影像转换为信息的关键环节。基于知识的方法是遥感影像目标检测的传统经典方法,而基于卷积神经网络的深度学习方法则是近年来逐步兴起并迅速大范围应用的主流方法。介绍了基于几何知识、上下文知识、辅助知识、综合知识的方法,以及一阶段、两阶段的卷积神经网络方法,重点论述了联合知识与卷积神经网络的新方法,并对改进遥感影像数据集、调整算法网络框架、实现目标上下文推理等三种具体应用形式进行了详细介绍。对联合知识与卷积神经网络方法的遥感影像目标检测方法进行了展望。  相似文献   

12.
目的 遥感图像语义分割是根据土地覆盖类型对图像中每个像素进行分类,是遥感图像处理领域的一个重要研究方向。由于遥感图像包含的地物尺度差别大、地物边界复杂等原因,准确提取遥感图像特征具有一定难度,使得精确分割遥感图像比较困难。卷积神经网络因其自主分层提取图像特征的特点逐步成为图像处理领域的主流算法,本文将基于残差密集空间金字塔的卷积神经网络应用于城市地区遥感图像分割,以提升高分辨率城市地区遥感影像语义分割的精度。方法 模型将带孔卷积引入残差网络,代替网络中的下采样操作,在扩大特征图感受野的同时能够保持特征图尺寸不变;模型基于密集连接机制级联空间金字塔结构各分支,每个分支的输出都有更加密集的感受野信息;模型利用跳线连接跨层融合网络特征,结合网络中的高层语义特征和低层纹理特征恢复空间信息。结果 基于ISPRS (International Society for Photogrammetry and Remote Sensing) Vaihingen地区遥感数据集展开充分的实验研究,实验结果表明,本文模型在6种不同的地物分类上的平均交并比和平均F1值分别达到69.88%和81.39%,性能在数学指标和视觉效果上均优于SegNet、pix2pix、Res-shuffling-Net以及SDFCN (symmetrical dense-shortcut fully convolutional network)算法。结论 将密集连接改进空间金字塔池化网络应用于高分辨率遥感图像语义分割,该模型利用了遥感图像不同尺度下的特征、高层语义信息和低层纹理信息,有效提升了城市地区遥感图像分割精度。  相似文献   

13.
为提高遥感影像草地分类的精度,分析了卷积神经网络中提取图像特征的特点,提出了一种基于特征整合深度神经网络的遥感影像特征提取算法。首先,将遥感影像数据进行PCA白化处理,降低数据之间的相关性,加快神经网络学习的速率;其次,将从卷积神经网络中提取到的浅层特征和深层特征进行双线性整合,使得整合后的新特征更加完善和优化;最后,对遥感数据进行训练,由于新特征中有效信息的增加,使得特征表达能力得到提高,达到提高草地分类准确率的目的。实验结果表明:该算法能够有效地提高草地分类的准确率,分类精度达到94.65%,相较于卷积神经网络、BP神经网络和基于SVM的分类算法分别提高了4.3%、10.39%和15.33%。  相似文献   

14.
针对遥感图像中感兴趣目标特征不明显、背景信息复杂、小目标居多导致的目标检测精度较低的问题,本文提出了一种改进YOLOv5s的遥感图像目标检测算法(Swin-YOLOv5s)。首先,在骨干特征提取网络的卷积块中加入轻量级通道注意力结构,抑制无关信息的干扰;其次,在多尺度特征融合的基础上进行跨尺度连接和上下文信息加权操作来加强待检测目标的特征提取,将融合后的特征图组成新的特征金字塔;最后,在特征融合的过程中引入Swin Transformer网络结构和坐标注意力机制,进一步增强小目标的语义信息和全局感知能力。将本文提出的算法在DOTA数据集和RSOD数据集上进行消融实验,结果表明,本文提出的算法能够明显提高遥感图像目标检测的平均准确率。  相似文献   

15.
无人机遥感影像覆盖范围广,难以区分建筑区域与背景区域,导致无人机遥感影像建筑区域测量结果可靠性下降;以解决这一问题作为研究目标,提出了一种基于并联卷积神经网络的无人机遥感影像建筑区域测量方法;获取无人机遥感影像,通过静态输出、图像融合、去雾等环节完成遥感影像预处理;构建并联卷积神经网络,通过网络训练传播提取预处理后无人机遥感影像建筑区域边缘特征,经过特征匹配实现无人机遥感影像中建筑区域识别,结合面积计算结果得到建筑区域的测量结果;经过精度性能测试实验得出结论,在有雾和无雾环境下所提方法与传统区域测量方法相比的建筑区域测量误差分别降低了0.505 km2和0.305 km2,说明该方法的测量结果可靠性更高,可以广泛应用在无人机遥感影像建筑区域测量领域。  相似文献   

16.
基于深度卷积神经网络的油罐目标检测研究   总被引:1,自引:0,他引:1       下载免费PDF全文
油罐是用于储存油品的工业设施,常用在炼油厂等工业园中,通过卫星或航空遥感图像实现油罐目标的快速检测,可以实现对侵占生态保护红线的疑似工业园区的快速查找,为自然资源监管和生态环境保护提供科学技术支持。探讨了基于深度卷积神经网络在高分辨率遥感影像目标检测中的有效性,基于深度学习目标检测算法中具有代表性的Faster R-CNN(Convolutional Neural Network)和R-FCN(Region-based Fully Convolutional Network)框架,通过对ZF、VGG16、ResNet-50 3种网络模型进行训练和测试,实现了遥感影像上油罐目标的快速检测;通过修改锚点尺度和数量,丰富了候选框类型和数量,提升了油罐的目标检测精度,最优召回率接近80%。研究表明:深度卷积神经网络能够实现对高分辨率遥感影像中油罐目标的快速检测,为深度学习技术在遥感小目标的快速检测提供了实例和新的思路。  相似文献   

17.
油罐是用于储存油品的工业设施,常用在炼油厂等工业园中,通过卫星或航空遥感图像实现油罐目标的快速检测,可以实现对侵占生态保护红线的疑似工业园区的快速查找,为自然资源监管和生态环境保护提供科学技术支持。探讨了基于深度卷积神经网络在高分辨率遥感影像目标检测中的有效性,基于深度学习目标检测算法中具有代表性的Faster R-CNN(Convolutional Neural Network)和R-FCN(Region-based Fully Convolutional Network)框架,通过对ZF、VGG16、ResNet-50 3种网络模型进行训练和测试,实现了遥感影像上油罐目标的快速检测;通过修改锚点尺度和数量,丰富了候选框类型和数量,提升了油罐的目标检测精度,最优召回率接近80%。研究表明:深度卷积神经网络能够实现对高分辨率遥感影像中油罐目标的快速检测,为深度学习技术在遥感小目标的快速检测提供了实例和新的思路。  相似文献   

18.
目的 传统的遥感影像分割方法需要大量人工参与特征选取以及参数选择,同时浅层的机器学习算法无法取得高精度的分割结果。因此,利用卷积神经网络能够自动学习特征的特性,借鉴处理自然图像语义分割的优秀网络结构,针对遥感数据集的特点提出新的基于全卷积神经网络的遥感影像分割方法。方法 针对遥感影像中目标排列紧凑、尺寸变化大的特点,提出基于金字塔池化和DUC(dense upsampling convolution)结构的全卷积神经网络。该网络结构使用改进的DenseNet作为基础网络提取影像特征,使用空间金字塔池化结构获取上下文信息,使用DUC结构进行上采样以恢复细节信息。在数据处理阶段,结合遥感知识将波段融合生成多源数据,生成植被指数和归一化水指数,增加特征。针对遥感影像尺寸较大、采用普通预测方法会出现拼接痕迹的问题,提出基于集成学习的滑动步长预测方法,对每个像素预测14次,每次预测像素都位于不同图像块的不同位置,对多次预测得到的结果进行投票。在预测结束后,使用全连接条件随机场(CRFs)对预测结果进行后处理,细化地物边界,优化分割结果。结果 结合遥感知识将波段融合生成多源数据可使分割精度提高3.19%;采用基于集成学习的滑动步长预测方法可使分割精度较不使用该方法时提高1.44%;使用全连接CRFs对预测结果进行后处理可使分割精度提高1.03%。结论 针对宁夏特殊地形的遥感影像语义分割问题,提出基于全卷积神经网络的新的网络结构,在此基础上采用集成学习的滑动步长预测方法,使用全连接条件随机场进行影像后处理可优化分割结果,提高遥感影像语义分割精度。  相似文献   

19.
基于FlowS-Unet的遥感图像建筑物变化检测   总被引:1,自引:0,他引:1  
顾炼  许诗起  竺乐庆 《自动化学报》2020,46(6):1291-1300
针对目前人为探察土地资源利用情况的任务繁重、办事效率低下等问题, 提出了一种基于深度卷积神经网络的建筑物变化检测方法, 利用高分辨率遥感图像实时检测每个区域新建与扩建的建筑物, 以方便对土地资源进行有效管理.本文受超列(Hypercolumn)和FlowNet中的细化(Refinement)结构启发, 将细化和其他改进应用到U-Net, 提出FlowS-Unet网络.首先对遥感图像裁剪、去噪、标注语义制作数据集, 将该数据集划分为训练集和测试集, 对训练集进行数据增强, 并根据训练集图像的均值和方差对所有图像进行归一化; 然后将训练集输入集成了多尺度交叉训练、多重损失计算、Adam优化的全卷积神经网络FlowS-Unet中进行训练; 最后对网络模型的预测结果进行膨胀、腐蚀以及孔洞填充等后处理得到最终的分割结果.本文以人工分割结果为参考标准进行对比测试, 用FlowS-Unet检测得到的F1分数高达0.943, 明显优于FCN和U-Net的预测结果.实验结果表明, FlowS-Unet能够实时准确地将新建与扩建的建筑物变化检测出来, 并且该模型也可扩展到其他类似的图像检测问题中.  相似文献   

20.
近年来,深度学习作为计算机视觉的研究热点,在诸多方面得以发展与应用。特征提取是理解和分析高分遥感影像的关键基础。为促进高分遥感影像特征提取技术的发展,总结了深度学习模型在高分遥感影像特征提取技术的研究与发展,如:AlexNet,VGG-网和GoogleNet等卷积网络模型在深度语义特征提取中的应用。此外,重点分析和讨论了以卷积神经网络模型为基础的各类深度学习模型在高分遥感影像特征提取方面的应用与创新,如:迁移学习的应用;卷积神经网络(Convolutional Neural Network,CNN)模型结构的改变;CNN模型与其他模型结构的结合等方式,均提升了深度语义特征提取能力。最后,对卷积神经网络模型在高分遥感影像深度语义特征提取方面存在的问题以及后续可能的研究趋势进行了分析。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号