首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
针对遥感目标检测中,目标分布不均匀、排列杂乱、大长宽比和尺寸变化剧烈等导致目标定位困难的问题,提出了一种融合卷积通道注意力的旋转目标检测方法。基于k-means进行改进,设计了在最优解下增加聚类簇之间距离的锚框设计方法;基于YOLOv5进行改进,设计融合卷积通道注意力的网络模型,增强主干网络传达给特征金字塔顶层和底层的语义和定位特征;设计包含覆盖面积、中心点距离、宽高比和角度损失四种要素的目标框损失函数;优化YOLOv5的目标框宽高回归函数,自适应生成回归预测范围。实验在两个遥感公共数据集UCAS-AOD和HRSC2016上分别与5种具有代表性的方法进行比较,在UCAS-AOD数据集上,平均精度mAP达到了95.9%,相比于CSL方法,mAP提升了0.8个百分点;在HRSC2016数据集上,平均精度mAP达到了96.3%,速度FPS达到了77.5,相比于R3Det方法,mAP提升了0.3个百分点,FPS提升了5.46倍。实验结果表明,方法的整体性能超过了近年来一些代表性的方法,在两个遥感数据集中验证了方法的有效性。  相似文献   

2.
针对RetinaNet在遥感目标检测任务中多尺度、密集小目标问题,提出了ACFEM-RetinaNet遥感目标检测算法。针对原主干特征提取不充分的问题,采用Swin Transformer作为主干网络,以提升算法的特征提取能力,提高检测精度。针对遥感图像多尺度问题,提出自适应上下文特征提取模块,使用SK注意力引导不同空洞率的可变形卷积自适应调整感受野、提取上下文特征,改善多尺度目标检测效果。针对遥感图像中密集小目标问题,引入FreeAnchor模块,从极大释然估计的角度设计优化锚框匹配策略,提高检测精度。实验结果表明,在公共遥感图像目标检测数据集RSOD上,ACFEM-RetinaNet算法取得了91.1%的检测精度,相较于原算法提高了4.6个百分点,能更好地应用于遥感图像目标检测。  相似文献   

3.
史文旭  鲍佳慧  姚宇 《计算机应用》2020,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

4.
针对遥感图像内容丰富且复杂,具有目标种类多、密集分布和尺寸变化剧烈等特点,导致遥感图像中目标多尺度尤其是小目标难以检测的问题,提出一种基于自适应多尺度特征融合(AMFF)和注意力特征增强(AFE)的无锚框遥感图像目标检测算法.首先将主干网络提取的图像特征输入AMFF,自适应地融合多个尺度的特征,增加特征复用,提升网络的多尺度特征表达能力;然后将AMFF输出的特征输入到加入了AFE模块的检测头中,AFE通过结合多分支空洞卷积与注意力机制,在提高网络对目标尺度的泛化能力的同时增强有效特征信息;最后进行分类和回归,得到检测结果.在DIOR和NWPU VHR-10公开数据集上,与多种主流目标检测算法的实验结果表明,所提算法在2个数据集上的平均检测精度分别为72.4%和87.4%,较基线网络分别提升9.4和13.5个百分点,比次优结果分别提升6.3和1.7个百分点;平均检测精度高于主流目标检测算法,较基线网络的平均检测精度显著提高,能够更加准确地检测小尺度目标,同时有效地提升多尺度目标的检测精度.  相似文献   

5.
史文旭  鲍佳慧  姚宇 《计算机应用》2005,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

6.
针对地理空间遥感图像中检测目标存在多尺度特性、形态多变以及小目标判别特征过少等造成检测识别精度不高的问题,提出了基于多尺度下遥感小目标多头注意力检测算法YOLO-StrVB。对网络结构进行重构,搭建多尺度网络模型,增加目标检测层,提高特征提取网络下遥感小目标模型不同尺度下的检测能力;加入双向特征金字塔网络(Bi-FPN)进行多尺度特征融合,提高双向跨尺度连接和加权特征融合;在YOLOv5网络末端融合Swin Transformer多头注意力机制块,提升感受野适应目标识别任务的多尺度融合关系,优化主干网络;使用Varifocal loss对网络进行训练,提升遥感密集检测小目标的存在置信度和定位精度,并选用CIoU作为边界框回归的损失函数,提高感知分类得分(IACS)的边框回归精度。通过在遥感目标数据集NWPU VHR-10上的实验验证,对比YOLOv5原模型的mAP提高了3.05个百分点,能有效提高小目标的检测精度,达到了对地理空间遥感图像中小目标检测的鲁棒性。  相似文献   

7.
为提高道路目标检测精度,基于YOLOv5网络模型,引入自底向上的PANet网络结构,以增强特征融合;采用具有方向感知与位置信息的目标注意力机制,以增强对目标位置的感知能力;增加了一个YOLO检测头,以增强对小目标的学习能力。采用改进的CIOU(ICIOU)目标回归损失函数,使得整个模型对图像特征的学习能力和目标检测精度显著提升。实验结果表明,该模型在华为SODA10M数据集下的mAP达到了68.2%,相比原YOLOv5网络mAP提升了15.4个百分点,检测精度得到了明显提升。在此基础上,对图像尺寸对检测时间和精度的影响进行探索,结果表明适当增大图像输入尺寸,可以在检测速度下降不大(23.3个百分点)的前提下,使得mAP明显提升(3.8个百分点)。  相似文献   

8.
针对遥感图像中背景复杂度高、目标尺寸多样和小目标存在过多所导致的目标检测精度较低的问题,提出一种改进YOLOv5的遥感图像目标检测算法。该算法在主干网络引入通道-全局注意力机制(CGAM)以增强对不同尺度目标的特征提取能力和抑制冗余信息的干扰。引入密集上采样卷积(DUC)模块扩张低分辨率卷积特征图,有效增强不同卷积特征图的融合效果。将改进算法应用于公开遥感数据集RSOD中,改进YOLOv5算法平均精度AP值达到78.5%,较原算法提升了3.1个百分点。实验结果证明,改进后的算法能有效提高遥感图像目标检测精度。  相似文献   

9.
针对遥感图像目标尺寸小、目标方向任意和背景复杂等问题,在YOLOv5算法的基础上,提出一种基于几何适应与全局感知的遥感图像目标检测算法。首先,将可变形卷积与自适应空间注意力模块通过密集连接交替串联堆叠,在充分利用不同层级的语义和位置信息基础上,构建一个能够建模局部几何特征的密集上下文感知模块(DenseCAM);其次,在骨干网络末端引入Transformer,以较低的开销增强模型的全局感知能力,实现目标与场景内容的关系建模。在UCAS-AOD和RSOD数据集上与YOLOv5s6算法相比,所提算法的平均精度均值(mAP)分别提高1.8与1.5个百分点。实验结果表明,所提算法能够有效提高遥感图像目标检测的精度。  相似文献   

10.
基于遥感目标在密集分布和背景复杂场景中因特征提取和表达能力的不足而存在漏检和检测效果不佳的问题,提出了改进YOLOv4的遥感目标检测算法.对用于检测目标的锚框(anchor)用K-means聚类算法重新聚类来减少网络计算量;改进特征提取网络结构,引入残差连接取缔网络中连续卷积操作来提高密集目标特征提取能力;在特征提取网络中激活函数加入自适应激活与否的特征激活平滑因子,而在PANet特征融合网络结构中采用Mish激活函数,增强网络对非线性特征的提取能力,从而提升网络的特征提取能力,提高遥感目标在密集分布场景中的检测效果.将所提算法和原始的YOLOv4目标检测算法在遥感图像数据集上进行对比实验,改进YOLOv4算法在实验选用的遥感图像测试数据集上的平均准确率均值(mAP)达到85.05%,与YOLOv4算法相比,mAP提升了5.77个百分点.实验结果表明,在单目标密集分布和多目标混合分布等背景复杂条件下,改进YOLOv4算法具有更好的检测效果.  相似文献   

11.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

12.
自然生态环境下的节肢动物目标检测存在目标背景复杂、尺度差异大以及目标密集等特点,导致目标检测精度和准确率不高。为此,提出一种基于改进Faster RCNN模型的节肢动物目标检测方法 AROD RCNN。首先,设计一种有监督的并行空间与通道注意力(SPSCAT)机制,以提高复杂背景环境下节肢动物目标检测的准确率;然后,引入第二代可变形卷积重塑ResNet50中C1~C5块卷积层,并使用特征金字塔网络(FPN)对ResNet50中C2~C6块进行特征融合以解决目标尺度差异较大影响检测精度的问题;最后,通过密集局部回归(DLR)方法对回归阶段进行改进,从而提高模型回归的准确性。实验结果表明,该方法在ArTaxOr数据集上的各类别平均精度(mAP)达到了0.717,较原始Faster RCNN模型提高了0.453,而召回率达到了0.787。可见该方法能够有效解决目标遮挡和复杂背景等问题,在节肢动物密集目标与小目标检测中表现良好。  相似文献   

13.
针对驾驶场景中目标检测卷积神经网络模型检测精度较低的问题,提出一种基于改进RefineDet网络结构的多尺度特征融合目标检测方法。在RefineDet网络结构中嵌入LFIP(Light-weight Featurized Image Pyramid,轻量级特征化的图像金字塔)网络,将LFIP网络生成的多尺度特征图与RefineDet中的ARM(Anchor Refinement Module,锚点框修正模块)输出的主特征图相融合,提升特征层中锚点框初步分类和回归的输出效果,为ODM(Object Detection Module,目标检测模块)模块提供修正的锚点框以便于进一步回归和多类别预测;在RefineDet网络结构中的ODM之后嵌入多分支结构RFB(Receptive Field Block,感受野模块),在检测任务中获得不同尺度的感受野以改善主干网络中提取的特征。将模型中的激活函数替换为带有可学习参数的非线性激活函数PReLU(Parametric Rectified Linear Unit,参数化修正线性单元),加快网络模型的收敛速度;将RefineDet的边界框回归损失函数替换为排斥力损失函数Repulsion Loss,使目标检测中的某预测框更靠近其对应的目标框,并使该预测框远离附近的目标框及预测框,可以提升遮挡情况下目标检测的精度;构建驾驶视觉下的目标检测数据集,共计48 260张,其中38 608张作为训练集,9 652张作为测试集,并在主流的GPU硬件平台进行验证。该方法的mAP为85.59%,优于RefineDet及其他改进算法;FPS为41.7 frame/s,满足驾驶场景目标检测的应用要求。实验结果表明,该方法在检测速度略微下降的情况,能够较好地提升驾驶视觉下的目标检测的精确度,并能够一定程度上解决驾驶视觉下的遮挡目标检测和小目标检测的问题。  相似文献   

14.
针对狭小空间中目标相互遮挡导致轻型检测网络存在大量漏检、分类错误等问题,基于YOLOv4-tiny提出一种自适应非极大抑制(adaptive non-maximum suppression,A-NMS)的多尺度检测方法。在骨干网络引入大尺度特征图优化策略和金字塔池化模型,增强遮挡目标显著区域特征;设计内嵌空间注意力的双路金字塔特征融合网络,提升浅层细节特征与高级语义信息的融合能力;提出区域目标密度与边界框中心距离因子相关联的动态NMS阈值设定方法,并在后处理阶段代替传统IoU-NMS算法,进一步减少漏检。实验结果表明,与YOLOv4-tiny算法相比,改进算法在公开数据集PASCAL VOC07+12和自制数据集上mAP值分别提高2.84个百分点和3.06个百分点,FPS保持在87.9,对遮挡目标的检测能力显著提升,满足移动端对狭小复杂场景实时检测的需求。  相似文献   

15.
针对目前我国智能驾驶辅助系统识别道路交通标志检测速度慢、识别精度低等问题,提出一种基于YOLOv3的改进的道路交通标志检测算法。首先,将MobileNetv2作为基础特征提取网络引入YOLOv3以形成目标检测网络模块MN-YOLOv3,在MN-YOLOv3主干网络中引入两条Down-up连接进行特征融合,从而减少检测算法的模型参数,提高了检测模块的运行速度,增强了多尺度特征图之间的信息融合;然后,根据交通标志目标形状的特点,使用K-Means++算法产生先验框的初始聚类中心,并在边界框回归中引入距离交并比(DIOU)损失函数来将DIOU与非极大值抑制(NMS)结合;最后,将感兴趣区域(ROI)与上下文信息通过ROI Align统一尺寸后融合,从而增强目标特征表达。实验结果表明,所提算法性能更好,在长沙理工大学中国交通标志检测(CCTSDB)数据集上的平均准确率均值(mAP)可达96.20%。相较于Faster R-CNN、YOLOv3、Cascaded R-CNN检测算法,所提算法拥有具有更好的实时性和更高的检测精度,对各种环境变化具有更好的鲁棒性。  相似文献   

16.
通过对原SSD(Single Shot Multibox Detector)模型的研究与分析,针对其对小目标检测能力较弱的问题,提出了一种基于密集模块与特征融合操作的改进模型。该模型以Inception-ResNet-V2与DenseNet为基础,吸取了inception模块中稀疏连接与密集网络中密集连接的研究思路,将两种方法融合在一起,提出了Inception-Dense特征提取结构。在多尺度检测的部分,借鉴并改进了特征金字塔的特征融合模块来加强对中小目标的检测能力。根据改进模型及实验数据集的相关特性,对默认框的映射机制也进行了重新设定。结果表明:该方法在Kitti数据集上的平均测试精确度(mAP)为83.8%;识别率相比于原SSD模型的72.8%,提升了11个百分点。FPS方面也有接近38%的提升,从原来的39提升到了54。  相似文献   

17.
针对传统水下目标检测器受环境影响较大的问题,使用一种新的轻量级网络LUNet提取特征,结合两阶段检测算法提出轻量级检测器LUDet。首先,网络的第1个阶段使用高效卷积池化来获取不同特征表达。然后,在稠密连接结构的基础上增加两路稠密连接,以提高网络表征能力。网络由卷积池化层与两路稠密连接结构构成,网络中使用GhostModel代替1×1点卷积。使用CAFIR10和CAFIR100数据集进行分类实验验证了提出的骨干网的有效性。针对检测任务,LUDet通过通道注意力、多阶段融合后的特征图对目标进行检测。使用2个水下数据集对改进的检测器进行验证,水下生物数据集上检测的mAP达到了52.5%,水下垃圾数据集上检测的mAP达到了58.7%。  相似文献   

18.
针对通用目标检测算法在检测小目标时检测精度低的问题,提出一种基于多尺度感受野融合的小目标检测算法S-RetinaNet。该算法采用残差神经网络(residual neural network,ResNet)提取出图像的特征,利用递归特征金字塔网络(recursive feature pyramid network,RFPN)对特征进行融合,通过多尺度感受野融合模块(multiscale receptive field fusion,MRFF)分别处理RFPN的三个输出,提升对小目标的检测能力。实验表明,相比改进前的RetinaNet算法,S-RetinaNet算法在PASCAL VOC数据集上的均值平均精度(mean average precision,mAP)和MS COCO数据集上的平均精度(average precision,AP)分别提高了2.3和1.6个百分点,其中小目标检测精度(average precision small,APS)更为显著,提升了2.7个百分点。  相似文献   

19.
交通标志检测在自动驾驶、辅助驾驶等领域是一个重要的环节,关乎到行车安全问题。针对交通标志中存在目标小、背景复杂等难点,提出一种基于改进YOLOv5的算法。提出区域上下文模块,利用多种扩张率的空洞卷积来获取不同感受野,进而获取到目标及其相邻区域的特征信息,相邻区域的信息对交通标志小目标检测起到重要补充作用,可以有效解决目标小的问题;在主干部分引入特征增强模块,进一步提高主干的特征提取能力,利用注意力机制与原C3模块结合,使网络更能聚焦小目标信息,避免复杂背景的干扰;在多尺度检测部分,将浅层特征层与深层检测层进行特征融合,可以同时兼顾浅层位置信息与深层语义信息,增加目标定位与边界回归的准确度,更有利于小目标检测。实验结果表明,改进后的算法在交通标志检测数据集TT100K上取得了87.2%的小目标检测精度、92.4%的小目标召回率以及91.8%的mAP,与原YOLOv5算法相比较,分别提升了3.5、4.1、2.6个百分点,检测速度83.3 frame/s;在CCTSDB数据集上mAP为98.0%,提升了2.0个百分点,检测速度90.9 frame/s。因此,提出的改进YOLOv5算法可以有效...  相似文献   

20.
李姚舜  刘黎志 《计算机应用》2022,42(9):2900-2908
智慧工地中的设备内存和计算能力有限,在现场的设备上通过目标检测对钢筋进行实时检测具有很大的难度,而且其钢筋检测速度慢、模型部署成本高。针对这些问题,在YOLOv3网络的基础上,提出了一个嵌入注意力机制的轻量级钢筋检测网络RebarNet。首先,利用残差块作为网络的基本单元来构建特征提取结构,并用其提取局部和上下文信息;其次,在残差块中添加通道注意力(CA)模块和空间注意力(SA)模块,以调整特征图的注意力权重,并提升网络提取特征的能力;然后,采用特征金字塔融合模块,以增大网络的感受野,并优化中等钢筋图像的提取效果;最后,输出经过8倍下采样后的52×52通道的特征图用于后处理和钢筋检测。实验结果表明,所提网络的参数量仅为Darknet53网络的5%,在钢筋测试集上以106.8 FPS的速度达到了92.7%的mAP。与现有的EfficientDet、SSD、CenterNet、RetinaNet、Faster RCNN、YOLOv3、YOLOv4和YOLOv5m等8个目标检测网络相比,RebarNet具有更短的训练时间(24.5 s)、最低的显存占用(1 956 MB)、最小的模型权重文件(13 MB)。与目前效果最好的YOLOv5m网络相比,RebarNet的mAP略低0.4个百分点,然而其检测速度上升了48 FPS,是YOLOv5m网络的1.8倍。以上结果表明,所提出的网络有助于完成智慧工地中要求实现的高效、准确的钢筋检测任务。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号