首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 131 毫秒
1.
针对交通监控视频的车辆目标检测技术在早晚高峰等交通拥堵时段,车辆遮挡严重且误、漏检 率较高的问题,提出一种基于 YOLOv5s 网络的改进车辆目标检测模型。将注意力机制 SE 模块分别引入 YOLOv5s 的 Backbone 主干网络、Neck 网络层和 Head 输出端,增强车辆重要特征并抑制一般特征以强化检测 网络对车辆目标的辨识能力,并在公共数据集 UA-DETRAC 和自建数据集上训练、测试。将查准率、查全率、 均值平均精度作为评价指标,结果显示 3 项指标相比于原始网络均有明显提升,适合作为注意力机制的引入位 置。针对 YOLOv5s 网络中正、负样本与难易样本不平衡的问题,网络结合焦点损失函数 Focal loss,引入 2 个 超参数控制不平衡样本的权重。结合注意力机制 SE 模块和焦点损失函数 Focal loss 的改进检测网络整体性能提 升,均值平均精度提升了 2.2 个百分点,有效改善了车流量大时的误检、漏检指标。  相似文献   

2.
针对X光安检违禁品图像空间多尺度变化、背景干扰及模型复杂等问题,提出了空间自适应与多尺度特征融合的YOLOv5轻量模型。以YOLOv5为基本框架,引入自适应空间特征融合机制抑制特征尺度差异的影响,结合双向特征金字塔网络集成了特征双向加权融合;采用轻量化通道注意力机制获得编码的位置信息,增强有效特征的表达;同时利用GhostConv替换部分Conv降低网络计算复杂度。此模型在OPIXray、SIXray、HiXray等3个公开数据集上mAP分别达到94.2%、92.8%、83.3%,比基线模型分别提高了5.4、0.5、1.7个百分点,且未明显改变推理效率,较好兼顾了模型检测精度与速度,优于当前诸多先进算法。  相似文献   

3.
针对遥感图像中背景复杂目标、车辆小导致的成像模糊的目标漏检问题,提出一种基于YOLOv5s的改进模型。改进模型设计一种新的主干网络结构:改进模型的主干特征提取选用RepVGG网络,同时在主干网络中加入注意力机制CoordAttention来提高模型小目标的感知能力。增加多尺度特征融合,提高改进模型对于小目标的检测精度,边框回归的损失函数选择使用DIoU,帮助改进模型实现更加精准定位。实验结果表明,改进后的YOLOv5模型在遥感图像的目标检测,相较于原始模型在小目标车辆中检测精度提升5.3个百分点,与Faster R-CNN相比mAP提升16.88个百分点。改进后的模型与主流的检测算法相比能有较大的检测精度提升,相较于原始的YOLOv5s模型在遥感图像小车辆检测有更好的检测精度。  相似文献   

4.
为提高道路目标检测精度,基于YOLOv5网络模型,引入自底向上的PANet网络结构,以增强特征融合;采用具有方向感知与位置信息的目标注意力机制,以增强对目标位置的感知能力;增加了一个YOLO检测头,以增强对小目标的学习能力。采用改进的CIOU(ICIOU)目标回归损失函数,使得整个模型对图像特征的学习能力和目标检测精度显著提升。实验结果表明,该模型在华为SODA10M数据集下的mAP达到了68.2%,相比原YOLOv5网络mAP提升了15.4个百分点,检测精度得到了明显提升。在此基础上,对图像尺寸对检测时间和精度的影响进行探索,结果表明适当增大图像输入尺寸,可以在检测速度下降不大(23.3个百分点)的前提下,使得mAP明显提升(3.8个百分点)。  相似文献   

5.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。  相似文献   

6.
针对遥感图像在复杂背景下小目标检测精度较低的问题,提出一种基于双注意力机制模型的SSD检测算法。该算法在前端特征提取网络中引入双注意力机制模型,强化低层特征图中小目标的有效特征信息并抑制冗余的语义信息,实现自适应特征学习;并在空间注意力模型中引入空洞卷积,保证卷积核感受野的同时减少了网络参数。引入Focal loss损失函数作为改进算法的分类损失函数,改善网络在训练过程中样本失衡的问题,增加正样本与难样本在训练时的权重比例,提升算法的检测性能。对遥感图像数据集NWPU VHR-10进行检测的结果表明,本文的改进算法在保证检测速度的同时提高了检测精度。与传统SSD算法相比,改进SSD算法的mAP提高了2.25个百分点,达到79.65%。  相似文献   

7.
无人机在情报、侦察和监视领域,目标自动检测可为侦察等任务提供准确的目标位置及类别,为地面指挥人员提供详尽的目标信息。针对无人机图像背景复杂、分辨率高、目标尺度差异大等特点,提出一种改进YOLOv5s目标检测算法。将压缩-激励模块引入到YOLOv5s算法中,提高网络的特征提取能力;引入双锥台特征融合(bifrustum feature fusion,BFF)结构,提高算法对较小目标的检测检测精度;将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高定位精度。实验结果表明,改进后的YOLOv5s取得了86.3%的平均均值精度(mAP),比原算法YOLOv5s提高了16.8个百分点,在复杂背景下仍能显著提升无人机图像目标检测性能。  相似文献   

8.
新冠疫情期间正确佩戴口罩可以有效防止病毒的传播,针对公共场所存在的人员密集、检测目 标较小等加大检测难度的问题,提出一种以 YOLOv5s 模型为基础并引入注意力机制融合多尺度注意力权重的 口罩佩戴检测算法。在 YOLOv5s 模型的骨干网络中分别引入 4 种注意力机制,抑制无关信息,增强特征图的 信息表达能力,提高模型对小尺度目标的检测能力。实验结果表明,引入 CBAM 模块后较原网络 mAP 值提升 了 6.9 个百分点,在 4 种注意力机制中提升幅度最明显,而引入 NAM 模块后在损失少量 mAP 的情况下使参 数量最少,最后通过对比实验选用 GIoU 损失函数计算边界框回归损失,进一步提升定位精度,最终结果较 原网络 mAP 值提升了 8.5 个百分点。改进模型在不同场景下的检测结果证明了该算法对小目标检测的准确 率和实用性。  相似文献   

9.
针对白细胞数据样本少、类间差别小及目标尺寸小导致的检测精度低、效果不佳等问题,提出一种基于改进YOLOv5的白细胞检测算法YOLOv5-CHE.在主干特征提取网络的卷积层中添加坐标注意力机制,以提升算法的特征提取能力;使用四尺度特征检测,重新获取锚点框,增加浅层检测尺度,来提高小目标的识别精度;改变边框回归损失函数,以...  相似文献   

10.
针对无人机航拍图像中目标小、尺度不一和背景复杂等导致检测精度低的问题,提出一种基于改进YOLOv5的无人机航拍图像目标检测算法DY-YOLOv5。该算法在检测头部分利用具有多重注意力机制的目标检测头方法Dynamic Head,提升检测头在复杂背景下的检测表现。在原模型neck部分增加一次上采样和Concat操作,并执行一个包含极小、小、中目标的多尺度特征检测,提升模型对中、小目标的特征提取能力。引入密集卷积网络DenseNet,将其与YOLOv5s主干网络的C3模块进行融合,提出C3_DenseNet模块,以加强特征传递并预防模型过拟合。在VisDrone2019数据集上应用DY-YOLOv5算法,平均精度均值(mAP)达到了43.9%,较原YOLOv5算法提升了11.4个百分点。召回率(Recall)为41.7%,较原算法提升了9.0个百分点。实验结果证明,改进算法显著提高了无人机航拍图像目标检测的精度。  相似文献   

11.
为解决火焰图像检测易被周围环境干扰、火焰特征复杂等问题,提出改进型YOLOv4火焰图像实时检测模型。改进模型的激活函数;通过K-Means聚类针对火焰图像的特征调整先验框的维度;通过改进损失函数,减少模型中不必要特征的学习;引入注意力机制(通道注意力(CAB)模块和空间注意力(SAB)模块),增强模型在通道和空间的感知力。实验结果表明,改进的YOLOv4目标检测算法的FPS可达76.7,较原来提升了1.1;检测精度和召回率为82.8%、0.78,分别比原算法提高了36.56%、0.36;损失值为0.7758,比原算法降低了1.2942。  相似文献   

12.
当前,基于深度学习的智能检测技术逐步应用于钢材表面缺陷检测领域,针对钢材表面缺陷检测精度低的问题,提出一种高精度实时的缺陷检测算法CDN-YOLOv7。加入CARAFE轻量化上采样算子来改善网络特征融合能力,融合级联注意力机制和解耦头重新设计YOLOv7检测头网络,旨在解决原始头网络特征利用效率不高的问题,使其充分利用各尺度、通道、空间的多维度信息,提升复杂场景下模型表征能力。引入归一化Wasserstein距离重新设计Focal-EIoU损失函数,提出NF-EIoU替换CIoU损失,平衡各尺度缺陷样本对Loss的贡献,降低各尺度缺陷的漏检率。实验结果表明,CDN-YOLOv7的检测精度可达80.3%,较于原YOLOv7精度提升了6.0个百分点,模型推理速度可达60.8帧/s,满足实时性需求,CDN-YOLOv7在提升各尺度缺陷检测精度的同时显著降低了缺陷的漏检率。  相似文献   

13.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

14.
发电厂厂区内违规吸烟易导致火灾、爆炸等事故,会带来巨大损失;针对电厂内人员违规吸烟行为检测精度不高的问题,提出一种基于改进YOLOv5s(You Only Look Once v5s)的电厂内人员违规吸烟检测方法;该方法以YOLOv5s网络为基础,将YOLOv5s网络C3模块Bottleneck中的3×3卷积替换为多头自注意力层以提高算法的学习能力;接着在网络中添加ECA(Efficient Channel Attention)注意力模块,让网络更加关注待检测目标;同时将YOLOv5s网络的损失函数替换为SIoU(Scylla Intersection over Union),进一步提高算法的检测精度;最后采用加权双向特征金字塔网络(BiFPN,Bidirectional Feature Pyramid Network)代替原先YOLOv5s的特征金字塔网络,快速进行多尺度特征融合;实验结果表明,改进后算法吸烟行为的检测精度为89.3%,与改进前算法相比平均精度均值(mAP,mean Average Precision)提高了2.2%,检测效果显著提升,具有较高应用价值。  相似文献   

15.
针对运动场景下由于设备移动、相机散焦,导致采集到的图像模糊,图像质量低,以及目标体积小,使目标检测困难的问题,提出了一种改进YOLOv5x目标实时检测模型。采用可变形卷积网络替换部分原始YOLOv5x中传统的卷积层,增强模型在运动场景中细粒度特征提取和小目标检测能力;增加SE注意力机制,解决在卷积过程中,因丢失图像全局上下文信息,造成特征损失的问题,提高了模型在图像模糊情况下小目标的检测精度;引入一种新的边界框回归损失函数SIoU Loss,解决了预测框在回归时随意匹配的问题,提高了模型鲁棒性和泛化能力,加快网络的收敛速度。实验结果表明,相比于YOLOv5x模型,将改进后的算法应用在水下移动机器人生物检测中,模型准确率P、召回率R、各类平均精度mAP分别提升了5.90个百分点、5.85个百分点、4.38个百分点,有效增强了小目标检测模型的检测性能。  相似文献   

16.
针对舰船图像目标检测中对于复杂背景下低分辨率目标检测易受干扰、检测精度低的问题,提出一种改进的YOLOv7算法用于识别舰船目标。主要在3个方面对算法进行改进,分别为:在舰船目标数据集中使用K-means++算法进行锚框聚类,得到更适合舰船检测任务的的锚框信息;改进损失函数,使用EIOU损失代替CIOU损失,使用与ɑ-Balanced结合的Focal loss代替标准交叉熵损失;改进网络结构,增加SPD-Conv模块,提升对于低分辨率目标的检测效果。实验结果表明,改进后的YOLOv7算法与原始的YOLOv7算法相比,精度提升了4.22个百分点,召回率提升了2.68个百分点,mAP@0.5提升了4.3个百分点,检测速度提升了2帧/s,对舰船目标达到了良好的检测效果。  相似文献   

17.
针对遥感图像中背景复杂度高、目标尺寸多样和小目标存在过多所导致的目标检测精度较低的问题,提出一种改进YOLOv5的遥感图像目标检测算法。该算法在主干网络引入通道-全局注意力机制(CGAM)以增强对不同尺度目标的特征提取能力和抑制冗余信息的干扰。引入密集上采样卷积(DUC)模块扩张低分辨率卷积特征图,有效增强不同卷积特征图的融合效果。将改进算法应用于公开遥感数据集RSOD中,改进YOLOv5算法平均精度AP值达到78.5%,较原算法提升了3.1个百分点。实验结果证明,改进后的算法能有效提高遥感图像目标检测精度。  相似文献   

18.
为提高YOLOv5s目标检测算法在检测图像中小目标时的准确度,本文研究引入注意力机制来提高神经网络对于图像特征提取的能力。将三种注意力机制CBAM、CoordAtt和GAM分别与YOLOv5s相融合,并在小目标数据集上进行训练。实验的结果显示,在YOLOv5s算法中添加注意力机制时,需考虑注意力机制在网络中的添加位置、该机制与数据集任务之间是否匹配以及预训练权重的影响。  相似文献   

19.
目的 对旅客行李进行安全检查是维护公共安全的措施之一,安检智能化是未来的发展方向。基于X光图像的安检因不同的安检机成像方式不同,同一类违禁品在不同设备上的X光图像在颜色分布上有很大差异,导致安检图像智能识别算法在训练与测试数据分布不同时,识别性能明显降低,同时X光行李图像中物品的混乱复杂增加了违禁品识别的难度。针对上述问题,本文提出一种区域增强和多特征融合模型。方法 首先,通过注意力机制的思想提取一种区域增强特征,消除颜色分布不同的影响,保留图像整体结构并增强违禁品区域信息。然后,采用多特征融合策略丰富特征信息,使模型适用于图像中物品混乱复杂情况。最后,提出一种三元损失函数优化特征融合。结果 在公开数据集SIXray数据集上进行整体识别性能和泛化性能的实验分析,即测试本文方法在相同和不同颜色分布样本上的性能。在整体识别性能方面,本文方法在平均精度均值(mean average precision,mAP)上相较于基础模型ResNet18和ResNet34分别提升了4.09%和2.26%,并优于一些其他识别方法。对于单类违禁品,本文方法在枪支和钳子类违禁品上的平均识别精度为94.25%和...  相似文献   

20.
针对目标检测模型在人物跌倒时易漏检、鲁棒性和泛化能力差等问题,提出一种基于改进 YOLOv5s 的跌倒人物目标检测方法 YOLOv5s-FPD。首先,对 Le2i 跌倒数据集使用多种方式扩充后用于模型 训练,增强模型鲁棒性和泛化能力;其次,使用 MobileNetV3 作为主干网络来进行特征提取,协调并平衡模型 的轻量化和准确性关系;然后,利用 BiFPN 改善模型多尺度特征融合能力,提高了融合速度和效率,并使用 CBAM 轻量级注意力机制实现注意力对通道和空间的双重关注,增强了注意力机制对模型准确性地提升效果; 最后,引入 Focal Loss 损失评价从而更注重挖掘困难样本特征,改善正负样本失衡的问题。实验结果表明,在 Le2i 跌倒数据集上 YOLOv5s-FPD 模型比原 YOLOv5s 模型,在精确度、F1 分数、检测速度分别提高了 2.91%, 0.03 和 8.7 FPS,验证了该方法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号