首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
现有目标检测算法通常存在体积较大、结构复杂等问题,致使室内机器人作业过程中识别速率与精度较差。针对这一问题,以室内目标检测为基础,提出了一种改进的YOLOv5s轻量化检测方法。该方法主要是在YOLOv5s网络的基础上引入ShuffleNet v2特征提取机制来实现网络的轻量化,同时采用加权双向特征金字塔BiFPN和边框回归损失EIOU获取特征信息更为丰富的特征图,来提升目标检测精度,从而得到一种新的室内目标检测模型。研究结果表明,改进后的模型参数量明显减少,模型复杂度减少了46%,平均精确率均值mAP提升到63.9%,实现了轻量化和检测准确率的平衡,该研究为目标轻量化研究提供了参考。  相似文献   

2.
安全帽与反光衣检测对生产与交通环境的安全管理具有重要意义。针对目前安全帽和反光衣检测算法参数量大、计算量大和模型体积较大等问题,提出了一种基于YOLOv5s轻量化改进的检测算法。引入GhostNet网络结构中的Ghost模块代替原有的部分卷积与C3模块,大大降低了模型的复杂度。在主干网中增加CA注意力机制,抑制无效信息,增强对特征丰富区域的提取。用C3CBAM代替neck层的C3模块,既减少参数量,又提高了检测精度。实验结果表明,改进模型的mAP(平均精度)为93.6%,参数量为4.28×106,计算量为9.2 GFLOPs,模型大小为8.58 MB。与YOLOv5模型相比较参数量减少了39%,计算量减少了41.7%,模型大小降低37.3%。该检测算法既保证了检测的识别准确率,又实现了检测算法的轻量化。  相似文献   

3.
毫米波雷达传感器可穿透火障、烟瘴及高温,是特长隧道等封闭空间灾中车辆目标检测的主要信息来源。基于雷达的同时定位与构图技术(Simultaneous Localization and Mapping,SLAM)可对受灾的静止车辆及环境进行占据栅格成像,并在低成本边缘计算平台上进行高精度实时车辆目标检测。现有YOLOv5s目标检测网络模型过于复杂,且训练模型针对光学数据,与雷达占据栅格地图(Radar Occupancy Grid Map,ROGM)中的车辆目标特征存在差异。针对上述问题提出了YOLOv5s-MDS轻量化网络模型,以雷达图像特征为约束优化网络结构,参数量相对原YOLOv5s模型降低42.3%。实验表明:该网络模型在大规模VOC光学图像预训练模型辅助下,利用雷达小样本数据微调可快速收敛。  相似文献   

4.
针对无人机航拍场景下的实时目标检测任务,以YOLOv5为基础进行改进,给出了一种轻量化的目标检测网络YOLOv5-tiny.通过将原CSPDarknet53骨干网络替换为MobileNetv3,减小了网络模型的参数量,有效提高了检测速度,并进一步通过引入CBAM注意力模块和SiLU激活函数,改善了因网络简化后导致的检测精度下降问题.结合航拍任务数据集VisDrone的特性,优化了先验框尺寸,使用了Mosaic,高斯模糊等数据增强方法,进一步提高了检测效果.与YOLOv5-large网络相比,以降低17.4%的mAP为代价,换取148%的检测效率(FPS)提升,且与YOLOv5s相比,在检测效果略优的情况下,网络规模仅为其60%.  相似文献   

5.
针对过去无人机搭载嵌入式设备巡检森林火灾精确率低、适应性差和软硬件限制高等问题,提 出一种基于 YOLOv5s 的轻量化森林火灾目标检测算法。通过将 YOLOv5s 的骨干网络替换为轻量化网络 Shufflenetv2,并以通道重组的思想,让骨干网络对图片信息的提取效率变得更快,在保持网络精度的同时保证 检测速度;接着在 Backbone 与 Neck 的连接处加入为轻量化网络设计的 CA 位置注意力模块,可将图片不同的 位置信息聚合到通道中,使被检对象关注度得以提高;最后在预测部分使用 CIOU 损失函数,能够更好的优化 矩形框的长宽比和更快加速模型收敛。算法部署在嵌入式系统 Jetson Xavier NX 上的结果显示,改进后的网络 模型大小与对比实验方法相比,最多减少了 98%,准确率(Precision)达到 92.6%,精确率(AP)达到 95.3%,帧率 (FPS)提升到 132 帧每秒,能满足在白天、黑夜或视野良好等情况下对森林火灾的实时性预防与检测,并具有 良好的准确率和鲁棒性。  相似文献   

6.
YOLO是目前计算机视觉目标检测领域比较重要的算法模型之一. 基于现有YOLOv5s模型提出了一种扩展的YOLOv5多级分类目标检测算法模型. 首先, 对LabelImg标注工具进行功能扩展, 使其满足多级分类标签文件构建; 其次在YOLOv5s算法基础上修改检测头输出格式, 在骨干网络前端引入DenseBlock、Res2Net网络模型核心设计思想, 获取丰富的多维度特征信息, 增强特征信息的重用性, 实现了YOLO多级分类目标检测任务. 在开源安全帽数据集上同时以安全帽颜色作为二级分类进行训练验证, 平均精度, 精确率和召回率分别达到了95.81%、94.90%和92.54%, 实验结果验证了YOLOv5多级分类目标检测任务的可行性, 并为目标检测及多级分类目标检测任务提供一种新的思路和方法.  相似文献   

7.
针对现阶段实时监测发电厂内人员存在违规行为活动较为困难的问题,提出基于改进YOLOv5s网络的枪球联动行为边缘计算系统。该系统利用枪球联动提高监控画面中小目标的成像质量,降低检测算法对小目标的检测难度,提高检测能力;同时针对检测网络计算复杂的问题,对YOLOv5s检测模型进行轻量化改进,提出YOLOv5s-light轻量型检测网络,修改预置检测anchors以及BottleNeck模块,提出BN-SiLU-weight特征提取结构,降低模型计算难度,提高模型检测速度,优化边缘计算部署能力。实验结果表明,YOLOv5s-light模型在mAP仅下降0.5%的前提下,实现了模型参数下降30%,推理时间缩短21.4%,结合枪球联动可以实现mAP提高1.5%,满足实时快速的边缘检测需求。  相似文献   

8.
YOLO目标检测算法是当前基于图像的输电线路绝缘子缺陷检测的主流方法,然而现有模型复杂度较大,亟需合理有效的参数压缩方法作为前提条件,来为解决无人机边缘设备部署的困境问题奠定基础;同时,无人机航拍的绝缘子缺陷图像背景复杂、缺陷尺寸较小,容易出现误检、漏检等问题。为此,提出了一种用于输电线路绝缘子多缺陷检测的Insulator Defect Detection-YOLOv7(IDD-YOLOv7)模型,以降低模型复杂度,提高模型鲁棒性。首先,在多尺度特征融合的过程中加入坐标注意力(Coordinate Attention)机制,抑制复杂背景的干扰,提升模型对小目标的全局感知能力;之后,设计C3GhostNetV2模块,用于捕获不同空间像素之间的远程依赖性,在增强模型表达能力的同时降低模型的参数量和浮点运算量;最后,提出Focal-CIoU损失函数,提高模型高质量anchor的贡献,加快模型的收敛速度。实验结果表明,本文方法与基线模型相比mAP50提升了3.8%,查准率和召回率分别提升了1.7%和7.6%,参数量和浮点运算量分别下降了18.3%和14.0%,绝缘子自爆、破损、闪络缺陷的AP...  相似文献   

9.
针对传统列车轨道障碍物检测方法实时性差和对小目标检测精度低的不足,提出一种改进YOLOv5s检测网络的轻量化障碍物检测模型。引入更加轻量化的Mixup数据增强方式,替代算法中原有的Mosaic数据增强方式;引入GhostNet网络结构中的深度可分离卷积GhostConv,替代原有YOLOv5s模型中特征提取网络与特征融合网络中的普通卷积层,减小了模型的计算开销;在模型特征提取网络末端加入CA空间注意力机制,让算法在训练过程中减少了重要位置信息的丢失,弥补了改进GhostNet对检测精度的损失;将改进后的模型进行稀疏训练和通道剪枝操作,剪掉对检测精度影响不大的通道,同时保留重要的特征信息,使模型更加轻量化。实验结果表明,改进后的模型在自制的多样化轨道交通数据集上,相较于原始YOLOv5s算法,在模型大小减小9.7 MB,检测速度提高14 FPS的前提下,检测精度提升了1.0个百分点。同时与目前主流的检测算法对比,在检测精度与检测速度上也具有一定的优越性,适用于复杂轨道交通环境下的障碍物目标检测。  相似文献   

10.
针对红外场景中行人、车辆等目标识别率低且存在复杂背景干扰的问题,提出一种基于Effi-YOLOv3模型的红外目标检测方法。将轻量高效的EfficientNet骨干网络与YOLOv3网络相结合,提升网络模型的运行速度。通过模拟人类视觉的感受野机制,引入改进的感受野模块,在几乎不增加计算量的情况下大幅增强网络有效感受野。基于可变形卷积和动态激活函数构建DBD和CBD结构,提升模型特征编码的灵活性,扩大模型容量。选择兼顾预测框与真值框中心点距离、重叠率和长宽比偏差的CIoU作为损失函数,更好地反映预测框与真值框的重叠程度,加快预测框回归速度。实验结果表明,该方法在FLIR数据集上的平均精度均值达到70.8%,Effi-YOLOv3模型参数量仅为YOLOv3模型的33.3%,对于红外场景中的目标检测效果更优。  相似文献   

11.
针对目标检测模型在人物跌倒时易漏检、鲁棒性和泛化能力差等问题,提出一种基于改进YOLOv5s的跌倒人物目标检测方法 YOLOv5s-FPD。首先,对Le2i跌倒数据集使用多种方式扩充后用于模型训练,增强模型鲁棒性和泛化能力;其次,使用MobileNetV3作为主干网络来进行特征提取,协调并平衡模型的轻量化和准确性关系;然后,利用BiFPN改善模型多尺度特征融合能力,提高了融合速度和效率,并使用CBAM轻量级注意力机制实现注意力对通道和空间的双重关注,增强了注意力机制对模型准确性地提升效果;最后,引入Focal Loss损失评价从而更注重挖掘困难样本特征,改善正负样本失衡的问题。实验结果表明,在Le2i跌倒数据集上YOLOv5s-FPD模型比原YOLOv5s模型,在精确度、F1分数、检测速度分别提高了2.91%,0.03和8.7 FPS,验证了该方法的有效性。  相似文献   

12.
为了解决红外场景下车辆检测算法参数量与计算量大、识别精度低、小目标检测难度大的问题,提出了一种改进YOLOv7-tiny的轻量级红外车辆目标检测算法:KD-YOLO-DW。通过融合深度可分离卷积提出了ELAN-DW模块,极大地降低了网络参数量与计算量。通过在特征融合层引入GhostNet V2模块,提高了不同尺度特征的融合能力。采用动态非单调FM的WIoU损失函数,解决了红外数据集难易样本不平衡的问题,提高了轻量级算法对红外弱小目标的检测能力。联合残差思想提出跨尺度融合策略,提高了轻量级算法对不同尺度目标的检测效果,降低了小目标的漏检率。通过知识蒸馏对轻量化模型再次浓缩,进一步提高了模型对检测红外目标的准确性。实验结果表明,KD-YOLO-DW模型在参数量与计算量方面分别较YOLOv7-tiny模型下降了24.6%和16.7%,模型大小仅为9.2 MB,mAP分别提高了3.27和3.15个百分点,拥有更小的模型体积与更好的检测效果。  相似文献   

13.
针对移动端目标检测算法需要模型参数量与计算量更少、推理速度更快和检测效果更好以及目标检测算法对于小目标误检、漏检及特征提取能力不足等问题, 提出一种基于YOLOv5改进的轻量化目标检测算法. 该算法使用轻量级网络MobileNetV2作为目标检测算法的骨干网络降低模型的参数量与计算量, 通过使用深度可分离卷积结合大卷积核的思想降低网络的计算量与参数量, 并提升了小目标的检测精度. 使用GhostConv来替换部分普通卷积, 进一步降低参数量与计算量. 本文算法在VOC竞赛数据集, COCO竞赛数据集两份数据集上均进行了多次对比实验, 结果表明本文算法相比于其他模型参数量更小、计算量更小、推理速度更快以及检测精度更高.  相似文献   

14.
针对当前YOLOv4算法存在的数据集特征提取不够充分、在车辆较多发生遮挡的漏检以及其CIoU损失函数未考虑到样本的平衡问题导致的检测效果不好等问题,提出了对数据集使用多种数据图像处理方式进行扩充,并对数据集进行标注;同时将CIoU损失函数和BCE损失函数进行融合,使得正负样本得到了平衡,减少了实验中可能出现的梯度消失问题,并通过调参得到最好效果。在VOC2007数据集与自制的数据集上进行检测,改进的YOLOv4算法达到了良好的效果,可满足实际应用的需要。  相似文献   

15.
使用传统视觉对绝缘子进行目标检测的方法效率偏低,稳定性也较差.针对这些问题对YOLOv3原始模型做出了两方面的改进:利用K-means++聚类算法产生用于训练的先验锚框,并且根据绝缘子数据集特性优化了损失函数模型,进而提出新的绝缘子目标检测方法.采用航拍绝缘子图像数据集进行仿真实验后得出,改进后的YOJOv3算法在保证...  相似文献   

16.
为提高YOLOv5s目标检测算法在检测图像中小目标时的准确度,本文研究引入注意力机制来提高神经网络对于图像特征提取的能力。将三种注意力机制CBAM、CoordAtt和GAM分别与YOLOv5s相融合,并在小目标数据集上进行训练。实验的结果显示,在YOLOv5s算法中添加注意力机制时,需考虑注意力机制在网络中的添加位置、该机制与数据集任务之间是否匹配以及预训练权重的影响。  相似文献   

17.
为解决复杂环境下道路目标检测任务中由于目标尺度变化多样、密集遮挡以及光照不均匀等导致的漏检问题,提出了一种基于YOLOv5的道路目标检测改进方法 CTC-YOLO(contextual transformer and convolutional block attention module based on YOLOv5)。针对小目标,改进网络检测头结构,增加多尺度目标检测层,提高小目标检测精度。为了充分利用输入的上下文信息,在特征提取部分引入上下文变换模块(contextual transformer networks,CoTNet),设计了CoT3模块,引导动态注意力矩阵学习,提高视觉表征能力。在Neck部分的C3模块集成卷积块注意力模型(convolutional block attention module,CBAM),以在各种复杂的场景中找到注意力区域。为进一步验证CTC-YOLO方法,采取了一些有用的策略,如模型集成位置选择和对比其他注意力机制。实验结果表明,在公开数据集KITTI、Cityscapes以及BDD100K上mAP@0.5分别达到89.6%、46.1%和57....  相似文献   

18.
为解决夜间场景下视频监控目标检测在实际应用时准确率不高这一问题,提出改进的YOLOv5算法。首先,建立了真实夜间场景目标的数据集,该数据集有2000张图像,分为了机动车、非机动车和车牌三个类别,以8∶2的比例均匀随机分为训练集和测试集,将夜间目标的图像放入改进的YOLOv5模型中训练,最终达到在夜间检测目标的目的;改进的YOLOv5利用了K-means++聚类算法生成自适应锚框,提高对夜间目标样本的聚类效率。其次,将改进的CBAM注意力机制与特征提取网络进行融合以获取夜间目标的重要特征。最后,将Bottleneck替换成GSBottleneck模块,利用GSConv轻量化的优势减少网络模型的计算量与参数量。结果表明,通过原YOLOv5网络模型算法训练后得到的mAP值为86.69%,改进后的YOLOv5网络模型算法训练后得到的mAP值为91.98%,三种被检测类别:机动车、非机动车和车牌的检测准确精度与原版算法相比分别提升了2.00、6.66、7.19个百分点,改进的YOLOv5网络模型可以为夜间场景下车辆特征的检测提供较好的技术支持。  相似文献   

19.
针对多尺度目标检测准确率偏低的问题,提出了一种基于YOLOv5s改进的多尺度目标检测算法。在YOLOv5s主干网络与Neck网络之间融合CBAM模块,增强模型对多尺度目标重要特征信息的提取能力;同时,在模型的Head部分增加多尺度目标检测结构,提高不同尺度目标检测精度;训练时采用CIoU替代GIoU损失函数,以提高模型收敛能力,实现高精度目标定位。数据集来源于实际场景中采集并增强的4万余张图像。实验结果表明,改进后的模型对行人、车辆和人脸的多尺度目标检测平均精度达92.1%,相比未改进YOLOv5s算法提升了3.4%。模型的收敛性好,对密集场景的目标,小尺度目标检测准确度更加突出。  相似文献   

20.
在自然场景中,天气情况、光照强度、背景干扰等问题影响火焰检测的准确性.为了实现复杂场景下实时准确的火焰检测,在目标检测网络YOLOv5的基础上,结合Focal Loss焦点损失函数、CIoU(Complete Intersection over Union)损失函数与多特征融合,提出实时高效的火焰检测方法.为了缓解正负样本不均衡问题,并充分利用困难样本的信息,引入焦点损失函数,同时结合火焰静态特征和动态特征,设计多特征融合方法,达到剔除误报火焰的目的.针对国内外缺乏火焰数据集的问题,构建大规模、高质量的十万量级火焰数据集(http://www.yongxu.org/databases.html).实验表明,文中方法在准确率、速度、精度和泛化能力等方面均有明显提升,同时降低误报率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号