首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
针对现有安全帽佩戴检测算法在复杂场景下存在密集目标检测难度大、小目标误检和漏检等问题,提出一种基于改进YOLOv5的安全帽佩戴检测算法。该算法主要在以下三个方面进行优化:通过在主干网络添加卷积块注意力模块(CBAM)来提取多个尺度的全局特征信息,使模型在通道和空间上更关注主要信息,得到更丰富的高层语义信息;将特征融合网络中的路径聚合网络(PAN)改进为加权双向特征金字塔网络(BiFPN),实现特征信息双向跨尺度连接和加权融合;将边界框回归损失函数改进为EIOU损失函数,加快边界框收敛速度和提高目标识别准确率。在自制的安全帽佩戴检测数据集上进行实验验证的结果表明:改进后的算法平均准确率(mAP)达到92.8%,相较于YOLOv5算法,改进后的算法在目标检测精确度和召回率上分别提升2.4%和1.8%。  相似文献   

2.
针对现有行人跌倒检测算法在复杂场景下存在漏检、检测精度低等问题,提出一种基于注意力机制的行人跌倒检测方法 YOLOX-s-EsE。改进的模型在骨干网络中引入SimAM注意力模块,在Bottleneck和特征融合模块增加ECA通道注意力模块,以进一步提取特征层的关键信息,损失函数采用EIo U,可以更有效地计算出预测框和真实框的差距,提升模型的精度。实验结果表明,改进后的算法在复杂环境下目标的检测效果有了明显的提升,相比原YOLOX-s模型,算法的mAP提高了约1.8%,达到了89.23%,精度提高了约4.6%,达到了91.79%。  相似文献   

3.
在工地生产与建设中,工人由于未正确规范佩戴安全帽而发生的安全事故时有发生,为了保护工人的安全与降低由于为佩戴安全帽就进入施工现场而引起的意外事件的发生,提出了一种基于改进YOLOv3算法的安全帽佩戴检测方法。通过反卷积模块对网络进行上采样而增加网络在小物体上的表达能力来提高网络的检测准确度。理论分析与实验结果表明,改进的D-YOLOv3网络在检测速率不下降的情况下,mAP(Mean Average Precision)达到了88.8%,其准确率相较于YOLOv3有一定的提高,所提出的算法满足安全帽检测任务的准确性与实时性的要求。  相似文献   

4.
车辆检测是高速公路交通监控系统最重要的任务之一,但现有高速公路场景下的车辆检测算法存在模型参数量大、平均检测速度慢以及远处小尺度车辆漏检率高等问题。针对上述问题,提出了一种面向高速公路监控场景的轻量级车辆检测算法MG-YOLO。算法基于YOLOv5s进行设计,首先将高效通道注意力模块与MobileNetv3-small轻量级网络融合作为主干特征提取网络,减少模型参数,提高检测速度。然后引入加权双向特征金字塔融合结构,并结合Ghost模块,增强小目标车辆的检测能力。最后在检测头添加高效通道注意力模块,提高算法的检测精度。通过实际高速公路监控视频构建车辆检测数据集,并在该数据集上对MG-YOLO进行评估。实验结果表明,MG-YOLO参数量约为188万,模型大小为4.01MB,平均检测精度(mean average precision, mAP)为90.7%。与YOLOv5s相比,MG-YOLO的模型参数量降低95%、模型大小减小95%、检测速度提升43%、mAP提高0.2%,有效提高了高速公路监控场景下车辆检测速度,同时保持了车辆检测精度。  相似文献   

5.
针对复杂城市监控场景中由于目标尺寸变化大、目标遮挡、天气影响等原因导致目标特征不明显的问题,该文提出一种基于注意力机制的多尺度全场景监控目标检测方法。该文设计了一种基于Yolov5s模型的多尺度检测网络结构,以提高网络对目标尺寸变化的适应性。同时,构建了基于注意力机制的特征提取模块,通过网络学习获得特征的通道级别权重,增强了目标特征,抑制了背景特征,提高了特征的网络提取能力。通过K-means聚类算法计算全场景监控数据集的初始锚框大小,加速模型收敛同时提升检测精度。在COCO数据集上,与基本网络相比,平均精度均值(mAP)提高了3.7%,mAP50提升了4.7%,模型推理时间仅为3.8 ms。在整个场景监控数据集中,mAP50达到89.6%,处理监控视频时为154 fps,满足监控现场的实时检测要求。  相似文献   

6.
针对交通十字路口等视野盲区往来行人间存在遮挡情况,如何高效准确地检测复杂道路中目标行人具有实际意义。为了实现夜间交汇路口场景行人检测,提出一种基于改进YOLOv5的行人目标检测算法,采用Non local和PSA模块对YOLOv5原网络的Bottleneck CSP进行改进,能够有效弥补遮挡中行人特征的帧间信息交互过程,增强长程范围通道特征依赖关系。设计更深的160×160检测层和自适应anthor,提升夜间行人检测的边界回归精确度。实验结果表明,针对夜间下交通路口场景,压缩改进后模型对行人检测鲁棒性高,相较于原始算法mAP_0.5和mAP_0.5:0.95值分别提升了14.2和12.7,说明所提算法对夜间行人检测的有效性。  相似文献   

7.
李男  叶晓东  王昊  黄鑫宇  陶诗飞 《信号处理》2022,38(5):1009-1018
针对复杂场景下合成孔径雷达图像船舶检测中易产生漏检的问题,本文提出了一种基于改进YOLOv5的复杂场景下SAR图像船舶检测算法。该算法首先将由通道注意力和空间注意力共同组成的自适应注意力模块引入YOLOv5的特征提取网络中,通过将特征向量筛选加权后,使重要的目标特征占有更大的网络处理比重,以此增强网络对目标区域的特征学习能力。然后根据SAR图像特性优化了检测模型的损失函数,提升了预测框的置信度,最终降低了复杂场景区域的目标漏检率。实验表明,相比传统YOLOv5算法,本文算法显著提升了召回率。对于复杂场景下的SAR图像船舶目标检测,平均准确率达到了79.8%,相比于传统YOLOv5算法和Faster R-CNN算法分别提高了26.1%和17.3%。   相似文献   

8.
车辆行人检测分割在自动驾驶、智能交通管理等场景广泛应用,但如何提高车辆行人识别精度以及处理分割不均匀等问题一直是项挑战。针对上述问题,文中提出一种YOLOv8的改进算法,该算法采用RepECA作为骨干网络,此骨干网络使用RepVGG模块代替原骨干网络的卷积层,并融合ECA注意力机制对图像进行特征提取,其中RepVGG模块在检测时转变多分支结构为单路径结构,不损失训练精度的同时提升执行效率,ECA注意力机制针对通道维度的注意力加权机制,通过学习通道之间的相关性,自适应地调整通道的权重,增加少量模型参数却带来大的性能提升;在C2f模块中,改进算法加入了eSE自注意力模块,避免因为通道数减少造成的通道信息损失,进一步提高模型精度。实验结果表明,使用Cityscapes数据集训练,Rep-YOLOv8算法在检测与分割任务的mAP@0.5指标分别达到85.4%和75.5%,与原YOLOv8相比分别提升了13.4%和16%,推理速度从65 f/s提升至83 f/s。  相似文献   

9.
为提高无人机在复杂环境下对地面未爆弹(UXO)目标的辨识精度,提出了一种改进YOLOv5的UXO目标检测方法。该方法在YOLOv5的基础上,改进原YOLOv5网络的损失函数以提高对UXO目标的识别精度,同时,通过添加注意力机制、改进马赛克数据增强、改进预测框筛选机制提高对UXO目标的识别效率,实现了空对地场景下对UXO目标的检测,并具有较好的精度和速度。实验选取多组不同复杂背景的UXO数据集进行标注并训练,得到UXO目标模型,然后从模型训练结果和目标检测结果的角度评估方法和模型的正确性。实验结果表明:NGG-YOLOv5所得模型检测准确性和检测速度对比原YOLOv5有明显的提升,准确率从78%提高至91%,平均精度均值(mAP)从50%提高至56%,在所用4种复杂背景下均可有效检测出UXO目标,且漏警率低。  相似文献   

10.
实现苹果自动检测对推动苹果生产管理自动化、智能化有着重要意义。为了解决当前苹果检测方法准确率低、鲁棒性差等问题,文章提出了一种基于改进YOLOv8算法的苹果检测模型,通过引入GAM注意力机制提升模型的检测精度。在苹果检测数据集上进行验证,基于改进的YOLOv8算法和原始YOLOv8算法相比,mAP 0.5提高了1.7%,mAP 0.5∶0.95提高了2.2%。实验结果表明,文章提出的改进YOLOv8算法更能满足实际情况中对苹果检测的要求。  相似文献   

11.
为实现在复杂环境中对电力作业人员穿戴规范的识别,以感受野块网络(Receptive Field Block Network, RFBnet)为基础网络设计了一种穿戴多目标识别网络。该网络引入特征金字塔网络并采用VoVnet的密接方式改进RFBnet的VGG-16主干网络,在保证浅层细节高分辨率的前提下尽可能获取深层语义信息以实现对弱小目标的检测。采用空洞卷积分支构建新的RFB模块以扩大感受野、提取更多的细节特征;将Soft-nms与DIoU-nms结合,设计一种后处理方法进行锚框回归,降低了漏检几率。实验结果表明,在RFBnet-512的基础上,该检测网络的mAP提升了10.09%,检测速度提升了4.7帧/秒;对安全帽、绝缘手套和高压绝缘靴的检测精度分别达到90.9%、67.1%和86.4%,检测速度达到17.5帧/秒。  相似文献   

12.
陈州全  黄俊  郑元杰 《电讯技术》2023,63(10):1574-1581
传统目标检测大多基于摄像头采集图像进行,虽然近些年出现了许多优秀的检测网络,但在复杂场景下,仍存在大量漏检、误检等问题。针对这些问题,提出了一种基于注意力机制的毫米波雷达和视觉融合目标检测算法。首先将毫米波雷达数据进行扇形点云柱编码(Fan-shaped Cloud Pillar Code,FCPC),将其转换为前景伪图像;然后,再将其通过坐标关系映射到像素平面,使用卷积注意力模块(Convolutional Block Attention Module,CBAM)对两者特征数据进行融合;采用Yolov4-tiny对融合特征进行检测,并引入Focal Loss对原损失函数进行改进以解决正负样本不均的问题。在Nuscenes数据集上进行模型验证与对比,结果表明,该算法在复杂场景下相比其他单传感器检测算法如Yolov3、Efficientent以及Faster-RCNN等,无论平均检测精度(mean Average Precision,mAP) 还是每秒检测帧数(Frames Per Second,FPS)都有明显的提升。  相似文献   

13.
崔卓栋  陈玮  尹钟 《电子科技》2023,36(4):44-51
佩戴安全帽是保证工人施工安全的重要方式之一。现有的安全帽检测器的检测精度与速度都有待提高,这使得这些检测器难以大规模应用于实际的生产活动中。针对这些问题,文中推出了基于EfficientDet的安全帽检测器,并在此基础上从特征融合的角度对其进行了改进。该模型通过使用特征补充的方式减少了特征融合过程中的信息损失,并利用改进的特征金字塔及自适应空间融合模块提升了融合的效率,最终达到提升性能的目的。实验表明,文中改进的模型在安全帽佩戴数据集上的精确率达到83.03%,相较于未改进的模型有所提升,且模型大小没有明显增加。该模型在PASCAL VOC 2007上的精确率则达到了82.76%。  相似文献   

14.
丁文龙  费树珉 《电子测试》2022,(11):84-86+114
针对目前对工业现场安全帽佩戴检测过程中出现的检测准确率低和实时性弱问题,提出一种基于YOLOv3的改进模型。首先,采用K-Means++聚类算法,优化获取安全帽佩戴检测的先验框尺寸;在YOLOv3特征提取网络之后引入注意力模块(scSE);并在网络预测阶段,引入残差模块。实验表明:在自制安全帽佩戴检测数据集实验中平均准确率达到88.16%。相较于原始的YOLOv3算法,改进后算法对安全帽检测平均准确度有一定程度的提高。  相似文献   

15.
章曙光  唐锐  邵政瑞  鲍锐 《无线电工程》2023,(10):2303-2310
由于复杂环境下类烟火物体的干扰,常导致火灾检测误判。为了提高图像中火灾信号的检测精度,减少火灾误报,利用传统光谱分析在火灾图像检测技术中的优势,提出了一种基于小波变换的YOLOv5火灾检测改进算法。该算法利用二维Haar小波变换提取图像的光谱特征,将其输入到YOLOv5s的主干网络CSPDarknet中,与卷积层进行通道上的特征融合,增强烟火的纹理细节特征;通过嵌入CA注意力机制的CAC3模块,对融合小波特征后的网络层的位置信息进行增强,提高网络的信息提取和定位能力;为明确衡量边界框宽高的真实差,平衡烟火难易样本,采用α-EIOU损失函数替换原本的CIOU,提高框定位准确性。在公开的火灾数据基础上结合自制火灾数据构建火灾数据集,并进行模型训练和推理。实验结果表明,改进后算法的mAP比原YOLOv5s提升了2.3%,实现了对火灾场景烟火目标较好的检测效果。  相似文献   

16.
唐纲浩  周骅  赵麒  魏相站 《光电子.激光》2021,32(11):1147-1154
针对当前目标检测算法网络复杂,对平台设备要 求高;而轻量化网络YOLOv3_Tiny对 压敏电阻表面缺陷的检测精度较低,容易出现漏检错检的情况,提出了基于YOLOv3_Tiny的 改进算法DAYOLOv3_Tiny。DAYOLOv3_Tiny构建了深度可分离卷积块替代标准卷积,使用卷积 操作进行下采样,使检测网络在减少网络参数量的同时增加了特征的提取;并在网络中引入 了通道注意力模块和空间注意力模块,增强了检测网络对重要特征信息的学习。在自制的压 敏电阻表面 缺陷数据集上进行实验,结果表明,DAYOLOv3_Tiny的mAP值为92.23%,较改进前 提升了12.25%;改进后的DAYOLOv3_Tiny模型大小为YOLOv3_Tiny的55.42%,仅18.9 MB。实验 表明,DAYOLOv3_Tiny对压敏电阻表面缺陷的检测精度较高,能够有效改善漏检错检的情况 ,且网络模型较小,对硬件平台要求不高,易于在性能受限的平台部署。  相似文献   

17.
针对无人机视角下目标尺度差异大、检测场景复杂、目标小且密集而导致的检测精度不高的问题,提出了一种基于改进YOLOv5n的实时目标检测算法。首先,通过引入轻量通道注意力(ECA)模块提高卷积神经网络对特征图内有效信息的提取能力;其次,在特征金字塔网络输出端后,加入自适应空间特征融合(ASFF)模块,提高不同尺度特征图的识别精度;再次,使用EIoU损失函数计算预测框和目标框的差异值,加快收敛速度并提高检测精度;最后,改进YOLOv5n的检测头,优化模型对小目标的检测性能。在VisDrone数据集上训练测试,相比于基础的YOLOv5n模型,在640×640分辨率下,改进后模型的类平均精度(mAP50)提高了6.1个百分点;在1504×1504分辨率下类平均精度(mAP50)提高了7.1个百分点;同时,改进后的模型检测速度在硬件上可达22帧/s以上。该算法模型在精度提高的同时保证了足够高的检测速度,更适用于无人机的小目标实时检测。  相似文献   

18.
在与听障人士进行交流时,常常会面临交流不便的困难,文中提出一种手语识别的改进模型来解决这个困难。该模型基于YOLOv7-tiny网络模型,并对其进行了多项改进,旨在提高模型的精度和速度。首先,通过对CBAM注意力机制的通道域进行改进,解决了因降维而造成的通道信息缺失问题,并将改进后的CBAM加入到YOLOv7-tiny的Neck层中,从而使模型更加精准地定位和识别到关键的目标;其次,将传统的CIoU边界框损失函数替换为SIoU边界框损失函数,以加速边界框回归的同时提高定位准确度;此外,为了减少计算量并加快检测速度,还将颈部层中的普通卷积模块替换为Ghost卷积模块。经过实验测试,改进后网络模型的平均精度均值(mAP)、精准率和召回率分别提升了5.31%、6.53%、2.73%,有效地提高了手语识别网络的检测精确度。  相似文献   

19.
为减少监控干扰检测中因特殊场景引起的误检测,文中提出一种基于Siamese架构的SCG(Siamese with Convolutional Gated Recurrent Unit)模型,利用视频片段间的潜在相似性来区分特殊场景与干扰事件。通过在Siamese架构中融合改进ConvGRU网络,使模型充分利用监控视频的帧间时序相关性,在GRU单元间嵌入的非局部操作可以使网络建立图像空间依赖响应。与使用传统的GRU模块的干扰检测模型相比,使用改进的ConvGRU模块的模型准确率提升了4.22%。除此之外,文中还引入残差注意力模块来提高特征提取网络对图像前景变化的感知能力,与未加入注意力模块的模型相比,改进后模型的准确率再次提高了2.49%。  相似文献   

20.
在复杂的施工环境中,基于机器视觉技术的安全帽佩戴检测算法常常出现漏检、误检,其检测能力有限。为提高安全帽佩戴检测的精度,本文建立了一种基于注意力机制的双向特征金字塔的安全帽检测卷积神经网络。为兼顾卷积神经网络中的浅层位置信息和深层语义信息的表达能力,实现对弱小安全帽目标的检测能力,该网络将跳跃连接和注意力机制CBAM技术引入双向特征融合的特征金字塔网络PANet模块中,构建基于注意力机制的双向特征金字塔模块CPANet。为提高模型的收敛能力,采用了CIoU来代替IoU进行优化锚框回归预测,降低该网络的训练难度。对比实验表明,本文建立的检测网络比YOLOv3、RFBNet、SSD、Faster RCNN的mAP值分别提高了0.82,4.43,23.12,23.96,检测速度达到21frame/s,实现了施工现场安全帽佩戴实时高精度检测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号