首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 91 毫秒
1.
针对目前主流的目标检测算法存在模型参数过大、不能很好地移植到移动设备端之中应用于辅助驾驶这一问题,本文提出了一种改进YOLOv5s的目标检测算法。首先,将YOLOv5s算法的主干网络CSPDarknet替换为轻量化网络模型MobileNet-V3,解决了网络模型较大、参数较多的问题,减少了网络的深度并提升了数据推断速度;其次,对特征提取网络采用加权双向特征金字塔结构Bi-FPN加强特征提取,融合多尺度特征进而扩大感受野;最后,对损失函数进行优化,使用CIoU为边界框回归损失函数,改善模型原始GIoU收敛速度较慢问题,使预测框更加符合于真实框,同时降低网络训练难度。实验结果表明,改进后算法在KITTI数据集上的mAP相较于YOLOv5s、SSD、YOLOv3、YOLOv4_tiny分别提升了4.4、15.7、12.4、19.6,模型大小相较于YOLOv5s与轻量级网络YOLOv4_tiny分别减少了32.4 MB和21 MB,同时检测速度分别提升了17.6%与43%。本文改进后的算法满足模型小、精确度高的要求,为辅助驾驶中道路目标检测提升检测速度与精度提供了一种解决方案。  相似文献   

2.
针对传统目标检测算法未考虑物体角度信息而出现的漏检、错检问题,提出了一种基于YOLOv5s的改进算法。在原始YOLOv5s的基础上,首先结合环形平滑标签技术(CSL)及对损失函数的改进,让网络有了对角度预测的能力;其次增加目标检测层提升了网络对小目标检测的能力,接着融合CBAM注意力机制让网络重点关注对有用信息的学习;最后采用迁移学习的策略初始化网络各层参数。为了验证算法的有效性,自制了标签数据集LDS并做了算法对比试验,实验结果表明,在LDS数据集上,改进后的YOLOv5s算法检测精度达89.94%,相较于原始网络,在检测速度没有下降的基础上检测精度提升了4.80%。  相似文献   

3.
针对yolov3算法应用于车辆类型检测中速度较快但精度相对较低的问题,提出在原始yolov3算法中使用GIoU代替均方差损失函数作为边界框回归损失函数,在边界框置信度损失函数中融入focal loss损失函数两种损失函数改进方法。实验结果表明改进后的yolov3模型在保持速度不变的情况下精度得到显著提升,在交通车型数据集中mAP值相比原始yolv3模型上升了3.62%,具有一定优势。  相似文献   

4.
针对无人机视角下目标尺度差异大、检测场景复杂、目标小且密集而导致的检测精度不高的问题,提出了一种基于改进YOLOv5n的实时目标检测算法。首先,通过引入轻量通道注意力(ECA)模块提高卷积神经网络对特征图内有效信息的提取能力;其次,在特征金字塔网络输出端后,加入自适应空间特征融合(ASFF)模块,提高不同尺度特征图的识别精度;再次,使用EIoU损失函数计算预测框和目标框的差异值,加快收敛速度并提高检测精度;最后,改进YOLOv5n的检测头,优化模型对小目标的检测性能。在VisDrone数据集上训练测试,相比于基础的YOLOv5n模型,在640×640分辨率下,改进后模型的类平均精度(mAP50)提高了6.1个百分点;在1504×1504分辨率下类平均精度(mAP50)提高了7.1个百分点;同时,改进后的模型检测速度在硬件上可达22帧/s以上。该算法模型在精度提高的同时保证了足够高的检测速度,更适用于无人机的小目标实时检测。  相似文献   

5.
为提升YOLOv5算法对遥感图像密集目标的检测精度并改善漏检问题,提出了一种改进的YOLOv5遥感目标检测算法。改进方法首先采用7*7卷积模块替换骨干网络中Focus模块以增大模型感受野;其次,在保证与原模块效果相同的情况下使用SPPF以提升检测速度;最后,引入SIOU损失函数,利用边界框回归之间的向量角度来重新定义损失函数,有效提高了检测的准确性。实验结果表明,针对公开的NWPU VHR-10遥感数据集,所提改进算法在保持与原算法相同检测速度的情况下,检测精度提高了3.5%。  相似文献   

6.
针对传统算法依赖于对红外船舶目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰环境下的船舶目标检测需求,提出一种基于改进YOLOv5的红外船舶目标检测算法。在YOLOv5网络中添加Reasoning层,以一种新的提取图像区域间语义关系来预测边界框和类概率的体系结构,提高模型的检测精度,同时对YOLOv5目标检测网络的损失函数进行改进,从而达到进一步提高模型准确率的目的。验证结果表明,改进后的YOLOv5算法训练出来的模型,检测精确率和速度与实验列出的几种目标检测算法相比均有明显提升,其中平均精度均值(mAP)可达94.65%。该模型经过验证,既能满足检测的实时性要求,又能保证高精度。  相似文献   

7.
损失函数对于目标检测任务的检测精度和模型收敛速度具有重要作用,而损失函数中的边界框损失函数是影响检测结果和模型收敛速度的重要因素。针对传统模型定位精度低和训练时模型收敛慢的问题,本文在CIoU边界框损失函数的基础上提出一种改进的边界框损失函数,解决了CIoU损失函数求导过程中由边界框宽高比带来的梯度爆炸问题和模型提前退化的问题,并且引入重叠区域与目标框的宽高关系和中心点之间的归一化距离作为附加的惩罚项,提高了模型的检测精度和收敛速度,这种损失函数称为BCIoU(Better CIoU)。在PASACL VOC 2007数据集上的实验结果表明,改进的BCIoU边界框损失函数在YOLOv3网络下相对于IoU损失的mAP50指标相对提升了2.09%,AP指标相对提升了6.88%;相对于CIoU损失的mAP50指标相对提升了1.64%,AP指标相对提升了5.35%。模型的收敛速度也有一定程度的提升。本文提出的BCIoU损失函数提高了模型的检测精度和模型收敛速度,并且可以很方便地纳入到当前目标检测算法中。  相似文献   

8.
无人机在军事情报、航拍检测等领域能够提供目标相关的图像信息,为处理任务提供目标信息。针对无人机图像背景复杂、检测目标小、可提取特征少等问题,提出基于YOLOv5s的改进无人机图像识别算法。首先,结合CotNet模块对网络结构进行优化,提升模型自学习能力并增强识别精度;其次,对颈部网络进行改进,通过跨层链接和提高特征图分辨率更好地利用浅层特征图中包含的丰富信息来定位目标,并且在检测头部分采用解耦检测头,减少预测过程中定位与分类任务对于特征信息的冲突;最后,为了提高收敛速度和模型精度,在CIoU和EIoU损失函数的基础上对损失函数的宽高纵横比进行优化。在公开数据集VisDrone测试集上进行测试,所提算法相比原始YOLOv5s算法的mAP50与mAP50∶95分别提升了6.1与2.9个百分点,实验结果表明,所提模型能够有效提升无人机图像识别的准确率。  相似文献   

9.
YOLOv3算法在单一物体目标检测时使用Darknet53作为主干,网络出现冗余现象,导致参数过多,检测速度变慢,传统的边界框损失函数影响检测定位准确性。针对这一问题,文中提出了改进YOLOv3算法的行人检测方法。通过构造以Darknet19为主干网络多尺度融合的新型网络,加快训练速度和检测速度,还通过引入广义交并比损失函数来提高检测精确度。实验结果表明,在行人检测数据集如INRIA行人数据集中,相比于原始算法,文中所提算法的精确度提高了5%。和Faster R-CNN相比,在保证准确率的情况下,采用文中算法使单张图片的检测速度达到了每张0.015 s。  相似文献   

10.
针对小型智能侦察无人机机载平台存在的计算力受限、检测速度较慢的问题,提出了一种基于YOLOv3改进的目标检测算法.首先引入深度可分离卷积改进YOLOv3的骨干网络,降低网络的参数和计算量,提高算法的检测速度,再根据机载视角下目标形状的特点,预置K-means产生先验框的初始聚类中心,并在边框回归中引入CIoU损失函数,将DIoU与NMS结合,改善YOLOv3对密集目标的漏检问题,最后再通过TensorRT优化加速后部署到英伟达Jetson TX2机载计算平台.实验结果表明,所改进的算法在验证集上的平均精度均值(MAP)达到了82%,检测速度从3.4帧/s提升到16帧/s,满足实时性要求.  相似文献   

11.
随着现代化战争的技术升级,机载红外探测领域对更快更远更准地发现目标的需求日益强烈。为满足机载环境下对红外弱小目标高精度高帧率的检测,本文提出了一种基于YOLOv7改进的目标检测算法,以YOLOv7目标检测算法为基础,进行了修改网络结构和加深卷积层数来使特征提取更多的小目标信息特征;并对骨干网络获取的特征层引入注意力机制来提高神经网络对小目标的感知能力以及提高小目标所在区域的权重占比;使用EIOU损失函数替换原本的CIOU损失函数,提高了收敛速度和定位精度。实验结果表明,相较于原算法YOLOv7,在极小损失帧率的情况下,改进后的算法mAP可以达到9849,相较原始算法提升了124,有助于提升对机载红外弱小目标的检测准确率。  相似文献   

12.
针对现有关于车载限速牌识别算法所存在的检测速度慢、准确率低、无法应用于嵌入式系统等问题,提出了一种基于网络的实时限速牌识别算法。该算法基于SSD_MobileNet_v1网络框架进行改进,对原来的网络进行架构裁剪以去除冗余结构;同时引入了特征金字塔网络结构,并使用focal loss作为网络训练的分类损失。实验表明,提出的识别算法准确率可达88.11%,虽然略低于目前主流目标检测算法的检测精度,但是网络的每秒帧率(Frame per Second,FPS)可以达到35.13,拥有较快的检测速度,而权重文件只有24 MB 。因此,与其他算法相比,该算法不仅适合小型的嵌入式人工智能(Artifical Intelligence,AI)设备,而且更贴近真实车载场景下的识别。  相似文献   

13.
代牮  赵旭  李连鹏  刘文  褚昕悦 《红外技术》2022,44(5):504-512
针对传统算法依赖于对红外目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰因素下的检测需求。论文提出一种基于改进YOLOv5(You Only Look Once)的复杂背景红外弱小目标检测算法。该算法在YOLOv5基础上,添加注意力机制提高算法的特征提取能力和检测效率,同时改进原YOLOv5目标检测网络的损失函数和预测框的筛选方式提高算法对红外弱小目标检测的准确率。实验选取了来自不同复杂背景的7组红外弱小目标数据集,将这些图像数据集进行标注并训练,得到红外弱小目标检测模型,然后从模型训练结果和目标检测结果的角度评估算法和模型的正确性。实验结果表明:改进的YOLOv5算法训练出来的模型,检测准确性和检测速度对比实验列出的几种目标检测算法均有明显的提升,平均精度均值(mean Average Precision,mAP)可达99.6%以上,在不同复杂背景下均可有效检测出红外弱小目标,且漏警率、虚警率低。  相似文献   

14.
柳想成  韩隆  郑毅  李长桢  刘爽  金梦轩 《激光与红外》2023,53(11):1712-1718
在激光模拟训练中,具有智能打击功能的靶标装置可以更加逼真地模拟实战对抗过程,满足智能化军事训练需求。但目前大多数靶标不具备智能打击或反击功能,靶标仅能实现作为目标的被打击功能或者非智能的触发反击功能,模拟训练形式单一,靶标运动或打击功能呈现规律性,不能真实模拟敌方目标主动攻击的能力,因此为适应模拟训练发展的需求实现模拟训练智能化、提高模拟仿真程度就需要通过智能靶标来模拟敌方目标进行作战。在智能靶标的研制过程中其中首先要解决的问题就是目标检测。本研究最终目标是对战场环境中的单兵目标进行检测并做出攻击活动,故对单兵目标的检测速度和精度有较大要求,本文提出一种基于Yolov5神经网络架构提高目标检测精度、加快目标检测速度的算法,采用改进网络结构对传统的目标检测算法进行优化,保证在输入可见光图像下,能够实现快速检测,并保证检测的精度。  相似文献   

15.
陈州全  黄俊  郑元杰 《电讯技术》2023,63(10):1574-1581
传统目标检测大多基于摄像头采集图像进行,虽然近些年出现了许多优秀的检测网络,但在复杂场景下,仍存在大量漏检、误检等问题。针对这些问题,提出了一种基于注意力机制的毫米波雷达和视觉融合目标检测算法。首先将毫米波雷达数据进行扇形点云柱编码(Fan-shaped Cloud Pillar Code,FCPC),将其转换为前景伪图像;然后,再将其通过坐标关系映射到像素平面,使用卷积注意力模块(Convolutional Block Attention Module,CBAM)对两者特征数据进行融合;采用Yolov4-tiny对融合特征进行检测,并引入Focal Loss对原损失函数进行改进以解决正负样本不均的问题。在Nuscenes数据集上进行模型验证与对比,结果表明,该算法在复杂场景下相比其他单传感器检测算法如Yolov3、Efficientent以及Faster-RCNN等,无论平均检测精度(mean Average Precision,mAP) 还是每秒检测帧数(Frames Per Second,FPS)都有明显的提升。  相似文献   

16.
针对复杂城市监控场景中由于目标尺寸变化大、目标遮挡、天气影响等原因导致目标特征不明显的问题,该文提出一种基于注意力机制的多尺度全场景监控目标检测方法。该文设计了一种基于Yolov5s模型的多尺度检测网络结构,以提高网络对目标尺寸变化的适应性。同时,构建了基于注意力机制的特征提取模块,通过网络学习获得特征的通道级别权重,增强了目标特征,抑制了背景特征,提高了特征的网络提取能力。通过K-means聚类算法计算全场景监控数据集的初始锚框大小,加速模型收敛同时提升检测精度。在COCO数据集上,与基本网络相比,平均精度均值(mAP)提高了3.7%,mAP50提升了4.7%,模型推理时间仅为3.8 ms。在整个场景监控数据集中,mAP50达到89.6%,处理监控视频时为154 fps,满足监控现场的实时检测要求。  相似文献   

17.
针对红外图像分辨率低、背景复杂、目标细节特征缺失等问题,提出了一种基于YOLOv5s的改进实时红外小目标检测模型Infrared-YOLOv5s。在特征提取阶段,采用SPD-Conv进行下采样,将特征图切分为特征子图并按通道拼接,避免了多尺度特征提取过程中下采样导致的特征丢失情况,设计了一种基于空洞卷积的改进空间金字塔池化模块,通过对具有不同感受野的特征进行融合来提高特征提取能力;在特征融合阶段,引入由深到浅的注意力模块,将深层特征语义特征嵌入到浅层空间特征中,增强浅层特征的表达能力;在预测阶段,裁减了网络中针对大目标检测的特征提取层、融合层及预测层,降低模型大小的同时提高了实时性。首先通过消融实验验证了提出各模块的有效性,实验结果表明,改进模型在SIRST数据集上平均精度均值达到了95.4%,较原始YOLOv5s提高了2.3%,且模型大小降低了72.9%,仅为4.5 M,在Nvidia Xavier上推理速度达到28 f/s,利于实际的部署和应用。在Infrared-PV数据集上的迁移实验进一步验证了改进算法的有效性。提出的改进模型在提高红外图像小目标检测性能的同时,能够满足实时性要...  相似文献   

18.
针对铁轨表面裂缝的小目标特征及传统检测方法精度低,速度慢等问题,提出一种基于改进YOLOV4的目标检测算法。首先,使用改进的RFB(receptive field block)模块替换空间金字塔池化(spatial pyramid pooling, SPP)结构,以获取特征图更大的有效感受野区域,提升算法的检测精度;其次,采用深度可分离卷积结构替代网络模型中的普通卷积结构,使网络轻量化、提升检测速度;同时,利用K-means++算法重新获取锚框,再对得到的锚框进行线性尺度变化,解决原锚框不适合小目标检测的问题。结果表明改进的YOLOV4算法,平均精度均值(mean average precision,mAP)达到84.8%,相对于原YOLOV4算法提高了3.4%;检测速度(frames per second,FPS)为62.39帧/s,提高了4.07帧/s。  相似文献   

19.
针对交通十字路口等视野盲区往来行人间存在遮挡情况,如何高效准确地检测复杂道路中目标行人具有实际意义。为了实现夜间交汇路口场景行人检测,提出一种基于改进YOLOv5的行人目标检测算法,采用Non local和PSA模块对YOLOv5原网络的Bottleneck CSP进行改进,能够有效弥补遮挡中行人特征的帧间信息交互过程,增强长程范围通道特征依赖关系。设计更深的160×160检测层和自适应anthor,提升夜间行人检测的边界回归精确度。实验结果表明,针对夜间下交通路口场景,压缩改进后模型对行人检测鲁棒性高,相较于原始算法mAP_0.5和mAP_0.5:0.95值分别提升了14.2和12.7,说明所提算法对夜间行人检测的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号