首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
电动车上路必须佩戴安全头盔已成为交管部门的强制性规定.为了能自动检测出电动车骑行者的头盔佩戴情况,提出一种基于改进的YOLOv5m模型的头盔与车牌检测方法,在检测出骑行者未佩戴头盔的同时还能检测出电动车车牌.模型使用自建电动车骑行者头盔与车牌检测数据集进行训练,用DIOU损失函数代替GIOU损失函数,DIOU_NMS代替加权NMS,增强模型对密集骑行场景的识别能力.在Backone部位与预测中小目标的Neck部位加入ECA注意力机制,使得模型对中小目标的识别率有所提高;用K-means算法对锚框尺寸重新进行聚类.最后,改进Mosaic数据增强方式.实验结果表明:改进的 YOLOv5m 电动车骑行者头盔与车牌检测模型的 mAP 为 92.7%,较原 YOLOv5m 模型提高 2.15个百分点,较 YOLOv4-tiny、Faster RCNN 模型分别提高 5.7个百分点与 6.9个百分点.改进后的 YOLOv5m 模型能有效提高对头盔与车牌的识别率.  相似文献   

2.
航拍图像存在目标小、背景复杂、目标与背景占比失衡等问题。YOLO算法对小目标的检测效果不佳,易出现漏检或误检的情况;YOLO的骨干网络参数量庞大,增加了运行设备的负担。为此,以YOLOv4算法为基础进行改进。首先,将YOLOv4的骨干网络CSPDarkNet53与MobileNetV3相结合,以轻量化网络的参数量;其次,采用混合池化结构(MPM)替换空间金字塔池化结构(SPPM),混合池化结构可丰富感受野,捕获相距较远目标之间的特征,减少目标被漏检或误检的情况发生;最后,对路径聚合网络(PANet)进行改进并融入残差结构(ResNet),提升网络对小目标的检测精度。改进后算法参数量仅为YOLOv4的19.6%;虽然平均精准度下降2.3%,但针对小目标检测的精准度提升10.2%;检测速度每秒增加4.2帧。  相似文献   

3.
为了解决现有的目标检测方法在雾天场景下存在识别准确率低、易漏检的问题,提出一种改进YOLOv5s的雾天车辆检测方法。首先,以VisDrone数据集为基础,通过大气散射模型生成轻雾数据集(LightFogVisDrone)和浓雾数据集(ThickFogVisDrone),并收集真实雾天场景图片组成混合浓度数据集(MixFogData);其次,对原始YOLOv5s的Mosaic数据增强方式进行改进,由原始的4张图片改为9张图片进行随机剪切,减少灰色背景面积,加快模型收敛,提高训练效率,在预测端之前添加CBAM注意力机制,以此来增强模型的图像特征提取能力,改善遮挡目标与小目标的漏检问题;最后,优化NMS非极大抑制值先验框,改善车辆目标的漏检问题。实验结果表明:与原始YOLOv5s相比,改进YOLOv5s在轻雾、浓雾和混合雾气状态下的平均精确率分别提高了16.14、16.16和15.05百分点。改进YOLOv5s对于雾天环境下车辆目标的检测具有有效性和实用性。  相似文献   

4.
针对小型水域漂浮物识别困难问题,提出一种基于深度学习的目标识别方法,本文采用改进的YOLOv5s目标识别算法识别水面漂浮物。首先,根据水面漂浮物形状的特点,采用改进K-means算法,对先验框重新聚类,其次加入SE注意力机制模块,然后将α-IOU应用于YOLOv5s网络上。实验结果表明,对比标准的YOLOv5s算法,改进的YOLOv5s算法在查准率和平均精度均值方面分别提升了2%和4%,验证了算法的有效性,该方法能克服水面环境的影响,有效识别水面的漂浮物。  相似文献   

5.
目标检测模型在电子元件生产环境中的实时检测能力不佳,为此采用GhostNet替换YOLOv5的主干网络.针对电子元件表面缺陷存在小目标及尺度变化较大的目标的情况,在YOLOv5主干网络中加入坐标注意力机制,在避免大量计算资源消耗的前提下增强感受野,将坐标信息嵌入通道注意力中以提升模型对目标的定位.使用加权双向特征金字塔网络结构替换YOLOv5特征融合模块中的特征金字塔网络(FPN)结构,提升多尺度加权特征的融合能力.在自制缺陷电子元件数据集上的实验结果表明,改进的GCB-YOLOv5模型平均精度达到93%,平均检测时间为33.2 ms,相比于原始YOLOv5模型,平均精度提高了15.0%,平均时间提升了7 ms,可以同时满足电子元件表面缺陷检测精度与速度的需求.  相似文献   

6.
针对具有非平稳特性的水声信号的分类识别问题,本文对卷积神经网络进行改进,并将改进的CNN网络与小波分解相融合,提出一种水下目标识别算法WAVEDEC_CNN.应用采集的4类湖试数据,对该算法进行验证.实验结果表明:与传统方法MFCC+SVM对比,WAVEDEC_CNN算法可提升正确识别率15.38%;与NO_CNN、W...  相似文献   

7.
遥感图像目检测与识别是近年来国内外研究的热点之一。针对检测任务中因目标密集分布、目标尺度不一所导致的精度不高等问题,提出了一种改进YOLOv5的融合注意力机制目标检测算法。首先,将坐标注意力机制(Coordinate Attention, CA)分别融合到YOLOv5的骨干网络、颈部和输出端3个位置,以提高模型的特征提取能力。其次,进行训练和测试,实验结果表明,骨干网络位置最适合融合注意力,能够有效增强模型的检测性能。再次,采用CIoU_loss作为损失函数,以改善目标检测框的定位精度。最后,进行消融、对比实验,结果表明,提出的改进算法相较于原始YOLOv5算法具有更好的检测性能,mAP50提高了2.9个百分点,有效提高了遥感图像的目标检测精度。  相似文献   

8.
对于航拍图像中的小型目标,YOLOv3算法模型对其识别精准度低,在目标被遮挡或目标较密集时存在漏检现象。针对上述问题提出了一种基于改进YOLOv3的航拍目标实时检测方法,该方法加入104×104特征分辨率的检测模块并删减了13×13特征分辨率的检测模块,同时增加了浅层网络的层数,用于提取更加细微的像素特征;在训练阶段针对DOTA-v1.0航拍数据集使用K-means++聚类得到9个先验框进行检测,用于提升整体网络的训练速度。实验结果表明:改进后的YOLOv3检测算法的检出率提升了15.0%,mAP-50提升了10.5%。  相似文献   

9.
旋转框定位的多尺度再生物品目标检测算法   总被引:1,自引:0,他引:1  
针对传统目标检测算法未考虑实际分拣场景目标物形态尺度的多样性,无法获取旋转角度信息的问题,提出基于YOLOv5的改进算法MR2-YOLOv5. 通过添加角度预测分支,引入环形平滑标签(CSL)角度分类方法,完成旋转角度精准检测. 增加目标检测层用于提升模型不同尺度检测能力,在主干网络末端利用Transformer注意力机制对各通道赋予不同的权重,强化特征提取. 利用主干网络提取到的不同层次特征图输入BiFPN网络结构中,开展多尺度特征融合. 实验结果表明,MR2-YOLOv5在自制数据集上的均值平均精度(mAP)为90.56%,较仅添加角度预测分支的YOLOv5s基础网络提升5.36%;对于遮挡、透明、变形等目标物,均可以识别类别和旋转角度,图像单帧检测时间为0.02~0.03 s,满足分拣场景对目标检测算法的性能需求.  相似文献   

10.
针对目标检测中小目标误检、漏检及特征提取能力不足等问题,提出一种基于改进YOLOv5的小目标检测算法.该算法使用Mosaic-8方法进行数据增强,通过增加一个浅层特征图、调整损失函数,来增强网络对小目标的感知能力;通过修改目标框回归公式,解决训练过程中梯度消失等问题,提升了小目标的检测精度.将改进后的算法应用在密集人群...  相似文献   

11.
为提高车道线检测的实时性与准确性,在机器学习的框架下,提出了一种基于改进的YOLOv5s模型检测方法.该方法在图像预处理后增加了一个二值化通道与原图像一起更新数据集;为了高效提取车道线特征,加入anchor-free改进其锚框问题;为节省GPU内存、增强机器对目标的识别能力,采用mixup与mosaic结合的方式增强数...  相似文献   

12.
To solve the problems in online target detection on the embedded platform, such as high missed detection rate, low accuracy, and slow speed, a lightweight target recognition method of MobileNetV3-CenterNet is proposed. This method combines the anchor-free Centernet network with the MobileNetV3 small network and is trained on the University at Albany Detection and Tracking (UA-DETRAC) and the Pattern Analysis, Statical Modeling and Computational Learning Visual Object Classes(PASCAL VOC) 07+12 standard datasets. While reducing the scale of the network model, the MobileNetV3-CenterNet model shows a good balance in the accuracy and speed of target recognition and effectively solves the problems of missing detection of dense and small targets in online detection. To verify the recognition performance of the model, it is tested on 2683 images of the UA-DETRAC and PASCAL VOC 07+12 datasets, and compared with the analysis results of CenterNet-Deep Layer Aggregation (DLA) 34, CenterNet-Residual Network (ResNet) 18, CenterNet-MobileNetV3-large, You Only Look Once vision 3(YOLOv3), MobileNetV2-YOLOv3, Single Shot Multibox Detector (SSD), MobileNetV2-SSD and Faster region convolutional neural network (RCNN) models. The results show that the MobileNetV3-CenterNet model accurately recognized the dense targets and small targets missed by other methods, and obtained a recognition accuracy of 99.4% with a running speed at 53 (on a server) and 14 (on an ipad) frame/s, respectively. The MobileNetV3-CenterNet lightweight target recognition method will provide effective technical support for the target recognition of deep learning networks in embedded platforms and online detection.  相似文献   

13.
针对海量图像数据中目标的分割及识别问题,提出了一种自适应控制下图像分割及并行挖掘算法.采用隶属度函数窗口宽度在图像直方图控制下自适应调整模糊阈值图像分割方法对图像进行分割,提取出感兴趣的潜在目标区域,基于共轭梯度法改进的BP神经网络算法对潜在的目标区域进行训练和识别,识别算法基于OpenMP并行处理模型开发来提高执行效率.结果表明:本文算法相对于基于偏移场的模糊C均值、灰度波动变换自适应阈值和自适应最小误差阈值具有更高的分割准确率,与传统神经网络算法的识别结果相比,平均识别率提高了8%,运行时间减少了2. 5 s.  相似文献   

14.
针对天气条件和车辆间相互遮挡对车辆分类与跟踪准确性和稳定性的影响,提出一种基于改进YOLOv3与匹配跟踪的混合模型。改进的YOLOv3网络参照密集连接卷积网络的设计思想,将网络中的残差层替换为密集卷积块并改变网络的设计结构,利用Softmax分类器将密集卷积块与卷积层中融合的特征进行分类。根据单帧图像的检测结果,设计目标匹配函数解决视频序列中车辆的跟踪问题。在KITTI数据集的测试中,改进算法的平均准确率为93.01%,帧率达到48.98帧/s,在自建的数据集中平均识别率为95.79%。试验结果表明,本研究方法在复杂场景中能够有效的区分车辆种类且准确性更高,车辆跟踪的算法具有较高准确性和鲁棒性。  相似文献   

15.
针对移动端平台下计算资源有限、存储空间小的特点,提出高效的ShuffleNetv2及YOLOv3集成网络静态手势实时识别方法,以减小模型对硬件的计算能力需求. 通过将轻量化网络ShuffleNetv2代替Darknet-53作为主干网络,减小模型的计算复杂度. 引入CBAM注意力机制模块,加强网络对空间和通道的关注度. 采用K-means聚类算法,重新生成Anchors的长宽比和数量,使重新生成的Anchors尺寸对目标进行精确定位来提高模型的检测精度. 实验结果表明,提出算法在手势识别上的平均识别准确率为99.2%,识别速度为44帧/s,单张416×416图片在GPU上的推理时间为15 ms,CPU上的推理时间为58 ms,模型所占内存为15.1 MB. 该方法具有识别精度高、识别速度快、内存占用率低等优点,有利于模型在移动终端上部署.  相似文献   

16.
为了提高推力球轴承表面缺陷检测的精确率和召回率,增强模型抗干扰能力,提出自动提取检测区域预处理和改进Transformer中的多头自注意力机制模块. 在特征网络引入所提模块,忽略无关噪声信息而关注重点信息,提升中小表面缺陷的提取能力. 使用实例归一化代替批量归一化,提高模型训练时的收敛速度和检测精度. 结果表明,在推力球轴承表面缺陷检测数据集中,改进YOLOv5模型的准确率达到87.0%,召回率达到83.0%,平均精度达到86.1%,平均每张图片检测时间为14.96 ms. 相比于YOLOv5s模型,改进模型的准确率提升1.5%,召回率提升7.3%,平均精度提升7.9%. 与原模型相比,改进YOLOv5模型有更好的缺陷定位能力和较高的准确度,能够减小检测过程中的异物对检测结果造成的干扰,检测速度满足工业大批量检测的要求.  相似文献   

17.
针对传统目标检测算法(SSD)检测小目标精度低的问题,提出基于注意力机制与多尺度信息融合方法并将其运用于车辆检测任务. 结合浅层特征图与深层特征图的优势,小目标检测分支和大中型目标检测分支的特征图采用5支路和2支路融合. 在基础网络层之间加入注意力机制模块,模型会关注包含更多信息量的通道. 实验结果表明,在自建车辆数据集上的均值平均精度(mAP)达到90.2%,比传统SSD算法提高了10.0%,其中小目标检测精度提高了17.9%;在PASCAL VOC 2012数据集上的类别平均精度mAP为83.1%,比主流的YOLOv5算法提高了6.4%. 此外,提出算法在GTX1 660 Ti PC端的检测速度可以达到25 帧/s,能够满足实时性的需求.  相似文献   

18.
针对远距/近距空间目标成像的特点,提出一种基于序列图像的多尺度自动目标识别(ATR)方案.该方案综合利用目标的尺度变化、姿态变化及图像特征信息,分别构建多尺度目标分类器、姿态判别器,并估计目标识别结果可信度、相邻帧姿态变化的权重以及目标尺度权重;根据当前帧和上一帧的识别结果,进行目标类别的融合判别.对STK产生的10类仿真空间目标进行测试,试验结果表明:对远距空间目标,由于目标像素少,仅用单帧图像的识别率低,合理利用目标序列图像包含的信息,可有效提高目标识别率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号