首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
针对现有的CenterNet模型在行人检测中由于人体遮挡以及人体姿态多变等所引起的模型精度下降的问题,本文从三个方面对CenterNet进行改进。一是在原CenterNet基础之上设计了特征融合模块,该模块引入了反转卷积,从通道这一角度提取特征并与原特征进行融合,丰富了图像的特征表示,使其更好地定位到人体区域;二是提出了一种带有非局部注意力的检测头,通过计算特征图全局像素与当前特征像素相似度,从而对遮挡目标进行区分;三是对损失函数进行改进,将两项损失函数合并成一项,有效地减少了级联误差。实验结果表明,改进的CenterNet在WiderPerson数据集上的平均精度提升了3.29%,漏检率下降了3.26%。在数据集Human detection and tracking using RGB-D camera上的平均精度提升了2.66%,漏检率下降了2.46%。与原CenterNet相比,改进的CenterNet解决了该模型应用于行人检测中精度低的问题。  相似文献   

2.
针对行人检测受人体姿态复杂、光照变化、遮挡严重等影响,导致检测效率和精度不高的问题,提出一种基于YOLO和排斥力损失函数的行人检测方法.首先,对YOLO模型进行改进,主要是设置合适的预选框以及采用较大尺度的特征图进行特征提取,从而提高其对小物体的检测性能;然后,对排斥力损失函数进行改进,使其符合行人检测的应用场景,为接下来的融合检测提供新的损失函数;最后,将改进的YOLO和排斥力损失函数结合起来,利用YOLO模型速度快的特点提高运行速度,并利用排斥力损失函解决行人遮挡问题.在多个行人检测数据集上的实验结果表明:与其他算法相比,能够更加快速准确地实现行人检测.  相似文献   

3.
针对现有施工场所下工人安全帽佩戴检测模型推理耗时长、对硬件要求高,且复杂多变环境下的训练数据集单一、数量少导致模型鲁棒性较差等问题,提出了一种轻量化的安全帽佩戴检测模型YOLO-S.首先,针对数据集类别不平衡问题,设计混合场景数据增强方法,使类别均衡化,提高模型在复杂施工环境下的鲁棒性;将原始YOLOv5s主干网络更改为MobileNetV2,降低了网络计算复杂度.其次,对模型进行压缩,通过在BN层引入缩放因子进行稀疏化训练,判定各通道重要性,对冗余通道剪枝,进一步减少模型推理计算量,提高模型检测速度.最后,通过知识蒸馏辅助模型进行微调得到YOLO-S.实验结果表明,YOLO-S的召回率及mAP较YOLOv5s分别提高1.9%、1.4%,模型参数量压缩为YOLOv5s的1/3,模型体积压缩为YOLOv5s的1/4, FLOPs为YOLOv5s的1/3,推理速度快于其他模型,可移植性较高.  相似文献   

4.
针对个人防护用具安全帽的防护检测识别需求,现有的人工检测方法费时费力,无法做到实时监测.提出了一种基于YOLOv5s深度学习模型的安全帽检测算法,能够有效识别检测安全帽是否正确佩戴.并通过添加CA注意力机制,重新分配每个空间和通道的权重;以BoT3替代原有的C3模型,作为主干网络;并将CIOU损失函数改为SIOU等方法,改进原有的YOLOv5s模型,提高安全帽检测识别的精度,提高检测速度.实验结果表明,安全帽识别检测的平均精度比原始模型提高了2.2%,识别检测速度提升了19 ms,实现了更准确地轻量高效实时的安全帽佩戴检测.  相似文献   

5.
针对安全帽佩戴检测中存在的误检和漏检的问题,提出一种基于YOLOv5模型改进的安全帽佩戴检测算法。改进模型引入多尺度加权特征融合网络,即在YOLOv5的网络结构中增加一个浅层检测尺度,并引入特征权重进行加权融合,构成新的四尺检测结构,有效地提升图像浅层特征的提取及融合能力;在YOLOv5的Neck网络的BottleneckCSP结构中加入SENet模块,使模型更多地关注目标信息忽略背景信息;针对大分辨率的图像,添加图像切割层,避免多倍下采样造成的小目标特征信息大量丢失。对YOLOv5模型进行改进之后,通过自制的安全帽数据集进行训练检测,mAP和召回率分别达到97.06%、92.54%,与YOLOv5相比较分别提升了4.74%和4.31%。实验结果表明:改进的YOLOv5算法可有效提升安全帽佩戴的检测性能,能够准确识别施工人员的安全帽佩戴情况,从而大大降低施工现场的安全风险。  相似文献   

6.
为实现智能检测室内作业人员是否佩戴安全帽,提出了一种改进的Yolov4算法.首先,针对目前室内安全帽佩戴状态检测实验数据较为匮乏的问题,自建了一个用于室内场景的安全帽佩戴状态检测数据集.随后,为提升室内监控图像中模糊、微小目标的安全帽佩戴状态检测准确率,设计了自校准多尺度特征融合模块并将其嵌入原Yolov4网络中.该模块首先通过深度超参数化卷积从上至下、从下至上融合不同尺度下的特征,加强待检测目标的特征纹理,使得模型能够检测出这两类目标.再通过特征自校准模块对融合后的特征进行过滤,加强或抑制特征图上的每一像素点,使得模型可以在融合后的特征图上进行精确的检测.此外为加速模型收敛,使用解耦合的检测头替换原Yolov4中的耦合检测头,使目标定位任务与安全帽佩戴状态的分类任务相互独立.最后为提升模型对于重叠目标的检测能力,提出了软性非极大值抑制后处理算法Soft-CIo U-NMS.实验结果表明,该改进的Yolov4模型能够准确地识别出室内作业人员是否佩戴安全帽,准确率达到了95.1%.相比于原Yolov4模型,该模型对位于监控摄像头远端的模糊、微小目标和监控图像中重叠目标的检测能力有明显提升...  相似文献   

7.
基于改进YOLOv3的交通标志检测   总被引:2,自引:0,他引:2  
针对交通标志检测小目标数量多、定位困难及检测精度低等问题,本文提出一种基于改进YOLOv3的交通标志检测算法.首先,在网络结构中引入空间金字塔池化模块对3个尺度的预测特征图进行分块池化操作,提取出相同维度的输出,解决多尺度预测中可能出现的信息丢失和尺度不统一问题;然后,加入FI模块对3个尺度特征图进行信息融合,将浅层大特征图中包含的小目标信息添加到深层小特征图中,从而提高小目标检测精度.针对交通标志数据集特点,使用基于GIoU改进的TIoU作为边界框损失函数替换MSE函数,使得边界框回归更加准确;最后,通过k-means++算法对TT100K交通标志数据集进行聚类分析,重新生成尺寸更小的候选框.实验结果表明,本文算法与原始YOLOv3算法相比mAP提升11.1%,且检测每张图片耗时仅增加6.6 ms,仍符合实时检测要求.与其他先进算法相比,本文算法具有更好的检测精度和检测速度.  相似文献   

8.
基于深度学习的方法,运用单次多框检测器(SSD)目标检测框架和自注意力机制,针对施工人员佩戴安全帽数据集进行神经网络训练.通过调整原始SSD目标检测框架中的参数,并向SSD目标检测框架中添加自注意力模块来计算特征图中像素点之间相互影响,以提高算法对目标检测的关注度,扩大卷积神经网络的感受野,从而提高目标检测的准确率.实验结果表明:改进算法在应对小目标检测以及目标之间的遮挡方面有很好的适应性,同时与其他检测算法相比,检测成功率有明显提高.  相似文献   

9.
为解决现有的低照度图像增强方法存在的色彩失真、细节损失以及暗区增强不足和亮区增强过度导致低照度图像增强效果不理想的问题,提出了一种从局部到全局的零参考低照度图像增强方法。采用局部照度增强对低照度图像进行像素级增强,改进了自适应光照映射估计函数,提升了照度调整能力,避免了生成大量的迭代参数,提高了模型的推理速度;采用基于Transformer结构的全局图像调整对局部增强后的图像进行全局调整,解决了亮区照度增强过度的曝光问题和暗区照度增强不足的问题,提升了图像的整体对比度;优化损失函数,对低照度图像特征和增强图像特征进行相似性约束,提升了目标检测精度。实验结果表明,LOL数据集上的客观指标峰值信噪比和结构相似性达到了20.18 dB和0.80,MIT-Adobe FiveK数据集上达到了23.31 dB和0.87,ExDark数据集上增强后图像的目标检测精度提高了7.6%,有效提升了低照度图像可视化质量和目标检测效果。  相似文献   

10.
目标检测是遥感图像处理领域的一项重要技术,遥感图像目标种类繁多且存在目标物体难以被检测.提出把YOLOv5算法应用到遥感图像目标检测的方法,首先选择YOLOv5x来构建网络模型,再通过Mosaic数据增强对样本集进行预处理和自适应锚框筛选方法确定锚框大小,然后切片卷积操作得到原始特征图,将原始特征图送入主干网络进行特征融合得到最优权重,最后采用GIOU Loss做边界框的损失函数和非极大值抑制目标框的筛选,对遥感图像进行目标检测.在公开的10类地理空间物体(NWPU-VHR 10)数据集进行了检测实验,以评估所提出模型的目标检测性能.对比实验表明,本文的模型mAP达到了0.9239,与使用相同数据集的模型中的最佳结果进行比较,mAP提升了1.78%,该方法可以提高遥感图像目标检测精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号