首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
道路交通标志检测是智能交通的重要环节之一,针对交通标志检测存在背景复杂、目标较小、检测速度慢等问题,选取工业界青睐的YOLOv3模型提出一种改进的检测方法。利用双向特征金字塔结构实现图像低、中、高层特征语意信息的双向融合,提升低层预测目标的分类和高层预测目标的定位能力;将原模型的主干特征提取网络进行改进,提出Darknet23网络,以提高网络的提取能力和减少计算量;根据目标形状的特点,使用K-means聚类算法得到用于训练合适的锚点框,并在边框回归中引入灵活性更强的Lα-CIOU损失函数,使网络朝着预测框与真实框重叠度较高的方向去优化。实验结果表明,该方法在CCTSDB数据集上mAP@0.75达到86.10%、mAP@0.5:0.05:0.95达到70.017%,相比原网络分别提升10.17%和5.656%,参数量减少3 622 091,速度提升8.27 f/s,且优于SSD和Faster RCNN等主流的检测网络。  相似文献   

2.
针对因背景与人脸高度相似和人脸目标尺度过小而导致的人脸检测精度较低的问题,提出了一种改进的基于YOLOv3的人脸检测算法。首先使用遗传算法改进原算法中随机初始化的影响,生成更符合目标大小的预测框,其次用轻量级网络改进原特征提取网络,提高人脸检测速度,最后使用边框回归损失代替YOLOv3坐标损失函数并改进置信度损失函数以提升训练收敛速度和结果精度。所设计的算法模型在Wider Face数据集上的检测精度和速度得到了提升。  相似文献   

3.
轴承防尘盖在装配过程中易出现各种擦伤、压痕等缺陷,从而影响配套主机的精度、可靠性及寿命,急需研发自动化的轴承表面缺陷检测设备来提高我国轴承生产水平。采用自主设计的自动化检测设备,利用机器视觉结合图像处理方法对轴承表面图像进行采集、分析和处理;采用连通域检测和轮廓筛选方法对轴承外轮廓进行提取;采用最小二乘法拟合外轮廓圆得到圆心及外径,结合半径占比分离法实现防尘盖圆环区域的提取;采用改进算法对防尘盖圆环图像进行展开以避免图像展开时字符或缺陷的误分割;采用垂直方向投影法分离字符区和非字符区,通过连通域检测法对两部分是否存在缺陷分别进行判别。实验结果表明,采用自主设计的轴承检测设备结合最小二乘法、OTSU法、改进的图像展开和投影算法,可实现轴承防尘盖缺陷的自动化检测,正确识别率为96.9%。  相似文献   

4.
针对驾驶场景中目标检测卷积神经网络模型检测精度较低的问题,提出一种基于改进RefineDet网络结构的多尺度特征融合目标检测方法。在RefineDet网络结构中嵌入LFIP(Light-weight Featurized Image Pyramid,轻量级特征化的图像金字塔)网络,将LFIP网络生成的多尺度特征图与RefineDet中的ARM(Anchor Refinement Module,锚点框修正模块)输出的主特征图相融合,提升特征层中锚点框初步分类和回归的输出效果,为ODM(Object Detection Module,目标检测模块)模块提供修正的锚点框以便于进一步回归和多类别预测;在RefineDet网络结构中的ODM之后嵌入多分支结构RFB(Receptive Field Block,感受野模块),在检测任务中获得不同尺度的感受野以改善主干网络中提取的特征。将模型中的激活函数替换为带有可学习参数的非线性激活函数PReLU(Parametric Rectified Linear Unit,参数化修正线性单元),加快网络模型的收敛速度;将RefineDet的边界框回归损失函数替换为排斥力损失函数Repulsion Loss,使目标检测中的某预测框更靠近其对应的目标框,并使该预测框远离附近的目标框及预测框,可以提升遮挡情况下目标检测的精度;构建驾驶视觉下的目标检测数据集,共计48 260张,其中38 608张作为训练集,9 652张作为测试集,并在主流的GPU硬件平台进行验证。该方法的mAP为85.59%,优于RefineDet及其他改进算法;FPS为41.7 frame/s,满足驾驶场景目标检测的应用要求。实验结果表明,该方法在检测速度略微下降的情况,能够较好地提升驾驶视觉下的目标检测的精确度,并能够一定程度上解决驾驶视觉下的遮挡目标检测和小目标检测的问题。  相似文献   

5.
动态轮廓模型是提取图像中物体轮廓的一种有效方法。文章首先对FeAl/ZrO2陶瓷基复合材料的压痕图像进行了自适应阀值分割,然后利用改进的动态轮廓模型对其进行了轮廓提取,得到了压痕的对角线长度,进而计算出材料的硬度。并对传统方法和本文提出的方法的误差做出了对比分析。该方法可以对显微组织维氏硬度试验压痕准确地提取,并自动计算维氏硬度,从而实现了维氏显微硬度测量的高效率与自动化。  相似文献   

6.
针对传统目标检测模型参数量巨大,制约算法部署与模型推理实时性的问题,提出一种基于改进RetinaNet检测模型的轻量化实时目标检测网络。使用MobileNet-V2代替RetinaNet模型中的ResNet骨干网络,降低整体模型的参数量;设计锚框引导采样机制,基于特征金字塔输出特征层生成感兴趣区域掩码,减少背景区域冗余锚框,降低后处理过程中的计算复杂度;引入GFocalLossV2损失函数统计预测边框分布特征,优化预测边框质量以及提升分类准确度。该模型在自制多类别工件数据集WP和Pascal VOC公开数据集上进行验证实验,改进模型的检测准确率分别达到99.5%、80.5%,检测速度分别达到39.8?FPS、38.3?FPS。实验结果表明,该轻量级目标检测模型能够实现实时检测,同时保证了检测精度。  相似文献   

7.
YOLOv3检测算法中的边界框回归损失函数对边界框尺度敏感,且与算法检测效果评价标准交并比(IoU)之间的优化不具有强相关性,无法准确反映真值框与预测框之间的重叠情况,造成收敛效果不佳。针对上述问题,提出基于IoU的改进边界框回归损失算法BR-IoU。将IoU作为边界框回归损失函数的损失项,使不同尺度的边界框在回归过程中获得更均衡的损失优化权重。在此基础上,通过添加惩罚项最小化预测框与真值框中心点间围成的矩形面积,并提高预测框与真值框之间宽高比的一致性,从而优化边界框的回归收敛效果。在PASCAL VOC和COCO数据集上的实验结果表明,在不影响实时性的前提下,BR-IoU能够有效提高检测精度,采用BR-IoU的YOLOv3算法在PASCAL VOC 2007测试集上mAP较原YOLOv3算法和G-YOLO算法分别提高2.5和1.51个百分点,在COCO测试集上分别提高2.07和0.66个百分点。  相似文献   

8.
为了缩小目前行人再识别算法与真实世界中行人检索任务之间在应用上的差距,将行人检测与再识别这2个模块融为一体,提出一种基于改进的FasterR-CNN的行人检索算法.首先采用对边框进行迭代回归的方法改进原FasterR-CNN中的候选行人边框精度;然后利用包含欧氏距离和余弦距离的混合相似性距离函数来增强网络对于行人相似度的辨识能力;最后利用中心损失函数对网络的损失函数进行改进,通过提高不同行人特征的可区分度,实现更加精准的目标行人检索功能.基于CUHK-SYSU数据集的仿真实验结果表明,该算法的累积匹配特性(CMC top-1)、平均精度均值(mAP)分别为81.6%和78.9%;与相关行人检索算法相比, CMC top-1提升3.0%~18.0%, mAP提升3.0%~23.0%.  相似文献   

9.
为了提高现有口罩检测算法检测效率,降低算法参数量以及模型大小,提出了一种改进的轻量化口罩检测算法YOLOv5-MBF。用GELU激活函数替换MobileNetV3深层网络的hard-swish激活函数,优化了模型收敛效果,将改进的MobileNetV3网络替换YOLOv5s主干网络,降低计算量提高模型检测速度。增加BiFPN特征金字塔结构与不同特征层融合,提高了检测精度。在数据处理方面使用Mosaic和Mixup数据增强提高该模型的泛化性和鲁棒性。边框回归损失函数使用Focal-Loss EIoU,优化了模型训练收敛速度且提高了口罩和人脸边框定位精度。最后添加CBAM注意力机制使得模型更关注重要特征抑制不显著特征提高检测性能。实验结果表明,该算法在佩戴口罩目标和无佩戴口罩目标上的平均精度均值达到了89.5%,模型推理速度提升了43%,模型参数了减少了49%,模型大小降低了48%,满足口罩检测任务的实时性和检测精度要求。  相似文献   

10.
聂鑫  刘文  吴巍 《计算机应用》2005,40(9):2561-2570
为提升水上交通安全监管的智能化水平,进一步提高基于深度学习的船舶目标检测算法的定位精度和检测准确率,在传统YOLOv3算法基础上,提出用于船舶目标检测的增强YOLOv3算法。首先,在网络预测层引入预测框不确定性回归,以预测边界框的不确定性信息;然后,使用负对数似然函数和改进的二值交叉熵函数重新设计损失函数;其次,针对船舶形状使用K均值聚类算法重新设计先验锚框尺寸并平均分配到对应预测尺度;在网络训练阶段,使用数据增强策略扩充训练样本数量;最后,使用加入高斯软阈值函数的非极大值抑制(NMS)算法对预测框进行后处理。对各种改进方法和不同目标检测算法在真实海事视频监控数据集上进行对比实验。实验结果显示,与传统YOLOv3算法相比,带有预测框不确定性信息的YOLOv3算法的假正样本(FP)数量降低了35.42%,真正样本(TP)数量提高了1.83%,所以提高了准确率;增强YOLOv3算法在船舶图像上的平均准确率均值(mAP)达到87.74%,与传统YOLOv3算法和Faster R-CNN算法相比分别提高了24.12%和23.53%;所提算法的每秒钟检测图像数量达到30.70张,满足实时检测的要求。实验结果表明,所提算法在雾天和低照度等不良天气条件与复杂通航背景下,均能实现船舶目标的高精度稳定实时检测。  相似文献   

11.
对于物品的纹理特征容易影响到抓取检测的精度,且原始的默认锚框不适合待抓取检测目标的尺度,以及在小目标物体检测效果不佳等问题,该文通过以下方法进行改进。首先通过图像处理将物品的原始图像经过处理使其只具有物品的轮廓信息,然后采用KMeans得到适合所检测目标的锚框尺度,以基于YOLOv4的神经网络模型建立改进后的YOLOv4抓取检测模型,最后去除YOLOv4中检测较大物体19×19的特征层检测层及其附近的卷积及池化层,以此降低系统复杂度减少参数,并且将第11层和第109层进行特征融合得到特征尺寸152×152使其能够更好地提取小目标特征。将原始图像和只具有轮廓信息的图像分别送入改进前和多种进行改进后的网络进行检测性能的分别对比。实验结果表明经过改进的网络抓取检测的平均成功率为81.5%,比原始的YOLOv4提高了4.3%,有效提升了抓取检测的精度并且加强了检测小目标的能力。  相似文献   

12.
为了提高桥梁裂缝检测水平,解决目前手工检测费时费力和传统图像处理方法需要人工设定参数的问题,提出一种基于改进GoogLeNet的桥梁裂缝检测算法。首先,构建了一个较大规模的桥梁裂缝数据集RLH(Retinex-Laplace-Histogram equalization)用于模型的训练和测试。其次,基于原始的GoogLeNet模型,采用归一化的卷积核改进了inception模块,采用三种改进方案修改网络开头,去掉第七个及以后的inception层,建立桥梁裂缝特征图像分类系统。最后,利用滑动窗口精准定位裂缝并结合骨架提取算法计算裂缝的长度和宽度。实验结果表明,改进的GoogLeNet网络与原始GoogLeNet网络相比,识别准确率提升了3.13%,训练时间减少为原来的64.6%。另外,骨架提取算法能够考虑裂缝的走势,计算宽度更加准确,且最大宽度和平均宽度都能计算。综上所述,所提分类和测量方法具有准确度高、速度快、定位准确、测量准确等特点。  相似文献   

13.
检测障碍物是机器人自主移动的基础. 为了提高检测的障碍物效率和准确率, 提出一种基于RGBD摄像头的障碍物检测方法, 主要分为障碍物识别和检测长度, 宽度两部分. 在障碍物形状不规则的前提下, 通过摄像头实时采集图像传输到数据处理中心, 用改良的帧差法、最小矩形法匹配法和图像处理等方法来确定障碍物轮廓, 利用深度图像及其阈值得出障碍物距摄像头的相对位置, 同时, 用坐标转换法计算出障碍物的高度与宽度. 结果显示, 在不同位置检测同一物体的误差不超过9%. 因此, 改良的帧差法检测障碍物轮廓准确率高, 坐标转换法速度快, 可以证明基于RGBD摄像头的障碍物检测设计检测效果良好.  相似文献   

14.
为解决基于视频流的人体关键点检测效果不佳及视频流切片后可能会发生运动模糊的问题,提出了一种改进的RetinaNet-CPN网络对人体关键点进行检测,有效解决切片后运动模糊图像的干扰并提高了人体关键点的检测准确率.视频流切片后,先用改进的RetinaNet网络检测出图片中的所有人并对每个目标框做模糊检测,对大于阈值的目标框做去模糊处理,最后用引入注意力机制的CPN网络提取关键点.将RetinaNet衡量预测框与真实框差异的IOU函数改成DIOU后,在仿真实验中目标检测AP提高了近3%;对于模糊的图片,利用匀速直线运动频谱特征估算出的模糊核与实际模糊核相差不大,对其做去模糊处理后基本能恢复出原清晰图片;同时引入注意力机制为各通道和特征层分配合理的权重,使得CPN检测AP提高近1%,AR提升0.5%.  相似文献   

15.
SSD算法利用多尺度特征图进行分类和位置回归,检测小目标效果优于YOLO算法,但SSD算法在进行车辆检测时存在漏检问题。为此,提出一种改进SSD算法。为提取更多的车辆特征信息,设计改进Inception模块替代SSD网络中的Conv8、Conv9和Conv10层。将浅层特征的位置信息和深层特征的语义信息进行均衡化融合,构建多尺度特征融合均衡化网络,提高小目标车辆识别率。在特征提取层均引入SENet,对不同特征通道的重要性进行重标定以提高模型性能。实验结果表明,改进后SSD算法在自制的车辆数据集上平均精度为90.89%,检测速度达到59.42 frame/s,相比改进前的SSD算法,在精度和速度上分别提高2.65个百分点和17.41 frame/s,能够更快速、准确地对图像中的车辆进行识别和定位。  相似文献   

16.
针对车辆目标检测中存在遮挡目标导致检测精度低、小目标检测效果差等问题,提出一种基于YOLO v4改进的目标检测算法YOLO v4-ASC。通过在主干提取网络尾部加入卷积块注意力模块,提升网络模型的特征表达能力;改进损失函数提升网络模型的收敛速度,利用Adam+SGDM优化方法替代原始模型优化方法SGDM,进一步提升模型检测性能。此外,利用K-Means聚类算法优化先验框尺寸大小,并合并交通场景数据集中的car、truck、bus类别为vehicle,将本文问题简化为二分类问题。实验结果表明,本文提出的YOLO v4-ASC目标检测算法在保持原算法检测速度的基础上,AP达到了70.05%,F1-score达到了71%,与原YOLO v4算法相比,AP提升了9.92个百分点,F1-score提升了9个百分点。  相似文献   

17.
为解决分辨率超限问题,实现对遥感图像帧特征对象的精准识别,提出基于边缘检测及RBF神经网络的遥感图像帧特征动态识别技术。求解微分算子与OTSU阈值,并以此为基础,确定边缘节点追踪参数的取值范围,实现对遥感图像边缘检测。根据RBF神经网络机制的构建标准,推导神经性激活函数,完成RBF神经网络识别模型的设计。在所选遥感图像中,实施帧特征分割处理,再联合动态合并条件,计算超像素指标与并行识别参量,完成基于边缘检测及RBF神经网络的遥感图像帧特征动态识别方法的设计。实验结果表明,在边缘检测与RBF神经网络模型的作用下,主机元件在长、宽、高三个方向上对于遥感图像帧特征对象的识别精度都达到了100%,分辨率超限问题得到较好解决,符合精准识别遥感图像特征的实际应用需求。  相似文献   

18.
为解决健全人士与听障人士交互信息困难的问题,提出一种改进YOLOv5s网络模型的手语识别网络。应用[K]-means++算法提高先验锚框的尺寸匹配度,确定了最优先验锚框尺寸,实现先验锚框与实际物体的精确匹配;改进CBAM(convolution block attention module)注意力机制的通道域,解决其因降维而造成的通道信息缺失问题,并将改进后的CBAM加入到YOLOv5s的骨干网络中,使模型更加精准地定位和识别到关键的目标。将Cross Entropy Loss和Lovasz-Softmax Loss加权结合使用,使得网络在模型训练过程中更加稳定地收敛,在精准率上也得到了一定的提升。实验结果表明,与原本的YOLOv5s模型相比,改进后网络模型的平均精度均值(mean average precision,mAP)、精准率和召回率分别提升了3.44个百分点、3.17个百分点、1.89个百分点,有效地提高了手语识别网络的检测精确度。  相似文献   

19.
改进YOLO轻量化网络的口罩检测算法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对目前YOLO轻量网络在口罩佩戴检测任务中出现的特征提取不足和特征利用率不高的问题,提出了一种基于改进YOLOv4-tiny的轻量化网络算法。增加Max Module结构以获取更多目标的主要特征,提高检测准确率。提出自下而上的多尺度融合,结合低层信息丰富网络的特征层次,提高特征利用率。使用CIoU作为边框回归损失函数,加快模型收敛速度。相较于原算法,在公开数据集PASCAL VOC和口罩佩戴检测任务中,mAP分别提高4.9个百分点和3.3个百分点,检测速率分别达到74 frame/s和64 frame/s,满足口罩佩戴检测任务的准确率和实时性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号