首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 375 毫秒
1.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

2.
为实现割草机器人在计算资源有限的情况下快速、准确地定位并识别工作环境中的障碍物,提出一种基于滤波器剪枝的改进YOLOv5s深度学习模型的割草机器人工作环境下障碍物的检测方法。首先,将YOLOv5模型中的Bottleneck残差块改为分层残差结构,以更细粒度地表示多尺度特征,同时增加网络感受野;另外,在残差块尾部加入SE模块,用来对特征图重新标定;其次,对改进后的算法进行滤波器剪枝;最后,针对割草机器人工作环境中的常见障碍物建立相关数据集,并使用剪枝后改进YOLOv5s作为深度学习模型进行检测。试验结果表明:改进后的YOLOv5模型大小减少188%,mAP增加0.1%。对改进YOLOv5模型进行剪枝后,比原YOLOv5模型计算量降低36.6%,模型大小降低333%,推理速度减少1.9 ms。剪枝后本文模型的mAP值分别比YOLOv4,YOLOv4-tiny,YOLOv3,YOLOv3-tiny高1.3%,9.5%,5.8%,22.1%。  相似文献   

3.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

4.
为提高智能甘蔗收获的准确性,降低算法对部署的高算力要求,利用轻量级目标检测算法YOLOv4-tiny相对YOLOv4算法更简化的网络结构、更高的推理速度等优点,提出基于MobileNet和网络瘦身的两种YOLOv4-ting识别算法方案,并比较二者的精度和模型复杂度。其中,基于网络瘦身算法的YOLOv4-tiny在精度较瘦身前(947%)下降0.6%的情况下,模型复杂度下降为原来的1/3,即瘦身后的FLOPs和Params分别为1.1 G和1 789 658。而以MobileNet为Backbone的YOLOv4-tiny在精度下降1.92%的情况下,它的FLOPs和Params为1.29 G、2 600 068,其在精度和模型复杂度上的表现都不如瘦身后的YOLOv4-tiny模型。结果表明:基于网络瘦身算法的YOLOv4-tiny甘蔗茎节识别模型可有效降低模型复杂度,其计算量对嵌入式设备和移动式设备友好。该研究可为智能甘蔗收割机构的开发提供技术参考。  相似文献   

5.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

6.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

7.
针对蟹味菇生产过程中更好地预估产量,对生长状态做到实时检测的问题,提出了一种基于改进YOLOv8卷积神经网络的蟹味菇识别检测方法。该方法参照PASCAL VOC数据集格式,构建了蟹味菇目标检测数据集,采用添加CBAM注意力机制对原算法进行改进,并且与Faster R-CNN、SSD(single shot multibox detector)、原始YOLOv8等算法进行模型性能的试验对比。试验结果表明,改进的算法明显优于其他算法,其在测试集上的平均精度均值(mean average precision,mAP)和检测速度分别达到95%和91帧/s。此检测精度与检测时间满足蟹味菇的实时识别检测任务,为预估蟹味菇产量,提高生产管理水平提供了理论技术支持。  相似文献   

8.
为解决目前农业采摘机器人目标难以识别与定位的问题,在原有农业采摘机器人的基础上,提出一种改进YOLOv3算法和3D视觉技术相结合的方法,实现目标的准确识别和精准定位,并利用标定完成目标坐标系和机器人坐标系的转换。通过试验分析改进YOLOv3算法的性能,并与之前的YOLOv3算法、Fast RCNN算法和Faster RCNN算法进行综合比较,研究表明所采用的改进YOLOv3算法和3D视觉具有较高的识别准确度和定位精度,识别准确率分别提高55%、9%、1.4%,最大定位误差分别降低0.69、0.44、0.28 mm,可以较好地完成后续采摘工作,对于农业机器人的发展具有重要的参考价值。  相似文献   

9.
针对目前设施农业数字化栽培调控技术中对作物的生育期实时检测与分类问题,提出一种改进YOLOv4的温室环境下草莓生育期识别方法。该方法将注意力机制引入到YOLOv4主干网络的跨阶段局部残差模块(Cross Stage Partial Residual,CSPRes)中,融合草莓不同生长时期的目标特征信息,同时降低复杂背景的干扰,提高模型检测精度的同时保证实时检测效率。以云南地区的智能设施草莓为试验对象,结果表明,本研究提出的YOLOv4-CBAM(YOLOv4-Convolutional Block Attention Module)模型对开花期、果实膨大期、绿果期和成熟期草莓的检测平均精度(Average Precision,AP)分别为92.38%、82.45%、68.01%和92.31%,平均精度均值(Mean Average Precision,mAP)为83.79%,平均交并比(Mean Inetersection over Union,mIoU)为77.88%,检测单张图像时间为26.13 ms。YOLOv4-CBAM模型检测草莓生育期的mAP相比YOLOv4、YOLOv4-SE、YOLOv4-SC模型分别提高8.7%、4.82%和1.63%。该方法可对草莓各生育期目标进行精准识别和分类,并为设施草莓栽培的信息化、规模化调控提供有效的理论依据。  相似文献   

10.
月季病虫害严重影响月季产量和观赏性,将目标检测算法应用到月季病虫害检测中有利于提高月季病虫害检测效率,对实现月季智能化种植培育起到重要支撑作用。针对实际种植场景中复杂背景对病虫害检测的影响,以及病虫害形状大小特点,提出两阶段月季病虫害检测方法TSDDP,首先添加调优后的Inception模块改进YOLOv3模型特征提取与融合能力对自然环境下拍摄的月季多叶片图像进行叶片检测,去除复杂背景中存在的影响因素,然后通过K-means聚类Anchor box优化Faster R-CNN以满足月季病虫害目标检测需求,基于叶片检测结果对叶片病虫害进行检测。通过比较YOLOv3、Faster R-CNN和TSDDP对自然环境下的月季多叶片病虫害检测效果,试验结果表明TSDDP的检测精度和定位准确度均高于其他算法,最终病虫害平均检测精度达到82.26%,有效减少复杂背景造成误检的同时改善小尺度病虫害的检测和定位效果。  相似文献   

11.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型。基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测。结果表明,基于YOLOv4的猪只饮食行为检测模型在不同视角、不同遮挡程度以及不同光照下均能准确预测猪只的饮食行为,在测试集中平均检测精度(m AP)达到95.5%,分别高于YOLOv3、Tiny-YOLOv4模型2.8、3.6个百分点,比Faster R-CNN模型高1.5个百分点,比Retina Net、SSD模型高5.9、5个百分点。本文方法可为智能养猪与科学管理提供技术支撑。  相似文献   

12.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

13.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

14.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

15.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

16.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法。通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集。试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09%。对母猪的识别平均精度均值达95.16%,准确率达96.00%,召回率达96.00%。相较于Faster RCNN,该模型的识别速率是其7倍以上,相较于SSD,该模型的平均精度均值提高9%,说明该模型在识别速率和识别精度上都达到了较高水平。该研究可为猪只个体智能识别、数据监测及养殖信息化等提供理论依据。  相似文献   

17.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号