首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 45 毫秒
1.
为快速、准确识别马铃薯芽眼,提高种薯发芽率,提出一种基于卷积神经网络的马铃薯芽眼识别方法。针对多视角和不同程度重叠的马铃薯芽眼图像,通过数据增广及图像预处理建立数据库。在此基础上,利用YOLOv3网络的高性能特征提取特性,实现马铃薯芽眼的快速准确识别。结果表明:YOLOv3网络对含有单个无遮挡芽眼的样本、含有多个有遮挡芽眼的样本及含有机械损伤、虫眼及杂质的样本均能够实现良好稳定的识别,最终检测精确度P为97.97%,召回率R为96.61%,调和平均值F1为97%,识别平均精度mAP为98.44%,单张检测时间为0.018 s。对比分析YOLOv4-tiny及SSD等网络后可知,YOLOv3模型可同时满足马铃薯芽眼识别的精度与速度要求。因此,YOLOv3网络对马铃薯芽眼识别具有良好的鲁棒性,为马铃薯切种机实现自动化切种奠定基础。  相似文献   

2.
为了实现马铃薯智能化切块中芽眼自动识别,提出了一种基于Gabor特征的马铃薯图像芽眼识别方法。首先,设计了马铃薯图像采集系统,采集马铃薯图像;然后,进行马铃薯图像中芽眼特征分析,并基于Gabor特征进行马铃薯图像滤波,选择方向2和尺度4下的滤波图像进行形态学图像处理;最后,通过剔除马铃薯边界连通区域进行芽眼区域提取。选择50张马铃薯图像进行芽眼识别试验,结果表明:提出的算法芽眼识别率为93.4%,误识别率为7.2%,平均识别速度为0.28s。本算法可为马铃薯智能化切块中的芽眼自动识别提供方法。  相似文献   

3.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

4.
基于改进Faster R-CNN的马铃薯芽眼识别方法   总被引:3,自引:0,他引:3  
为提高对马铃薯芽眼的识别效果,提出一种基于改进Faster R-CNN的马铃薯芽眼识别方法。对Faster R-CNN中的非极大值抑制(Non maximum suppression, NMS)算法进行优化,对与M交并比(Intersection over union, IOU) 大于等于Nt的相邻检测框,利用高斯降权函数对其置信度进行衰减,通过判别参数对衰减后的置信度作进一步判断;在训练过程中加入采用优化NMS算法的在线难例挖掘 (Online hard example mining, OHEM) 技术,对马铃薯芽眼进行识别试验。试验结果表明:改进的模型识别精度为96.32%,召回率为90.85%,F1为93.51%,平均单幅图像的识别时间为0.183s。与原始的Faster R-CNN模型相比,改进的模型在不增加运行时间的前提下,精度、召回率、F1分别提升了4.65、6.76、5.79个百分点。改进Faster R-CNN模型能够实现马铃薯芽眼的有效识别,满足实时处理的要求,可为种薯自动切块中的芽眼识别提供参考。  相似文献   

5.
种薯芽眼的准确识别是实现智能切块的重要前提。为解决种薯芽眼机器视觉识别易出现误判和不易获取芽眼三维位置信息而导致切块不均匀的问题,提出一种基于激光三维重建的种薯芽眼识别方法。确定点云获取过程中ROI区域消除采集过程中背景的影响,通过工业相机与线激光器相配合连续采集移动种薯的激光光条图像获取其点云数据;根据点云密度去除随机噪声和裙边噪声,提高点云质量,降低芽眼误判率。采用体素滤波算法稀疏点云,提高识别效率;通过对种薯表面任意点的局部邻域进行平面拟合后获取点云法向量,构建加权协方差矩阵参数化种薯表面点云,根据矩阵特征值大小设定的动态阈值对种薯表面点云进行初步筛选,得到种薯芽眼判别的候选点,采用欧式聚类算法获取候选点的点云簇,选取每个点云簇中最大特征值点为关键点,利用计算关键点和邻域内其他点构成的中心线连线向量与法向量夹角余弦值对关键点再次筛选,最终确定种薯各个芽眼位置。试验结果表明,芽眼识别率为95.13%,芽眼误识别率为4.87%,可为马铃薯种薯智能化切块时芽眼识别提供参考。  相似文献   

6.
针对智能网联汽车大发展环境下骑车人在公路上为易受伤群体的问题,将目标识别作为无人驾驶技术中的关键一环,提出使用YOLOv3算法对骑车人识别算法进行研究。YOLOv3的主干特征提取网络为Darknet-53,此种网络结构针对于多种类目标检测适用性强,然而公路骑车人作为单种类目标,Darknet-53网络结构显得冗繁。基于此,提出一种在YOLOv3算法基础上记性改进的算法,通过替换主干特征提取网络为Dark-19简化网络结构,降低网络复杂度,之后优化损失函数,将原来的Io U替换成CIo U,以提高识别精度。通过在TDCB上进行仿真实验,结果表明,改进后的YOLOv3算法平均检测精度和检测速度都有所提高,精度上提高了约3%,检测速度上约提高了0.013 s,此种改进后的算法有助于提高公路骑车人的安全性,对骑车人识别研究有着重要意义。  相似文献   

7.
为解决目前农业采摘机器人目标难以识别与定位的问题,在原有农业采摘机器人的基础上,提出一种改进YOLOv3算法和3D视觉技术相结合的方法,实现目标的准确识别和精准定位,并利用标定完成目标坐标系和机器人坐标系的转换。通过试验分析改进YOLOv3算法的性能,并与之前的YOLOv3算法、Fast RCNN算法和Faster RCNN算法进行综合比较,研究表明所采用的改进YOLOv3算法和3D视觉具有较高的识别准确度和定位精度,识别准确率分别提高55%、9%、1.4%,最大定位误差分别降低0.69、0.44、0.28 mm,可以较好地完成后续采摘工作,对于农业机器人的发展具有重要的参考价值。  相似文献   

8.
针对辣椒采摘受环境光、枝叶遮挡和果实重叠的影响问题,构建了基于YOLOv3模型和realsense深度相机的识别定位系统,研究不同补光位置、枝叶遮挡和果实重叠程度对辣椒识别和定位精度的影响规律。结果表明:模型召回率Recall达0.98,平均精度均值mAP达0.95,精确率precision达0.854;不同光照场景下,识别成功率由高到低依次为正向光、顶光、侧光和背光;轻度枝叶遮挡和轻微果实重叠时,模型识别成功率均保持在96%左右,综合定位误差最大为0.024m,满足辣椒采摘机器人识别和定位精度需求。  相似文献   

9.
基于改进YOLOv3的温室番茄果实识别估产方法   总被引:3,自引:0,他引:3  
为实现温室番茄产量智能化在线评估,研究基于改进YOLOv3的温室番茄红果和绿果识别方法,以对自然生长状态下番茄果实进行计数估产.根据工厂化番茄种植工况条件,设计产量估计视觉系统;提出基于广义交并比(GIOU)的位置损失函数,对传统YOLOv3算法损失函数进行改进,其尺度不变特征可有效提高形态各异果实目标的描述精度.在样...  相似文献   

10.
【目的】为在养殖场实现非接触对病死、死因不明或染疫猪猪头进行目标检测。【方法】课题组提出了一种基于YOLOv3的病死猪猪头的识别方法,将采集的病死猪图片通过处理制成数据集,并按一定比例分成训练验证集与测试集,通过YOLOv3模型训练,得到预训练权重参数,用评价指标对模型检测效果进行评估,从而获得最优模型的训练测试比。【结果】在训练测试比为8∶2时,YOLOv3算法模型对病死猪猪头的识别平均精度值达91.74%,准确率达95.56%,召回率达89.58%,满足目标检测精度要求,且该模型的平均准确率、准确率、召回率均高于SSD和FasterR-CNN算法模型。【结论】YOLOv3算法模型有助于在对病死猪进行无害化处理时,为机械手提供抓取目标,实现处理设备的智能化、无人化发展。  相似文献   

11.
传统的棉花病虫害检测方法依赖于植物保护专家或经验丰富的农民,这种方法费时费力,并且对于人眼难以观察到的微小病变识别准确率较低。如何利用深度学习方法提高识别的准确率和效率,降低人力成本,并且能够对微小病变进行准确识别提出了新的挑战。针对此问题,提出一种准确率高和实时性好的基于改进YOLOv8的棉花虫害检测算法。首先,使用DCNv3结构,替换YOLOv8 C2模块中的Bottleneck结构中的普通卷积,形成新的模块记为C2f-DCNv3;其次,在Head的最后一个C2f-DCNv3模块后面加入高效通道注意力,在提升模型的精度的同时保持能够实现实时检测。在开源的CottonInsect棉田昆虫识别研究图像数据集上的实验结果表明:所改进方法的mAP为0.706,Inference Time为0.6ms,模型大小为5.7M,相较于原模型YOLOv8n,mAP提升3.0,Inference Time提升0.1ms,模型大小基本保持不变,实现了对于棉花虫害准确且高效的识别。  相似文献   

12.
基于双目相机与改进YOLOv3算法的果园行人检测与定位   总被引:2,自引:0,他引:2  
景亮  王瑞  刘慧  沈跃 《农业机械学报》2020,51(9):34-39,25
针对复杂果园环境中行人难以精确检测并定位的问题,提出了一种双目相机结合改进YOLOv3目标检测算法的行人障碍物检测和定位方法。该方法采用ZED双目相机采集左右视图,通过视差原理获取图像像素点的距离信息;将双目相机一侧的RGB图像作为用树形特征融合模块改进的YOLOv3算法的输入,得到行人障碍物在图像中的位置信息,结合双目相机获得的像素位置信息计算出相对于相机的三维坐标。用卡耐基梅隆大学国家机器人工程中心开放的果园行人检测数据集测试改进的YOLOv3算法,结果表明,准确率和召回率分别达到95.34%和91.52%,高于原模型的94.86%和90.19%,检测速度达到30.26 f/ms。行人检测与定位试验表明,行人障碍物的定位在深度距离方向平均相对误差为1.65%,最大相对误差为3.80%。该方法具有快速性和准确性,可以较好地实现果园环境中的行人检测与定位,为无人驾驶农机的避障决策提供依据。  相似文献   

13.
基于YOLOv3目标检测的秧苗列中心线提取方法   总被引:3,自引:0,他引:3  
针对秧苗列中心线的检测结果易受到水田中的浮萍、蓝藻以及水面反射、风速、光照情况等自然条件影响的问题,提出一种基于YOLOv3目标检测的秧苗列中心线检测算法。基于透视投影计算提取图像的ROI(Region of interest)区域,采用ROI图像构建数据集,对YOLOv3模型进行训练,训练过程中通过减少YOLOv3模型的输出降低运算量,利用模型识别定位ROI内的秧苗,并输出其检测框,对同列秧苗的检测框进行自适应聚类。在对秧苗图像进行灰度化和滤波处理后,在同类检测框内提取秧苗SUSAN(Smallest univalue segment assimilating nucleus)角点特征,采用最小二乘法拟合秧苗列中心线。试验结果表明,该算法对于秧苗的不同生长时期,以及在大风、蓝藻、浮萍和秧苗倒影、水面强光反射、暗光线的特殊场景下均能成功提取秧苗列中心线,鲁棒性较好,模型的平均精度为91.47%,提取的水田秧苗列中心线平均角度误差为0.97°,单幅图像(分辨率640像素×480像素)在GPU下的平均处理时间为82.6 ms,能够满足视觉导航的实时性要求。为复杂环境下作物中心线的提取提供了有效技术途径。  相似文献   

14.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

15.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型.基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测.结果表明,基于YOLOv4的猪只饮食行为检测模型...  相似文献   

16.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

17.
基于高光谱图像与果蝇优化算法的马铃薯轻微碰伤检测   总被引:3,自引:0,他引:3  
针对通常采用的反射高光谱无法准确检测随机放置马铃薯表面轻微碰伤的问题,提出了一种用V型平面镜的高光谱并结合果蝇优化算法(FOA)检测马铃薯轻微碰伤的方法。试验搭建了V型平面镜反射高光谱图像采集系统,分别采集随机放置下的轻微碰伤和合格马铃薯的高光谱图像,每张高光谱图像包含平面镜1反射图像F1、相机直接采集图像F2、平面镜2反射图像F3,分别提取F1、F2、F3感兴趣区域的平均光谱拼接成马铃薯的属性矩阵。采用标准正态变量变换(SNV)预处理后的光谱矩阵进行全波段的支持向量分类机(SVC)建模,预测集的识别率仅为84.11%;为了提高模型的性能,采用蚁群算法(ACO)进行变量优选,优选出9个变量建立的SVC模型预测准确率为95.32%;分别用网格搜索法(Grid search)、遗传算法(GA)和FOA对SVC的惩罚参数c和核函数参数g进行寻优,通过比较分析,FOA-SVC对训练集和预测集的识别准确率均达到100%。试验结果表明,用V型平面镜的高光谱结合FOA-SVC能够准确检测马铃薯的轻微碰伤,可为马铃薯的轻微碰伤在线检测提供技术基础。  相似文献   

18.
马铃薯收获过程中块茎运动仿真分析   总被引:5,自引:0,他引:5  
重点研究马铃薯收获机振动筛运动参数与块茎损伤之间的关系;应用虚拟样机来代替物理样机进行验证设计;采用ADAMS仿真软件对振动筛和块茎进行运动仿真,获得了振动筛运动的速度、加速度、位移和动能曲线,能够有效地判断块茎沿筛面的运动状态;针对圆形和椭圆形两种块茎,分析了振动频率和振幅对块茎损伤率的影响,为今后马铃薯收获机振动筛的设计与分析提供了有力的依据。  相似文献   

19.
马铃薯种植过程中,播种是十分重要的环节,播种质量的好坏将直接影响马铃薯的产量和质量,最终影响种植户的收入。播种单体是马铃薯播种机的核心机构,播种机具的工作效果由播种单体的效果决定。为了提高马铃薯播种机的播种精度,重点解决马铃薯播种机在播种过程中出现的易伤薯种、重播漏播严重及株距不均等问题,重点研究了马铃薯机械式取种技术。为此,综合国内外有关的马铃薯取种的先进技术,并以解决市场上播种机械普遍存在的问题为目标,对马铃薯机械式取种技术进行完善和改进,使其达到最佳的工作效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号