首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 797 毫秒
1.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

2.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。  相似文献   

3.
基于改进YOLOv3的果树树干识别和定位   总被引:1,自引:1,他引:0  
为提高果园机器人自主导航和果园作业的质量、效率,该研究提出一种基于改进YOLOv3算法对果树树干进行识别,并通过双目相机进行定位的方法。首先,该算法将SENet注意力机制模块融合至Darknet53特征提取网络的残差模块中,SENet模块可增强有用特征信息提取,压缩无用特征信息,进而得到改进后残差网络模块SE-Res模块;其次,通过K-means聚类算法将原始YOLOv3模型的锚框信息更新。果树树干定位通过双目相机的左、右相机对图像进行采集,分别传输至改进YOLOv3模型中进行果树树干检测,并输出检测框的信息,再通过输出的检测框信息对左、右相机采集到的果树树干进行匹配;最后,通过双目相机三角定位原理对果树树干进行定位。试验表明,该方法能较好地对果树树干进行识别和定位,改进YOLOv3模型平均精确率和平均召回率分别为97.54%和91.79%,耗时为0.046 s/帧。在果树树干定位试验中,横向和纵向的定位误差均值分别为0.039 和0.266 m,误差比均值为3.84%和2.08%;与原始YOLOv3和原始SSD模型相比,横向和纵向的定位误差比均值分别降低了15.44、14.17个百分点和21.58、20.43个百分点。研究结果表明,该方法能够在果园机器人自主导航、开沟施肥、割草和农药喷洒等作业中进行果树识别和定位,为提高作业效率、保障作业质量奠定理论基础。  相似文献   

4.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

5.
随着海参养殖业快速发展,利用水下机器人代替人工作业的海参智能捕捞已成为发展趋势。浅海环境复杂,海参体色与环境区分性差、海参呈现半遮蔽状态等原因,导致目标识别准确率低下。此外由于景深运动,远端海参作为小目标常常未被识别成功。为解决上述问题,该研究提出一种基于改进SSD网络的海参目标检测算法。首先通过RFB(Receptive Field Block)模块扩大浅层特征感受野,利用膨胀卷积对特征图进行下采样,增加海参细节、位置等信息,并结合注意力机制,对不同深度特征进行强化,将计算得出的权重与原特征信息相乘以此获得特征图,使结果包含最具代表性的特征,也抑制无关特征。最后实现特征图融合,进一步提升水下海参的识别精度。以实际拍摄的视频进行测试验证,在网络结构层面上,对传统算法进行改进。试验结果表明,基于改进的SSD网络的海参目标检测算法的平均精度均值为95.63%,检测帧速为10.70帧/s,相较于传统的SSD算法,在平均精度均值提高3.85个百分点的同时检测帧速仅减少2.8帧/s。与Faster R-CNN算法和YOLOv4算法进行对比试验,该研究算法在平均精度均值指标上,分别比YOLOv4、Faster R-CNN算法提高4.19个百分点、1.74个百分点。在检测速度方面,该研究算法较YOLOv4、Faster R-CNN算法分别低4.6帧/s、高3.95帧/s,试验结果表明,综合考虑准确率与运行速度,改进后的SSD算法较适合进行海参智能捕捞任务。研究结果为海参智能捕捞提供参考。  相似文献   

6.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

7.
基于改进EfficientDet的油橄榄果实成熟度检测   总被引:2,自引:2,他引:0  
自然环境下自动准确地检测油橄榄果实的成熟度是实现油橄榄果实自动化采摘的基础。该研究根据成熟期油橄榄果实表型特征的变化以及参考国际油橄榄理事会和中国林业行业标准的建议制定了油橄榄果实成熟度标准,并针对油橄榄果实相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进EfficientDet的油橄榄果实成熟度检测方法。首先改进特征提取网络,在特征提取网络中引入卷积注意力模块(Convolution Block Attention Module,CBAM)细化不同成熟度之间的特征映射;其次改进特征融合网络,在加权双向特征金字塔网络(Bidirectional Feature Pyramid Network,Bi-FPN)中增加跨级的数据流加强果实的相对位置信息,最后通过623幅油橄榄测试图像对改进的EfficientDet模型进行测试。改进EfficientDet模型在测试集下的精确率P、召回率R和平均精度均值mAP分别为92.89%、93.59%和94.60%,平均检测时间为0.337 s,模型大小为32.4 M。对比SSD、EfficientDet、YOLOv3、YOLOv5s和Faster R-CNN模型,平均精度均值mAP分别提升7.85、4.77、3.73、1.15和1.04个百分点。改进EfficientDet模型能够为油橄榄果实的自动化采摘提供有效探索。  相似文献   

8.
为解决复杂跨域场景下猪个体的目标检测与计数准确率低下的问题,该研究提出了面向复杂跨域场景的基于改进YOLOv5(You Only Look Once version 5)的猪个体检测与计数模型。该研究在骨干网络中分别集成了CBAM(Convolutional Block Attention Module)即融合通道和空间注意力的模块和Transformer自注意力模块,并将CIoU(Complete Intersection over Union)Loss替换为EIoU(Efficient Intersection over Union)Loss,以及引入了SAM (Sharpness-Aware Minimization)优化器并引入了多尺度训练、伪标签半监督学习和测试集增强的训练策略。试验结果表明,这些改进使模型能够更好地关注图像中的重要区域,突破传统卷积只能提取卷积核内相邻信息的能力,增强了模型的特征提取能力,并提升了模型的定位准确性以及模型对不同目标大小和不同猪舍环境的适应性,因此提升了模型在跨域场景下的表现。经过改进后的模型的mAP@0.5值从87.67%提升到98.76%,mAP@0.5:0.95值从58.35%提升到68.70%,均方误差从13.26降低到1.44。以上研究结果说明该文的改进方法可以大幅度改善现有模型在复杂跨域场景下的目标检测效果,提高了目标检测和计数的准确率,从而为大规模生猪养殖业生产效率的提高和生产成本的降低提供技术支持。  相似文献   

9.
基于改进YOLOv7模型的复杂环境下鸭蛋识别定位   总被引:1,自引:1,他引:0  
在干扰、遮挡等复杂环境下,对鸭蛋进行快速、准确识别定位是开发鸭蛋拾取机器人的关键技术,该研究提出一种基于改进YOLOv7(you only look once)模型的复杂环境鸭蛋检测方法,在主干网络加入卷积注意力模块(CBAM,convolutional block attention module),加强网络信息传递,提高模型对特征的敏感程度,减少复杂环境对鸭蛋识别干扰;利用深度可分离卷积(DSC,depthwise separable convolution)、调整空间金字塔池化结构(SPP,spatial pyramid pooling),降低模型参数数量和运算成本。试验结果表明,与SSD、YOLOv4、YOLOv5_M以及YOLOv7相比,改进YOLOv7模型的F1分数(F1 score)分别提高了8.3、10.1、8.7和7.6个百分点,F1分数达95.5%,占内存空间68.7 M,单张图片检测平均用时0.022 s。与不同模型在复杂环境的检测对比试验表明,改进的YOLOv7模型,在遮挡、簇拥、昏暗等复杂环境下,均能对鸭蛋进行准确快速的识别定位,具有较强鲁棒性和适用性。该研究可为后续开发鸭蛋拾取机器人提供技术支撑。  相似文献   

10.
针对目前日光温室损伤程度的统计方法普遍依靠人工目视导致的检测效率低、耗时长、精确度低等问题,该研究提出了一种基于改进YOLOv5s的日光温室损伤等级遥感影像检测模型。首先,采用轻量级MobileNetV3作为主干特征提取网络,减少模型的参数量;其次,利用轻量级的内容感知重组特征嵌入模块(content aware reassembly feature embedding,CARAFE)更新模型的上采样操作,增强特征信息的表达能力,并引入显式视觉中心块(explicit visual center block,EVCBlock)替换和更新颈部层,进一步提升检测精度;最后将目标边界框的原始回归损失函数替换为EIoU(efficient intersection over union)损失函数,提高模型的检测准确率。试验结果表明,与基准模型相比,改进后模型的参数数量和每秒浮点运算次数分别减少了17.91和15.19个百分点,准确率和平均精度均值分别提升了0.4和0.8个百分点;经过实地调查,该模型的平均识别准确率为84.00%,优于Faster R-CNN、SSD、Centernet、YOLOv3等经典目标检测算法。日光温室损伤等级快速识别方法可以快速检测日光温室的数量、损伤等级等信息,减少设施农业管理中的人力成本,为现代化设施农业的建设、管理和改造升级提供信息支持。  相似文献   

11.
针对复杂环境下柑橘果实大量重叠、枝叶遮挡且现有模型参数量大、计算复杂度高等问题,提出了一种基于改进YOLOv8n的柑橘识别模型YOLOv8-MEIN。首先,该研究设计了ME卷积模块并使用它改进YOLOv8n的C2f模块。其次,为了弥补CIoU损失函数在检测任务中泛化性弱和收敛速度慢的问题,使用Inner-CIoU损失函数加速边界框回归,提高模型检测性能。最后,在自建数据集上进行模型试验对比,试验结果表明,YOLOv8-MEIN模型交并比阈值为0.5的平均精度均值mAP0.5值为96.9%,召回率为91.7%,交并比阈值为0.5~0.95的平均精度均值mAP0.5~0.95值为85.8%,模型大小为5.8MB,参数量为2.87M。与原模型YOLOv8n相比,mAP0.5值、召回率、mAP0.5~0.95值分别提高了0.4、1.0、0.6个百分点,模型大小和参数量相比于原模型分别降低了3.3%和4.3%,为柑橘的自动化采摘提供技术参考。  相似文献   

12.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

13.
基于改进YOLOv4模型的全景图像苹果识别   总被引:3,自引:3,他引:0  
苹果果园由于密植栽培模式,果树之间相互遮挡,导致苹果果实识别效果差,并且普通的图像采集方式存在图像中果实重复采集的问题,使得果实计数不准确。针对此类问题,该研究采用全景拍摄的方式采集苹果果树图像,并提出了一种基于改进YOLOv4和基于阈值的边界框匹配合并算法的全景图像苹果识别方法。首先在YOLOv4主干特征提取网络的Resblock模块中加入scSE注意力机制,将PANet模块中的部分卷积替换为深度可分离卷积,且增加深度可分离卷积的输出通道数,以增强特征提取能力,降低模型参数量与计算量。将全景图像分割为子图像,采用改进的YOLOv4模型进行识别,通过对比Faster R-CNN、CenterNet、YOLOv4系列算法和YOLOv5系列算法等不同网络模型对全景图像的苹果识别效果,改进后的YOLOv4网络模型精确率达到96.19%,召回率达到了95.47%,平均精度AP值达到97.27%,比原YOLOv4模型分别提高了1.07、2.59、2.02个百分点。采用基于阈值的边界框匹配合并算法,将识别后子图像的边界框进行匹配与合并,实现全景图像的识别,合并后的结果其精确率达到96.17%,召回率达到95.63%,F1分数达到0.96,平均精度AP值达到95.06%,高于直接对全景图像苹果进行识别的各评价指标。该方法对自然条件下全景图像的苹果识别具有较好的识别效果。  相似文献   

14.
为提高橙果采摘定位精度和作业速度,提出一种便于迁移至移动终端的改进YOLOv4模型,可从RealSense深度相机所成彩色图像中获取果实质心二维坐标,经配准提取对应深度图中质心点深度值,实现果实的三维空间定位。改进YOLOv4模型以MobileNet v2为主干网络,在颈部结构中使用深度可分离卷积替换普通卷积,实现模型轻量化并提高检测速度。训练后的改进模型对513张独立橙果测试集数据的识别平均精度达97.24%,与原始YOLOv4模型相比,平均检测时间减少11.39 ms,模型大小减少197.5 M。与经典Faster RCNN、SSD模型相比,检测平均精度分别提高了2.85和3.30个百分点,模型大小分别减少了474.5和44.1 M。与轻量化模型YOLOv4-tiny相比,召回率提升了4.79个百分点,较Ghostnet-YOLOv4,检测速度提升了27.64个百分点。为验证该改进算法实用性,应用改进模型获取果园中78个橙果的位置信息,结果表明:果实二维识别成功率达98.72%,水平方向及垂直方向的平均绝对百分比误差均在1%以内。果实三维定位成功率达96.15%,深度信息平均绝对百分比误差为2.72%,满足采摘机械手精准定位需求。该方法为复杂场景下采摘作业实现提供了鲁棒性强、实时性好、精准度高的目标定位途径。  相似文献   

15.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

16.
为提高小麦病害检测精度,实现将模型方便快速部署到移动端,该研究提出了一种基于改进YOLOv8的轻量化小麦病害检测方法。首先,使用PP-LCNet模型替换YOLOv8网络结构的骨干网络,并在骨干网络层引入深度可分离卷积(depthwise separable convolution, DepthSepConv)结构,减少模型参数量,提升模型检测性能;其次,在颈部网络部分添加全局注意力机制(global attention mechanism, GAM)模块,强化特征中语义信息和位置信息,提高模型特征融合能力;然后,引入轻量级通用上采样内容感知重组(content-aware reassembly of features,CARAFE)模块,提高模型对重要特征的提取能力;最后,使用Wise-IoU(weighted interpolation of sequential evidence for intersection over union)边界损失函数代替原损失函数,提升网络边界框回归性能和对小目标病害的检测效果。试验结果表明,对于大田环境下所采集的小麦病害数据集,改进后模型的参数量及...  相似文献   

17.
为确保油茶果实处于最佳成熟度进行采摘,提高油茶果实的出油率及茶油品质,该研究针对自然环境下油茶果实多被遮挡的问题,以原始YOLOv7模型为基础进行改进,提出一种油茶果实成熟度检测方法。首先,在主干网络中引入十字交叉注意力机制(criss-cross attention,CCA)加强对被枝叶遮挡果实成熟度特征的提取能力;其次,使用基于距离和交并比的非极大值抑制(distance-iou non-maximum suppression,DIoU-NMS)算法代替传统非极大值抑制(nonmaximum suppression,NMS)算法,从而加强模型对相互遮挡果实的检测能力;最后,以训练集中3 098张油茶果实图像训练改进的YOLOv7模型,验证集中442张图像用于在训练过程中评估模型,并对测试集中885张图像进行测试。改进后的YOLOv7模型在测试集下的精确率P为93.52%,召回率R为90.25%,F1分数为91.86%,平均精度均值mAP为94.60%,平均检测时间为0.77 s,模型权重大小为82.6 M。与Faster R-CNN、EfficientDet、YOLOv3、YOLO...  相似文献   

18.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   

19.
为快速获取单分蘖水稻植株的形态结构和表型参数,该研究提出了一种基于目标检测和关键点检测模型相结合的骨架提取和表型参数获取方法。该方法基于目标检测模型生成穗、茎秆、叶片的边界框和类别,将所得数据分别输入到关键点检测模型检测各部位关键点,按照语义信息依次连接关键点形成植株骨架,依据关键点坐标计算穗长度、茎秆长度、叶片长度、叶片-茎秆夹角4种表型参数。首先,构建单分蘖水稻的关键点检测和目标检测数据集;其次,训练Faster R-CNN、YOLOv3、YOLOv5s、YOLOv5m目标检测模型,经过对比,YOLOv5m的检测效果最好,平均精度均值(mean average precision,mAP)达到91.17%;然后,应用人体姿态估计的级联金字塔网络(cascaded pyramid network,CPN)提取植株骨架,并引入注意力机制CBAM(convolutional block attention module)进行改进,与沙漏网络(hourglass networks,HN)、堆叠沙漏网络模型(stacked hourglass networks,SHN)和CPN模型相比,CBAM-CPN模型的预测准确率分别提高了9.68、8.83和0.5个百分点,达到94.75%,4种表型参数的均方根误差分别为1.06、0.81、1.25 cm和2.94°。最后,结合YOLOv5m和CBAM-CPN进行预测,4种表型参数的均方根误差分别为1.48 、1.05 、1.74 cm和2.39°,与SHN模型相比,误差分别减小1.65、3.43、2.65 cm和4.75°,生成的骨架基本能够拟合单分蘖水稻植株的形态结构。所提方法可以提高单分蘖水稻植株的关键点检测准确率,更准确地获取植株骨架和表型参数,有助于加快水稻的育种和改良。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号