首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 762 毫秒
1.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

2.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

3.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

4.
针对鸡只个体较小、个体间存在遮挡,对蛋鸡日常行为识别造成干扰的问题,提出了一种基于SEEC-YOLO v5s的蛋鸡日常行为识别方法。通过在YOLO v5s模型输出部分添加SEAM注意力模块、在特征融合部分引入显式视觉中心模块(EVCBlock),扩大了模型的感受野,提高了模型对小个体遮挡情况下的目标识别能力,提升了模型对蛋鸡站立、采食、饮水、探索、啄羽和梳羽6种行为的识别精度。提出了一种基于视频帧数与视频帧率比值计算蛋鸡日常行为持续时间的统计方法,并对蛋鸡群体一天之中不同时间段及全天各行为变化规律进行了分析。将改进后的模型进行封装、打包,设计了蛋鸡日常行为智能识别与统计系统。试验结果表明,SEEC-YOLO v5s模型对6种行为识别的平均精度均值为84.65%,比YOLO v5s模型高2.34个百分点,对比Faster R-CNN、YOLO X-s、YOLO v4-tiny和YOLO v7-tiny模型,平均精度均值分别提高4.30、3.06、7.11、2.99个百分点。本文方法对蛋鸡的日常行为监测及健康状况分析提供了有效的支持,为智慧养殖提供了借鉴。  相似文献   

5.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

6.
基于改进YOLO v3模型的挤奶奶牛个体识别方法   总被引:3,自引:0,他引:3  
为实现无接触、高精度养殖场环境下奶牛个体的有效识别,提出了基于改进YOLO v3深度卷积神经网络的挤奶奶牛个体识别方法。首先,在奶牛进、出挤奶间的通道上方安装摄像机,定时、自动获取奶牛背部视频,并用视频帧分解技术得到牛背部图像;用双边滤波法去除图像噪声,并用像素线性变换法增强图像亮度和对比度,通过人工标注标记奶牛个体编号;为适应复杂环境下的奶牛识别,借鉴Gaussian YOLO v3算法构建了优化锚点框和改进网络结构的YOLO v3识别模型。从89头奶牛的36790幅背部图像中,随机选取22074幅为训练集,其余图像为验证集和测试集。识别结果表明,改进YOLO v3模型的识别准确率为95.91%,召回率为95.32%,mAP为95.16%, IoU为85.28%,平均帧率为32f/s,识别准确率比YOLO v3高0.94个百分点,比Faster R-CNN高1.90个百分点,检测速度是Faster R-CNN的8倍,背部为纯黑色奶牛的F1值比YOLO v3提高了2.75个百分点。本文方法具有成本低、性能优良的特点,可用于养殖场复杂环境下挤奶奶牛个体的实时识别。  相似文献   

7.
为在自然环境下自动准确地检测樱桃番茄果实的成熟度,实现樱桃番茄果实自动化采摘,根据成熟期樱桃番茄果实表型特征的变化以及国家标准GH/T 1193—2021制定了5级樱桃番茄果实成熟度级别(绿熟期、转色期、初熟期、中熟期和完熟期),并针对樱桃番茄相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进的轻量化YOLO v7模型的樱桃番茄果实成熟度检测方法。该方法将MobileNetV3引入YOLO v7模型中作为骨干特征提取网络,以减少网络的参数量,同时在特征融合网络中加入全局注意力机制(Global attention mechanism, GAM)模块以提高网络的特征表达能力。试验结果表明,改进的YOLO v7模型在测试集下的精确率、召回率和平均精度均值分别为98.6%、98.1%和98.2%,单幅图像平均检测时间为82 ms,模型内存占用量为66.5 MB。对比Faster R-CNN、YOLO v3、YOLO v5s和YOLO v7模型,平均精度均值分别提升18.7、0.2、0.3、0.1个百分点,模型内存占用量也最少。研究表明改进的YOLO v7模型能够为樱桃番茄果实的自...  相似文献   

8.
为实现收获后含杂马铃薯中土块石块的快速检测和剔除,提出了一种基于改进YOLO v4模型的马铃薯中土块石块检测方法。YOLO v4模型以CSPDarknet53为主干特征提取网络,在保证检测准确率的前提下,利用通道剪枝算法对模型进行剪枝处理,以简化模型结构、降低运算量。采用Mosaic数据增强方法扩充图像数据集(8621幅图像),对模型进行微调,实现了马铃薯中土块石块的检测。测试表明,剪枝后模型总参数量减少了94.37%,模型存储空间下降了187.35 MB,前向运算时间缩短了0.02 s,平均精度均值(Mean average precision, mAP)下降了2.1个百分点,说明剪枝处理可提升模型性能。为验证模型的有效性,将本文模型与5种深度学习算法进行比较,结果表明,本文算法mAP为96.42%,比Faster R-CNN、Tiny-YOLO v2、YOLO v3、SSD分别提高了11.2、11.5、5.65、10.78个百分点,比YOLO v4算法降低了0.04个百分点,模型存储空间为20.75 MB,检测速度为78.49 f/s,满足实际生产需要。  相似文献   

9.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

10.
为快速、全面的监测大田小麦病害,并结合小麦发病特征实现对小麦不同生长部位的病害进行识别,设计了一款便携式小麦白粉病病害检测装置,其由双相机采集模块和主控模块组成,配合病害检测软件系统实现对小麦多部位的白粉病害采集与检测。为保证模型在检测装置部署的可行性,提出了一种基于YOLO v7-tiny模型轻量化改进的白粉病目标检测模型(YOLO v7tiny-ShuffleNet v1,YT-SFNet)。为验证该轻量化模型的准确率和检测速度,与YOLO v7-tiny模型进行训练对比,结果表明YT-SFNet模型相较于YOLO v7-tiny在平均精度上提高了0.57个百分点;在检测时间和模型内存占用量上分别下降了2.4 ms和3.2 MB。最后将轻量化模型和软件系统移植至装置主控模块,制作测试集对装置的检测准确率和检测速度进行了性能测试。其对于测试集的识别准确率为86.2%,检测速度上有较好的稳定性,且单幅病害图像从处理、检测及显示保存的全过程平均耗时为0.507 9 s。  相似文献   

11.
针对目前蛋鸡啄羽异常行为(包括啄和被啄)识别精度比较低的问题,提出了一种基于改进YOLO v6-tiny模型进行啄羽异常行为识别的方法。该方法通过在YOLO v6-tiny模型中引入DenseBlock结构并融入CSP结构的SPP模块(SPPCSPC)的方式,增强了YOLO v6-tiny模型的特征提取能力,扩大了模型的感受野,提升了模型的检测精度。在识别出啄羽异常行为的基础上,对如何基于异常行为发生次数,进行蛋鸡个体分类进行了研究。提出了基于YOLO v6-tiny模型进行蛋鸡个体识别,并将啄羽异常行为识别结果输入个体识别网络,进行蛋鸡个体分类的方法。同时,本文还分别对2种不同的养殖密度、一天当中3个不同的时间段,异常行为发生次数的变化规律进行了分析。实验结果表明,优化后的模型对啄和被啄异常行为的识别平均精度(AP)分别为92.86%和92.93%,分别比YOLO v6-tiny模型高1.61、1.08个百分点,比Faster R-CNN模型高3.28、4.00个百分点,比YOLO v4-tiny模型高6.15、6.63个百分点,比YOLO v5s模型高2.04、4.27个百分点,比YOLO v7-tiny模型高5.39、3.92个百分点。本文方法可以识别出啄和被啄羽异常行为,为蛋鸡异常行为的智能检测提供了技术支撑。  相似文献   

12.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

13.
智能虫情测报灯下害虫的精准识别和分类是实现稻田虫情预警的前提,为解决水稻害虫图像识别过程中存在分布密集、体态微小、易受背景干扰等造成识别精度不高的问题,提出了一种基于MS-YOLO v7(Multi-Scale-YOLO v7)轻量化稻飞虱识别分类方法。首先,采用稻飞虱害虫诱捕装置搭建稻飞虱害虫采集平台,获取的稻飞虱图像构成ImageNet数据集。然后,MS-YOLO v7目标检测算法采用GhostConv轻量卷积作为主干网络,减小模型运行的参数量;在Neck部分加入CBAM注意力机制模块,有效强调稻飞虱区别度较高的特征通道,抑制沉冗无用特征,准确提取稻飞虱图像中的关键特征,动态调整特征图中不同通道的权重;将SPPCSPS空间金字塔池化模块替换SPPFS金字塔池化模块,提高网络模型对各分类样本的特征提取能力;同时将YOLO v7模型中的SiLU激活函数替换为Mish激活函数,增强网络的非线性表达能力。试验结果表明,改进后的MS-YOLO v7在测试集上的模型平均精度均值(Mean average precision,mAP)为95.7%,精确率(Precision)为96.4%,召回率(Recall)为94.2%,与Faster R-CNN、SSD、YOLO v5、YOLO v7网络模型相比mAP分别提高2.1、3.4、2.3、1.6个百分点,F1值分别提高2.7、4.1、2.5、1.4个百分点。改进后的模型内存占用量、参数量、浮点运算数分别为63.7MB、2.85×107、7.84×1010,相比YOLO v7模型分别缩减12.5%、21.7%、25.4%,MS-YOLO v7网络模型对稻飞虱种间害虫均能实现高精度的识别与分类,具有较好的鲁棒性,可为稻田早期稻飞虱虫情预警提供技术支持。  相似文献   

14.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号