首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   34篇
  免费   51篇
  国内免费   5篇
农业科学   90篇
  2024年   1篇
  2023年   44篇
  2022年   25篇
  2021年   12篇
  2020年   6篇
  2019年   2篇
排序方式: 共有90条查询结果,搜索用时 15 毫秒
1.
为实现收获后含杂马铃薯中土块石块的快速检测和剔除,提出了一种基于改进YOLO v4模型的马铃薯中土块石块检测方法。YOLO v4模型以CSPDarknet53为主干特征提取网络,在保证检测准确率的前提下,利用通道剪枝算法对模型进行剪枝处理,以简化模型结构、降低运算量。采用Mosaic数据增强方法扩充图像数据集(8621幅图像),对模型进行微调,实现了马铃薯中土块石块的检测。测试表明,剪枝后模型总参数量减少了94.37%,模型存储空间下降了187.35 MB,前向运算时间缩短了0.02 s,平均精度均值(Mean average precision, mAP)下降了2.1个百分点,说明剪枝处理可提升模型性能。为验证模型的有效性,将本文模型与5种深度学习算法进行比较,结果表明,本文算法mAP为96.42%,比Faster R-CNN、Tiny-YOLO v2、YOLO v3、SSD分别提高了11.2、11.5、5.65、10.78个百分点,比YOLO v4算法降低了0.04个百分点,模型存储空间为20.75 MB,检测速度为78.49 f/s,满足实际生产需要。  相似文献   
2.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   
3.
为提高采摘设备的执行效率,采用六自由度机械臂、树莓派、Android手机端和服务器设计了一种智能果实采摘系统,该系统可自动识别不同种类的水果,并实现自动采摘,可通过手机端远程控制采摘设备的起始和停止,并远程查看实时采摘视频。提出通过降低自由度和使用二维坐标系来实现三维坐标系中机械臂逆运动学的求解过程,从而避免了大量的矩阵运算,使机械臂逆运动学求解过程更加简捷。利用Matlab中的Robotic Toolbox进行机械臂三维建模仿真,验证了降维求解的可行性。在果实采摘流程中,为了使机械臂运动轨迹更加稳定与协调,采用五项式插值法对机械臂进行运动轨迹规划控制。基于Darknet深度学习框架的YOLO v4目标检测识别算法进行果实目标检测和像素定位,在Ubuntu 19.10操作系统中使用2000幅图像作为训练集,分别对不同种类的果实进行识别模型训练,在GPU环境下进行测试,结果表明,每种果实识别的准确率均在94%以上,单次果实采摘的时间约为17s。经过实际测试,该系统具有良好的稳定性、实时性以及对果实采摘的准确性。  相似文献   
4.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部   总被引:3,自引:2,他引:1  
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值(mAP)为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但mAP提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51%和16.32%;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。  相似文献   
5.
基于改进YOLO的玉米幼苗株数获取方法   总被引:1,自引:0,他引:1  
为快速准确获取玉米幼苗株数、评估播种质量、进行查缺补苗等管理,对YOLO算法进行改进,提出了一种基于特征增强机制的幼苗获取检测模型(FE-YOLO),实现了对玉米幼苗株数的快速获取。该方法根据玉米幼苗目标尺寸和空间纹理特征,构建了基于动态激活的轻量特征提取网络,融合了多感受野和空间注意力机制。实验表明:FE-YOLO模型增强了幼苗空间特征、降低了网络复杂度,使模型的mAP和召回率分别达到87.22%和91.54%,每秒浮点运算次数和检测推理时间仅为YOLO v3的7.91%和33.76%。FE-YOLO能够实现无人机正射影像的玉米幼苗株数获取和种植密度估算,该模型复杂度低、识别精度高,能够为玉米苗期管理提供技术支持。  相似文献   
6.
黄瓜霜霉病由古巴假霜霉病菌孢子通过侵染引起,严重影响了黄瓜的品质和产量;病菌孢子数量与病情严重度相关,因此建立快速、简便和高效的病菌孢子定量检测方法,实现黄瓜霜霉病防治关口前移。基于YOLO v5模型提出了一种基于Faster-NAM-YOLO的黄瓜霜霉病菌孢子定量检测模型,该模型首先提出了一种特征提取模块C3_Faster,使用C3_Faster替换YOLO v5中的C3模块,有效降低了模型参数计算量和模型深度,提升了对黄瓜霜霉病菌孢子检测速度和精度;其次在主干网络中加入了NAM注意力模块,通过应用权重稀疏性惩罚抑制不显著权重,进而提高模型的特征提取能力和计算效率;最后实现了对黄瓜霜霉病菌孢子的定量检测。实验结果表明,Faster-NAM-YOLO模型在测试集上mAP@0.5和mAP@0.5:0.95分别达到95.80%和60.90%,对比原始YOLO v5模型分别提升1.80、1.20个百分点,较原始YOLO v5模型内存占用量和每秒浮点运算次数分别减少5.27 MB和1.49×1010;通过与YOLO v3、THP-YOLO v5、YOLO v7、YOLO ...  相似文献   
7.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法。通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集。试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09%。对母猪的识别平均精度均值达95.16%,准确率达96.00%,召回率达96.00%。相较于Faster RCNN,该模型的识别速率是其7倍以上,相较于SSD,该模型的平均精度均值提高9%,说明该模型在识别速率和识别精度上都达到了较高水平。该研究可为猪只个体智能识别、数据监测及养殖信息化等提供理论依据。  相似文献   
8.
刘庆华  杨欣仪  接浩  孙世诚  梁振伟 《农业机械学报》2023,54(12):253-260,299
水稻籽粒检测在粮食储存中凸显重要作用,直接影响粮食销售的价格。针对一般机器视觉检测算法在水稻籽粒小目标的密集场景下存在难以识别且网络模型参数大,检测速度较慢、成本高等问题,提出一种基于YOLO v7优化的水稻籽粒检测算法。首先将部分高效聚合网络模块(Efficient layer aggregation network, ELAN)替换成轻量级网络模块GhostNetV2添加到主干及颈部网络部分,实现网络参数精简化的同时也减少了通道中的特征冗余;其次将卷积和自注意力结合的注意力模块(Convolution and self-attention mixed model, ACmix)添加到MP模块中,平衡全局和局部的特征信息,充分关注特征映射的细节信息;最后使用WIoU(Wise intersection over union)作为损失函数,减少了距离、纵横比之类的惩罚项干扰,单调聚焦机制的设计提高了模型的定位性能。在水稻籽粒图像数据集上验证改进后的模型检测水平,实验结果表明,改进后的YOLO v7模型的mAP@0.5达96.55%,mAP@0.5:0.95达70.10%,训练模型参数量...  相似文献   
9.
基于改进YOLO v3模型的奶牛发情行为识别研究   总被引:1,自引:0,他引:1  
为提高复杂环境下奶牛发情行为识别精度和速度,提出了一种基于改进YOLO v3模型的奶牛发情行为识别方法。针对YOLO v3模型原锚点框尺寸不适用于奶牛数据集的问题,对奶牛数据集进行聚类,并对获得的新锚点框尺寸进行优化;针对因数据集中奶牛个体偏大等原因而导致模型识别准确率低的问题,引入DenseBlock结构对YOLO v3模型原特征提取网络进行改进,提高了模型识别性能;将YOLO v3模型原边界框损失函数使用均方差(MSE)作为损失函数度量改为使用FIoU和两框中心距离Dc度量,提出了新的边界框损失函数,使其具有尺度不变性。从96段具有发情爬跨行为的视频片段中各选取50帧图像,根据发情爬跨行为在活动区出现位置的不确定性和活动区光照变化的特点,对图像进行水平翻转、±15°旋转、随机亮度增强(降低)等数据增强操作,用增强后的数据构建训练集和验证集,对改进后的模型进行训练,并依据F1、mAP、准确率P和召回率R指标进行模型优选。在测试集上的试验表明,本文方法模型的识别准确率为99.15%,召回率为97.62%,且处理速度达到31f/s,能够满足复杂养殖环境、全天候条件下奶牛发情行为的准确、实时识别。  相似文献   
10.
基于红外热成像的生猪耳温自动提取算法   总被引:2,自引:0,他引:2  
针对利用红外热成像进行生猪体温自动提取困难的问题,在设施猪场生猪体温红外巡检装置的基础上,提出将生猪耳部区域作为其体温的代表区域,探索一种基于红外热像图的生猪耳温自动提取算法(IT-PETE)。该算法通过高效而准确地识别生猪耳部区域并提取耳部区域的温度最大值和平均值,实现生猪体温非接触式自动监测。IT-PETE算法首先用拉普拉斯算子对生猪热红外图像进行预处理,然后基于YOLO v4和形态学对热红外图像中的生猪耳部进行提取,并结合耳部分割图像和温度矩阵自动获取耳部区域温度的最大值和平均值。采用5折交叉验证方法训练生猪耳部区域检测模型,训练集和验证集图像共2000幅,测试集400幅。试验表明,YOLO v4耳部区域检测准确率为97.6%,比Faster R-CNN和SSD分别提高了2.0个百分点和7.8个百分点,单帧图像的平均检测时间为12ms。同时对20头猪的人工统计耳温数据与算法提取体温进行相关性分析,得到两者在耳部区域温度最大值和平均值的决定系数分别为0.9849和0.9119,表明IT-PETE算法对体温数据的提取具有可靠性和可行性。因此,IT-PETE算法在一定程度上可为生猪体温自动化监测和预警系统提供技术支撑。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号