首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   89篇
  免费   4篇
  国内免费   9篇
农业科学   102篇
  2024年   13篇
  2023年   44篇
  2022年   25篇
  2021年   12篇
  2020年   6篇
  2019年   2篇
排序方式: 共有102条查询结果,搜索用时 57 毫秒
31.
苹果树疏花是果园生产管理中的重要环节。准确高效地识别苹果中心花和边花,是研发智能疏花机器人的前提。针对苹果疏花作业中的实际需求,提出了一种基于CRV-YOLO的苹果中心花和边花识别方法。本文基于YOLO v5s模型进行了如下改进:将C-CoTCSP结构融入Backbone,更好地学习上下文信息并提高了模型特征提取能力,提高了模型对外形相似和位置关系不明显的中心花和边花的检测性能。在Backbone中添加改进RFB结构,扩大特征提取感受野并对分支贡献度进行加权,更好地利用了不同尺度特征。采用VariFocal Loss损失函数,提高了模型对遮挡等场景下难识别样本检测能力。在3个品种1 837幅图像数据集上进行了实验,结果表明,CRV-YOLO的精确率、召回率和平均精度均值分别为95.6%、92.9%和96.9%,与原模型相比,分别提高3.7、4.3、3.9个百分点,模型受光照变化和苹果品种影响较小。与Faster R-CNN、SSD、YOLOX、YOLO v7模型相比,CRV-YOLO的精确率、平均精度均值、模型内存占用量和复杂度性能最优,召回率接近最优。研究成果可为苹果智能疏花提供技术...  相似文献   
32.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   
33.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度IOU为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29个百分点、6.54个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416像素图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   
34.
基于改进YOLO v3模型的挤奶奶牛个体识别方法   总被引:3,自引:0,他引:3  
为实现无接触、高精度养殖场环境下奶牛个体的有效识别,提出了基于改进YOLO v3深度卷积神经网络的挤奶奶牛个体识别方法。首先,在奶牛进、出挤奶间的通道上方安装摄像机,定时、自动获取奶牛背部视频,并用视频帧分解技术得到牛背部图像;用双边滤波法去除图像噪声,并用像素线性变换法增强图像亮度和对比度,通过人工标注标记奶牛个体编号;为适应复杂环境下的奶牛识别,借鉴Gaussian YOLO v3算法构建了优化锚点框和改进网络结构的YOLO v3识别模型。从89头奶牛的36790幅背部图像中,随机选取22074幅为训练集,其余图像为验证集和测试集。识别结果表明,改进YOLO v3模型的识别准确率为95.91%,召回率为95.32%,mAP为95.16%, IoU为85.28%,平均帧率为32f/s,识别准确率比YOLO v3高0.94个百分点,比Faster R-CNN高1.90个百分点,检测速度是Faster R-CNN的8倍,背部为纯黑色奶牛的F1值比YOLO v3提高了2.75个百分点。本文方法具有成本低、性能优良的特点,可用于养殖场复杂环境下挤奶奶牛个体的实时识别。  相似文献   
35.
采用YOLO算法和无人机影像的松材线虫病异常变色木识别   总被引:5,自引:5,他引:0  
松材线虫病是一种传播速度快的毁灭性森林病害,利用无人机遥感及时对松材线虫病病害木进行监测,是控制松材线虫病蔓延的有效方式。该研究利用YOLO算法自动识别无人机遥感影像上的松材线虫病异常变色木,利用深度可分离卷积和倒残差结构改进YOLOv4算法,提高了识别的精度和效率。比较FasterR-CNN、EfficientDet、YOLOv4和YOLOv5与改进的YOLO算法的速度和精度,并分析了改进的YOLO算法在参与训练区域和未参与训练区域的异常变色木的识别效果。试验结果表明,改进后的YOLO算法的平均精度为80.85%,每个迭代周期的训练时间为164s,参数大小为44.2 MB,单张影像的测试时间为17 ms,表现优于Faster R-CNN和YOLOv4,但与EfficientDet和YOLOv5相比有优有劣,综合比较这4个指标,改进算法在检测速度和检测精度上的表现更为平衡。未参与训练区域异常变色木的F1分数(84.18%)略低于参与训练区域(87.92%),但基本满足异常变色木的监测要求。相似地物、林分郁闭度、坡向和分辨率会对识别精度产生影响,但影响较小。因此,改进的YOLO算法精度高、效率高,可用于松材线虫病异常变色木的快速识别,并且对未参与训练区域异常变色木的识别具有较高的适用性。  相似文献   
36.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   
37.
针对草原蝗虫图像具有样本收集困难、目标较小和目标多尺度等技术难点,基于YOLO v5网络,提出了一种复杂背景下多尺度蝗虫目标检测识别模型YOLO v5-CB,用于宁夏草原常见蝗虫检测。改进模型YOLO v5-CB针对蝗虫原始样本量较少的问题,使用CycleGAN网络扩充蝗虫数据集;针对蝗虫图像中的小目标特征,使用ConvNeXt来保留小目标蝗虫的特征;为有效解决蝗虫图像尺度特征变换较大问题,在颈部特征融合使用Bi-FPN结构,来增强网络对多尺度目标的特征融合能力。实验结果表明,在对宁夏草原常见亚洲小车蝗、短星翅蝗、中华剑角蝗进行检测识别时,YOLO v5-CB的识别精度可达98.6%,平均精度均值达到96.8%,F1值为98%,与Faster R-CNN、YOLO v3、YOLO v4、YOLO v5模型相比,识别精度均有提高。将改进的蝗虫检测识别模型YOLO v5-CB与研发的分布式可扩展生态环境数据采集系统结合,构建了基于4G网络的Web端蝗虫识别平台,可对观测点的蝗虫图像进行长期实时检测。目前,该平台已在宁夏回族自治区盐池县大水坑、黄记场、麻黄山等地的草原生态环境数据获取中得到了应用,可对包括宁夏草原蝗虫信息在内的多种生态环境信息进行长期检测和跟踪,为虫情防治等提供决策依据。  相似文献   
38.
浸种是玉米生产中重要的播前增种技术,对浸种过程中裂纹的高效检测是分析玉米胚乳裂纹变化规律的基础,是优良品种性状选育的关键之一,尚存在内部胚乳裂纹不可见、自动化检测程度不高等困难。基于CT扫描技术,在YOLO v5n检测网络的基础上,设计了YOLO v5-OBB旋转目标检测网络,其中OBB为有向目标边框,该网络使用旋转矩形框代替普通矩形框,并在Backbone部分加入位置注意力模块(CA),同时采用倾斜非极大值抑制算法(Skew-NMS)进行非极大值抑制得到最终预测框,以此实现长宽比大、方向不一的玉米胚乳裂纹检测。经过300次迭代训练,模型在测试集上的精确率P为94.2%,召回率R为81.7%,平均精度(AP)为88.2%,模型内存占用量为4.21 MB,单幅图像平均检测时间为0.01 s,与SASM、S2A-Net和ReDet旋转目标检测网络相比,AP分别提高15.0、16.9、7.0个百分点,单幅图像平均检测时间分别减少0.19、0.22、0.46 s,同时YOLO v5-OBB模型内存占用量分别为SASM、S2A-Net和ReDet模型的...  相似文献   
39.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   
40.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号