首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   89篇
  免费   4篇
  国内免费   9篇
农业科学   102篇
  2024年   13篇
  2023年   44篇
  2022年   25篇
  2021年   12篇
  2020年   6篇
  2019年   2篇
排序方式: 共有102条查询结果,搜索用时 31 毫秒
41.
王玲  张旗  冯天赐  王一博  李雨桐  陈度 《农业机械学报》2023,54(10):188-197,204
针对小麦考种过程中籽粒堆积、粘连和遮挡现象导致计数准确率低等问题,本文基于电磁振动原理设计了高通量小麦籽粒振动分离装置,通过分析受力探讨了籽粒离散分离程度的主要影响因素,并引入二阶离散系数建立了籽粒离散度等级评价方法。在此基础上,引入Swin Transformer模块构建YOLO v7-ST模型,对不同离散度等级下小麦籽粒进行计数性能测试。试验结果表明,YOLO v7-ST模型在3种离散度等级下平均计数准确率、F1值和平均计数时间的总平均值分别为99.16%、93%和1.19 s,相较于YOLO v7、YOLO v5和Faster R-CNN模型,平均计数准确率分别提高1.03、2.34、15.44个百分点,模型综合评价指标F1值分别提高2、3、16个百分点,平均计数时间较YOLO v5和Faster R-CNN分别减少0.41 s和0.36 s,仅比YOLO v7模型增大0.09 s。因此,YOLO v7-ST模型可实现多种离散度等级下不同程度籽粒遮挡和粘连问题的准确快速检测,大幅提高小麦考种效率。  相似文献   
42.
为使巡检机器人能够对体积小且密集、形态多变、数量多且分布不均的害虫进行高效精准识别,提出了一种基于改进YOLO v7的害虫识别方法。该方法将CSP Bottleneck与基于移位窗口Transformer(Swin Transformer)自注意力机制相结合,提高了模型获取密集害虫目标位置信息的能力;在路径聚合部分增加第4检测支路,提高模型对小目标的检测性能;将卷积注意力模块(CBAM)集成到YOLO v7模型中,使模型更加关注害虫区域,抑制背景等一般特征信息,提高被遮挡害虫的识别精确率;使用Focal EIoU Loss损失函数减少正负样本不平衡对检测结果的影响,提高识别精度。采用基于实际农田环境建立的数据集的实验结果表明,改进后算法的精确率、召回率及平均精度均值分别为91.6%、82.9%和88.2%,较原模型提升2.5、1.2、3个百分点。与其它主流模型的对比实验结果表明,本文方法对害虫的实际检测效果更优,对解决农田复杂环境下害虫的精准识别问题具有参考价值。  相似文献   
43.
智能虫情测报灯下害虫的精准识别和分类是实现稻田虫情预警的前提,为解决水稻害虫图像识别过程中存在分布密集、体态微小、易受背景干扰等造成识别精度不高的问题,提出了一种基于MS-YOLO v7(Multi-Scale-YOLO v7)轻量化稻飞虱识别分类方法。首先,采用稻飞虱害虫诱捕装置搭建稻飞虱害虫采集平台,获取的稻飞虱图像构成ImageNet数据集。然后,MS-YOLO v7目标检测算法采用GhostConv轻量卷积作为主干网络,减小模型运行的参数量;在Neck部分加入CBAM注意力机制模块,有效强调稻飞虱区别度较高的特征通道,抑制沉冗无用特征,准确提取稻飞虱图像中的关键特征,动态调整特征图中不同通道的权重;将SPPCSPS空间金字塔池化模块替换SPPFS金字塔池化模块,提高网络模型对各分类样本的特征提取能力;同时将YOLO v7模型中的SiLU激活函数替换为Mish激活函数,增强网络的非线性表达能力。试验结果表明,改进后的MS-YOLO v7在测试集上的模型平均精度均值(Mean average precision,mAP)为95.7%,精确率(Precision)为96.4%,召回率(Recall)为94.2%,与Faster R-CNN、SSD、YOLO v5、YOLO v7网络模型相比mAP分别提高2.1、3.4、2.3、1.6个百分点,F1值分别提高2.7、4.1、2.5、1.4个百分点。改进后的模型内存占用量、参数量、浮点运算数分别为63.7MB、2.85×107、7.84×1010,相比YOLO v7模型分别缩减12.5%、21.7%、25.4%,MS-YOLO v7网络模型对稻飞虱种间害虫均能实现高精度的识别与分类,具有较好的鲁棒性,可为稻田早期稻飞虱虫情预警提供技术支持。  相似文献   
44.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   
45.
基于改进YOLO v4网络的马铃薯自动育苗叶芽检测方法   总被引:1,自引:0,他引:1  
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   
46.
为了解决裂纹皮蛋分选中存在的效率低、人力成本高等问题,提出了一种基于改进YOLO v5的皮蛋裂纹在线检测方法。使用EfficientViT网络替换主干特征提取网络,并采用迁移学习对网络进行训练,分别得到YOLO v5n_EfficientViTb0和YOLO v5s_EfficientViTb1两个模型。YOLO v5n_EfficientViTb0为轻量化模型,相较于改进前参数量减少14.8%,浮点数计算量减少26.8%;YOLO v5s_EfficientViTb1为高精度检测模型,平均精度均值为87.8%。采用GradCAM++对模型可视化分析,得出改进模型减少了对背景区域的关注度,证明了改进模型的有效性。设计了视频帧的目标框匹配算法,实现了视频中皮蛋的目标追踪,依据皮蛋的检测序列实现了对皮蛋的定位和裂纹与否的判别。轻量化模型的判别准确率为92.0%,高精度模型的判别准确率为94.3%。研究结果表明,改进得到的轻量化模型为运算能力较差的皮蛋裂纹在线检测装备提供了解决方案,改进得到的高精度模型为生产要求更高的皮蛋裂纹在线检测装备提供了技术支持。  相似文献   
47.
花椒树产果量大,枝干纵横交错,树叶茂密,给花椒的自动化采摘带来了困难。因此,本文设计一种基于改进YOLO v5的复杂环境下花椒簇的快速识别与定位方法。通过在主干提取网络CSPDarknet的CSPLayer层和Neck的上采样之后增加高效通道注意力ECA(Efficient channel attention)来简化CSPLayer层的计算量,提升了特征提取能力。同时在下采样层增加协同注意力机制CA(Coordinate attention),减少下采样过程中信息的损失,强化特征空间信息,配合热力图(Grad-CAM)和点云深度图,来完成花椒簇的空间定位。测试结果表明,与原YOLO v5相比较,改进的网络将残差计算减少至1次,保证了模型轻量化,提升了效率。同帧数区间下,改进后的网络精度为96.27%,对比3个同类特征提取网络YOLO v5、YOLO v5-tiny、Faster R-CNN,改进后网络精确度P分别提升5.37、3.35、15.37个百分点,连株花椒簇的分离识别能力也有较大提升。实验结果表明,自然环境下系统平均识别率为81.60%、漏检率为18.39%,能够满足花椒簇识别...  相似文献   
48.
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。  相似文献   
49.
自然环境下柑橘采摘机器人识别定位系统研究   总被引:3,自引:0,他引:3  
为了准确理解柑橘采摘机器人在自然环境下的作业场景,获取采摘目标及周围障碍物的位置信息,构建了基于卷积神经网络和Kinect V2相机的识别定位系统。首先,对采摘场景中的果树提出5类目标物分类准则,包含1类可采摘果实和4类障碍物目标;然后,在YOLO V3(You only look once)卷积层模块中添加3层最大池化层,对预测候选框进行K-means聚类分析,增强模型对枝叶类物体特征的提取能力,实现采摘场景的准确理解;最后,采用Kinect V2相机的深度图映射得到采摘目标和障碍物的三维信息,并在自然环境下进行了避障采摘作业。实验结果表明,构建的识别定位系统对障碍物和可采摘果实的识别综合评价指数分别为83.6%和91.9%,定位误差为5.9mm,单帧图像的处理时间为0.4s,采摘成功率和避障成功率分别达到80.51%和75.79%。  相似文献   
50.
基于改进YOLO v3网络的夜间环境柑橘识别方法   总被引:9,自引:0,他引:9  
为研究夜间环境下采摘机器人的视觉检测技术,实现采摘机器人的夜间作业,提出了一种多尺度卷积神经网络Des-YOLO v3算法,可实现夜间复杂环境下成熟柑橘的识别与检测。借鉴残差网络和密集连接网络,设计了Des-YOLO v3网络结构,实现了网络多层特征的复用和融合,加强了小目标和重叠遮挡果实识别的鲁棒性,显著提高了果实检测精度。柑橘识别试验结果表明, Des-YOLO v3网络的精确率达97.67%、召回率为97.46%、F1值为0.976,分别比YOLO v3网络高6.26个百分点、6.36个百分点和0.063。同时,经过训练的模型在测试集下的平均精度(mAP)为90.75%、检测速度达53f/s,高于YOLO v3_DarkNet53网络的平均精度88.48%,mAP比YOLO v3_DarkNet53网络提高了2.27个百分点,检测速度比YOLO v3_DarkNet53网络提高了11f/s。研究结果表明,本文提出的Des-YOLO v3网络对野外夜间复杂环境下成熟柑橘的识别具有更强的鲁棒性和更高的检测精度,为柑橘采摘机器人的视觉识别提供了技术支持。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号