首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   89篇
  免费   4篇
  国内免费   9篇
农业科学   102篇
  2024年   13篇
  2023年   44篇
  2022年   25篇
  2021年   12篇
  2020年   6篇
  2019年   2篇
排序方式: 共有102条查询结果,搜索用时 21 毫秒
51.
针对目前蛋鸡啄羽异常行为(包括啄和被啄)识别精度比较低的问题,提出了一种基于改进YOLO v6-tiny模型进行啄羽异常行为识别的方法。该方法通过在YOLO v6-tiny模型中引入DenseBlock结构并融入CSP结构的SPP模块(SPPCSPC)的方式,增强了YOLO v6-tiny模型的特征提取能力,扩大了模型的感受野,提升了模型的检测精度。在识别出啄羽异常行为的基础上,对如何基于异常行为发生次数,进行蛋鸡个体分类进行了研究。提出了基于YOLO v6-tiny模型进行蛋鸡个体识别,并将啄羽异常行为识别结果输入个体识别网络,进行蛋鸡个体分类的方法。同时,本文还分别对2种不同的养殖密度、一天当中3个不同的时间段,异常行为发生次数的变化规律进行了分析。实验结果表明,优化后的模型对啄和被啄异常行为的识别平均精度(AP)分别为92.86%和92.93%,分别比YOLO v6-tiny模型高1.61、1.08个百分点,比Faster R-CNN模型高3.28、4.00个百分点,比YOLO v4-tiny模型高6.15、6.63个百分点,比YOLO v5s模型高2.04、4.27个百分点,比YOLO v7-tiny模型高5.39、3.92个百分点。本文方法可以识别出啄和被啄羽异常行为,为蛋鸡异常行为的智能检测提供了技术支撑。  相似文献   
52.
This paper proposes a new approach combining YOLOv3 with MobileNetv1 for fish detection in real breeding farm. The feature maps of MobileNet are reselected as per their receptive fields for better fish detection instead of fixed chosen strategy in the original YOLOv3 framework. A set of fish image data acquired in breeding farm is used to evaluate the proposed method. The high accuracy of detection results is achieved to confirm the effectiveness of the proposed method. Furthermore, taking the place of “ImageNet”, a slighter dataset including fish images with 16 species for backbone network pretraining is picked out from “ImageNet” to extract fish features. On this basis, the effect of detection of the model is further improved due to that the extracted features are more closed to fish objects. Therefore, the proposed method is proved to have the capability of providing necessary and accurate number of fish, which will then be used to determine the breeding actions accordingly.  相似文献   
53.
间苗是保证直播油菜增产的一项关键技术措施,为解决人工间苗劳动强度大、机械间苗不精确的问题,采用机器视觉的方式,基于深度学习算法YOLO v5平台,设计并搭建自动间苗装置。机器视觉系统评估幼苗种群的合理密植情况,间苗算法以间距和幼苗叶展为评估标准,实现控制幼苗间距和筛选优质苗的功能。选用遗传算法对间苗行进路径进行规划,相较于未规划路径可缩短最低为50%的行进距离,最终采用激光器高温烧除的方式完成间苗作业。选取油菜苗作为试验材料,间苗阈值α是划定幼苗最小间距的参数,设置不同的间苗阈值α进行试验。结果表明,间除苗的数量随着间苗阈值α的增加而增加,幼苗平均密度下降的同时种群分布趋于均匀,对间除苗的叶展长度分类统计,α为0~75mm时,间除苗叶展长度全部在0~20mm范围;α为75~200mm时,间除苗叶展长度为0~40mm,其中叶展长度为20~40mm的最高占比约为76%;α为200~350mm时,间除苗叶展长度在40mm以上的幼苗开始增加,最高占比约为14%,间除苗叶展长度梯次分布证明了间苗算法具备筛选优质苗的性能。间苗执行阶段耗时占据间苗作业总耗时的90%以上,以激光走线参数L、激光器功率P、间苗距离阈值为试验因素,三因素三水平正交试验结果表明:选择合适的激光走线参数L能有效提高间苗死亡率、降低间苗误伤率和减少间苗耗时,在参数L为30mm、P为7.5W、α为250mm下开展土槽台架性能验证试验,激光间苗平均死亡率为93.29%,平均误伤率为5.19%,平均总耗时为15.19min,为开发基于机器视觉的激光自动间苗机提供了理论基础和技术支撑。  相似文献   
54.
日常行为是家畜健康状况的重要体现,在传统的行为识别方法中,通常需要人工或者依赖工具对家畜进行观察。为解决以上问题,基于YOLO v5n模型,提出了一种高效的绵羊行为识别方法,利用目标识别算法从羊圈斜上方的视频序列中识别舍养绵羊的进食、躺卧以及站立行为。首先用摄像头采集养殖场中羊群的日常行为图像,构建绵羊行为数据集;其次在YOLO v5n的主干特征提取网络中引入SE注意力机制,增强全局信息交互能力和表达能力,提高检测性能;采用GIoU损失函数,减少训练模型时的计算开销并提升模型收敛速度;最后,在Backbone主干网络中引入GhostConv卷积,有效地减少了模型计算量和参数量。实验结果表明,本研究提出的GS-YOLO v5n目标检测方法参数量仅为1.52×106,相较于原始模型YOLO v5n减少15%;浮点运算量为3.3×109,相较于原始模型减少30%;且平均精度均值达到95.8%,相比于原始模型提高4.6个百分点。改进后模型与当前主流的YOLO系列目标检测模型相比,在大幅减少模型计算量和参数量的同时,检测精度均有较高提升。在边缘设备上进行部署,达到了实时检测要求,可准确快速地对绵羊进行定位并检测。  相似文献   
55.
融合YOLO v5n与通道剪枝算法的轻量化奶牛发情行为识别   总被引:2,自引:2,他引:0  
及时、准确地监测奶牛发情行为是现代化奶牛养殖的必然要求。针对人工监测奶牛发情不及时、效率低等问题,该研究提出了一种融合YOLO v5n与通道剪枝算法的轻量化奶牛发情行为识别方法。在保证模型检测精度的基础上,基于通道剪枝算法,对包括CSPDarknet53主干特征提取网络等在内的模块进行了修剪,以期压缩模型结构与参数量并提高检测速度。为了验证算法的有效性,在2239幅奶牛爬跨行为数据集上进行测试,并与Faster R-CNN、SSD、YOLOX-Nano和YOLOv5-Nano模型进行了对比。试验结果表明,剪枝后模型均值平均精度(mean Average Precision, mAP)为97.70%,参数量(Params)为0.72 M,浮点计算量(Floating Point operations, FLOPs)为0.68 G,检测速度为50.26 帧/s,与原始模型YOLOv5-Nano相比,剪枝后模型mAP不变的情况下,Params和FLOPs分别减少了59.32和49.63个百分点,检测速度提高了33.71个百分点,表明该剪枝操作可有效提升模型性能。与Faster R-CNN、SSD、YOLOX-Nano模型相比,该研究模型的mAP在与之相近的基础上,参数量分别减少了135.97、22.89和0.18 M,FLOPs分别减少了153.69、86.73和0.14 G,检测速度分别提高了36.04、13.22和23.02 帧/s。此外,对模型在不同光照、不同遮挡、多尺度目标等复杂环境以及新环境下的检测结果表明,夜间环境下mAP为99.50%,轻度、中度、重度3种遮挡情况下平均mAP为93.53%,中等尺寸目标和小目标情况下平均mAP为98.77%,泛化性试验中奶牛爬跨行为检出率为84.62%,误检率为7.69%。综上,该模型具有轻量化、高精度、实时性、鲁棒性强、泛化性高等优点,可为复杂养殖环境、全天候条件下奶牛发情行为的准确、实时监测提供借鉴。  相似文献   
56.
基于Jetson Nano+YOLO v5的哺乳期仔猪目标检测   总被引:1,自引:0,他引:1  
针对仔猪个体小、易被遮挡且仔猪目标检测方法不易在嵌入式端部署等问题,提出一种适用于Jetson Nano端部署的哺乳期仔猪目标检测方法,在准确检测哺乳期仔猪目标的同时,使模型实地部署更加灵活。使用哺乳期仔猪图像建立数据集,数据量为14000幅,按8∶1∶1划分训练集、测试集和验证集。利用深度学习网络提取哺乳期仔猪特征,构建仔猪目标检测模型。融合推理网络中的Conv、BN、Activate Function层,合并相同维度张量,删除Concat层,实现网络结构量化,减少模型运行时的算力需求。将优化后模型迁移至Jetson Nano,在嵌入式平台进行测试。实验结果表明,在嵌入式端,量化后YOLO v5中4种模型的单帧图像平均运行时间分别为65、170、315、560ms,检测准确率分别为96.8%、97.0%、97.0%和96.6%,能够在Jetson Nano设备上对哺乳期仔猪目标实现精准检测,为仔猪目标检测的边缘计算模式奠定基础。  相似文献   
57.
基于改进YOLO v5的夜间温室番茄果实快速识别   总被引:2,自引:0,他引:2  
为实现日光温室夜间环境下采摘机器人正常工作以及番茄快速识别,提出一种基于改进YOLO v5的夜间番茄果实的识别方法。采集夜间环境下番茄图像2 000幅作为训练样本,通过建立一种基于交并比的CIOU目标位置损失函数,对原损失函数进行改进,根据计算函数anchor生成自适应锚定框,确定最佳锚定框尺寸,构建改进型YOLO v5网络模型。试验结果表明,改进YOLO v5网络模型对夜间环境下番茄绿色果实识别精度、红色果实识别精度、综合平均识别精度分别为96.2%、97.6%和96.8%,对比CNN卷积网络模型及YOLO v5模型,提高了被遮挡特征物与暗光下特征物的识别精度,改善了模型鲁棒性。将改进YOLO v5网络模型通过编译将训练结果写入安卓系统制作快速检测应用软件,验证了模型对夜间环境下番茄果实识别的可靠性与准确性,可为番茄实时检测系统的相关研究提供参考。  相似文献   
58.
针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3 296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4-tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。  相似文献   
59.
针对羊只个体差异较小,相似度高难以辨别,远距离识别准确率不高等问题,本文基于MobileFaceNet网络提出了一种融合空间信息的高效通道注意力机制的羊脸识别模型,对羊只进行非接触式识别。该研究基于YOLO v4目标检测方法生成羊脸检测器,以构建羊脸识别数据库;在MobileFaceNet的深度卷积层和残差层中引入融合空间信息的高效通道注意力(ECCSA),以增加主干特征的提取范围,提高识别率,并采用余弦退火进行动态学习率调优,最终构建ECCSA-MFC模型,实现羊只个体识别。试验结果表明,在羊脸检测上,基于YOLO v4的羊脸检测模型准确率可达97.91%,可以作为脸部检测器;在羊脸识别上,ECCSA-MFC模型在开集验证中识别率可达88.06%,在闭集验证中识别率可达96.73%。该研究提出的ECCSA-MFC模型在拥有较高识别率的同时更加轻量化,模型所占内存仅为4.8 MB,可为羊场智慧化养殖提供解决方案。  相似文献   
60.
为了给设施番茄授粉机器人授粉提供可靠的定位技术,提出了一种基于3D视觉的番茄花朵定位方法。采用RGB-D结构光相机快速获取温室内番茄植株的彩色图和深度图信息,通过YOLO v4 (You only look once)神经网络对植株上番茄花束进行目标检测,并提取出授粉花束在图像中的二维区域;使用主动对齐方式结合PCL进行彩色图像和深度图像的粗对齐,利用区域内色系单视角线性遍历方法对提取的花束区域进行精配准,获得番茄花束的空间高精度点云信息;再使用统计滤波法剔除点云信息离群点后,结合双向均值法计算花束3D box的授粉质心坐标。定位试验结果表明,该方法在温室环境中能成功对花束进行识别定位,神经网络平均检测精度达97.67%,完成单幅图像花束提取时间为14.95ms,算法获取授粉质心坐标的平均时间约为300ms。后期在温室内验证,在花束被遮挡小于80%时,算法能够对番茄花朵进行精准定位,并成功执行授粉动作,为番茄授粉机器人提供了一种新的授粉点定位方法。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号