首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 906 毫秒
1.
目标检测与分割是实现黄花菜智能化采摘的关键技术,原始目标检测算法容易出现漏检、误检等问题,无法满足自然环境下生长的黄花菜采摘要求。该研究提出一种基于改进YOLOv7-seg的黄花菜目标检测与实例分割识别算法模型(YOLO-Daylily)。通过在YOLOv7-seg骨干网络(backbone)中引入CBAM(convolutional block attention module)注意力机制模块,降低背景等干扰因素的影响;在ELAN(efficient layer aggregation networks)模块中采用PConv(partial convolution)替换原有的3×3卷积层,减少冗余计算和内存访问,提升对目标黄花菜特征提取的能力。颈部网络(neck)采用坐标卷积(CoordConv)替换PA-FPN(path aggregation-feature pyramid networks)中1×1卷积层,增强模型对位置的感知,提高掩膜(mask)鲁棒性。在改进的PA-FPN结构中采用残差连接方法将浅层特征图几何信息与深层特征图语义信息特征相结合,提高模型对目标黄花菜的检测分割性能。消融试验表明:改进后的算法检测准确率、召回率和平均精度分别达到92%、86.5%、93%,相比YOLOv7-seg基线算法分别提升2.5、2.3、2.7个百分点;分割准确率、召回率和平均精度分别达到92%、86.7%、93.5%,比基线算法分别提升0.2、3.5、3个百分点。与Mask R-CNN、SOLOv2、YOLOV5-seg、YOLOv5x-seg算法相比,平均精度分别提升8.4、12.7、4.8、5.4个百分点。改进后的模型减少了漏检、误检等情况,对目标定位更加精准,为后续黄花菜智能化采摘实际应用提供理论支持。  相似文献   

2.
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。  相似文献   

3.
基于改进YOLOv7的复杂环境下红花采摘识别   总被引:3,自引:2,他引:1  
针对光照、遮挡、密集以及样本数量不均衡等复杂环境造成红花机械化采摘识别不准问题,该研究提出一种基于YOLOv7的改进模型,制作红花样本数据集建立真实采摘的复杂环境数据,增加Swin Transformer注意力机制提高模型对各分类样本的检测精准率,改进Focal Loss损失函数提升多分类任务下不均衡样本的识别率。经试验,改进后的模型各类别样本的检测平均准确率达到88.5%,与改进前相比提高了7个百分点,不均衡类别样本平均精度提高了15.9个百分点,与其他模型相比,检测平均准确率与检测速度均大幅提升。改进后的模型可以准确地实现对红花的检测,模型参数量小,识别速度快,适合在红花采摘机械上进行迁移部署,可为红花机械化实时采摘研究提供技术支持。  相似文献   

4.
为提高金银花采摘机器人的工作效率和采摘精度,实现将模型方便快速部署到移动端,该研究提出一种基于改进YOLOv5s的轻量化金银花识别方法。用EfficientNet的主干网络替换YOLOv5s的Backbone层,并在改进之后的Backbone层加入原YOLOv5s的SPPF特征融合模块,减少了模型的参数量和计算量,同时降低模型权重的大小,便于之后移动端的部署;其次,为提高模型对于金银花的识别效果,该研究在Neck层中用CARAFE上采样模块替换原始模型中的上采样模块,在略微提高参数量的前提下提高了模型识别金银花的精确度和平均精度,提高了采摘效率。试验结果显示,改进后的轻量化模型参数量仅为3.89 × 106 M,为原始YOLOv5s模型的55.5%;计算量仅为7.8 GFLOPs,为原始模型的49.4%;权重仅为7.8 MB,为原始模型的57.4%,并且精确度和平均精度达到了90.7%和91.8%,相比原始YOLOv5s模型分别提高1.9和0.6个百分点。改进后的轻量化模型与当前主流的Faster-RCNN、SSD、YOLO系列目标检测模型相比,不但提高了检测精度,还大幅减少了模型的参数量、计算量和权重大小,研究结果为后续金银花采摘机器人的识别和移动端的部署提供了参考和依据。  相似文献   

5.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

6.
针对目前苹果在复杂环境下难以进行生长状态分类识别、姿态信息同步获取等问题,该研究提出了一种基于改进YOLOv7的苹果生长状态分类和果实姿态融合识别方法。首先改进多尺度特征融合网络,在骨干网络中增加160×160的特征尺度层,用于增强模型对微小局部特征的识别敏感度;其次引入注意力机制CBAM(convolutional block attention module),改善网络对输入图片的感兴趣目标区域的关注度;最后采用Soft-NMS算法,能够有效避免高密度重叠目标被一次抑制从而发生漏检现象。此外,结合UNet分割网络和最小外接圆及矩形特征获取未遮挡苹果姿态。试验结果表明,改进YOLOv7的识别精确率、召回率和平均识别精度分别为86.9%、80.5%和87.1%,相比原始YOLOv7模型分别提高了4.2、2.2和3.7个百分点,另外苹果姿态检测方法的准确率为94%。该文模型能够实现苹果生长状态分类及果实姿态识别,可为末端执行器提供了抓取方向,以期为苹果无损高效的采摘奠定基础。  相似文献   

7.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

8.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度IOU为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29个百分点、6.54个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416像素图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   

9.
基于改进YOLOv3-LITE轻量级神经网络的柑橘识别方法   总被引:16,自引:13,他引:3  
柑橘识别是实现柑橘园果实自动采摘、果树精细化管理以及实现果园产量预测的关键技术环节。为实现自然环境下柑橘果实的快速精准识别,该文提出一种基于改进YOLOv3-LITE轻量级神经网络的柑橘识别方法。在采摘机器人领域,果实识别回归框的准确率直接决定了机器手的采摘成功率,该方法通过引入GIo U边框回归损失函数来提高果实识别回归框准确率;为便于迁移到移动终端,提出一种YOLOv3-LITE轻量级网络模型,使用MobileNet-v2作为模型的骨干网络;使用混合训练与迁移学习结合的预训练方式来提高模型的泛化能力。通过与Faster-RCNN以及SSD模型对比在不同遮挡程度的测试样本下模型的识别效果,用F1值与AP值评估各模型的差异,试验结果表明:该文提出的模型识别效果提升显著,对于果实轻度遮挡的数据集,该文提出的柑橘识别模型的F1值和AP值分别为95.27%和92.75%,Average IoU为88.65%;在全部测试集上,F1值和AP值分别为93.69%和91.13%,AverageIoU为87.32%,在GPU上对柑橘目标检测速度可达246帧/s,对单张416×416的图片推断速度为16.9 ms,在CPU上检测速度可达22帧/s,推断速度为80.9 ms,模型占用内存为28 MB。因此,该文提出的柑橘识别方法具有模型占用内存低、识别准确率高及识别速度快等优点,可为柑橘采摘机器人以及柑橘产业产量预测提出新的解决方案,为柑橘产业智能化提供新的思路。  相似文献   

10.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

11.
针对目前三七检测算法在复杂田间收获工况下检测精度低、模型复杂度大、移动端部署难等问题,该研究提出一种基于YOLOv5s的轻量化三七目标检测方法。首先,采用GSConv卷积方法替换原始颈部网络的传统卷积,引入Slim-neck轻量级颈部网络,降低了模型复杂度,同时提升了模型精度;其次,使用ShuffleNetv2轻量型特征提取网络对主干网络进行轻量化改进,提升了模型实时检测性能,并采用角度惩罚度量的损失(SIoU)优化边界框损失函数,提升了轻量化后的模型精度和泛化能力。试验结果表明,改进后的PN-YOLOv5s模型参数量、计算量、模型大小分别为原YOLOv5s模型的46.65%、34.18%和48.75%,检测速度提升了1.2倍,F1值较原始模型提升了0.22个百分点,平均精度均值达到了94.20%,较原始模型低0.6个百分点,与SSD、Faster R-CNN、YOLOv4-tiny、YOLOv7-tiny和YOLOv8s模型相比能够更好地平衡检测精度与速度,检测效果更好。台架试验测试结果表明,4种输送分离作业工况下三七目标检测的准确率达90%以上,F1值达86%以上,平均精度均值达87%以上,最低检测速度为105帧/s,实际收获工况下模型的检测性能良好,可为后续三七收获作业质量实时监测与精准分级输送提供技术支撑。  相似文献   

12.
为提高小麦病害检测精度,实现将模型方便快速部署到移动端,该研究提出了一种基于改进YOLOv8的轻量化小麦病害检测方法。首先,使用PP-LCNet模型替换YOLOv8网络结构的骨干网络,并在骨干网络层引入深度可分离卷积(depthwise separable convolution, DepthSepConv)结构,减少模型参数量,提升模型检测性能;其次,在颈部网络部分添加全局注意力机制(global attention mechanism, GAM)模块,强化特征中语义信息和位置信息,提高模型特征融合能力;然后,引入轻量级通用上采样内容感知重组(content-aware reassembly of features,CARAFE)模块,提高模型对重要特征的提取能力;最后,使用Wise-IoU(weighted interpolation of sequential evidence for intersection over union)边界损失函数代替原损失函数,提升网络边界框回归性能和对小目标病害的检测效果。试验结果表明,对于大田环境下所采集的小麦病害数据集,改进后模型的参数量及...  相似文献   

13.
针对非结构化环境下香梨识别准确率低,检测速度慢的问题,该研究提出了一种基于改进YOLOv8n的香梨目标检测方法。使用Min-Max归一化方法,对YOLOv3-tiny、YOLOv5n、YOLO6n、YOLOv7-tiny和YOLOv8n评估选优;以YOLOv8n为基线,进行以下改进:1)使用简化的残差与卷积模块优化部分C2f(CSP bottleneck with 2 convolutions)进行特征融合。2)利用simSPPF(simple spatial pyramid pooling fast)对SPPF(spatial pyramid pooling fast)进行优化。3)引入了PConv(partial convolution)卷积,并提出权重参数共享以实现检测头的轻量化。4)使用Inner-CIoU(inner complete intersection over union)优化预测框的损失计算。在自建的香梨数据集上,指标F0.5分数(F0.5-score)和平均精度均值(mean average precision, mAP)比原模型分别提升0.4和0.5个百分点,达到94.7%和88.3%。在GPU和CPU设备上,检测速度分别提升了34.0%和24.4%,达到了每秒99.4和15.3帧。该模型具有较高的识别准确率和检测速度,为香梨自动化采摘提供了一种精确的实时检测方法。  相似文献   

14.
基于改进的轻量化卷积神经网络火龙果检测方法   总被引:2,自引:2,他引:0  
在自然环境下对火龙果进行实时检测是实现火龙果自动化采摘的必要条件之一。该研究提出了一种轻量级卷积神经网络YOLOv4- LITE火龙果检测方法。YOLOv4集成了多种优化策略,YOLOv4的检测准确率比传统的YOLOv3高出10%。但是YOLOv4的骨干网络复杂,计算量大,模型体积较大,不适合部署在嵌入式设备中进行实时检测。将YOLOv4的骨干网络CSPDarknet-53替换为MobileNet-v3,MobileNet-v3提取特征可以显著提高YOLOv4的检测速度。为了提高小目标的检测精度,分别设置在网络第39层以及第46层进行上采样特征融合。使用2 513张不同遮挡环境下的火龙果图像作为数据集进行训练测试,试验结果表明,该研究提出的轻量级YOLOv4-LITE模型 Average Precision(AP)值为96.48%,F1值为95%,平均交并比为81.09%,模型大小仅为2.7 MB。同时对比分析不同骨干网络,MobileNet-v3检测速度大幅度提升,比YOLOv4的原CSPDarknet-53平均检测时间减少了132.33 ms。YOLOv4-LITE在GPU上检测一幅1 200×900的图像只需要2.28 ms,可以在自然环境下实时检测,具有较强的鲁棒性。相比现有的目标检测算法,YOLOv4-LITE的检测速度是SSD-300的9.5倍,是Faster-RCNN的14.3倍。进一步分析了多尺度预测对模型性能的影响,利用4个不同尺度特征图融合预测,相比YOLOv4-LITE平均检测精度提高了0.81%,但是平均检测时间增加了10.33 ms,模型大小增加了7.4 MB。因此,增加多尺度预测虽然提高了检测精度,但是检测时间也随之增加。总体结果表明,该研究提出的轻量级YOLOv4-LITE在检测速度、检测精度和模型大小方面具有显著优势,可应用于自然环境下火龙果检测。  相似文献   

15.
基于轻量型卷积神经网络的马铃薯种薯芽眼检测算法   总被引:1,自引:1,他引:0  
马铃薯种薯芽眼属于小目标物体,识别难度大、要求高。为了在试验台(芽眼识别装置)上快速、准确地完成识别任务,该研究提出一种基于轻量型卷积神经网络的芽眼检测模型。首先,为了降低模型的计算量和聚焦小目标物体,替换YOLOv4的主干网络CSPDarkNet-53为GhostNetV2轻量型特征提取网络;其次,在YOLOv4的颈部网络中,使用深度可分离卷积(depthwise separable convolution,DW)模块代替普通卷积块进一步降低模型计算量;最后,更改边界框损失函数为具有角度代价的边界框损失函数(SIoU),避免因预测框的位置不确定,而影响模型收敛速度和整体检测性能。结果表明,改进后芽眼检测模型参数量为12.04 M,使用笔记本电脑CPU检测单张图片的时间为0.148 s,从试验台收集的测试数据显示平均精度为89.13%。相对于其他主干特征提取网络CSPDarkNet-53、MobileNetV1、MobileNetV2、MobileNetV3、GhostNetV1,其检测精度分别高出1.85、0.75、2.67、4.17、1.89个百分点;与同类目标检测模型SSD、Fa...  相似文献   

16.
为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。  相似文献   

17.
采用改进YOLOv3算法检测青皮核桃   总被引:2,自引:2,他引:0  
使用机器视觉对果实检测并进行估产是实现果园智能化管理的重要途径,针对自然环境下青皮核桃与叶片颜色差异小、核桃体积较小导致青皮核桃不易检出的问题,提出一种基于改进YOLOv3的青皮核桃视觉检测方法。依据数据集特征进行数据增强,引入Mixup数据增强方法,该研究使模型从更深的维度学习核桃特征;针对核桃单种类目标检测比较不同预训练模型,选择精度提升更明显的Microsoft Common Objects in Context(COCO)数据集预训练模型;依据标注框尺寸统计对锚框进行调整,避免锚框集中,提升模型多尺度优势。在消融试验中,前期改进将平均精度均值提升至93.30%,在此基础上,引入MobilNet-v3骨干网络替换YOLOv3算法中原始骨干网络,提升模型检测能力及轻量化。试验表明,基于改进YOLOv3的青皮核桃检测平均精度均值为94.52%,超越YOLOv3其他2个骨干网络和Faster RCNN-ResNet-50网络。本文改进模型大小为88.6 M,检测速度为31帧/s,检测速度是Faster RCNN-ResNet-50网络的3倍,可以满足青皮核桃实时准确检测需求。该方法可为核桃果园智能化管理中的估产、采收规划等提供技术支撑,也可为近背景颜色的小果实实时准确检测提供思路。  相似文献   

18.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

19.
改进SSD的灵武长枣图像轻量化目标检测方法   总被引:2,自引:2,他引:0  
针对加载预训练模型的传统SSD(Single Shot MultiBox Detector)模型不能更改网络结构,设备内存资源有限时便无法使用,该研究提出一种不使用预训练模型也能达到较高检测精度的灵武长枣图像轻量化目标检测方法。首先,建立灵武长枣目标检测数据集。其次,以提出的改进DenseNet网络为主干网络,并将Inception模块替换SSD模型中的前3个额外层,同时结合多级融合结构,得到改进SSD模型。然后,通过对比试验证明改进DenseNet网络和改进SSD模型的有效性。在灵武长枣数据集上的试验结果表明,不加载预训练模型的情况下,改进SSD模型的平均准确率(mAP,mean Average Precision)为96.60%,检测速度为28.05帧/s,参数量为1.99×106,比SSD模型和SSD模型(预训练)的mAP分别高出2.02个百分点和0.05个百分点,网络结构参数量比SSD模型少11.14×106,满足轻量化网络的要求。即使在不加载预训练模型的情况下,改进SSD模型也能够很好地完成灵武长枣图像的目标检测任务,研究结果也可为其他无法加载预训练模型的目标检测任务提供新方法和新思路。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号