首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为改善在目标尺度变化场景下的检测效果,在SSD算法基础上提出了一种改进方案。首先利用级联膨胀卷积对卷积层进行二次特征提取,然后通过密集连接方式获取目标的上下文信息,最后使用权重共享实现模型优化并采用多任务学习策略预测目标的类别及位置。在UA-DETRAC数据集上的实验结果表明,改进算法的平均精度达89%,超过Faster R-CNN算法17%左右,超过SSD算法10%左右。本文算法对多尺度目标检测任务具有更好的精确性和鲁棒性,能适应遮挡和光照不均匀等应用场景。  相似文献   

2.
针对SSD目标检测算法在检测目标过程中存在漏检的现象,提出一种特征增强的SSD目标检测算法。该算法通过将特定连续特征层进行特征融合,获取更为丰富的目标细节特征信息,以此来改善目标的特征表达效果,提升目标检测正确率。经仿真测试,该算法对车辆、自行车和行人等道路参与者检测效果均有提高,在PASCAL VOC2007数据集上的测试结果与原有SSD检测算法相比,mAP提高0.78%,适合于车载与移动机器人等场景的目标检测应用环境。  相似文献   

3.
图像或视频中的人员目标检测,一般采用单个深层神经网络检测器(SSD)算法.但在复杂场景下,SSD算法因场景复杂、物体重叠、遮挡等干扰,检测精度大大降低.在SSD算法中加入反卷积网络反馈用于增加环境感知信息;采用辅助损失函数以促进损失降低,并将复杂场景中的目标检测多分类问题转换为二分类问题.以无人机拍摄的复杂场景下的行人数据集为例进行人员目标检测实验,对比分析多种检测方法的准确率表明,改进后的SSD算法在检测速度和识别精度上均提高明显.  相似文献   

4.
针对传统YOLOv3(you only look once-v3)算法目标检测精度较低、收敛速度较慢等问题,提出了一种改进的YOLOv3算法,分别对主干网络和损失函数进行了改进。采用迁移和冻结相结合的训练方法,以提升目标检测的精确度和速度。基于改进的YOLOv3算法对西南某通航机场3种不同场景下的运动目标检测效果进行了对比分析。结果表明,改进的YOLOv3算法对正常天气场景下的场面运动目标检测效果要明显优于雾天和雨天场景,对飞机目标的检测效果明显优于车辆和行人目标;3类目标的检测精度、召回率、平均精度值(mean average precision,mAP)分别达到92.96%、80.51%、91.96%,GPU处理速度为74f/s,较传统YOLOv3算法和YOLOv4算法性能均有明显提升。  相似文献   

5.
单次多边界框检测器(single shot multibox detector, SSD)算法因其性能优良已被应用于许多场景中,但该算法对小目标物体的检测精度偏低,主要原因是高层的语义信息没有被充分利用。为解决该问题,文章将其基础网络替换为残差网络(residual network, ResNet),同时融合深浅层的特征信息来增强浅层特征图的语义信息,此外还引入注意力模块,保留更多的目标特征信息,抑制无关信息,进一步提升对小目标物体的检测效果。在PASCAL VOC2007数据集上进行实验测试,平均精度均值为80.2%,优于其他SSD改进算法。由于增加了特征融合和注意力模块,所提算法检测速度有所下降,但相比于SSD改进算法,检测速度仍有明显的优势。  相似文献   

6.
针对SSD目标检测算法运用于自动驾驶领域时,在检测道路上小目标容易发生漏检错检的情况,本文提出一种改进的SSD目标检测算法。本算法首先在SSD模型的主干网络中嵌入感受野增强模块,扩大特征层的感受野,以获取更多小目标的特征信息;然后在主干网络后加入4次U型特征提取结构,构建4个不同层级的特征金字塔,最后合并成一个多层级特征金字塔用于检测。结果表明,该改进SSD模型在KITTI数据集上的检测精度较原始SSD模型提升了6%,检测速度达到了每秒27.9帧。在兼顾检测效率的同时,有效提高了对道路上小目标的检测精度,更适用于自动驾驶领域。  相似文献   

7.
包含目标识别与边界框选定的目标检测是无人驾驶视觉感知中的关键技术之一。采用基于深度计算机视觉组网络(VGGNet)的新型单次多框检测算法(SSD)进行驾驶环境中的关键目标检测、语义标注和目标框选;同时,针对具体驾驶场景,提出了改进的SSD_ARS算法。通过优化梯度更新算法、学习率下降策略和先验框生成策略,在提高平均检测精度的同时使得小目标类别的检测精度得到明显提升。在实际驾驶场景中9类关键目标的检测实验上验证了本文算法的有效性,实验结果表明,检测速度满足实时检测需求。  相似文献   

8.
光流车辆检测算法其光流不仅携带了运动物体的运动信息,还包含丰富的三维结构信息,能够在未知场景信息的情况下对运动目标进行准确检测;但传统光流法计算方法复杂、抗噪性能差、处理速度缓慢,无法满足多目标实时检测的实际需求。为提高光流法实时检测效率,同时保持较好的检测精度,提出了一种基于Harris特征点光流及卡尔曼滤波模型的多运动目标跟踪算法;并提出新的视频目标检测算法性能评价指标。通过对不同实验场景下多个运动目标的检测与跟踪实验统计结果表明,对比主流Meanshift车辆跟踪算法,检测精度平均提高4.61%;且跟踪持续性提升41.5%,具有更好的鲁棒性及准确性。在时间效率上较比传统光流法平均提升42.9%,能够更好地满足目标跟踪实时性要求。  相似文献   

9.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

10.
针对单步多框目标检测算法(SSD)中存在的误检、漏检以及检测精度不够高等问题,提出了一种改进的SSD目标检测算法。该算法通过空洞卷积替换conv4_3卷积层及之前的两次标准卷积,扩大感受野,使用反卷积对不同尺度的特征图进行融合,使融合形成的特征图具有丰富的上下文信息,最后为特征图添加注意力模型,有效提取感兴趣区域的特征。仿真实验结果表明,改进算法在VOC2007数据集上较原算法检测精度提升0.9%,检测结果更加准确,一定程度上改善了误检、漏检等问题,同时仍满足实时性的要求。  相似文献   

11.
提出一种以摄像头实现的可用于盲人视觉辅助的多运动目标快速识别并同步测距方法.该方法以深度学习多目标检测算法(single shot multibox detector,SSD)识别各类目标,并通过SSD输出的目标类别及检测框(bounding box)高度来提出测距模型,从而同步地获取多个目标的测量距离.本方法仅通过普通摄像头便能识别较多类物体且识别类别数量可拓展,能够将测距模块和障碍物识别模块同步执行,从而可对多个物体实时识别并同步测距.实验结果表明,本方法能有效地识别障碍物,具有良好的测距精度,为盲人视觉辅助的一种有效探索.  相似文献   

12.
针对三帧差分法在车辆检测任务中出现的前景点误检和漏检问题,提出了一种融合K-means聚类的改进三帧差分车辆检测算法。首先,综合当前图像分别与改进算法所选两帧的差分结果,初步判定像素点类别并定义待分类点;其次,结合待分类点在三帧内的灰度特征对其进行K-means聚类,并依据点的坐标信息修正聚类结果,得到待分类点类别;最后,设计车辆形状修正方法,填补空洞并修正目标边界,完成检测。实验结果显示,改进算法在2种不同场景视频上的检测效果达到了81.72%的平均精确率、93.85%的平均召回率以及87.34的平均F1值,各指标值相比于原三帧差分法平均有11.86%提升,较好解决了检测中前景点误检和漏检的问题。  相似文献   

13.
针对单一任务模型不能同时满足自动驾驶多样化感知任务的问题,提出了一种基于改进YOLOv5s的快速端到端道路多任务感知方法。首先,在YOLOv5s网络输出端设计两个语义分割解码器,能够同时完成交通目标检测、车道线和可行驶区域检测任务。其次,引入Rep VGG block改进YOLOv5s算法中的C3结构,借助结构重参数化策略提升模型速度和精度。为了提升网络对于小目标的检测能力,引入位置注意力机制对编码器的特征融合网络进行改进;最后基于大型公开道路场景数据集BDD100K进行实验验证该算法在同类型算法的优越性。实验结果表明,算法车辆平均检测精度为78.3%,车道线交并比为27.2%,可行驶区域平均交并比为92.3%,检测速度为8.03FPS,与同类型算法YOLOP、Hybrid Nets对比,该算法综合性能最佳。  相似文献   

14.
针对交通场景下行人检测模型网络复杂、参数量大以及难以在低性能设备上部署的问题,基于YOLOv5s网络模型提出了一种改进的轻量级行人检测算法。首先,使用Ghost模块重构YOLOv5s网络进行特征提取,降低模型的参数量和计算量,提高推理速度。其次,引入坐标注意力机制提高模型对目标特征的提取能力,提升其对小目标行人的检测效果。最后,采用SIoU损失函数加快模型的收敛速度,提高模型的识别准确率。实验结果表明,改进后的算法能保证较高的检测精度,与原始YOLOv5s算法相比参数量减少47.1%,计算量减少48.7%,提高了交通场景下行人检测的速度且易于部署。  相似文献   

15.
传统车辆检测的算法无法自适应地完成复杂场景变化下目标特征提取,导致算法检测速度慢、检测效果差和检测精度低。提出了一种改进的Faster RCNN的车辆检测方法。这种方法设计了2个网络:一个准确的车辆候选区域检测网络(PVRNet)及车辆属性学习网络(VALNet)。通过大量的汽车图片数据样本,学习获得一个具有泛化能力强、检测以及定位准确率高的检测模型,其次将测试汽车图片输入该检测模型,得到可能的结果。可以处理复杂的视觉任务,避免人为设计车辆目标的特征,减少人员主观因素影响。实验结果表明,提出的方法显著提高了校园车辆检测性能,检测结果平均精度较高。  相似文献   

16.
精细化、智慧化是果园管理的必然发展趋势,其中果树位置信息是果园管理的重要数据。为了快速获取井冈蜜柚果树的位置,利用无人机航拍获取蜜柚果园的正射影像,提出了一种用于检测蜜柚果树目标的SSD改进算法。该算法将原SSD算法的主干网络VGG替换为VoVNet,提高了特征提取能力。对样本数据进行了裁剪处理,有效提高了算法检测小目标的能力。实验结果表明,蜜柚果树目标的平均检测精度达到92.6%。  相似文献   

17.
针对当前无人机目标图像检测方法精度较低和检测速度过慢的问题,提出一种结合轻量级网络和改进多尺度结构的目标检测算法。首先采用MobileNetV3轻量级网络替换YOLOv4的主干网络,减少模型复杂度,提升检测速度;其次,引入改进多尺度结构的PANet网络,增强高维图像特征和低维定位特征的流动叠加,提升对小目标的分类和定位精度;最后,利用K means方法对目标锚框进行参数优化,提升检测效率。同时结合公开数据集和自主拍摄方式构建一个新的无人机目标图像数据集Drone dataset,并基于数据增强的方法开展算法性能实验。实验结果表明,该算法的mAP达到了91.58%,FPS达到了55帧/s,参数量为44.39 M仅是YOLOv4算法的1/6,优于主流的SSD、YOLO系列算法和Faster R CNN算法,实现了对多尺度无人机目标的快速检测。  相似文献   

18.
针对目前主流的目标检测算法在虫害监控系统中识别速度慢、准确度低的问题,提出一种基于SSD网络模型的水稻害虫识别方法。该算法用表征能力更强的特征金字塔代替SSD原有的多尺度特征图,同时改进了归一化和激活函数,使得模型对小目标的识别率更高、收敛性更好,从而提高了水稻害虫的识别率与检测速度。实验表明,相比于faster R-CNN算法,基于SSD改进的水稻虫害识别方法的mAP最高提升了6.6%,其识别速度最高提升8倍。  相似文献   

19.
针对当前测距算法标定步骤复杂、图像匹配困难和不准确的问题,提出了一种远距离动态前景测距的方法,系统中由两个摄像头负责采集实时环境图像,利用前景检测算法检测出实时图像中的目标物,根据透视投影模型通过测量两个摄像头之间的距离、标定板与摄像头之间的距离、标定板自身的宽度和高度等数据,计算出目标物在标定板上映射点的三维坐标;再根据两个摄像头坐标,得到空间中两条直线的方程,则两直线的交点就是目标物的物理坐标;最后利用欧氏距离公式,计算出目标物距离摄像头的距离。通过实验可知,在目标距离小于3000m时,两种方法测量误差均小于3%;当目标距离大于3000m时,计算机视觉动态前景测距和传统测距方法的测得的数据平均误差分别为2.90%和25.50%,计算机视觉动态前景测距方法表现出更高的精度。  相似文献   

20.
果穗检测是农业自动化采摘作业的热门关键技术。针对成熟期葡萄易腐烂、成熟状况不一,以及葡萄果园背景复杂、光照条件多变的问题,基于YOLO v5s算法提出一种轻量化改进的检测识别方法。首先,采用Efficientnet-v2网络作为特征提取主干并在其中融合了不降维局部跨信道交互模块,在保障精度的前提下大幅度缩减模型大小以及参数量,加快模型推理速度;其次,为了进一步弥补模型简化造成的精度损失,在模型特征融合关键位置引入坐标注意力模块,强化对目标的关注度,提升模型应对密集目标检测以及对抗复杂背景干扰的能力,保障算法的综合性能及可靠性。实验结果表明:改进后的算法平均准确率达98.7%,平均检测速度为0.028 s,模型大小仅为12.01 MB,相较于改进前的算法准确率提升了0.41%,检测速度快了22%,模型减小了13.2%。在果园场景图像检测测试中,所提出算法能够良好地检测出葡萄果穗并辨别其状况,对不同环境影响也具有较强适应能力,为自动化采摘技术的发展提供了参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号