首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 515 毫秒
1.
前方车辆尾灯检测是自动驾驶中环境感知的研究热点,为在复杂城市环境下实时检测车辆尾灯,将基于区域的全卷积网络(Region-based Fully Convolutional Networks,R-FCN)引入尾灯检测,提出了一种基于多尺度级联R-FCN的车辆尾灯检测算法。通过网络中的跨层连接融合尾灯的底层特征和高层语义,并加入批次归一化层加快网络的收敛速度,得到改进的R-FCN子网络,将一系列在不同交并比输入数据上训练的R-FCN子网络级联得到最终的检测网络。同时预测阶段采用改进的非极大值抑制获得最精准的检测结果。检测结果表明,该方法在CVPR数据集上获得总体94.04%的平均精度,单张图片平均检测耗时31 ms,在检测速度和精度上均有较好的性能。  相似文献   

2.
基于区域的卷积神经网络在目标检测中有着广泛的应用,吸引了研究者的广泛兴趣。针对人脸检测问题,本文基于区域的全卷积网络(Region-based Fully Convolutional Networks, R-FCN),提出一种改进的人脸检测算法。为了使模型训练更加充分,利用在线难例样本挖掘法放宽正负样本的约束,扩充训练集的范围,针对人脸目标存在重叠问题,采用线性非极大值抑制法避免漏检重叠人脸。在人脸检测数据库(FDDB)上的实验结果表明,改进的R-FCN模型比原始的R-FCN模型有着更高的精度。  相似文献   

3.
目前,在智能交通领域使用深度学习方法进行车辆目标检测已成为研究热点。针对传统机器学习方法的性能易受光照、角度、图像质量等外界因素影响,检测步骤繁琐等问题,通过对当下经典的一阶目标检测模型和二阶目标检测模型进行分析,提出了一种基于改进的一阶目标检测模型RetinaNet的车辆目标检测方法,使用深度残差网络自主获取图像特征,融合MobileNet网络结构进行模型加速,把复杂交通场景下的目标检测问题转化为车辆类型的三分类问题,利用KITTI数据集进行训练,并使用实际场景中的图像进行测试。实验结果表明,改进的RetinaNet模型在保证检测时间的情况下,相比原RetinaNet模型MAP值提高了2.2个百分点。  相似文献   

4.
目前网络上的服装图像数量增长迅猛,对于大量服装图像实现智能分类的需求日益增加。将基于区域的全卷积网络(Region-Based Fully Convolutional Networks,R-FCN)引入到服装图像识别中,针对服装图像分类中网络训练时间长、形变服装图像识别率低的问题,提出一种新颖的改进框架HSR-FCN。新框架将R-FCN中的区域建议网络和HyperNet网络相融合,改变图片特征学习方式,使得HSR-FCN可以在更短的训练时间内达到更高的准确率。在模型中引入了空间转换网络,对输入服装图像和特征图进行了空间变换及对齐,加强了对多角度服装和形变服装的特征学习。实验结果表明,改进后的HSR-FCN模型有效地加强了对形变服装图像的学习,且在训练时间更短的情况下,比原来的网络模型R-FCN平均准确率提高了大约3个百分点,达到96.69%。  相似文献   

5.
针对目前基于深度学习的实例级物体检测算法对受遮挡物体的检测效果较差的问题,文中引入对抗学习的训练策略,提出改进的对抗生成式区域全卷积网络算法(AGR-FCN).以区域全卷积网络(R-FCN)为基准框架,添加为训练样本生成遮挡特征的对抗性遮挡丢弃网络(AMDN).通过R-FCN与AMDN间对抗学习的训练策略,提升R-FCN对遮挡物体的特征学习能力,优化整体实例级物体检测性能.在公共数据库GMU Kitchen和自制数据库BHGI上的实验表明,在复杂多变的非结构化环境中,如随机变化的不同光照、尺度、焦比、视角与姿态、遮挡等条件下,AGR-FCN的平均检测精度较高.  相似文献   

6.
提出了一种基于Darknet框架下YOLO9000算法的车辆多目标检测方法。该方法在YOLO9000算法基础下,根据训练结果和车辆目标特征对YOLO9000网络模型进行改进,并对其算法参数进行调整,获得更为适合于当前道路视频检测的YOLO9000-md网络模型下车辆多目标检测方法。为验证检测方法的有效性和完备性,对其模型进行了验证对比分析,同时对视频车辆进行了检测实验,实验结果表明,基于YOLO9000-md网络结构的车辆多目标检测方法,验证检测正确率达到了96.15%,具有一定的鲁棒性和通用性,为今后进行基于视频的更加智能化和自动化的数据分析提供了可靠的理论依据。  相似文献   

7.
行人检测是计算机视觉中的研究热点,为了实现复杂场景下的行人检测,将基于区域的全卷积网络(Region-based Fully Convolutional Networks,R-FCN)引入行人检测中。针对行人检测中的遮挡、背景混淆干扰、小目标这三个难点,修改了R-FCN的搜索机制,引入目标行人的区域划分(上下半身)和背景混淆干扰行人的强化学习策略,加强了对遮挡行人和背景相似行人的学习。并在此基础上,对R-FCN的输出进行二次分类学习。实验结果表明,通过对R-FCN的改进,可有效地缓解行人遮挡、背景混淆干扰和小目标条件下,传统R-FCN网络的漏报和误判问题。  相似文献   

8.
红外热成像因其具有非接触性、灵敏性等优点,已被广泛应用于电力设备的带电检测及其诊断中。其中,对设备快速精确地识别定位是电力设备智能诊断的关键。然而利用传统机器算法对电力设备图像进行识别定位,存在泛化能力不强、鲁棒性较差等不足。针对此问题,开展基于R-FCN区域全卷积网络的绝缘子红外图像识别研究。在TensorFlow框架下搭建RFCN检测模型,并利用迁移学习方法初始化模型权重,以提高训练效果。最后,将所研究算法与Faster-RCNN和SSD模型进行对比。实验表明,R-FCN模型的检测精度为89.2%,检测速度为23 fps,具有较高的精度和速度。该算法为绝缘子的智能诊断奠定坚实基础。  相似文献   

9.
王林  张鹤鹤 《计算机应用》2018,38(3):666-670
针对传统机器学习方法在车辆检测应用中易受光照、目标尺度和图像质量等因素影响,效率低下且泛化能力较差的问题,提出一种基于改进的较快的基于区域卷积神经网络(R-CNN)模型的车辆检测方法。该方法以Faster R-CNN模型为基础,通过对输入图像进行卷积和池化等操作提取车辆特征,结合多尺度训练和难负样本挖掘策略降低复杂环境的影响,利用KITTI数据集对深度神经网络模型进行训练,并采集实际场景中的图像进行测试。仿真实验中,在保证检测时间的情况下,相对原Faster R-CNN算法检测精确度提高了约8%。实验结果表明,所提方法能够自动地提取车辆特征,解决了传统方法提取特征费时费力的问题,同时提高了车辆检测精确度,具有良好的泛化能力和适用范围。  相似文献   

10.
目的 为了有效解决传统行人检测算法在分辨率低、行人尺寸较小等情境下检测精度低的问题,将基于区域全卷积网络(region-based fully convolutional networks,R-FCN)的目标检测算法引入到行人检测中,提出一种改进R-FCN模型的小尺度行人检测算法。方法 为了使特征提取更加准确,在ResNet-101的conv5阶段中嵌入可变形卷积层,扩大特征图的感受野;为提高小尺寸行人检测精度,在ResNet-101中增加另一条检测路径,对不同尺寸大小的特征图进行感兴趣区域池化;为解决小尺寸行人检测中的误检问题,利用自举策略的非极大值抑制算法代替传统的非极大值抑制算法。结果 在基准数据集Caltech上进行评估,实验表明,改进的R-FCN算法与具有代表性的单阶段检测器(single shot multiBox detector,SSD)算法和两阶段检测器中的Faster R-CNN(region convolutional neural network)算法相比,检测精度分别提高了3.29%和2.78%;在相同ResNet-101基础网络下,检测精度比原始R-FCN算法提高了12.10%。结论 本文提出的改进R-FCN模型,使小尺寸行人检测精度更加准确。相比原始模型,改进的R-FCN模型对行人检测的精确率和召回率有更好的平衡能力,在保证精确率的同时,具有更大的召回率。  相似文献   

11.
目的 在传统车辆目标检测问题中,需要针对不同图像场景选择适合的特征。为此提出一种基于快速区域卷积神经网络(Fast R-CNN)的场景图像车辆目标发现方法,避免传统车辆目标检测问题中需要设计手工特征的问题。方法 该方法基于深度学习卷积神经网络思想。首先使用待检测车辆图像定义视觉任务。利用选择性搜索算法获得样本图像的候选区域,将候选区域坐标与视觉任务示例图像一起输入网络学习。示例图像经过深度卷积神经网络中的卷积层,池化层计算,最终得到深度卷积特征。在输入时没有规定示例图像的规格,此时得到的卷积特征规格不定。然后,基于Fast R-CNN网络结构,通过感兴趣区域池化层规格化特征,最后将特征输入不同的全连接分支,并行回归计算特征分类,以及检测框坐标值。经过多次迭代训练,最后得到与指定视觉任务强相关的目标检测模型,具有训练好的权重参数。在新的场景图像中,可以通过该目标检测模型检测给定类型的车辆目标。结果 首先确定视觉任务包含公交车,小汽车两类,背景场景是城市道路。利用与视觉任务强相关的测试样本集对目标检测模型进行测试,实验表明,当测试样本场景与视觉任务相关度越高,且样本中车辆目标的形变越小,得到的车辆目标检测模型对车辆目标检测具有良好的检测效果。结论 本文提出的车辆目标检测方法,利用卷积神经网络提取卷积特征代替传统手工特征提取过程,通过Fast R-CNN对由示例图像组成定义的视觉任务训练得到了效果良好的车辆目标检测模型。该模型可以对与视觉任务强相关新场景图像进行效果良好的车辆目标检测。本文结合深度学习卷积神经网络思想,利用卷积特征替代传统手工特征,避免了传统检测问题中特征选择问题。深层卷积特征具有更好的表达能力。基于Fast R-CNN网络,最终通过多次迭代训练得到车辆检测模型。该检测模型对本文规定的视觉任务有良好的检测效果。本文为解决车辆目标检测问题提供了更加泛化和简洁的解决思路。  相似文献   

12.
针对日常道路场景下的车辆目标检测问题,提出一种轻量化的YOLOv4交通信息实时检测方法。首先,制作了一个多场景、多时段的车辆目标数据集,并利用K-means++算法对数据集进行预处理;其次,提出轻量化YOLOv4检测模型,利用MobileNet?v3替换YOLOv4的主干网络,降低模型的参数量,并引入深度可分离卷积代替原网络中的标准卷积;最后,结合标签平滑和退火余弦算法,使用LeakyReLU激活函数代替MobileNet?v3浅层网络中原有的激活函数,从而优化模型的收敛效果。实验结果表明,轻量化YOLOv4的权值文件为56.4 MB,检测速率为85.6 FPS,检测精度为93.35%,表明所提方法可以为实际道路中的交通实时信息检测及其应用提供参考。  相似文献   

13.
夏晶  钱堃  马旭东  刘环 《机器人》2018,40(6):794-802
针对任意姿态的未知不规则物体,提出一种基于级联卷积神经网络的机器人平面抓取位姿快速检测方法.建立了一种位置-姿态由粗到细的级联式两阶段卷积神经网络模型,利用迁移学习机制在小规模数据集上训练模型,以R-FCN(基于区域的全卷积网络)模型为基础提取抓取位置候选框进行筛选及角度粗估计,并针对以往方法在姿态检测上的精度不足,提出一种Angle-Net模型来精细估计抓取角度.在Cornell数据集上的测试及机器人在线抓取实验结果表明,该方法能够对任意姿态、不同形状的不规则物体快速计算最优抓取点及姿态,其识别准确性和快速性相比以往方法有所提高,鲁棒性和稳定性强,且能够泛化适应未训练过的新物体.  相似文献   

14.
针对工业复杂环境下设备维保成本高、视觉检测落地周期长等问题,并根据建筑信息模型(Building Information Modeling,BIM)具有与现实场景空间一致,场景视角灵活可调以及可以模拟各类光照条件等优点,提出一种在BIM环境下融合LSD(Line Segment Detector)直线检测与深度学习的设备开关状态检测方法。通过检测图像直线段信息,并基于开关盒边沿特征对直线段进行筛选,实现在图像中框定开关盒位置生成图像数据集,进而输入到YOLOv3(You Only Look Once version3)网络训练生成深度学习模型。将深度学习网络框架部署到边缘设备,在边缘侧对真实环境下开关盒工作状态进行检测。实验结果表明,该方法能够在短时间内实现BIM环境下识别检测机柜设备上的开关盒工作状态,并对真实环境下开关盒工作状态检测具有良好适应性。  相似文献   

15.
为了帮助对视觉障碍患者有效识别道路周围的场景,提出一种基于迁移学习和深度神经网络方法,实现实时盲道场景识别。首先提取盲道障碍物的瓶颈描述子和判别区域集成显著性特征描述子,并进行特征融合,然后训练新的盲道特征表示,用Softmax函数实现盲道场景识别。实验中,对成都不同区域盲道周围障碍物采样,分别采用基于Mobilenet模型不同参数训练和测试了提出的新模型,最后在实际应用场景,实现了盲道周边障碍物的实时分类和报警,实验证明提出的方法具有很高准确率和良好的运行性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号