首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 218 毫秒
1.
针对全卷积孪生神经网络(fully-convolutional Siamese network, SiamFC)在目标发生明显外观变化、目标快速运动等复杂场景下跟踪精确度不足,以及在跟踪目标丢失后由于采用局部搜索策略导致无法重新捕获追踪目标的问题,引入YOLO(you only look once)v3作为再检测网络对SiamFC进行改进。改进算法在SiamFC的跟踪点漂移后会启用目标检测网络进行全局搜索,同时在SiamFC跟踪响应图的峰值小于某一确定阈值时启用目标检测网络对跟踪目标位置进行重新检测与判定,从而可以重捕并更精确地判定复杂环境下的运动目标。在公共数据集OTB2013、OTB2015和UAV20L上进行了实验,实验结果表明,与SiamFC相比,改进算法在OTB2015数据集上的精确度提升了2.9%、成功率提升了1.7%,在UAV20L数据集上的精确度提升了1%、成功率提升了2.6%。此外,通过与目前主流的跟踪算法进行比较得出,改进算法达到了领先的性能。对数据集中不同属性的视频序列进行分析,实验表明改进算法在目标形变、尺度变化、严重遮挡、目标离开视野以及背景混淆5种干扰属性上...  相似文献   

2.
针对复杂场景下目标容易丢失的问题,提出了一种基于深度残差网络(ResNet)特征的尺度自适应视觉目标跟踪算法.首先,通过ResNet提取图像感兴趣区域的多层深度特征,考虑到修正线性单元(ReLU)激活函数对目标特征的抑制作用,在ReLU函数之前选取用于提取目标特征的卷积层;然后,在提取的多层特征上分别构建基于核相关滤波的位置滤波器,并对得到的多个响应图进行加权融合,选取响应值最大的点即为目标中心位置.目标位置确定后,对目标进行多个尺度采样,分别提取不同尺度图像的方向梯度直方图(fHOG)特征,在此基础上构建尺度相关滤波器,从而实现对目标尺度的准确估计.在视频集OTB100中与其他6种相关算法进行了比较,实验结果表明,所提算法取得了较高的跟踪成功率和精确度,能够较好地适应目标的尺度变化、背景干扰等复杂场景.  相似文献   

3.
针对孪生网络目标跟踪算法仅使用特征提取网络提取特征,在遮挡、旋转、光照与尺度变化中容易出现跟踪失败的问题,提出整体特征通道识别的自适应孪生网络跟踪算法. 将高效的通道注意力模块引入ResNet22孪生网络中,提高特征的判别能力. 使用整体特征识别功能计算全局信息,提取更为丰富的语义信息,提高跟踪算法精度. 同时,引入自适应模板更新机制,解决遮挡与长期跟踪导致的模板退化问题. 为了验证所提方法的有效性,在OTB2015、VOT2016与VOT2018等公开数据集上进行测试,并与其他跟踪算法进行对比. 结果表明,所提算法在精确度与成功率上表现较好,在背景杂乱、旋转、光照与尺度变化等情况中表现稳定.  相似文献   

4.
基于深度特征的目标跟踪网络凭借其对目标视觉特征强大的表征能力获得了令人印象深刻的表现。然而,在一些复杂的跟踪场景中常常涉及目标物体快速运动、光线变化、旋转等,仅仅依赖深度视觉特征难以准确地表征目标物体。针对以上问题,提出了一种基于融合特征的视频单目标跟踪网络。该网络结合了2种深度学习模型:卷积神经网络(convolutional neural network,CNN)和长短期记忆网络(long short-term memory,LSTM)。首先,运用长短期记忆网络提取目标基于时间序列的动态特征,产生当前时刻的目标状态,由此获得准确的预处理目标框;然后基于产生的预处理目标框,使用卷积神经网络提取目标的深度卷积特征,确定目标位置;在跟踪过程中,通过采集成功跟踪时目标样本,对网络参数进行短期和长期更新,以增强网络的适应性。对比实验结果表明,所提出的方法在目标运动过程中被部分遮挡、运动模糊、快速运动情况下具有优异的跟踪表现和鲁棒性。  相似文献   

5.
利用行人头肩或者颜色特征,实现行人外层初定位;在初定位区域上,应用改进的尺度不变特征变换(SIFT)特征匹配实现对目标的精确定位.根据SIFT特征确定目标尺寸,解决行人尺度变化问题;将SIFT特征模板库更新机制引入特征保留优先级,解决行人短暂遮挡和形变的问题.为解决传统Cam-Shift算法的椭圆核函数自适应问题,将SIFT特征尺度变化与Epanechnikov函数融合,构成自适应带宽核函数,克服背景对目标的干扰.外层粗定位结果限制了Harris算子的检测范围,提高了SIFT特征匹配的实时性.实验结果证明,所提出移动机器人行人跟踪算法可以在目标尺度变化、短暂遮挡以及形变情况下实现行人跟踪.  相似文献   

6.
针对运动目标检测中ViBe算法的鬼影、阴影和噪声干扰问题,本研究提出一种融入改进混合高斯模型(GMM)的ViBe算法。该算法改进混合高斯模型的自适应性,使混合高斯模型的K值与学习率对背景进行自适应调节;对视频帧进行训练,构造"虚拟"背景代替第一帧图像进行背景建模,算法能够有效地提取背景建模初始化的视频运动目标,从而消除鬼影现象。该算法用像素分类法提取前景目标,经形态学处理得到完整的运动目标。实验结果表明:与几种运动目标检测算法相比,本研究提出的算法不仅能够有效地抑制鬼影、阴影和噪声干扰,而且该算法自适应性强、检测速度快、检测结果可靠。  相似文献   

7.
多技术融合的Mean-Shift目标跟踪算法   总被引:1,自引:1,他引:0  
在研究经典算法的基础上,提出了一种多技术融合的Mean-Shift目标跟踪算法,有效地解决了经典Mean-Shift跟踪算法存在的缺陷。通过Kalman算法预测估计目标的中心位置,通过分块颜色直方图提取目标区域的空间信息进行,同时采用背景加权和核加权相结合的方式抑制背景像素对目标的干扰。在多个视频数据上的试验结果表明,研究方法有效地克服了经典的Mean-Shift目标跟踪算法对遮挡、背景像素敏感的问题,在复杂环境的背景下对运动目标跟踪更加准确。  相似文献   

8.
针对目标尺度明显变化时采用固定尺度的结构输出目标跟踪算法容易出现跟踪失败的问题,提出一种改进的尺度自适应目标跟踪算法。新算法在传统结构输出跟踪算法基础上,将目标运动信息引入候选样本采集过程,通过自举滤波器的状态转移模型预测目标的当前位置和尺度,生成一组多尺度候选样本集,避免了固定尺度的密集均匀采样,实现尺度自适应的同时降低了算法的计算量。实验结果表明,所提算法在目标发生明显尺度变化、部分遮挡以及旋转等情况下具有较高的鲁棒性,且实时性相比于传统结构输出跟踪算法明显提高。  相似文献   

9.
针对分层卷积特征目标跟踪算法实时性不足和单分类器对目标表观变化适应能力差的问题,提出多高斯相关滤波器融合的实时目标跟踪算法. 为了加快跟踪算法,提取VGG-19网络的Pool4和Conv5-3层的多通道卷积特征,通过稀疏采样减少卷积特征通道数;为了防止特征减少造成精确度下降,利用不同高斯分布样本训练多个相关滤波器,并对所有分类器预测的目标位置进行自适应加权融合,提高算法对目标姿态变化的鲁棒性;采用稀疏模型更新策略,进一步提高算法速度,使算法具有实时性. 在OTB100标准数据集上对算法进行测试,结果表明,该算法的平均距离精度为86.6%,比原分层卷积特征目标跟踪算法提高了3.5%,在目标发生遮挡、形变、相似背景干扰等复杂情况时具有较好的鲁棒性;平均跟踪速度为43.7帧/s,实时性更好.  相似文献   

10.
为了应对运动目标跟踪任务中目标的尺度、光照变化和形变等情况,提出了一种基于混合特征的运动目标跟踪方法--SoH-DLT,综合考虑了运动目标的轮廓特征和细节特征.在粒子滤波跟踪过程中引入方向直方图描述目标轮廓特征,保证与目标最相似的粒子在尺度、光照变化和形变的情况下仍能获得较高的置信度,并作为跟踪结果输出.结合深度学习获得的高层特征和具有尺度不变性的加速鲁棒特征计算粒子权重,提高了复杂运动场景下目标跟踪的准确度,强化了SoH-DLT方法对尺度变化运动目标跟踪的鲁棒性.实验结果表明,SoH-DLT与其他方法相比获得了更好的跟踪效果.  相似文献   

11.
全卷积孪生网络通过相似性学习解决目标跟踪问题,其算法受到了越来越多的关注.为了提取更有判别力的目标特征,提升跟踪的精确度和鲁棒性,提出了一种结合注意力机制与特征融合的目标跟踪模型.首先,将第一帧和当前帧的前一帧结合作为目标模板,利用共享的特征提取网络提取目标模板和当前帧的多个卷积层的特征;然后,对于目标模板的多层卷积特征,结合通道注意力机制处理,提升模板特征的判别力;最后,目标模板的特征与当前帧的特征进行互相关计算,得到响应图,从而获取预测目标在当前帧中的位置和尺度.最终实验结果表明,与几个先进的跟踪模型相比,提出的目标跟踪模型获得了比较有竞争力的性能.  相似文献   

12.
针对天气条件和车辆间相互遮挡对车辆分类与跟踪准确性和稳定性的影响,提出一种基于改进YOLOv3与匹配跟踪的混合模型。改进的YOLOv3网络参照密集连接卷积网络的设计思想,将网络中的残差层替换为密集卷积块并改变网络的设计结构,利用Softmax分类器将密集卷积块与卷积层中融合的特征进行分类。根据单帧图像的检测结果,设计目标匹配函数解决视频序列中车辆的跟踪问题。在KITTI数据集的测试中,改进算法的平均准确率为93.01%,帧率达到48.98帧/s,在自建的数据集中平均识别率为95.79%。试验结果表明,本研究方法在复杂场景中能够有效的区分车辆种类且准确性更高,车辆跟踪的算法具有较高准确性和鲁棒性。  相似文献   

13.
针对开放式电阻抗成像(OEIT)的图像重建算法存在的成像精度低、对噪声敏感、重建图像伪影面积较大等问题,提出基于多尺度残差网络模型的OEIT算法. 该算法利用不同尺寸卷积核的残差块提取边界电压的多尺度特征;在完成特征拼接后,利用卷积实现深层信息融合,得到预测的电导率分布结果. 使用有限元法搭建OEIT正问题模型,构造“边界电压?电导率分布”数据集,将所提算法与其他算法在该数据集和实际模型实验中进行比较. 结果表明,所提算法使OEIT的重建精度、抗噪能力和定位目标准确性显著提高,并使检测目标的伪影面积缩小.  相似文献   

14.
针对传统卷积神经网络采用通用卷积核提取目标特征造成更高的时间和空间开销的问题,提出一种适应目标几何形状的卷积核结构以替代通用卷积核,可使单个卷积核充分提取目标特征,简化目标提取过程,减少冗余计算。实验以网上收集的舰船可见光图像数据集为研究对象,实验结果表明:本方法在舰船目标识别任务中达到了99.7%的分类准确率,与目前通用的分类模型进行对比要高出约1%,训练速度是通用模型中收敛速度最快的模型的3倍。  相似文献   

15.
针对红外单目标跟踪问题,提出一种多特征的相关滤波目标跟踪算法。该算法融合了图像的卷积特征和差分特征,使用卷积特征和差分特征分别训练相关滤波模型。在跟踪阶段,对两种特征的相关滤波模型得到的响应图动态融合,利用动态融合的响应图来确定目标的最终位置,使用得到的目标位置分别更新相关滤波模型。在林雪平热红外数据集上进行了实验验证,与一些经典的跟踪算法进行了对比,表明该算法拥有更高的跟踪准确率。  相似文献   

16.
利用自身高速高精度的特点,协作机器人通过模仿人的创造性复杂动作来提高生产效率。当前协作机器人对人动作的模仿主要来自部署人员的长期调试,缺少通用的解决方案,无法快速部署。基于此,提出了一种无锚的基于RepVGG网络的孪生网络协作机器人目标跟踪算法。该算法由孪生网络模块、分类回归模块和机器人执行模块组成。孪生网络模块使用改进的RepVGG网络代替主流的ResNet作为骨干网络用于图片特征的提取,在不损失精度的前提下提高整个网络的运行速度,降低算法对硬件的要求,对专用深度学习芯片更加友好;分类回归模块通过引入中心度分支来提高跟踪框的中心点预测精度;机器人执行模块采用尺度惩罚和宽高比惩罚以平滑跟踪框,保证协作机器人的动作流畅。实验结果表明,平均速率相比替代ResNet骨干网络前提高了14 FPS,实现了实时跟踪的效果。  相似文献   

17.
针对低能见度状态下对车辆与行人的视觉特征难以提取的问题, 提出一种将2路卷积神经网络融合从而实现对车辆与行人识别的方法。采用高斯背景差分法实现图像去模糊, 在双路网络中分别采用不同尺寸的滤波器, 调整滤波器的大小得到不同环境下图片的特征值, 采用反向传播算法计算梯度。实验结果显示, 与单路式卷积神经网络对比, 在能见度低的环境中, 该方法对车辆的辨识率提高至83.49%, 对行人的辨识率提高至87.36%, 表明在低能见度环境中, 双路式卷积神经网络识别准确率高于单路式卷积神经网络。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号