首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 437 毫秒
1.
针对目标遮挡、形变等复杂环境中多目标跟踪准确性低的问题,提出了一种多特征融合匹配的霍夫森林多目标跟踪算法.首先,该算法根据目标检测响应进行初步关联,在线选取正负样本,通过融合颜色直方图、方向梯度直方图特征以及光流信息构建目标的特征模型;然后利用霍夫森林学习,形成可靠的长轨迹;最后采用多特征融合的轨迹匹配算法,引入颜色直方图的相似性度量和基于Gabor滤波器的特征点匹配两种方式,形成加权融合的概率矩阵,将长轨迹逐级关联为目标的完整轨迹.实验表明,该算法在多个复杂环境的视频序列中,可以有效解决目标形变、相互遮挡等问题,能实现多目标的鲁棒性跟踪.  相似文献   

2.
多目标跟踪算法在目标发生遮挡、目标快速运动时容易跟踪失败,而且无法从失败中恢复跟踪.针对该问题,首先利用目标的外观信息、运动信息和形状信息多种信息融合的目标特征表示,准确地计算目标间的相似性,使同一目标之间相似性距离尽量小,不同目标间的相似性距离尽量大;其次,基于判别能力强大的相关滤波器和卡尔曼预估器结合的单目标跟踪器可以在目标遮挡、快速运动中准确地跟踪目标.实验结果表明,多目标跟踪算法能够实时准确地跟踪被遮挡的目标和快速运动的目标.  相似文献   

3.
为了准确地跟踪视频监控系统中嫌疑人的活动轨迹,提出一种多特征融合目标跟踪算法。该算法首先提出一种改进的纹理描述算子并与局部反差算子相结合,以弱化噪声的影响,并可以同时描述图像纹理的结构和强度信息;其次,引入特征不确定性度量,自适应地调整不同特征对跟踪结果的贡献;最后,在跟踪过程中,通过判断目标是否发生遮挡,从而采用不同的更新策略对目标模板进行更新。实验结果表明,与粒子滤波、颜色跟踪、核循环结构、多目标跟踪等跟踪算法相比,改进算法可以对多种不同序列进行长时间稳定跟踪,当位置误差阈值为20个像素、重叠率阈值为0.5时,距离精度为0.747,成功率为0.668。所提出的改进算法可以对光照变化、颜色相近、遮挡等复杂场景中的目标嫌疑人进行有效地跟踪。  相似文献   

4.
针对光照变化情况下多遮挡目标的跟踪准确率差的问题,提出了一种基于优化M-S模型的鲁棒多目标跟踪算法.利用抗噪声性能高的优化M-S模型实现复杂环境下多目标精确识别与提取,降低模糊边缘、噪声的影响;利用区域像素标记方法建立目标和背景的边缘特征,在目标发生相互遮挡情况下也能够提取各个目标独立、完备的边缘特征.为了降低联合粒子滤波的计算复杂度,提高跟踪实时性,提出了简化联合滤波跟踪模型.仿真实验证明了该算法的正确性和有效性,与经典的差分跟踪算法、基于颜色特征的跟踪算法比较,对噪声边缘和变化光照环境敏感性降低,跟踪有效率统计分析表明鲁棒性提高1.82%,准确率提高1.36%.  相似文献   

5.
针对基于孪生网络的目标跟踪算法在相似目标干扰和发生遮挡时容易丢失目标的问题,提出一种基于多注意力融合的抗遮挡目标跟踪算法(anti-occlusion target tracking based on multi-attention fusion, AOTMAF)。为更好地模拟遮挡图片,引入渐进式随机遮挡模块,由易到难地随机生成遮挡块对图像进行多区域遮挡,通过人工模拟被遮挡图像的方式扩充负样本数据集,提升模型在遮挡情况下对判别性特征的提取能力。从深度、高度与宽度三个维度挖掘特征图通道信息,并通过融合空间注意力,聚合特征图上每个位置的空间依赖性,增强特征表达能力,进一步提高跟踪的鲁棒性。实验结果表明,在OTB100、VOT2018、GOT-10K公开数据集上,本研究方法在复杂场景下能有效提升跟踪精度和鲁棒性。  相似文献   

6.
在遮挡物较多的变电站场景下, 传统的目标跟踪算法容易出现人员跟丢、身份变换、目标被遮挡无法识别等情况, 无法做到对目标的准确实时跟踪。针对此问题, 提出了融合度量学习与卡尔曼滤波的变电站运动目标跟踪方法。首先, 采用融合多尺度特征的YOLOv3算法检测目标, 利用带权值的匈牙利算法匹配目标的历史运动轨迹; 然后, 通过卡尔曼滤波进行轨迹预测, 并应用度量学习匹配预测轨迹与历史运动轨迹, 结合目标外观特征信息, 以实现变电站内运动目标的跟踪; 最后, 以变电站场景下的人员为例进行实验, 结果表明, 人员跟踪准确率高, 且能满足变电站应用场景下的鲁棒性和实时性要求。  相似文献   

7.
针对孪生网络目标跟踪算法仅使用特征提取网络提取特征,在遮挡、旋转、光照与尺度变化中容易出现跟踪失败的问题,提出整体特征通道识别的自适应孪生网络跟踪算法. 将高效的通道注意力模块引入ResNet22孪生网络中,提高特征的判别能力. 使用整体特征识别功能计算全局信息,提取更为丰富的语义信息,提高跟踪算法精度. 同时,引入自适应模板更新机制,解决遮挡与长期跟踪导致的模板退化问题. 为了验证所提方法的有效性,在OTB2015、VOT2016与VOT2018等公开数据集上进行测试,并与其他跟踪算法进行对比. 结果表明,所提算法在精确度与成功率上表现较好,在背景杂乱、旋转、光照与尺度变化等情况中表现稳定.  相似文献   

8.
针对水下多目标跟踪问题,提出基于成像声呐的高效目标跟踪算法. 基于声呐的成像特点,针对声学图像中的每个像素点,建立基于信号强度的回波信号模型,提取图像中的个体目标. 采用基于序贯蒙特卡罗的概率密度假设(SMCPHD)滤波对各目标状态进行滤波,结合Auction航迹识别算法将滤波后的目标状态与已确定的航迹进行关联,实现多目标跟踪. 通过算法的仿真分析发现,该方法相对于基于数据关联型的多目标跟踪算法如联合概率数据关联(JPDA)算法、多假设跟踪(MHT)算法,大大提高了计算效率. 对采集的现场数据进行目标提取与跟踪,获得目标的跟踪轨迹.  相似文献   

9.
基于孪生网络视觉跟踪的进化和深层网络目标跟踪算法在目标被遮挡和外观形变时的跟踪成功率不高,鲁棒性不强,对此,提出了一种结合双注意力与特征融合的孪生网络目标跟踪算法。首先,采用通道和空间注意力模块增强目标信息,抑制图像中的干扰信息,提高模型的准确度;然后,对注意力层输出的浅层和深层特征信息进行多层特征融合,得到表现力更好的目标特征,提高跟踪成功率;最后,引入在线模板更新机制,减少了跟踪漂移,提高了跟踪鲁棒性。使用OTB100测试集进行实验,实验结果表明,改进后算法的跟踪成功率比改进前算法的跟踪成功率提高了1.3%;在具有遮挡和形变属性的4个测试序列下,改进后算法的平均重叠率提高了3%,中心位置的平均误差降低了0.37个像素点,针对遮挡和外观形变时的鲁棒性更好。  相似文献   

10.
针对现有应用于目标检测的知识蒸馏方法难以利用目标周围上下文区域的特征信息,提出适用于目标检测的上下文感知知识蒸馏网络(CAKD Net)方法.该方法能充分利用被检测目标的上下文信息,同时沿空间域和通道域进行信息感知,消除教师网络和学生网络的差异. 该方法包括基于上下文感知的区域提纯模块(CARM)和自适应通道注意力模块(ACAM). CARM利用上下文信息,自适应生成显著性区域的细粒度掩膜,准确消除教师网络和学生网络各自特征响应在该区域的差异;ACAM引入空间?通道注意力机制,进一步优化目标函数,提高学生网络的性能. 实验结果表明,所提方法对模型检测精确率提升超过2.9%.  相似文献   

11.
能够实现视觉导航的自主移动机器人具有很好的应用前景,而场景变化、目标运动、障碍、遮档等是自主机器人视觉导航过程经常遇到的问题,结合外观特征和深度信息的目标检测和跟踪算法是提高自主机器人对目标及环境变化适应能力的重要途径。文章结合人类在跟踪和定位目标时既利用颜色、亮度、形状、纹理等外观特征,又利用物体间距离、深度信息的特点,提出了结合外观特征和深度信息的目标跟踪算法并通过实验验证了该算法对视角、运动、遮挡等因素所引起变化的适应能力,且利用定量的方法对算法的性能进行了评价。  相似文献   

12.
为了应对目标跟踪中光照、遮挡、以及自身运动等因素的影响,采用积分图方法提取目标模板的haar-like特征,用满足有限等距条件(RIP)的随机稀疏矩阵对特征投影压缩,简化目标特征字典的构建;同时,在字典中融入背景信息,利用目标与背景的简单关系提高跟踪的精度;最后,利用块正交匹配追踪(BOMP)算法进行成块重构目标,加快了对稀疏表示的求解,增强了跟踪的实时性.通过实验发现,使用基于压缩特征的块正交匹配跟踪算法(CF-BOMP)能构建一个有效的目标外观模型,增强跟踪的稳定性,提高跟踪的实时性.  相似文献   

13.
基于深度特征的目标跟踪网络凭借其对目标视觉特征强大的表征能力获得了令人印象深刻的表现。然而,在一些复杂的跟踪场景中常常涉及目标物体快速运动、光线变化、旋转等,仅仅依赖深度视觉特征难以准确地表征目标物体。针对以上问题,提出了一种基于融合特征的视频单目标跟踪网络。该网络结合了2种深度学习模型:卷积神经网络(convolutional neural network,CNN)和长短期记忆网络(long short-term memory,LSTM)。首先,运用长短期记忆网络提取目标基于时间序列的动态特征,产生当前时刻的目标状态,由此获得准确的预处理目标框;然后基于产生的预处理目标框,使用卷积神经网络提取目标的深度卷积特征,确定目标位置;在跟踪过程中,通过采集成功跟踪时目标样本,对网络参数进行短期和长期更新,以增强网络的适应性。对比实验结果表明,所提出的方法在目标运动过程中被部分遮挡、运动模糊、快速运动情况下具有优异的跟踪表现和鲁棒性。  相似文献   

14.
针对传统目标跟踪算法在目标形变、遮挡或光照变化等复杂场景下容易丢失目标的问题,提出了一种融合多特征的复杂场景动态目标长时间视觉跟踪算法,该算法基于跟踪学习检测(TLD)框架,首先,利用高斯二阶滤波器提取跟踪目标在不同方向的纹理信息,通过纹理信息采用Hessian矩阵计算图像曲面的主曲率,融合主曲率与RGB颜色信息建立目标特征概率直方图模型;然后,使用融合多特征的Mean Shift算法替代TLD框架中的光流法,降低跟踪模块的计算复杂度;最后,采用P-N学习策略构建快速级联检测器,实现跟踪失败时准确检测并重新初始化跟踪器快速修正跟踪结果.在OTB-50公开数据集和煤矿井下巷道视频上进行动态目标跟踪测试.结果表明:所提算法能够实现目标形变、遮挡或光照变化等复杂场景动态目标长时间跟踪,具有较高的鲁棒性和跟踪精度.  相似文献   

15.
针对粒子滤波算法固有的"退化"和"样贫"问题,采用基于权值选择重采样算法与粒子滤波算法相结合来优化粒子滤波的滤波性能、克服粒子退化。针对粒子滤波算法在红外目标跟踪,尤其是对遮挡目标跟踪方面的不足,本文从Markov跳变非线性系统贝叶斯状态估计的角度出发,引入一种无向图即马尔可夫随机场(MRF)来描述多目标的交互模型,提出了该系统下的粒子滤波跟踪框架,并将其用在被遮挡的红外多目标跟踪中。实验结果表明,所提出的算法能有效对被遮挡的红外目标进行跟踪,并且在抗遮挡性以及跟踪持久性等方面优于主流算法。  相似文献   

16.
为提高多目标跟踪方法的跟踪效率,提出一种基于锚框对齐卷积特征的目标检测-表观特征提取联合网络(AAC-JDAN)。首先,在YOLOv3目标检测网络的基础上,引入锚框变换网络与锚框对齐卷积,使网络在获得旋转目标检测能力的同时,缓解现有方法中存在的检测-表观联合网络提取的表观特征与旋转目标之间关联性弱的问题;其次,通过在检测头部网络中加入目标表观特征提取分支,以多任务联合学习的方式对目标检测和目标表观特征提取两个子任务进行合并,实现对图像底层特征的共享,在检测目标的同时输出目标对应的表观特征向量,提高跟踪算法的整体效率;最后,提出一种快速的在线数据关联方法,结合AACJDAN获取的目标表观特征和卡尔曼滤波得到的目标运动状态预测结果,计算目标与轨迹段间的相似度矩阵并使用KM(Kuhn-Munkres)算法进行匹配,实现对视频中多个旋转目标的高效跟踪。在两个公共数据集和一个自定义数据集上进行实验,TPR指标、MOTA指标和IDF-1指标分别达到了80.4%、71.3%和69.5%,帧速率达到20帧/s,表明本文方法在跟踪的实时性和准确性上达到了更好的平衡。  相似文献   

17.
针对核相关滤波(KCF)跟踪算法在遮挡场景中出现跟踪性能降低甚至跟踪失败的问题,提出了一种核相关滤波和卡尔曼滤波(KF)预测相结合的模型自适应抗遮挡图像目标跟踪算法KCF-KF。首先,考虑到传统KCF目标跟踪算法中缺少遮挡评估的问题,通过引入响应图的峰值旁瓣比来对图像目标的遮挡情况进行判断,并将遮挡类型划分为部分遮挡和严重遮挡。其次,根据遮挡程度采取不同的模型更新策略,当目标无遮挡或者部分遮挡时,替代传统KCF跟踪算法中采用固定学习率更新模型的方法,通过自适应地调整模型学习率来更新目标外观模型,避免跟踪漂移;当目标被严重遮挡时,停止KCF模型更新。最后,应用严重遮挡之前的运动信息构建卡尔曼滤波器状态空间和位置输出模型,设计卡尔曼滤波算法预测运动目标轨迹来估计遮挡情景下的目标位置,从而解决在遮挡场景中目标跟踪失败的问题。采用OTB-2013标准数据集进行大量实验,结果表明:所提的混合跟踪算法KCF-KF的距离精度为0.796,重叠成功率为0.692。与其他传统跟踪算法相比,该混合算法的跟踪精度和跟踪成功率均优于其他算法,并且在遇到目标遮挡挑战时具有更好的跟踪性能,有效地解决了跟踪过程中的...  相似文献   

18.
提出一种对轨迹片段进行分析建立场景模型的方法。首先通过基于双向时空连续性的轨迹片段关联方法,找到属于同一目标的多个轨迹片段;再对目标轨迹形成轨迹片段的原因进行计算分析,得到包括入口、出口、主要路径以及场景内遮挡物信息的场景模型。通过实验证明了该方法可以有效地建立场景模型,并且场景模型可以提高跟踪效果和检测场景中目标的异常轨迹。  相似文献   

19.
针对红外目标跟踪时不能有效提取目标特征这一问题,提出了一种新的红外目标稳健跟踪方法.首先利用灰色模型预测目标位置,然后建立以此预测位置为中心候选目标区域的方向梯度-灰度直方图特征模型,并将此特征引入到Mean Shift算法中,以实现对红外目标的精确跟踪.仿真结果表明了该方法跟踪精度高,在目标出现部分遮挡或全部遮挡时,仍能跟踪目标,确保目标不丢失,体现出该跟踪方法良好的鲁棒性.  相似文献   

20.
提出了一种基于尺度不变性特征变换(SIFT)的视频目标跟踪方法.该方法通过提取前后两帧的SIFT特征,利用全图SIFT特征进行匹配,通过匹配的点对计算两帧的几何变换关系,再利用变换矩阵确定下一帧目标位置,实现了连续状态下的自动跟踪.实验结果表明此方法在遮挡、噪声、旋转、光照、缩放、小视角变化等方面有较好的鲁棒性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号