排序方式: 共有112条查询结果,搜索用时 15 毫秒
61.
文中利用目标加速度运动位移方程,预测下一时刻目标可能移动的位置,使用预测位置误差方程,估测运动目标搜索范围,并且通过启动多个Camshift跟踪器的方法,改进Camshift算法。仿真实验表明,该方法有效地克服了Camshift算法自身的缺陷,即使是加速运动的目标,也可准确地预测运动目标的位置,并且有效提高了对遮挡目标跟踪和多个人脸目标跟踪的鲁棒性。 相似文献
62.
遮挡情况下基于卡尔曼滤波的运动目标跟踪 总被引:1,自引:1,他引:0
传统的Camshift算法在跟踪的目标发生遮挡时容易导致跟踪失败,针对这种情况提出将Kalman滤波与Camshift相融合的算法.在运动的跟踪目标出现遮挡的情况下,根据Camshift算法得到的运动目标在上一帧的运动参数,利用卡尔曼滤波对当前帧运动目标的参数进行预测,从而保证了实时跟踪.实验对动态遮挡和静态遮挡两种情... 相似文献
63.
为提高跟踪方法对背景信息、光照变化的抗干扰能力,提出融合分数阶微分边缘特征信息的改进跟踪方法。将R-L分数阶微分边缘检测算子与Laplacian边缘检测算子进行融合,构造出对高、中频信息提升,而对低频信息能够非线性保留的混合边缘检测算子,并利用其实现目标模板及场景图像的边缘特征信息检测。基于目标色度特征和边缘特征两种直方图模型,分别建立场景图像的反向概率投影值,根据背景信息的动态变化,以抑制背景干扰信息为目的,建立自适应融合的反向概率投影图,提高算法对不确定环境变化信息的鲁棒性。实验结果表明,混合边缘检测算子能够提高边缘图像的信噪比,改善边缘提取的效果。边缘、色度特征信息自适应融合的跟踪方法单帧跟踪时间小于20 ms,满足实时性要求。该方法能够在光照变化明显和与目标颜色相似背景等情况下有效实现目标识别与跟踪功能。 相似文献
64.
65.
为了能够实时有效地跟踪运动目标,提出了一种新的自适应融合角点特征和颜色特征的Camshift目标跟踪算法。该算法融合了角点的特征不变性,并采用Mean-Shift算法提供的非参数核密度估计的统计思想,计算各特征的概率密度函数,用Bhattacharyya系数作为相似性度量函数,利用相似性度量值之比自适应地融合角点特征和颜色特征,将得到的新的概率密度分布结合Camshift跟踪算法实现目标跟踪。测试结果表明,该算法比传统的Camshift算法跟踪效果更好,更准确。 相似文献
66.
为实现对光笔投射点的实时跟踪,采用了Camshift跟踪算法,但是该算法在动态复杂背景及在颜色相似的背景区域中不能很好地进行跟踪。因此,提出了改进方法。首先,引入红色滤镜,以此改变Camshift算法颜色特征提取的效果,从而削弱了背景的影响,突出了目标,很好地克服了背景中的颜色干扰,使动态复杂背景下光笔投射点的跟踪具有较高的鲁棒性和实时性;然后通过改变区域选择方式,达到了自动跟踪的效果;最后,通过OpenCV实现了对光笔投射点的实时跟踪。实验结果表明,该方法在光笔投射点实时跟踪上是十分有效的。 相似文献
67.
Camshift是一种应用颜色信息的跟踪算法,它对做加速度的运动物体跟踪效果不够稳定和强壮,从准确预测目标位置及缩小目标搜索范围入手对Camshift算法进行了改进。该算法使用运动目标加速度运动位移方程预测下一时刻目标可能出现的位置,使用预测位置误差方程估计运动目标搜索范围,并使用IIR滤波器对目标运动速度、加速度等参数自适应地修正。实验证明,改进的Camshift有效地克服了Camshift算法自身的缺陷,即使运动目标做加速运动时,也可准确地预测运动目标的位置,缩小目标搜索范围,进而提高目标跟踪速度。 相似文献
68.
作为one-stage代表作的YOLO系列最新算法,YOLOv4在检测速度和精度相比于YOLOv3均有提升,但是YOLOv4在视频流的检测速度上仍有提升的空间。提出一种融合Camshift和YOLOv4的车辆目标检测算法。算法的流程为:首先计算图像的差异值哈希值,然后利用哈希值来判断当前帧图像与上一帧图像的相似度,当相似度小于阈值,则交给YOLOv4算法进行检测,并将检测结果传给Camshift作为其初始化跟踪窗口;当相似度大于阈值,则由Camshift算法来进行跟踪。最后在实际道路上采集的数据进行算法检测,检测结果表明融合算法的有效性。 相似文献
69.
70.
针对传统的基于Kalman滤波的MeanShift跟踪算法目标运动速度突然改变时跟踪丢失的问题,在Kalman滤波器中引入加速度项使跟踪保持稳定;为了提高Camshift跟踪算法的实时性,使用简化的Camshift算法自适应调整跟踪窗口尺寸。实验结果表明2种改进分别提高了速度突变时跟踪准确性和目标跟踪的实时性,适合网络视频监控场景。 相似文献