首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 343 毫秒
1.
目的 卷积神经网络广泛应用于目标检测中,视频目标检测的任务是在序列图像中对运动目标进行分类和定位。现有的大部分视频目标检测方法在静态图像目标检测器的基础上,利用视频特有的时间相关性来解决运动目标遮挡、模糊等现象导致的漏检和误检问题。方法 本文提出一种双光流网络指导的视频目标检测模型,在两阶段目标检测的框架下,对于不同间距的近邻帧,利用两种不同的光流网络估计光流场进行多帧图像特征融合,对于与当前帧间距较小的近邻帧,利用小位移运动估计的光流网络估计光流场,对于间距较大的近邻帧,利用大位移运动估计的光流网络估计光流场,并在光流的指导下融合多个近邻帧的特征来补偿当前帧的特征。结果 实验结果表明,本文模型的mAP(mean average precision)为76.4%,相比于TCN(temporal convolutional networks)模型、TPN+LSTM(tubelet proposal network and long short term memory network)模型、D(&T loss)模型和FGFA(flow-guided feature aggregation)模型分别提高了28.9%、8.0%、0.6%和0.2%。结论 本文模型利用视频特有的时间相关性,通过双光流网络能够准确地从近邻帧补偿当前帧的特征,提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题。  相似文献   

2.
目的 复杂环境下,运动目标在跟踪过程中受尺度变换以及遮挡因素的影响,跟踪准确率较低。针对这一问题,提出一种遮挡判别下的多尺度相关滤波跟踪方法。方法 首先选取第1帧图像的前景区域,训练目标的位置、尺度滤波器和GMS(grid-based motion statistics)检测器。然后,通过位置滤波器估计目标位置,尺度滤波器计算目标尺度,得到初选目标区域。最后,利用相关滤波响应情况对初选目标区域进行评估,通过相关滤波响应值的峰值和峰值波动情况判断是否满足遮挡和更新条件。若遮挡,启动检测器检测目标位置,检测到目标位置后,更新目标模型;若更新,则更新位置、尺度滤波器和GMS检测器,完成跟踪。结果 本文使用多尺度相关滤波方法作为算法的基本框架,对尺度变化目标跟踪具有较好的适应性。同时,利用目标模型更新机制和GMS检测器检索目标,有效地解决了遮挡情况下的目标丢失问题。在公开数据集上的测试结果表明,本文算法平均中心误差为5.58,平均跟踪准确率为94.2%,跟踪速度平均可达27.5 帧/s,与当前先进的跟踪算法相比,本文算法兼顾了跟踪速度和准确率,表现出更好的跟踪效果。结论 本文提出一种新的遮挡判别下的多尺度相关滤波跟踪算法。实验结果表明,本文算法在不同的尺度变换及遮挡条件下能够快速准确跟踪目标,具有较好的跟踪准确率和鲁棒性。  相似文献   

3.
目的 为解决目前基于鱼眼变换技术的图像适应方法难以解决的焦点检测和多焦点冲突两大问题,提出一种基于改进鱼眼变换技术的图像适应方法。方法 提出的方法根据源图像的能量计算出图像中所有最优高能量线并组成高能量线集合,作为源图像的高能量部分,即图像的焦点区域;以能量线而不是传统的图像区域为单位进行鱼眼变换以得到目标图像。结果 改变鱼眼变换技术的变换模式并应用于图像适应中,实验结果表明,本文方法解决了基于鱼眼变换技术的图像适应方法存在的问题,通过本文算法所得到的目标图像具有较好的视觉效果,用户满意度接近4分。算法运行速度较快,将源图像(512×384)长度缩小一半的情况下仅需6 s的运算时间。结论 本文方法一方面保留了鱼眼变换图像适应方法的优势,在突出显示图像重要部分的同时,不会忽略图像的次要部分;另一方面解决了鱼眼变换图像适应方法存在的焦点检测和多焦点冲突问题。实现效果和用户主观评价结果表明,该方法是一种有效可行的图像适应方法。  相似文献   

4.
目的 深度伪造是新兴的一种使用深度学习手段对图像和视频进行篡改的技术,其中针对人脸视频进行的篡改对社会和个人有着巨大的威胁。目前,利用时序或多帧信息的检测方法仍处于初级研究阶段,同时现有工作往往忽视了从视频中提取帧的方式对检测的意义和效率的问题。针对人脸交换篡改视频提出了一个在多个关键帧中进行帧上特征提取与帧间交互的高效检测框架。方法 从视频流直接提取一定数量的关键帧,避免了帧间解码的过程;使用卷积神经网络将样本中单帧人脸图像映射到统一的特征空间;利用多层基于自注意力机制的编码单元与线性和非线性的变换,使得每帧特征能够聚合其他帧的信息进行学习与更新,并提取篡改帧图像在特征空间中的异常信息;使用额外的指示器聚合全局信息,作出最终的检测判决。结果 所提框架在FaceForensics++的3个人脸交换数据集上的检测准确率均达到96.79%以上;在Celeb-DF数据集的识别准确率达到了99.61%。在检测耗时上的对比实验也证实了使用关键帧作为样本对检测效率的提升以及本文所提检测框架的高效性。结论 本文所提出的针对人脸交换篡改视频的检测框架通过提取关键帧减少视频级检测中的计算成本和时间消耗,使用卷积神经网络将每帧的人脸图像映射到特征空间,并利用基于自注意力的帧间交互学习机制,使得每帧特征之间可以相互关注,学习到有判别性的信息,使得检测结果更加准确,整体检测过程更高效。  相似文献   

5.
目的 基于水平集的轮廓提取方法被广泛用于运动物体的轮廓跟踪。针对传统方法易受局部遮挡、复杂背景等因素影响的问题,提出一种先验模型约束的抗干扰(AC-PMC)轮廓跟踪算法。方法 首先,选取图像序列的前5帧进行跟踪训练,将每帧图像基于颜色特征分割成若干超像素块,利用均值聚类组建簇集合,并通过该集合建立目标的先验模型。然后,利用水平集分割方法提取目标轮廓,并提出决策判定算法,判断是否需要引入形状先验模型加以约束,避免遮挡、复杂背景等影响。最后,提出一种在线模型更新算法,在特征集中加入适当特征补偿,使得更新的目标模型更为准确。结果 本文算法与多种优秀的轮廓跟踪算法相比,可以达到相同甚至更高的跟踪精度,在Fish、Face1、Face2、Shop、Train以及Lemming视频图像序列下的平均中心误差分别为3.46、7.16、3.82、13.42、14.72、12.47,算法的跟踪重叠率分别为0.92、0.74、0.85、0.77、0.73、0.82,算法的平均运行速度分别为4.27 帧/s、4.03 帧/s、3.11 帧/s、2.94 帧/s、2.16 帧/s、1.71 帧/s。结论 利用目标的先验模型约束以及提取轮廓过程中的决策判定,使本文算法在局部遮挡、目标形变、目标旋转、复杂背景等条件下具有跟踪准确、适应性强的特点。  相似文献   

6.
目的 视频目标检测旨在序列图像中定位运动目标,并为各个目标分配指定的类别标签。视频目标检测存在目标模糊和多目标遮挡等问题,现有的大部分视频目标检测方法是在静态图像目标检测的基础上,通过考虑时空一致性来提高运动目标检测的准确率,但由于运动目标存在遮挡、模糊等现象,目前视频目标检测的鲁棒性不高。为此,本文提出了一种单阶段多框检测(single shot multibox detector,SSD)与时空特征融合的视频目标检测模型。方法 在单阶段目标检测的SSD模型框架下,利用光流网络估计当前帧与近邻帧之间的光流场,结合多个近邻帧的特征对当前帧的特征进行运动补偿,并利用特征金字塔网络提取多尺度特征用于检测不同尺寸的目标,最后通过高低层特征融合增强低层特征的语义信息。结果 实验结果表明,本文模型在ImageNet VID (Imagelvet for video object detetion)数据集上的mAP (mean average precision)为72.0%,相对于TCN (temporal convolutional networks)模型、TPN+LSTM (tubelet proposal network and long short term memory network)模型和SSD+孪生网络模型,分别提高了24.5%、3.6%和2.5%,在不同结构网络模型上的分离实验进一步验证了本文模型的有效性。结论 本文模型利用视频特有的时间相关性和空间相关性,通过时空特征融合提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题。  相似文献   

7.
目的 针对背景和摄像机同时运动情况下的运动目标提取与跟踪,提出一种基于稀疏光流的目标提取与跟踪新方法。方法 首先,利用金字塔LK光流法生成光流图像匹配相邻两幅图像的特征点,依据光流图像中的位移、方向等光流信息初步划分背景和前景目标的特征点;然后利用中心迭代法去除不属于目标运动区域的噪声特征点;最后,通过前N帧图像目标特征点的最大交集得到属于目标的稳定特征点并在后续帧中进行跟踪。对于后续跟踪图像中存在的遮挡问题,引入了一个基于特征点的遮挡系数,运用Kalman预估算法得到目标位置的预测,并且在目标重新出现时能够迅速定位目标。结果 与已有的光流匹配算法相比,本文算法的目标特征点误检率降低了10%左右,成功跟踪率达到97%;引入预估器使得本文算法对有遮挡运动目标也能够实现准确跟踪和定位。结论 本文算法对复杂动态背景下无遮挡和有遮挡的持续运动目标跟踪均具有准确识别定位性能,满足实时要求,适用于缓慢或者快速移动的运动场景目标提取和目标跟踪。  相似文献   

8.
目的 具有立体感和高端真实感的3D视频正越来越受到学术界和产业界的关注和重视,未来在3D影视、机器视觉、远程医疗、军事航天等领域将有着广泛的应用前景。对象基3D视频是未来3D视频技术的重要发展趋势,其中高效形状编码是对象基3D视频应用中的关键问题。但现有形状编码方法主要针对图像和视频对象,面向3D视频的形状编码算法还很少。为此,基于对象基3D视频的应用需求,提出一种基于轮廓和链码表示的高效多模式3D视频形状编码方法。方法 对于给定的3D视频形状序列逐帧进行对象轮廓提取并预处理后,进行对象轮廓活动性分析,将形状图像分成帧内模式编码图像和帧间预测模式编码图像。对于帧内编码图像,基于轮廓内链码方向约束和线性特征进行高效编码。对于帧间编码图像,采用基于链码表示的轮廓基运动补偿预测、视差补偿预测、联合运动与视差补偿预测等多种模式进行编码,以充分利用视点内对象轮廓的帧间时域相关性和视点间对象轮廓的空域相关性,从而达到高效编码的目的。结果 实验仿真结果显示所提算法性能优于经典和现有的最新同类方法,压缩效率平均能提高9.3%到64.8%不等。结论 提出的多模式3D视频形状编码方法可以有效去除对象轮廓的帧间和视点间冗余,能够进行高效编码压缩,性能优于现有同类方法,可广泛应用于对象基编码、对象基检索、对象基内容分析与理解等。  相似文献   

9.
目的 无人机摄像资料的分辨率直接影响目标识别与信息获取,所以摄像分辨率的提高具有重大意义。为了改善无人机侦察视频质量,针对目前无人机摄像、照相数据的特点,提出一种无人机侦察视频超分辨率重建方法。方法 首先提出基于AGAST-Difference与Fast Retina Keypoint (FREAK)的特征匹配算法对视频目标帧与相邻帧之间配准,然后提出匹配区域搜索方法找到目标帧与航片的对应关系,利用航片对视频帧进行高频补偿,最后采用凸集投影方法对补偿后视频帧进行迭代优化。结果 基于AGAST-Difference与FREAK的特征匹配算法在尺度、旋转、视点等变化及运行速度上存在很大优势,匹配区域搜索方法使无人机视频的高频补偿连续性更好,凸集投影迭代优化提高了重建的边缘保持能力,与一种简单有效的视频序列超分辨率复原算法相比,本文算法重建质量提高约4 dB,运行速度提高约5倍。结论 提出了一种针对无人机的视频超分辨率重建方法,分析了无人机视频超分辨率问题的核心所在,并且提出基于AGAST-Difference与FREAK的特征匹配算法与匹配区域搜索方法来解决图像配准与高频补偿问题。实验结果表明,本文算法强化了重建图像的一致性与保真度,特别是对图像边缘细节部分等效果极为明显,且处理速度更快。  相似文献   

10.
结合距离变换与边缘梯度的分水岭血细胞分割   总被引:4,自引:2,他引:2       下载免费PDF全文
目的 针对医学图像中细胞提取和粘连细胞分割问题,提出一种结合距离变换利用边缘梯度的分水岭血细胞显微图像分割方法。方法 首先,通过距离变换由细胞二值图生成距离地形图,取其局部极值点或点集作为前景标记,进行第1次距离分水岭变换;接着将第一步骤所得的分水岭脊线作为背景区域的标记,前景标记不变,视梯度幅度图为地形图,再一次进行梯度分水岭变换,得到细胞分割结果。两次分水岭变换前,均采用强制极小值的方法修改地形图,来控制地形图只在选取的标记处存在局部极小值。结果 该方法由距离图提取前景标记,将距离分水岭变换所得的脊线作为梯度分水岭变换的背景标记,能有效地分离粘连目标。相比于基于距离图分水岭变换,本文方法不过多依赖二值图像信息,保留了基于梯度图像的分水岭变换边缘定位准确的优点,又解决了其无法分割粘连目标和过分割的问题。结论 经多幅临床细胞图像分割实验验证,该方法可以实现图像中细胞的提取以及粘连细胞的自动分割,满足医学图像分割的要求。  相似文献   

11.
视频目标检测中,光照变化、摄像机噪声和错误背景更新是目前的难题。提出一种带跟踪补偿的时空背景差彩色图像运动目标检测方法。首先,建立混合高斯背景模型,通过在彩色图像差分中加入影响因子消除光照变化;接着,通过帧间差分及邻域差分,加上运动跟踪种子补偿,获得真实运动目标的种子点;在背景差分粗前景基础上,根据连通区域运动种子点过滤法,检测出最终的真实而且完整的前景目标。通过多个实际视频监控的视频数据集的实验,结果表明该方法的目标检测准确率和完整性均有很大程度的提高。  相似文献   

12.
目的 动态场景图像中所存在的静态目标、背景纹理等静态噪声,以及背景运动、相机抖动等动态噪声,极易导致运动目标检测误检或漏检。针对这一问题,本文提出了一种基于运动显著性概率图的目标检测方法。方法 该方法首先在时间尺度上构建包含短期运动信息和长期运动信息的构建时间序列组;然后利用TFT(temporal Fourier transform)方法计算显著性值。基于此,得到条件运动显著性概率图。接着在全概率公式指导下得到运动显著性概率图,确定前景候选像素,突出运动目标的显著性,而对背景的显著性进行抑制;最后以此为基础,对像素的空间信息进行建模,进而检测运动目标。结果 对提出的方法在3种典型的动态场景中与9种运动目标检测方法进行了性能评价。3种典型的动态场景包括静态噪声场景、动态噪声场景及动静态噪声场景。实验结果表明,在静态噪声场景中,Fscore提高到92.91%,准确率提高到96.47%,假正率低至0.02%。在动态噪声场景中,Fscore提高至95.52%,准确率提高到95.15%,假正率低至0.002%。而在这两种场景中,召回率指标没有取得最好的性能的原因是,本文所提方法在较好的包络目标区域的同时,在部分情况下易将部分目标区域误判为背景区域的,尤其当目标区域较小时,这种误判的比率更为明显。但是,误判的比率一直维持在较低的水平,且召回率的指标也保持在较高的值,完全能够满足于实际应用的需要,不能抵消整体性能的显著提高。另外,在动静态噪声场景中,4种指标均取得了最优的性能。因此,本文方法能有效地消除静态目标干扰,抑制背景运动和相机抖动等动态噪声,准确地检测出视频序列中的运动目标。结论 本文方法可以更好地抑制静态背景噪声和由背景变化(水波荡漾、相机抖动等)引起的动态噪声,在复杂的噪声背景下准确地检测出运动目标,提高了运动目标检测的鲁棒性和普适性。  相似文献   

13.
目的 针对多运动目标在移动背景情况下跟踪性能下降和准确度不高的问题,本文提出了一种基于OPTICS聚类与目标区域概率模型的方法。方法 首先引入了Harris-Sift特征点检测,完成相邻帧特征点匹配,提高了特征点跟踪精度和鲁棒性;再根据各运动目标与背景运动向量不同这一点,引入了改进后的OPTICS加注算法,在构建的光流图上聚类,从而准确的分离出背景,得到各运动目标的估计区域;对每个运动目标建立一个独立的目标区域概率模型(OPM),随着检测帧数的迭代更新,以得到运动目标的准确区域。结果 多运动目标在移动背景情况下跟踪性能下降和准确度不高的问题通过本文方法得到了很好地解决,Harris-Sift特征点提取、匹配时间仅为Sift特征的17%。在室外复杂环境下,本文方法的平均准确率比传统背景补偿方法高出14%,本文方法能从移动背景中准确分离出运动目标。结论 实验结果表明,该算法能满足实时要求,能够准确分离出运动目标区域和背景区域,且对相机运动、旋转,场景亮度变化等影响因素具有较强的鲁棒性。  相似文献   

14.
在动态背景下的运动目标检测中,由于目标和背景两者都是各自独立运动的,在提取前景运动目标时需要考虑由移动机器人自身运动引起的背景变化。仿射变换是一种广泛用于估计图像间背景变换的方法。然而,在移动机器人上使用全方位视觉传感器(ODVS)时,由于全方位图像的扭曲变形会 造成图像中背景运动不一致,无法通过单一的仿射变换描述全方位图像上的背景运动。将图像划分为网格窗口,然后对每个窗口分别进行仿射变换,从背景变换补偿帧差中得到运动目标的区域。最后,根据ODVS的成像特性,通过视觉方法解析出运动障碍物的距离和方位信息。实验结果表明,提出的方法能准确检测出移动机器人360°范围内的运动障碍物,并实现运动障碍物的精确定位,有效地提高了移动机器人的实时避障能力。  相似文献   

15.
基于全局运动补偿的多运动目标检测方法研究   总被引:2,自引:0,他引:2  
提出了一种动态背景下的对多个运动目标检测的完整方法.利用基于宏块匹配的六参数全局运动估计方法进行全局运动补偿,有效地消除了摄像机在非稳定运动情况下对目标检测性能带来的不利影响.同时在宏块匹配前进行了预处理,通过预判提取纹理信息丰富的宏块,并在宏块匹配的过程中采用九点十字搜索算法取代传统的三步搜索算法,减少了匹配数据量....  相似文献   

16.
唐佳林  郑杰锋  李熙莹  苏秉华 《计算机科学》2017,44(Z11):175-177, 183
针对复杂背景下航拍视频中的运动目标检测问题,提出一种基于改进的特征匹配算法与全局运动补偿的防抖方法,以及结合多帧能量累积的运动目标检测算法。首先,采取局部区域匹配法加快该算法的处理速度,避免运动目标对背景补偿的影响;其次,利用尺度不变的SURF算法,结合快速近似最邻近搜索算法得到匹配点对,并通过双向匹配和K-近邻算法筛选优秀匹配点;然后,建立仿射变换模型,求解运动参数,并进行运动补偿;最后,通过多帧能量累积进行目标检测。仿真结果表明,该方法具有良好的运动目标检测效果。  相似文献   

17.
针对移动镜头下的运动目标检测中的背景建模复杂、计算量大等问题,提出一种基于运动显著性的移动镜头下的运动目标检测方法,在避免复杂的背景建模的同时实现准确的运动目标检测。该方法通过模拟人类视觉系统的注意机制,分析相机平动时场景中背景和前景的运动特点,计算视频场景的显著性,实现动态场景中运动目标检测。首先,采用光流法提取目标的运动特征,用二维高斯卷积方法抑制背景的运动纹理;然后采用直方图统计衡量运动特征的全局显著性,根据得到的运动显著图提取前景与背景的颜色信息;最后,结合贝叶斯方法对运动显著图进行处理,得到显著运动目标。通用数据库视频上的实验结果表明,所提方法能够在抑制背景运动噪声的同时,突出并准确地检测出场景中的运动目标。  相似文献   

18.
提出一种摄像机运动下的运动目标检测技术。首先获取相邻两帧图像上的对应特征点的坐标后应用到仿射变换模型得到全局运动参量来描述背景图像的运动变化。然后根据估计出的全局运动参量通过双线性内插法完成背景匹配。最后采用背景匹配后的两帧图像差进行目标检测。实验证明本算法在提高处理的精确度和时效性的同时还可以处理摄像机发生较大幅度旋转运动情况下的目标检测。  相似文献   

19.
视频运动对象分割是计算机视觉和视频处理的基本问题。在摄像机存在全局运动的动态场景下,准确分割运动对象依然是难点和热点问题。本文提出一种基于全局运动补偿和核密度检测的动态场景下视频运动对象分割算法。首先,提出匹配加权的全局运动估计补偿算法,消除动态场景下背景运动对运动对象分割的影响;其次,采用非参数核密度估计方法分别估计各像素属于前景与背景的概率密度,通过比较属于前景和属于背景的概率及形态学处理得到运动对象分割结果。实验结果证明,该方法实现简单,有效地提高了动态场景下运动对象分割的准确性。  相似文献   

20.
视频序列中的运动目标检测是计算机视觉领域的重要研究课题.背景减除是运动目标检测的有效方法,但相机抖动会对背景提取带来极大干扰,从而可能造成传统基于模型的图像处理方法模型失真.本文提出了相机抖动场景下前景图像提取的数据驱动背景图像更新控制算法.首先利用Harris特征检测进行背景补偿以消除抖动干扰.然后利用无模型自适应控制方法,建立单入单出控制系统来表示背景图像并进行实时更新.最后运用背景减除法提取运动目标前景图像.本文方法与传统基于模型方法进行了不同视频序列的对比仿真.实验结果表明,本文方法可以有效处理相机抖动场景下的运动目标检测问题,目标前景图像分离效果更加接近真实场景.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号