共查询到19条相似文献,搜索用时 601 毫秒
1.
为了快速准确地分割视频运动对象,提出一种新的自适应遗传视频运动对象分割算法.该算法通过完善进化机制,引进自适应初代个体、自适应选择算子、自适应调整交叉率和变异率以及终止判决等,有效解决了遗传算法收敛速度幔和群体过早成熟的问题.实验结果表明,新算法不但缩短了分割时间,而且取得了良好的分割效果. 相似文献
2.
针对现有动态背景下目标分割算法存在的局限性,提出了一种融合运动线索和颜色信息的视频序列目标分割算法。首先,设计了一种新的运动轨迹分类方法,利用背景运动的低秩特性,结合累积确认的策略,可以获得准确的运动轨迹分类结果;然后,通过过分割算法获取视频序列的超像素集合,并计算超像素之间颜色信息的相似度;最后,以超像素为节点建立马尔可夫随机场模型,将运动轨迹分类信息以及超像素之间颜色信息统一建模在马尔可夫随机场的能量函数中,并通过能量函数最小化获得每个超像素的最优分类。在多组公开发布的视频序列中进行测试与对比,结果表明,本文方法可以准确分割出动态背景下的运动目标,并且较传统方法具有更高的分割准确率。 相似文献
3.
为促进对新闻视频的结构化传播,提出基于语义特征的新闻视频自适应拆条算法.该算法对视频流上场景语义划分,搭建了一种基于场景分类任务的深度神经网络模型NewslicNet,深度挖掘新闻内容条目的非结构化特征提取新闻内容的拆分点,完成新闻内容段拆条工作.该算法在1538分钟23秒的新闻联播视频上进行训练与测试,实验结果表明,验证了拆条算法的性能优越性和模型的可行性. 相似文献
4.
5.
采用背景提取和自适应滤波的视频降噪算法 总被引:1,自引:0,他引:1
针对监控视频图像背景固定的特点,提出一种有效去除高斯噪声和脉冲噪声的降噪算法.首先通过分析噪声设计一种提取视频序列背景图像的算法,然后对运动区域采用自适应像素域滤波算法来进行处理.该算法根据最小可觉差和视频图像特征自适应地选择谐波均值滤波、加权算术平均滤波、α-截尾均值滤波和中值滤波.为评估降噪算法性能,将降噪处理前后的视频序列分别进行MPEG-2编码,并改变目标码率对比视频质量.实验结果显示:降噪处理后的视频能够用更少的(约50%)比特数获得相同的主、客观视频质量;或者用相同的比特数获得更高的视频质量. 相似文献
6.
7.
8.
9.
10.
11.
12.
运动视频对象的时空联合检测技术 总被引:1,自引:0,他引:1
提出了一种具有全局运动的视频运动对象时空联合检测算法。针对传统时间分割使用主观固定阈值的缺点,采用了对差分图像进行噪声参数自适应学习的算法获取自动阈值,并利用形态学运算获取修正的时间分割模板;考虑传统分水岭空间分割的不足,提出了基于人眼视觉特征的改进分水岭算法,包括基于形态重建滤波的图像降噪、形态梯度变换以及基于韦伯感知原理的视同灰度非线性变换,有效地解决了过分割问题;对时、空间分割结果进行信息融合处理,从而得到完整的运动对象。仿真实验结果表明,本文算法可以快速准确地分割视频运动对象。 相似文献
13.
14.
15.
视频对象分割算法的性能好坏将直接影响MPEG-4编码产品的质量。连续两次差分后自适应处理,对差分图像取交集获得运动对象的边界,形态学处理后获得二值分割掩模进而提取运动目标。基于改进的Hausdorff距离度量法对后续帧中视频对象进行跟踪。实验结果证明,该方法能够从背景不变的图像序列中较好的提取出运动对象,具有较强的鲁棒性。 相似文献
16.
17.
针对现有视频图像火焰检测算法前景提取不完整、准确率低和误检率高等问题,提出一种基于改进混合高斯模型(GMM)和多特征融合的视频火焰检测算法。首先针对背景建模,提出了自适应高斯分布数和学习率的改进GMM方法,以提高前景提取效果和算法实时性;然后利用火焰颜色特征筛选出疑似火焰区域,再通过融合改进局部二值模式纹理和边缘相似度特征用于火焰检测。基于支持向量机设计火焰融合特征分类器并进行对比实验,在公开数据集上的实验结果表明,所提算法有效提高了背景建模效果,火焰检测准确率可达到92.26%,误检率低至2.43%。 相似文献
18.
基于肤色模型的手势分割是目前常用的一类手势分割方法,而此类方法容易受到类手势肤色背景的影响而导致严重的误分割,并且由于模型参数固定而对不同的手势肤色不具有适应性。针对以上问题,提出了一种先检测手势再自适应分割手势的方法。首先设计了一种基于空洞卷积的主干网络和一套Anchor方案将SSD改进为手势检测模型,通过该模型初步分割出手势ROI以避免类手势肤色背景的影响。然后根据手势ROI建立YCrCb高斯肤色模型,以使肤色模型对不同的手势肤色具有很好的适应能力。实验结果表明,在多种复杂场景下,本文的手势分割算法能够避免类肤色背景的影响并且对不同肤色的手势都取得了非常好的分割效果。 相似文献
19.
现有的大多数视频事件检测方法首先从视频帧或视频快照中提取特征,然后对特征进行量化和汇集,进而为整个视频生成一个向量表示.最后的汇集步骤虽然简单高效,但是可能丢失时间局部信息,而这些信息对于确定长视频中事件发生的位置具有重要作用,从而削弱了事件检测的准确性.为此,本文首先将每个视频表示为多个“实例”,并将其定义为不同时间间隔的视频段.然后,针对每个视频的正实例比例已知和未知两种情况,提出基于多尺度实例学习的检测算法,在将实例标签看成隐藏潜在变量的同时推断出实例标签以及实例尺度的事件检测模型.最后,利用大规模视频事件数据集进行了全面的仿真实验,结果证明了本文算法具有显著的性能提升.此外,算法还可以确定视频中导致正检测的时间段的位置,进而对检测结果做出解释. 相似文献