首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 250 毫秒
1.
基于色彩比例和时域相关的置信度传播立体视频匹配算法   总被引:1,自引:0,他引:1  
提出一种改进的立体视频匹配算法,首先通过马尔科夫随机场建立视差图模型,然后利用亮度和色彩比例求置信度,最后根据时域相关性局部更新视差值得到视差序列。以卡耐基梅隆大学提供的真实场景视频为测试序列,实验结果表明:基于亮度和色彩比例比单纯使用亮度得到的匹配更准确,根据时域相关性求视差序列比用逐帧置信度传播求视差序列减少了83.3%以上的迭代计算时间,为立体视频的压缩传输、任意视点视频合成提供了高效的视差序列。  相似文献   

2.
针对立体视频数据量大、立体匹配算法效率较低,远远满足不了实时传输需求的现状,提出了一种应用于单视加深度立体视频编码的快速立体匹配算法。该算法利用单视编码过程中产生的运动信息作为深度图生成的辅助信息,将立体匹配过程中的视差估计值重组,并将重组后的信息作为P帧的视差估计初值进行后续的迭代运算。算法通过利用单视编码过程中已有的运动信息,降低了P帧立体匹配的运算复杂度。实验结果表明,该算法能使视差图的生成速度提高一倍左右。  相似文献   

3.
针对多视点视频编码复杂度高的问题,提出一种基于分层B帧视点-时间预测结构的运动和视差联合估计快速算法.利用参考帧图像和当前编码图像的运动矢量及视差矢量之间的几何关系,设计可靠的预测矢量作为搜索起始点,并分别在不同方向的参考帧内进行小范围的运动补偿以得到最佳运动和视差矢量.该方法由前一次运动/视差估计得到候选矢量来进行下一次视差/运动估计,只需1次搜索过程就能同时确定最佳运动和视差矢量.实验结果表明,该算法与JMVM全搜索算法相比,能在保持编码质量的同时,节省87.69%的编码时间.  相似文献   

4.
动态场景下基于视差空间的立体视觉里程计   总被引:2,自引:0,他引:2  
针对实际的复杂动态场景,提出了一种基于视差空间的立体视觉里程计方法.利用SIFT特征点的尺度和旋转不变性及一些合理的约束条件,实现左、右图像对和连续帧间的特征点匹配和跟踪.通过结合了RANSAC的最小二乘估计滤除运动物体上的干扰特征点,得到较为准确的运动参数的初始值,在视差空间中推导出视觉里程估计的数学模型,通过最小化误差函数得到最终运动估计.实验结果表明,该算法在室内外存在运动物体的复杂动态场景中都具有较传统方法更高的精度.  相似文献   

5.
针对视频序列中存在很大的时间冗余问题.在运动补偿和运动估计算法基础上,利用运动估计的中心偏置特性,提出一种基于运动矢量场的自适应搜索算法.通过对当前帧的分析,动态地修改被参考特性,从而减少了时间冗余.实验证明,该算法将使运动估计匹配准确率和搜索速度得到有效提高.  相似文献   

6.
针对因传统的置信度传播(BP:Belief Propagation)算法生成的深度图并非十分精确而导致深度图的绘制及立体重现存在的失真问题,提出一种基于反馈的立体匹配算法,使生成的深度图进一步优化。该算法首先通过BP算法生成深度图,然后由左视点图像与深度数据绘制右视点图像,将绘制出的右视点图像与真实右视点图像进行比较,再将比较结果反馈给BP算法的匹配代价,最后由新的匹配代价重新生成深度图。实验结果表明,该算法与无反馈的算法比较,绘制右视图的PSNR(Peak Signal to Noise Ration)值平均增高0.2 dB。  相似文献   

7.
用于立体图像编码的自适应块匹配视差估计算法   总被引:3,自引:3,他引:0  
提出了一种新的自适应块匹配视差估计算法,对图像用固定尺寸分块并做视差估计,利用对应块之间的亮度估计误差判断是否进行自适应的块匹配估计.在自适应块匹配算法中使用亮度估计误差的方差来控制匹配窗口的大小和形状,得到最优的匹配窗口.用这个窗口重新进行视差估计,得到最后的视差矢量.实验证明,该算法的估计误差小于传统的固定尺寸块匹配算法,效率优于一些用于立体图像分析的自适应块匹配算法,是一种简单、实用、适合编码系统使用的视差估计算法.  相似文献   

8.
基于自动多视点显示的立体视频错误隐藏算法   总被引:1,自引:0,他引:1  
立体视频信息经H.264编码,在网络传输时,因信道错误会引起图像整帧丢失的情况.该文利用视频序列时间和空间相关性,提出一种错误隐藏算法.它通过确定丢失帧中每个区域的运动方式,进行替代补偿或视差补偿,从而恢复丢失帧.实验结果表明,所提出的算法与传统算法相比,得到了更好的图像质量.  相似文献   

9.
现有的高动态范围(HDR)的色调映射技术基本都是针对静态图像的,与视频相关的算法较少且效率不高。针对现有的HDR视频压缩算法,利用视频的帧间相关性,研究讨论了一种新的高效的压缩算法。单独设置参考帧作基于双边滤波的色调映射处理,将每帧图像分块与参考帧进行块匹配的运动估计,获取参考帧中的匹配块的低动态信息,避免了对视频序列中每帧图像都作色调映射处理。通过比较结构相似性和处理速度2方面对算法进行检验,实验结果表明:该算法在获取较好视觉效果的同时,大大加快了处理速度。  相似文献   

10.
提出一种基于梯度和MRF(Markov Random Field)模型的视差估计及优化算法.采用图像灰度和梯度加权联合的方法进行块匹配运算,获得初始视差场.然后根据顺序匹配准则对该视差场进行交叉块检测,并运用基于MRF模型的因果预测对误匹配块进行迭代校正,最终获得较为精确平滑的视差场.实验表明,与传统块匹配法相比,该算法生成的视差场能够将预测图像峰值信噪比提高1.2~1.8dB,且运算时间在1s以内.  相似文献   

11.
针对在立体匹配研究领域中弱纹理区域的匹配问题,文中提出了一种基于区域的实时立体匹配改进算法.采用匹配测度函数像素灰度差的绝对值和(Sum of Absolute Differ-ence,SAD),通过平均误差阈值算法检测出高误差能量;针对遮挡区域造成的不可信视差预测点,进行误差能量计算;利用滤波加速算法减少计算匹配窗口相似性复杂度,既降低了误匹配率,又提高了算法的运行速度.实验结果表明,改进算法的误匹配像素百分比明显减小,且能满足系统对实时性的要求.  相似文献   

12.
针对区域立体匹配算法中匹配窗口的选择和在图像中视差不连续、弱纹理区域误匹配率较高的难题,提出了一种自适应窗口和半全局算法相结合的立体匹配算法.该算法先通过基于灰度的自适应窗口算法计算初始匹配代价,然后利用相邻像素之间的视差梯度作为约束,采用半全局立体匹配算法以得出视差图.最后对左右视差图进行左右一致性遮挡检测,获得精确的稠密视差图.针对不同的图像信息采用自适应窗口和半全局算法相结合的立体匹配算法,剔除、修正了视差不连续、弱纹理区域的误匹配点,得到匹配效果较好的视差图.实验结果表明:该算法有效降低了视差图在视差不连续、弱纹理区域和遮挡处的误匹配率.  相似文献   

13.
在摄像机载体运动过程中会造成图像序列的不稳定,从而产生观察者的视觉疲劳甚至会丢失观察目标,电子稳像是解决以上问题的有效手段。电子稳像首先对全局运动进行估计,求出参考帧和当前帧图像的全局运动矢量。本文先取视频序列相邻两帧图像的子图像进行块匹配得出局部运动矢量,根据计算得到的运动矢量弧度值剔除错误的运动矢量,然后对剩余的运动矢量求平均值作为此区域的运动矢量,并把与此矢量弧度相近的块的中心点作为特征点,利用仿射变换模型求解出变换参数,最后经过运动补偿技术去除视频抖动。实验结果表明,该方法可以有效地抑制帧间的平移和旋转等抖动,达到了预期的效果。  相似文献   

14.
针对多视点视频编码复杂度较高的问题,本文探讨了一种基于全局视差的多视点视频快速编码方法。通过全局视差获取相邻视点参考宏块的编码信息,根据视点间编码信息的相关性,预测当前编码宏块的编码模式、参考帧,以及视差/运动联合估计的搜索范围。实验结果表明,本文采用的快速编码方法计算复杂度低,几乎不改变图像编码质量,并且有效减少了多视点视频的编码复杂度。  相似文献   

15.
为了在基于现场可编程门阵列(FPGA)的双目相机系统中实现实时立体图像匹配,提出一种改进的立体图像实时相位匹配方法。在一定视差范围内,将图像分为互相不重叠的子块,通过比较相邻块的方向值和Gabor滤波结果,以寻找合理视差值为目标,使实测相位差能够最佳匹配到理想相位差。采用流水线技术与并行处理方式对算法进行硬件结构的映射,以提高该算法在硬件系统上运行的效率。实验结果表明,改进算法能够以97.3MHz的处理速度在Stratix II型FPGA硬件实验平台上对1024×1024的灰度图像实现30fps实时匹配处理。  相似文献   

16.
物流配送路径优化理论在立体匹配技术中的应用研究   总被引:3,自引:1,他引:2  
由于目前的立体匹配算法大都以追求高匹配精确度为目的,造成了算法执行时间过长,不利于实时场合的应用.因此,提出了将物流领域中的配送路径优化理论和方法,即节约算法,引入立体匹配技术中,构建一种高匹配精度、高执行速度的立体匹配算法,并将该方法引入到双目立体视觉中.首先用金字塔算法在低分辨率图像上求取控制点,之后结合物流网络的构建理论修正初始视差空间图像,进而利用物流配送路径优化中实时性强的特点,在修正后的视差空间图像上快速找到全局最优路径,从而生成具有全局最优特性的视差.实验结果表明,本方法将大大增强立体视觉技术在实时场合下的适用性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号