首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 984 毫秒
1.
针对光场相机结构和像素传感器分辨率的限制导致光场图像空间分辨率和角度分辨率都较低的问题,提出一种融合全局与局部视角的光场超分辨率重建算法,同时提高光场图像的空间分辨率和角度分辨率。首先根据待重建新视角的位置,自适应选择局部视角,利用空间超分辨率卷积神经网络提高全局视角和局部视角的空间分辨率,然后提取并融合全局视角和局部视角在新视角处映射图像的深度特征和颜色特征,通过角度分辨率卷积神经网络重建获得新视角图像。实验结果表明,与现有方法相比,峰值信噪比(PSNR)提高约3 dB,结构相似性指数(SSIM)提高约0.02,有效地解决了遮挡情况下重建新视角局部目标丢失现象,同时更好地保持新视角的边缘信息,获得更优的重建效果。  相似文献   

2.
目的 非刚性物体进行匹配时,往往需要对图像中存在的非刚性形变目标进行快速精确的配准,进而实现对图像的后续处理和分析,实现快速而准确的非刚体匹配显得尤为重要。针对传统特征点匹配方法在非刚性物体匹配中准确性差的问题,本文提出了一种基于DAISY算子和有约束Patch-Match的非刚体密集匹配算法。方法 首先对参考图像和待匹配图像生成DAISY特征描述子,其次对两幅图像进行超像素分割,形成相互邻接但没有重叠的超像素块结构,并以其为单元,计算初始位置上对应每一个像素的DAISY特征算子聚合代价。然后,采用Patch-Match算法对整幅图像进行传播和变异,在变异过程中,通过图像预处理和分析得到的先验知识对位置标签的变异窗口进行局部空间约束,使得每个像素的位置标签在该空间范围内随机更新,计算新的聚合代价,保留代价较小的位置标签,重复迭代此过程,直到聚合代价不发生变化或者达到最大迭代次数为止。结果 实验选取了标准数据集、10幅分别由TFDS(the trucking fault dynamic image detection system)线阵列相机和框幅式相机采集的包含非刚体的图像进行匹配,均取得了较好的匹配效果,经验证,本文方法的匹配精度为86%,误匹配点的平均匹配误差为5个像素左右,是传统基于SIFT特征光流匹配方法误差的一半,并且本文采用的DAISY算子在特征提取速度上是Dense SIFT(dense scale invariant feature transform)特征提取算法的2~3倍,大大提升了图像匹配的效率。结论 本文提出了一种非刚体密集匹配算法,针对非刚体变化的不确定性采用密集特征点进行最优化搜索匹配。本文算法对包含小范围非刚性变化的图像匹配上具有较好的适应性,且匹配精度高,视觉效果好,鲁棒性强。  相似文献   

3.
为了减少亚像素立体匹配中存在的错误匹配以及提高匹配精度,提出基于多策略融合的亚像素精度立体匹配方法。通过以下三个步骤实现:原图像插值处理结合基于最小生成树代价聚集策略估计分数视差;给出新的视差搜索范围确定关系,减少匹配代价计算;在大片低纹理区域引入视差平面拟合细化视差,在亚像素精度上平滑,减少错误匹配。实验表明,算法有效地将匹配精度提高到亚像素级,同时减少了错误匹配。  相似文献   

4.
《计算机科学与探索》2019,(11):1911-1924
图像重定向是图像编辑中的一个基本问题,主要研究根据具体应用要求对图像内容进行重构。当前针对光场图像角度和空间超分辨率以外的重定向的研究尚属空白。提出了一种光场图像基线编辑方法。算法主要包含三个步骤:首先对光场图像进行标定得到相机参数,并估计光场图像每个子视点图像的视差图;然后根据基线编辑的要求对光场图像进行重定向处理,即将每个子视点图像投影到目标光场图像对应的子视点;最后构建一个深度学习算法对目标光场图像进行优化,对直接重定向过程中因遮挡去除导致的图像空洞区域进行修复。实验结果表明,所提算法能够实现基线编辑的光场图像重定向处理,得到高质量的目标光场图像。该算法可用于一系列光场图像编辑应用,包括光场图像拼接、不同图像间物体拷贝和复制、光场图像的立体显示等。  相似文献   

5.
近年来,随着 GPU 技术的深入发展和并行算法的日益成熟,使得实时三维重建成 为可能。文中实现了一种针对小场景的交互式稠密三维重建系统,此系统借助先进的移动跟踪 技术,可以准确地估计相机的即时位置。提出了一种改进的多视深度生成算法,在 GPU 加速下 能够实时计算场景的深度。改进算法中的亚像素级的半全局匹配代价累积提高了多视立体匹配 的精度,并结合全局优化的方法计算出了准确的场景深度信息。深度图被转换为距离场,使用 全局优化的直方图压缩融合算法和并行的原始对偶算法实现了深度的实时融合。实验结果证明 了重建系统的可行性和重建算法的正确性。  相似文献   

6.
针对现有光场深度估计方法存在的计算时间长和精度低的问题,提出了一种融合光场结构特征的基于编码-解码器架构的光场深度估计方法.该方法基于卷积神经网络,采用端到端的方式进行计算,一次输入光场图像就可获得场景视差信息,计算量远低于传统方法,大大缩短了计算时间.为提高计算精确度,网络模型以光场图像的多方向极平面图堆叠体(Epipolar Plane Image Volume,EPI-volume)为输入,先利用多路编码模块对输入的光场图像进行特征提取,再使用带跳跃连接的编码-解码器架构进行特征聚合,使网络在逐像素视差估计时能够融合目标像素点邻域的上下文信息.此外,模型采取不同深度的卷积块从中心视角图中提取场景的结构特征,并将该结构特征引入对应的跳跃连接中,为视差图预测提供了额外的边缘特征参考,进一步提高了计算精确度.对HCI-4D光场基准测试集的实验结果表明,所提方法的坏像素率(BadPix)指标比对比方法降低了31.2%,均方误差(MSE)指标比对比方法降低了54.6%.对于基准测试集中的光场图像,深度估计的平均计算时间为1.2 s,计算速度远超对比方法.  相似文献   

7.
针对光场的深度信息估计中,由遮挡带来的干扰,造成遮挡处的深度值估计精度低的问题,提出一种抗多遮挡物干扰的光场深度信息估计算法。对场景点的angular patch图像进行多遮挡物分析,分析遮挡物的位置分布特性。基于分类的思想提出改进AP(Affinity Propagation)聚类算法将场景点的angular patch图像进行像素点分类,将遮挡物和场景点分离。对分离遮挡物后的angular patch图像提出联合像素强度信息熵及中心方差的目标函数,最小化该函数,求得场景点的初始深度值估计。对初始深度值估计提出基于MAP-MRF(最大后验估计的马尔可夫随机场)框架的平滑约束能量函数进行平滑优化,并采用图割算法(Graph Cut Algorithm)求解,得到场景的最终深度值估计。实验结果表明,相较于现有深度信息估计算法,所提算法提升了遮挡处的估计精度。  相似文献   

8.
稠密重建问题是视觉同时定位与地图构建(SLAM)的重要环节,每一个像素点深度距离的准确测量对稠密重建都起到重要作用。在工业应用中,往往使用RGB-D相机进行稠密重建,但是RGB-D相机有一些量程、应用范围和光照的限制。因此,采用滤波器方式深度估计的单目相机,不仅可以保证SLAM实时性要求,同时还适用于室外、大场景等场合。针对高斯滤波算法存在稠密重建准确率不高的问题,提出了一种基于簇的均匀—高斯深度滤波算法,采用改进的滤波算法处理错误匹配的像素点,在正确处理外点数据的基础上,解决深度值错误估计、相邻像素深度值相差过大的问题。实验结果表明:改进型深度估计算法重建的稠密地图更加细致,且重建准确率提高了约30%。  相似文献   

9.
为解决基于光场传统EPI(epipolar plane image)结构的深度信息估计算法执行效率低和估计精度低的问题,提出一种融合边缘特征的高效光场深度信息估计算法。改进传统EPI结构为包含完整像素极线信息的IEPI(improved epipolar plane image)结构和对应包含边缘信息的边缘图;构建深度多流全卷积神经网络,学习IEPI及边缘图的特征;构建基于尺度不变误差的代价函数,结合HCI光场数据集指导网络训练,实现一个估计光场深度信息的网络。实验结果表明,所提算法相较于传统算法提升了估计精度和估计效率。  相似文献   

10.
针对小高比立体匹配当中的亚像素精度和粘合现象问题,提出了一种基于最大似然估计的小基高比立体匹配方法。该方法首先根据混合式窗口选择策略为参考图像中的每一点确定匹配窗口;然后在视差范围内根据规范化互相关函数计算匹配代价,再利用胜者全取策略计算每一点视差;最后采用基于最大似然估计的亚像素匹配方法获得亚像素级视差。实验结果表明,该方法有效地减少了立体匹配中的粘合现象,同时获得了较高精度的亚像素视差,其平均亚像素精度可达1/20个像元。  相似文献   

11.
图像特征点匹配的强壮算法   总被引:13,自引:1,他引:13  
同一场景的不同图像匹配是计算机视觉中的一个基本问题,在诸如三维重度,对象识别和分类、图像对齐和相机自校正等应用中,特征匹配都是一个关键步骤,其中特征点匹配是较为常用的一种方法,特征点匹配的效果受到很多因素的影响,如景物的遮挡,光照和噪声等,变化很大,文中对结指标派算法进行扩以解决全局优化问题,并利用场景深度局部连续的条件作为附加约束,提出一种新的特征点匹配算法,整个算法只用到两次优化,而且几乎全部使用矩阵运算,效率比已有的算法高,实验表明该算法的效果是令人满意的。  相似文献   

12.
目的 传统的单目视觉深度测量方法具有设备简单、价格低廉、运算速度快等优点,但需要对相机进行复杂标定,并且只在特定的场景条件下适用。为此,提出基于运动视差线索的物体深度测量方法,从图像中提取特征点,利用特征点与图像深度的关系得到测量结果。方法 对两幅图像进行分割,获取被测量物体所在区域;然后采用本文提出的改进的尺度不变特征变换SIFT(scale-invariant feature transtorm)算法对两幅图像进行匹配,结合图像匹配和图像分割的结果获取被测量物体的匹配结果;用Graham扫描法求得匹配后特征点的凸包,获取凸包上最长线段的长度;最后利用相机成像的基本原理和三角几何知识求出图像深度。结果 实验结果表明,本文方法在测量精度和实时性两方面都有所提升。当图像中的物体不被遮挡时,实际距离与测量距离之间的误差为2.60%,测量距离的时间消耗为1.577 s;当图像中的物体存在部分遮挡时,该方法也获得了较好的测量结果,实际距离与测量距离之间的误差为3.19%,测量距离所需时间为1.689 s。结论 利用两幅图像上的特征点来估计图像深度,对图像中物体存在部分遮挡情况具有良好的鲁棒性,同时避免了复杂的摄像机标定过程,具有实际应用价值。  相似文献   

13.
为了高效、高精度、低成本地实现对物体的全视角三维重建, 提出一种使用深度相机融合光照约束实现全视角三维重建的方法。该重建方法中,在进行单帧重建时采用RGBD深度图像融合明暗恢复形状(Shape from shading,SFS)的重建方法, 即在原有的深度数据上加上额外的光照约束来优化深度值; 在相邻两帧配准时, 采用快速点特征直方图(Fast point feature histograms, FPFH)特征进行匹配并通过随机采样一致性(Random sample consensus, RANSAC)滤除错误的匹配点对求解粗配准矩阵, 然后通过迭代最近点(Iterative closest point, ICP)算法进行精配准得出两帧间的配准矩阵; 在进行全视角的三维重建时, 采用光束平差法优化相机位姿, 从而消除累积误差使首尾帧完全重合, 最后融合生成一个完整的模型。该方法融入了物体表面的光照信息,因此生成的三维模型更为光顺,也包含了更多物体表面的细节信息,提高了重建精度;同时该方法仅通过单张照片就能在自然光环境下完成对多反射率三维物体的重建,适用范围更广。本文方法的整个实验过程通过手持深度相机就能完成,不需要借助转台,操作更加方便。  相似文献   

14.
目的 针对多视图立体(multi-view stereo,MVS)重建效果整体性不理想的问题,本文对MVS 3D重建中的特征提取模块和代价体正则化模块进行研究,提出一种基于注意力机制的端到端深度学习架构。方法 首先从输入的源图像和参考图像中提取深度特征,在每一级特征提取模块中均加入注意力层,以捕获深度推理任务的远程依赖关系;然后通过可微分单应性变换构建参考视锥的特征量,并构建代价体;最后利用多层U-Net体系结构正则化代价体,并通过回归结合参考图像边缘信息生成最终的细化深度图。结果 在DTU (Technical University of Denmark)数据集上进行测试,与现有的几种方法相比,本文方法相较于Colmap、Gipuma和Tola方法,整体性指标分别提高8.5%、13.1%和31.9%,完整性指标分别提高20.7%、41.6%和73.3%;相较于Camp、Furu和SurfaceNet方法,整体性指标分别提高24.8%、33%和29.8%,准确性指标分别提高39.8%、17.6%和1.3%,完整性指标分别提高9.7%、48.4%和58.3%;相较于PruMvsnet方法,整体性指标提高1.7%,准确性指标提高5.8%;相较于Mvsnet方法,整体性指标提高1.5%,完整性标提高7%。结论 在DTU数据集上的测试结果表明,本文提出的网络架构在整体性指标上得到了目前最优的结果,完整性和准确性指标得到较大提升,3D重建质量更好。  相似文献   

15.
为了提高三维建筑模型的精准度,需要深入研究BIM建筑三维重建方法。当前方法耗时较长,得到的三维建筑模型与实际建筑之间的误差较大,存在效率低和精准度低的问题。将透视式增强现实技术应用到BIM建筑三维重建中,提出基于透视式增强现实的BIM建筑三维重建方法,通过BIM构建初始三维建筑模型,采用直接线性变换算法计算摄像机的内部参数和外部参数,完成摄像机标定。在摄像机标定结果的基础上采用LK光流计算方法得到像素在图像中的光流,根据光流的方向阈值和光流的大小筛选图像中的光流,提取到图像的匹配点,基于初始三维建筑模型针对建筑图像匹配点构成空间三维点云,采用Delaunay方法对空间三维点云进行三角化处理,针对处理后的建筑图像通过贴纹理完成BIM建筑三维重建。仿真结果表明,所提方法的效率高、精准度高。  相似文献   

16.
基于SIFT的POCS图像超分辨率重建   总被引:1,自引:0,他引:1  
针对传统的POCS图像超分辨率重建算法中广泛使用的基于改进的Keren配准算法,对于序列帧间存在剪切和非均匀尺度变换现象时,很难做到精确的亚像素级配准,文中讨论了一种基于SIFT算法的POCS序列图像超分辨率重建算法。首先利用SIFT算法提取序列帧与参考帧间的SIFT关键点对,随后选取匹配关键点对,通过RANSAC去除误配点的同时估算出六参数仿射变换参数,最后使用POCS重建算法得到最终的重建结果。实验结果表明:该方法能有效地解决因运动估计不准而引起的重建图像效果不好的问题,特别是在序列帧间存在剪切和非均匀尺度变换现象时,重建效果明显好于传统的POCS算法,具有更强适应性。  相似文献   

17.
任意视角的多视图立体匹配系统   总被引:3,自引:0,他引:3  
为了得到高精度深度图,通过特征点提取与匹配、计算基础矩阵F、引导互匹配、捆集调整等一系列技术,求出每幅视图在同一空间坐标系下的高精度摄像机矩阵P.为任意角度的多个视图建立可扩展的主框架,不需要图像矫正.基于图像坐标和自动计算出的视差范围建立三维网络,为每条边分配适当的权值,把多视图立体匹配问题转化为网络最大流问题.算法保证了高准确率和平滑性,实验结果表明此方法适用于三维模型重建.  相似文献   

18.
19.
In the field of augmented reality (AR), many kinds of vision-based extrinsic camera parameter estimation methods have been proposed to achieve geometric registration between real and virtual worlds. Previously, a feature landmark-based camera parameter estimation method was proposed. This is an effective method for implementing outdoor AR applications because a feature landmark database can be automatically constructed using the structure-from-motion (SfM) technique. However, the previous method cannot work in real time because it entails a high computational cost or matching landmarks in a database with image features in an input image. In addition, the accuracy of estimated camera parameters is insufficient for applications that need to overlay CG objects at a position close to the user's viewpoint. This is because it is difficult to compensate for visual pattern change of close landmarks when only the sparse depth information obtained by the SfM is available. In this paper, we achieve fast and accurate feature landmark-based camera parameter estimation by adopting the following approaches. First, the number of matching candidates is reduced to achieve fast camera parameter estimation by tentative camera parameter estimation and by assigning priorities to landmarks. Second, image templates of landmarks are adequately compensated for by considering the local 3-D structure of a landmark using the dense depth information obtained by a laser range sensor. To demonstrate the effectiveness of the proposed method, we developed some AR applications using the proposed method.  相似文献   

20.
The recovery of 3-D shape information (depth) using stereo vision analysis is one of the major areas in computer vision and has given rise to a great deal of literature in the recent past. The widely known stereo vision methods are the passive stereo vision approaches that use two cameras. Obtaining 3-D information involves the identification of the corresponding 2-D points between left and right images. Most existing methods tackle this matching task from singular points, i.e. finding points in both image planes with more or less the same neighborhood characteristics. One key problem we have to solve is that we are on the first instance unable to know a priori whether a point in the first image has a correspondence or not due to surface occlusion or simply because it has been projected out of the scope of the second camera. This makes the matching process very difficult and imposes a need of an a posteriori stage to remove false matching.In this paper we are concerned with the active stereo vision systems which offer an alternative to the passive stereo vision systems. In our system, a light projector that illuminates objects to be analyzed by a pyramid-shaped laser beam replaces one of the two cameras. The projections of laser rays on the objects are detected as spots in the image. In this particular case, only one image needs to be treated, and the stereo matching problem boils down to associating the laser rays and their corresponding real spots in the 2-D image. We have expressed this problem as a minimization of a global function that we propose to perform using Genetic Algorithms (GAs). We have implemented two different algorithms: in the first, GAs are performed after a deterministic search. In the second, data is partitioned into clusters and GAs are independently applied in each cluster. In our second contribution in this paper, we have described an efficient system calibration method. Experimental results are presented to illustrate the feasibility of our approach. The proposed method yields high accuracy 3-D reconstruction even for complex objects. We conclude that GAs can effectively be applied to this matching problem.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号