首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 838 毫秒
1.
曾庆化  陈艳  王云舒  刘建业  刘昇 《控制与决策》2017,32(12):2233-2239
针对ASIFT算法抗大视角变换能力较好,但运算效率低的缺点,提出一种基于ORB的快速大视角图像匹配算法.该算法结合透视变换模型和ORB算法对ASIFT中的仿射变换模型和SIFT算法进行优化,在粗匹配算法获得单应性矩阵的基础上进行精匹配,有效减少了模拟次数,并提高了算法运算效率.实验结果表明,所提出算法具备抗视角变换能力,计算速度比ASIFT算法提高10倍,实时性强,工程使用价值高.  相似文献   

2.
针对传统的SURF匹配算法在图像搜索、物体识别中对视角变化大的图像特征点无法匹配的缺陷,提出了一种改进的SURF图像匹配算法。该算法利用模拟图序列的概念,即由原始图像模拟各种可能的视角变换生成的一组图像序列,对图像序列中的每幅图像进行SURF特征点提取;剔除冗余特征点后将模拟图序列中的特征点映射到原始图像中,这一过程增加了原始图像的特征点数量,特征点描述向量改用原始图像和多个模拟图的SURF特征描述向量共同表示;最后采用欧氏距离准则,最终得到两幅图像的正确匹配对。实验结果表明,本算法增加了特征点匹配对数,改善了视角变换过大(大于60°)使得图像无法匹配的情况。  相似文献   

3.
针对同幅图像的区域复制篡改问题,提出一种基于SIFT特征点的抗几何变换数字图像被动认证算法。在利用SIFT算法提取出图像中的SIFT特征点后,对特征点进行匹配。根据同一幅自然图像不会存在互相匹配特征点的这一特性,可以检测出篡改图像中平移、旋转、缩放等几何变换的区域。实验结果证明,该算法能够对抗区域复制篡改的几何变换。  相似文献   

4.
针对目标检测中利用SIFT算法在提取图像特征时提取的背景特征点所占比例较大,提出了一种图像显著区域与SIFT算法相结合的目标匹配方法。为使检测出的极值点与人眼观察到的极值点相似,提出对尺度空间中的图像进行显著区域的检测;为了使特征点具有仿射不变性,对特征点进行椭圆拟合;特征匹配时引入夹角余弦相似度测度方法。实验表明,该算法在实时性以及匹配准确率方面都优于传统的SIFT算法。  相似文献   

5.
针对快速定向二进制描述(ORB)算法误点率高、像素点对对比易受噪声影响同时抗视角变换能力弱等问题,本文提出基于改进ORB的抗视角变换快速图像匹配算法。该算法在ORB算法的架构下利用加速分割检测算法进行特征提取,并提出特征点加速检测策略,利用改进的二进制鲁棒独立基本特征算法进行特征点描述,同时结合透视变换模型进行图像采样和汉明距离作为相似度量准则进行图像匹配,初匹配后利用网格运动统计算法去除误匹配点。实验表明,本文算法在保持实时性的同时,能够获得较高的匹配精度,和较强的抗视角变换能力,具备较好的工程意义。  相似文献   

6.
针对传统SIFT算法在匹配时出现实时性差、匹配量低以及RANSANC算法在剔除SIFT误匹配对时误匹配率高的问题,提出一种基于距离相对性的分块匹配算法和基于仿射不变性的误匹配对剔除算法。首先利用传统SIFT算法提取图像中的特征点;然后采用基于距离相对性的分块匹配算法进行特征匹配得到初始匹配对;由于初始匹配对中存在误匹配,接下来运用基于仿射不变性的误匹配对剔除算法来剔除误匹配对;最后,在不同图像变换下进行仿真实验。实验结果表明,算法在保持SIFT算法鲁棒性的基础上,能够得到更多匹配对,正确匹配率提高了10%左右,并且实时性也得到很大改善。  相似文献   

7.
针对SIFT (scale invariant feature transform)算子在大幅复杂图像中提取的过多不稳定特征点及在只有少量重合区域下图像配准过程中出现的过多误匹配,导致图像配准精度下降;提出一种改进的SIFT算法,在对目标图像提取SIFT特征后,利用双向BBF(Best-Bin-First)匹配算法对提取的特征点进行匹配,采用SIFT描述子的尺度以及梯度方向信息建立最小邻域匹配剔除误匹配点,通过随机抽取一致性算法(RANSAC)进一步筛选匹配点,并利用最小二乘法结合多项式近似拟合出变换模型,利用局部均方根有效值(RMS)评价映射矩阵与实际图像的误差,找出并删除引起误差的误匹配点,迭代至配准图像符合评价标准后,计算出精确变换模型.实验结果表明,该算法提高了大幅复杂图像在少量重合区域时的配准精度.  相似文献   

8.
一种基于分块匹配的SIFT算法   总被引:1,自引:1,他引:0  
SIFT算法在图像处理领域具有独特的优势,但是经过不断发展,SIFT算法在特征匹配过程中仍然具有数据处理量大、计算速度慢的问题.基于这些问题,提出了一种基于分块匹配的新型SIFT匹配算法,它通过剔除非重叠区域来降低特征提取和匹配的时间损耗.对于图像的刚性变换,算法的核心在于图像块的切分和重叠区域的计算,首先选取少量的种子点来估算两幅图像的相关变换矩阵;然后将原始图像切分为几块,通过变换矩阵找出在匹配图中的相关块;再检测所有的匹配块上的特征点;最后结合RANSAC算法去除伪匹配点对,来提高匹配的准确率.实验结果表明:与标准SIFT算法相比,基于分块匹配的SIFT算法在实时性和鲁棒性方面得到了进一步的提升,在实际图像匹配中具有一定的应用价值.  相似文献   

9.
王蕾 《自动化信息》2011,(10):29-31,67
基于SIFT(尺度不变特征变换)特征匹配思想,提出了一种应用对极几何约束的图像特征配准算法。首先对图像提取SIFT特征点,然后通过欧氏距离估算对SIFT特征描述子进行初始匹配得到预匹配点集;采用基于单应矩阵的抽样算法计算初始基础矩阵,通过RANSAC算法计算精确的基础矩阵和匹配点集,进而实现图像配准。实验表明,该算法可以获得更准确的匹配点,得到精度较高的图像配准效果。  相似文献   

10.
立体匹配是计算机视觉领域最活跃的研究课题之一,针对传统SIFT描述符在图像存在多个相似区域时易造成误匹配和Daisy的匹配效率会因200维的描述符而降低的问题,提出一种SIFT和Daisy相结合的立体匹配算法。该方法利用SIFT算法生成关键特征点,利用Daisy描述符自身具有的良好的旋转不变性,对特征点进行描述,利用特征描述符欧氏距离的最近邻匹配和种子区域增长得到视差图。实验结果表明,该方法匹配精度高,速度快,在部分遮挡、视点变化引起的图像变形等问题上有更好的表现。  相似文献   

11.
When images are rotated and the scale varies or there are similar objects in the images, wrong matching points appear easily in the scale invariant feature transform (SIFT). To address the problem, this paper proposes a SIFT wrong matching points elimination algorithm. The voting mechanism of Generalized Hough Transform (GHT) is introduced to find the rotation and scaling of the image and locate where the template image appears in the scene in order to completely reject unmatched points. Through a discovery that the neighborhood diameter ratio and direction angle difference of correct matching pairs have a quantitative relationship with the image’s rotation and scaling information, we further remove the mismatching points accurately. In order to improve image matching efficiency, a method for finding the optimal scaling level is proposed. A scaling multiple is obtained through training of sample images and applied to all images to be matched. The experimental results demonstrate that the proposed algorithm can eliminate wrong matching points more effectively than the other three commonly used methods. The image matching tests have been conducted on images from the Inria BelgaLogos database. Performance evaluation results show that the proposed method has a higher correct matching rate and higher matching efficiency.  相似文献   

12.
基于特征点的图像匹配被广泛应用于图像配准、目标识别与跟踪领域, 目前, 两阶段匹配(即先粗匹配, 后精匹配)是最常用的方法, 然而, 两阶段匹配存在两方面的问题, 一方面, 粗匹配阶段对精匹配阶段的影响是不可逆的, 即粗匹配的效果决定了精匹配的最优精度; 另一方面, 精匹配得到的后验知识没能反馈给粗匹配阶段, 以修正粗匹配结果. 为此, 提出一种基于迭代修正的图像特征点匹配算法, 该算法将精匹配得到的后验知识反馈给粗匹配阶段, 从而修正粗匹配结果, 使得粗匹配阶段得到更多的正确匹配对, 减少漏匹配特征点对, 这样经过多次迭代, 能够得到更多的正确匹配特征点对. 实验表明, 提出的算法比经典的两阶段匹配方法能够提取更多的正确匹配特征点对, 减少了漏匹配, 并提升了复杂图像匹配的稳定性.  相似文献   

13.
针对图像特征点暴力匹配与比率测试得到的匹配点对在数量与正确率不能兼顾的情况,提出了一种基于自适应邻域测试的误匹配点对剔除算法。对特征点进行暴力匹配与高阈值的比率测试得到初始匹配点集,对初始匹配点对中的每个匹配特征点进行自适应邻域测试,测试出初始匹配点集中明显的误匹配点对并将之剔除,达到只剔除误匹配而不会误剔除正确匹配的效果。实验结果表明,在保证正确率不降低的前提下,该算法获取的匹配点对数量比原算法多3成以上,并且该算法对图像旋转、尺度缩放具有较好通用性。  相似文献   

14.
王永明 《计算机学报》2005,28(6):1032-1035
下视景象匹配是各类巡航飞行器实现精确导航的重要手段,它是通过事先装载在飞行器的地面基准图像与实时获取的地面景象图进行相关匹配,完成飞行器的飞行误差修正和精确定位,由于基准图和实时图在获取手段、时间上等方面的差异,在相关匹配中,配准点往往落在相关阵的次峰上,导致匹配失败,该文提出了多帧连续景象匹配,利用单次匹配后形成的相关阵中的主次峰信息与导航信息进行一致性决策的图论算法,由于引入了相关阵中的次峰信息,并结合惯导位移进行一致性判断,使得匹配算法能有效剔除误匹配点,从而提高了算法的匹配概率和鲁棒性。  相似文献   

15.
图像匹配是图像处理应用于诸多领域的一项关键技术,基于不变特征的图像匹配是近年来图像匹配的研究热点。尺度不变特征是最有效的平移、尺度、旋转和亮度局部不变特征之一,但该算法一般会产生大量的错误匹配点。首先给出了交叉线和"一对多"类型的错误匹配点的剔除方法。然后针对一般性错误匹配点,提出了一种基于相似三角形的剔除方法,并通过实验将该算法与另外两种常用剔除算法进行了比较,证实本文提出的方法速度更快,且在剔除错误匹配点的同时保留了较多的正确匹配点。  相似文献   

16.
目的 立体匹配算法是立体视觉研究的关键点,算法的匹配精度和速度直接影响3维重建的效果。对于传统立体匹配算法来说,弱纹理区域、视差深度不连续区域和被遮挡区域的匹配精度依旧不理想,为此选择具有全局匹配算法和局部匹配算法部分优点、性能介于两种算法之间、且鲁棒性强的半全局立体匹配算法作为研究内容,提出自适应窗口与半全局立体匹配算法相结合的改进方向。方法 以通过AD(absolute difference)算法求匹配代价的半全局立体匹配算法为基础,首先改变算法匹配代价的计算方式,研究窗口大小对算法性能的影响,然后加入自适应窗口算法,研究自适应窗口对算法性能的影响,最后对改进算法进行算法性能评价与比较。结果 实验结果表明,匹配窗口的选择能够影响匹配算法性能、提高算法的适用范围,自适应窗口的加入能够提高算法匹配精度特别是深度不连续区域的匹配精度,并有效降低算法运行时间,对Cones测试图像集,改进的算法较改进前误匹配率在3个测试区域平均减少2.29%;对于所有测试图像集,算法运行时间较加入自适应窗口前平均减少28.5%。结论 加入自适应窗口的半全局立体匹配算法具有更优的算法性能,能够根据应用场景调节算法匹配精度和匹配速度。  相似文献   

17.
目的 立体匹配是计算机双目视觉的重要研究方向,主要分为全局匹配算法与局部匹配算法两类。传统的局部立体匹配算法计算复杂度低,可以满足实时性的需要,但是未能充分利用图像的边缘纹理信息,因此在非遮挡、视差不连续区域的匹配精度欠佳。为此,提出了融合边缘保持与改进代价聚合的立体匹配。方法 首先利用图像的边缘空间信息构建权重矩阵,与灰度差绝对值和梯度代价进行加权融合,形成新的代价计算方式,同时将边缘区域像素点的权重信息与引导滤波的正则化项相结合,并在多分辨率尺度的框架下进行代价聚合。所得结果经过视差计算,得到初始视差图,再通过左右一致性检测、加权中值滤波等视差优化步骤获得最终的视差图。结果 在Middlebury立体匹配平台上进行实验,结果表明,融合边缘权重信息对边缘处像素点的代价量进行了更加有效地区分,能够提升算法在各区域的匹配精度。其中,未加入视差优化步骤的21组扩展图像对的平均误匹配率较改进前减少3.48%,峰值信噪比提升3.57 dB,在标准4幅图中venus上经过视差优化后非遮挡区域的误匹配率仅为0.18%。结论 融合边缘保持的多尺度立体匹配算法有效提升了图像在边缘纹理处的匹配精度,进一步降低了非遮挡区域与视差不连续区域的误匹配率。  相似文献   

18.
李水平  彭晓明 《计算机应用》2014,34(5):1453-1457
为了实现场景中三维目标与模型之间的匹配,提出了一种结合三维几何形状信息和二维纹理的三维目标匹配方法。首先提取场景中深度图像的尺度不变特征变换(SIFT)特征,用SIFT算法与三维模型重建时所用到的一系列2.5维深度图像进行一一匹配,找到与场景中目标姿态最为相似的深度图像,提取此深度图像的三维几何形状特征与模型进行匹配,实现模型的初始化,即将模型重置到与场景目标相接近的姿态。最后用融合二维纹理信息的迭代就近点(ICP)算法实现场景中目标与模型之间的匹配,从而得到场景中三维目标的准确姿态。实验结果验证了方法的可行性与精确性。  相似文献   

19.
《Image and vision computing》2007,25(11):1699-1708
In an application where sparse matching of feature points is used towards fast scene reconstruction, the choice of the type of features to be matched has an important impact on the quality of the resulting model. In this work, a method is presented for quickly and reliably selecting and matching points from three views of a scene. The selected points are based on epipolar gradients, and consist of stable image features relevant to reconstruction. Then, the selected points are matched using edge transfer, a measure of geometric consistency for point triplets and the edges on which they lie. This matching scheme is tolerant to image deformations due to changes in viewpoint. Models drawn from matches obtained by the proposed technique are shown to demonstrate its usefulness.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号