共查询到20条相似文献,搜索用时 171 毫秒
1.
为解决在导弹制导、目标搜寻等领域中图像快速匹配的问题,提出一种基于图像局部特征序列的匹配函数,以加快图像匹配速度。该算法将匹配图像和查找图像分为若干相同大小的子图片,并计算它们的局部特征,形成一个带有特征的序列,利用提出的特征序列匹配函数,计算两种图像内容的特征序列下的匹配情况,该匹配函数能够利用匹配图像本身的特征信息提高图像匹配的查找速度。由于匹配图像特征序列之间存在关联,在匹配失效的情况下,不用再从查找图像的特征序列起始点重新进行查找匹配,而是根据匹配函数,计算出新的匹配点,从新的匹配点进行匹配,加快图像匹配的速度。 相似文献
2.
基于不变因子的SIFT误匹配点剔除及图像检索 总被引:1,自引:0,他引:1
为解决尺度不变特征变换(SIFT)算法在图像发生旋转和尺度变化时产生的错误匹配问题,提出一种新的算法。根据SIFT提取的关键点信息,利用正确匹配点对间的旋转不变因子和尺度不变因子来剔除SIFT误匹配点,然后对保留下来的特征点进行聚类分析,对目标图像进行识别判断,并通过实验将该算法与双向匹配算法和随机抽样一致性算法(RANSAC)进行比较。实验结果表明,该算法能够有效地剔除误匹配点,且误剔除率低。剔除误匹配点后再进行图像检索,图像的漏检率和误检率都大大地降低了。 相似文献
3.
SIFT(Scale Invariant Feature Transform)描述符由于具有尺度、旋转和光照不变等特性在图像匹配领域获得了广泛的应用。但是,SIFT特征点采用128维特征向量表示,当图像特征点较多时,匹配算法所需的存储空间大、匹配时间长,且匹配精度不理想。针对以上问题,本文给出了一种基于Rough-SIFT描述符的图像匹配算法。首先,利用排序法求出图像的稳健特征点,然后为提高后续匹配处理运算效率,将粗糙集约简理论引入到基于SIFT特征的匹配算法中,通过构建一种新的近似约简算法来对稳健特征点的128维特征向量进行降维处理,最后利用约简后的特征点对图像进行匹配。仿真实验表明, 本文方法使得约简后的SIFT特征点更加精确、稳定、可靠,有效减小了匹配算法的存储空间,提高了匹配算法的效率和准确率。 相似文献
4.
基于单目视觉的机器人同步定位与地图创建(SLAM)方法是实现机器人自主行走的重要研究方向之一,而图像特征匹配技术是该方法中的关键技术。基于尺度不变特征变换(SIFT)算法的SLAM匹配方法具有提取特征点数量丰富、稳定等优点,然而在速度以及正确率方面仍存在一些不足。因此针对SIFT算法描述子维数高、匹配时间长等问题,提出了一种改进的SIFT算法,将原128维的特征描述子降至内部矩形外部圆形的24维特征描述子,匹配过程中应用了三线性插值、RANSAC算法等对匹配结果去除误匹配。实验结果最终表明,改进后的SIFT算法不仅对角度变化、光照变化等情况均具有良好的鲁棒性,匹配速度和正确率也有显著提升,可满足实时SLAM同步地图构建的需要。 相似文献
5.
6.
针对尺度不变特征变换(SIFT)算法在匹配时特征向量过多,从而导致耗时过长的问题,提出PCA-SIF]算法,对目标进行匹配与识别.首先,利用SIFT算法提取出原图像中稳健的特征点以及特征向量;其次,利用PCA算法对SIFT特征向量的维数进行约减;最后利用降维后的图像与原始图像进行匹配.实验证明,与原始SIFT算法相比,该算法不仅保持了SIFT算法的鲁棒性和稳定性,同时提高了匹配效率,增强了实时性. 相似文献
7.
为解决较多图像匹配算法主要通过测量关键点之间的距离来实现特征匹配,忽略了图像的结构信息,使其存在较多的误匹配的问题,本文设计了方差约束耦合几何不变特性的图像匹配算法。借助于Forstner算子计算像素点的兴趣值,以检测图像的特征;计算图像的梯度信息,获取图像的方向值,并切割图像特征的圆形邻域,从而获取扇形子域;以图像的方向值为基础,通过计算扇形子域中的灰度不变矩,输出对应的特征向量;引入区域方差函数,获取图像的结构信息,将其加入至图像特征的匹配过程,以约束欧式距离的测量结果,实现图像特征匹配;最后利用匹配点间的几何不变特性,对匹配特征去伪求真,优化匹配结果。测试数据表明:相对于已有的匹配技术,在对无变换图像、缩放图像以及旋转图像匹配时,所提算法拥有更高的匹配准确度,分别达到了96.56%、95.38%和93.52%。 相似文献
8.
9.
针对图像匹配在图像拼接、目标识别等领域的应用中尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法计算复杂度高、实时性较差的问题,提出了一种基于局部二进制模式(Local Binary Patterns,LBP)和图变换(Graph Transformation Matching,GTM)的匹配算法.首先采用SIFT特征检测提取特征点并以特征点为中心取13×13的图像块作为特征区域;然后用本文提出的局部旋转不变二进制模式(Local Rotation Invariant Binary Patterns,LRIBP)描述子对特征区域进行描述产生29维的特征描述向量,降低了描述子的复杂度,并以欧氏距离为度量准则进行初始匹配;最后采用图变换匹配算法剔除误匹配点,从而提高算法的运算速率和匹配精度.仿真结果表明,本文所提算法不仅具有较高的精度和较强的鲁棒性,并且减少了算法的运算量,提高了算法的实时性. 相似文献
10.
一种基于SIFT和区域选择的图像拼接方法 总被引:1,自引:1,他引:0
提出了一种基于SIFT和区域选择相结合的图像拼接方法.该方法采用改进的尺度不变特征变换(SIFT)特征提取方法获得图像特征点,并充分利用圆形区域的旋转不变性和互信息量最大原则进行特征点匹配,避免了传统的图像配准算法计算量过大、特征点匹配不准确等问题,最后采用加权平均的方法对图像进行融合.实验表明,该方法对图像间存在的平移、旋转、明暗强度和噪声干扰等都具有良好的鲁棒性,可实现高质量的图像拼接. 相似文献
11.
两幅图像中相应特征点邻域窗口之间的单应映射可以用仿射变换模型来近似。本文首先通过奇异值分解给出仿射变换矩阵4个自由度的几何含义,然后将其分解为一个相似变换矩阵和一个旋转的准单位矩阵(Rotated Quasi-Identity Matrix)的乘积,即在基于相似变换模型匹配的基础上再用基于仿射变换模型的迭代算法对相应特征点精确定位。针对相似变换中初始旋转角度的难确定性,在初始匹配中提出基于亮度最速下降方向的对齐方法,而在引导匹配阶段提出基于相应极线方向的对齐方法,这两个策略不仅提高了算法效率,还能为进一步的仿射迭代提供良好的初值。在得到最优仿射变换参数之后,实现了对相应特征点定位误差的精确补偿及其邻域窗口的透视矫正。最后通过真实图像的实验以及和现有算法的比较验证了本文算法的可行性和精确性,并给出了相应的实验数据和结果。 相似文献
12.
针对传统局部不变特征算子主方向提取不准确和匹配阶段过于耗时的问题,提出一种基于RI-LBP 算子和混合spill 树的快速局部不变特征算法。首先提出一种FAST-Difference 算法,提取出模板图像和待匹配图像的稳定特征点,然后使用旋转不变的RI-LBP 描述符计算特征向量,最后对特征向量集使用混合spill 树进行匹配并使用RANSAC 算法剔除误匹配点。RI-LBP 算子自身的旋转不变性能够在一定程度上克服特征点主方向确定不准确的缺点,使特征描述符的提取更加稳定,并生成更简单的53 维局部不变特征描述符。混合spill 树相对于kd-tree 省略了回溯过程,对于高维数据拥有更好的匹配效率。实验证明:该算法与SURF 算法描述能力相近,旋转和光照条件下比SURF 性能更优,并且匹配速度更快。 相似文献
13.
14.
针对电连接器插针匹配过程中特征点存在的近似对称以及在不同图像间存在大角度旋转变换的问题,提出了一种基于六点特征数不变量的特征点匹配算法。将特征点分为凸包与内点两部分,利用凸包上的点在射影变换中排列顺序的不变性实现了凸包匹配,利用以凸包特征点为基准的内点特征向量的相似性实现了内点匹配。实验结果证明,提出的算法能够很好地实现对插针特征点的匹配,具有一定的鲁棒性。 相似文献
15.
16.
为降低图像伪造算法的错误检测率和漏检测率,利用互相关函数(CCF),设计了基于圆域分割耦合最优相关法则的图像复制-粘贴篡改检测算法。引入FAST算子,计算像素点及其邻点的灰度值,准确提取图像特征点,并利用特征点对应的直方图信息求取其主方向;同时,在该方向上建立特征点的邻域圆,对该圆域进行分割,计算每个分割区域的梯度特征,获取相应的特征向量;利用互相关函数对特征点间的相关程度进行计算,构建最优相关法则,完成特征匹配。利用匹配特征点的特征向量,计算特征点间的欧氏距离,对特征点进行集群,定位复制-粘贴篡改内容,实现伪造检测。实验结果表明:相对已有的伪造检测技术,所提算法具备更高的检测准确率,且对旋转、缩放等内容修改表现出更高的鲁棒性。 相似文献
17.
提出了一种基于兴趣点不变矩(IPIM)的图像拼接技术.利用Harris角检测器获取图像中的兴趣点,计算兴趣点邻域的平移、旋转及尺度不变矩,通过比较各兴趣点邻域不变矩的欧式距离提取出初始特征点对,根据几何变换模型剔除伪特征对,最后利用正确映射模型实现图像的拼接.实验表明,该方法对平移以及任意角度的旋转具有良好的鲁棒性,对于具有小尺度变换的图像仍然具有很好的拼接效果. 相似文献
18.
为了提高红外图像匹配的精度和效率,提出了一种将Harris-Laplace关键点提取和旋转不变LBP特征描述算子相结合的局部特征检测新算法,该算法不仅在图像的尺度、光照和角度发生变化时,仍然能够得到很好的检测效果,而且能很好地描述图像的局部纹理特征.特征向量描述完成后,为了进一步提高红外图像特征点匹配的正确率,提出了一种基于K-means聚类分析的图像匹配策略.先利用Cosine余弦相关匹配策略实现特征点的初步粗匹配,接着采用K-means 聚类分析匹配策略剔除图像中大部分的错误匹配.实验表明:提出的算法表现出良好的鲁棒性,关键点提取的重复率(Repeatability)提高了9.2%.与传统的匹配算法相比,采用基于K-means聚类分析的匹配策略匹配精度可以提高5.05%,匹配时间可以缩短0.068 s.该特征描述算法和基于K-means聚类分析的匹配算法满足了红外图像配准的高精度性和高实时性的要求. 相似文献
19.
20.
A computational vision approach to image registration 总被引:21,自引:0,他引:21
A computational vision approach is presented for the estimation of 2-D translation, rotation, and scale from two partially overlapping images. The approach results in a fast method that produces good results even when large rotation and translation have occurred between the two frames and the images are devoid of significant features. An illuminant direction estimation method is first used to obtain an initial estimation of camera rotation. A small number of feature points are then located, using a Gabor wavelet model for detecting local curvature discontinuities. An initial estimate of scale and translation is obtained by pairwise matching of the feature points detected from both frames. Finally, hierarchical feature matching is performed to obtain an accurate estimate of translation, rotation and scale. A method for error analysis of matching results is also presented. Experiments with synthetic and real images show that this algorithm yields accurate results when the scale of the images differ by up to 10%, the overlap between the two frames is as small as 23%, and the camera rotation between the two frames is significant. Experimental results and applications are presented. 相似文献