首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
摄像机标定是机器视觉的基本任务之一,首先对开源计算机视觉(OpenCV)库进行介绍,然后给出了摄像机模型和摄像机标定过程中的坐标系转换关系.对图像模板的标定采用基于成像模型的点对应关系和在线实时标定的方法,同时把非线性畸变考虑在内,获得摄像机内外参数.标定结果初步应用于移动机器人平台的视觉伺服实验,对三维目标测量,实验结果表明了标定方法的可行性.  相似文献   

2.
为实现结构光视觉引导的焊接机器人系统的标定,解决现有标定方法复杂,标定靶标制作要求高等缺点,提出一种基于主动视觉的自标定方法。该标定方法对场景中3个特征点取像,通过精确控制焊接机器人进行5次平移运动,标定摄像机内参数和手眼矩阵旋转部分;通过进行2次带旋转运动,结合激光条在特征点平面的参数方程,标定手眼矩阵平移部分和结构光平面在摄像机坐标系下的平面方程;并针对不同焊枪长度进行修正。在以Denso机器人为主体构建的结构光视觉引导的焊接机器人系统上的测试结果稳定,定位精度可达到±0.93 mm。该标定方法简单,特征选取容易,对焊接机器人系统在实际工业现场的使用有重要意义。  相似文献   

3.
一种新的机器人手眼关系标定方法   总被引:8,自引:2,他引:8  
杨广林  孔令富  王洁 《机器人》2006,28(4):400-405
通过控制装有摄像机的机械手的运动,给出了一种新的机器人手眼系统标定方法.与以往算法的不同之处在于,在计算手眼关系的平移向量时,对摄像机坐标系进行虚设旋转变换使旋转转化为平移问题.该方法需要机械手平台做两次平移运动和一次旋转运动,只需要场景中两个特征点,所以具有方便性和实用性.同时,也给出了基于主动视觉的空间点深度值计算方法.  相似文献   

4.
《微型机与应用》2018,(1):97-100
通过视觉引导机器人完成抓取任务,机器人手眼标定的精度直接影响了抓取任务作业精度和抓取成功率。对于基于位置的机器人视觉引导系统,手眼标定的任务则是确定机器人坐标系与相机坐标系之间的位姿关系。通过HALCON平台,使用线性标定法实现了6DOF机器人的手眼标定。对手眼标定的结果进行反演,直观地展示了手眼标定的精确程度。最后通过采集多组不同数量的图片,在HALCON平台下验证了不同摄像机模型对手眼标定的精度影响,以及同种摄像机模型在不同数量图片的情况下手眼标定的标定精度。实验证明,根据位姿矩阵中待求解的未知量个数采集合适数量的图片和使用更精确的摄像机模型能够提高手眼标定的精度。  相似文献   

5.
一种基于主动视觉的线性自标定方法   总被引:2,自引:0,他引:2  
基于主动视觉的摄像机自标定是摄像机标定的一个重要分支,通过控制摄像机做严格的运动,可以发现一些比较简单的算法,本文提出了一种新的基于主动视觉的摄像机自标定方法,通过控制摄像机作3次不共面的平移运动.可以线性标定摄像机的五个内参数.大量的仿真实验表明该算法精度很高,且鲁棒性很强.  相似文献   

6.
为实现基于投影仪和摄像机的结构光视觉系统连续扫描,需要计算投影仪投影的任意光平面与摄像机图像平面的空间位置关系,进而需要求取摄像机光心与投影仪光心之间的相对位置关系。求取摄像机的内参数,在标定板上选取四个角点作为特征点并利用摄像机内参数求取该四个特征点的外参数,从而知道四个特征点在摄像机坐标系中的坐标。利用投影仪自身参数求解特征点在投影仪坐标系中的坐标,从而计算出摄像机光心与投影仪光心之间的相对位置关系,实现结构光视觉标定。利用标定后的视觉系统,对标定板上的角点距离进行测量,最大相对误差为0.277%,表明该标定算法可以应用于基于投影仪和摄像机的结构光视觉系统。  相似文献   

7.
基于主动视觉的摄像机自标定方法   总被引:1,自引:0,他引:1  
摄像机标定是计算机视觉的一项基本任务.目前基于 主动视觉的摄像机内参数自标定方法可分为两类:第一类方法是通过摄像机在三维空间内作 两组平移运动,来求解摄像机内参数.第二类是由Basu, Du, 和Hartley等人提出的通过摄 像机旋转,求解摄像机内参数方法.后者在实际应用中存在严重不足,由于它要求摄像机只 绕光源中心旋转,不能有任何平移,而在工程实践中摄像机光源中心难以测定,其旋转也难 以保证无任何平移,因此难以实用.本文提出的摄像机标定方法属于前一类方法.与以往方 法相比,它不要求摄像机作多组相互正交的平移运动,只要能准确测定出摄像机相对于初始 位置三次线性独立平移运动的平移矢量,即可线性求解出摄像机内参数.理论证明,解存在 且唯一.数值模拟表明该方法具有较强的鲁棒性,最后给出了采用真实图像的实验结果.  相似文献   

8.
《微型机与应用》2015,(17):70-74
以固高GRB-400机器人和摄像机组成手眼系统,在手眼关系旋转矩阵的标定方面,分析了基于主动视觉的标定方法。为实现手眼关系平移向量的标定,提出以固定于机械臂末端的激光笔来获取工件平台上特征点的基坐标,并结合已标定的旋转矩阵来标定平移向量。最后,从图像求取多个特征点之间的距离并与实际值进行误差比较,平面特征点间的长度测量误差在±0.8 mm之间,表明手眼标定精度较高,可满足机器人进行工件定位与自动抓取的要求。  相似文献   

9.
为了实现单目视觉系统的快速、精确的手眼标定,本文提出了一种新的两步式手眼标定方法,将手眼标定分为求解旋转关系和平移关系两步.首先机器人携带标定板进行两次平移运动求解旋转关系,然后机器人工具坐标系执行若干次旋转运动求解平移关系.该方法简单快速,不需要昂贵的外部设备,通过实验最终验证了该方法的可行性.  相似文献   

10.
内参数异构情况下摄像机平移位置的测定   总被引:3,自引:0,他引:3  
孔令富  杨广林  张世辉  王洁 《机器人》2004,26(3):207-211
在手眼系统中,摄像机平移是比较容易实现和经常需要的一种运动.本文首先给出了摄像机调整焦距 后,焦距标定的两个比较简捷的方法.然后,根据平移运动中摄像机获取的两幅不同图像,在焦距不同的情况下,给 出了检测摄像机坐标系平行移动的方向的方法.事实上,摄像机调整焦距也是一种平移运动,因此这时的摄像机的 平移运动是两种平移运动的综合的结果,同时给出了由平台平移引起的摄像机坐标系平移位置的求解方法.  相似文献   

11.
胡钊政  谈正 《自动化学报》2007,33(5):494-499
利用三正交平移运动, 提出了一种三维结构恢复和直接欧氏重建新算法. 算法仅需利用主动视觉平台控制相机作一组三正交平移运动, 然后通过图像对应点和平移运动的距离就可以恢复平面结构信息和进行欧氏重建. 并且无需假定相机畸变因子为零. 算法计算过程中无需求解相机的内参数, 也无需进行分层重构, 它是一种直接的欧氏重建算法, 避免了传统算法中的相机标定、仿射重建等两大难题, 并且计算过程完全线性化, 简单实用. 最后用模拟实验和真实图像实验对算法进行验证, 实验结果表明了算法的有效性和准确性.  相似文献   

12.
一种新的线性摄像机自标定方法   总被引:21,自引:2,他引:19  
李华  吴福朝  胡占义 《计算机学报》2000,23(11):1121-1129
提出了一种新的基于主动视觉系统的线性摄像机自定标方法。所谓基于主动视觉系统,是指摄像机固定在摄像机平台上以平摄像机平台的运动可以精确控制。该方法的主要特点是可以线性求解摄像机的所有5个内参数。据作者所知。文献中现有的方法仅能线性求解摄像机的4个由参数。当摄像机为完全的射影模型时,即当有畸变因子(skew factor)存在时,文献中的线性方法均不再适用。该方法的基本思想是控制摄像机做5组平面正交运动,利用图像中的极点(epipoles)信息来线性标定摄像机。同时,针对摄像机做平移运动时基本矩阵的特殊形式,该文提出了求基本矩阵(fundamental matrix)的2点算法。与8点算法相比较,2点算法大大提高了所求极点的精度和鲁棒性。另外,该文对临近奇异状态(即5组平面正交运动中,有两组或者多组运动平面平行)作了较为详尽的分析,并提出了解决临近奇异状态的策略,从而增强了该文算法的衫性。模拟图像和真实图像实验表明该文的自标定方法具有较高的鲁棒性和准确性。  相似文献   

13.
摄像机自标定的线性理论与算法   总被引:14,自引:2,他引:12  
吴福朝  胡占义 《计算机学报》2001,24(11):1121-1135
文中提出一种新的摄像机线性自标定的算法和理论。与文献中已有的方法相比,该文方法的主要优点是对摄像机的运动要求不苛刻,如不要求摄像机的运动为正交运动。该方法的关键步骤是确定无穷远平面的单应性矩阵(Homography)。文中从理论上严格证明了下述结论:摄像机作两组运动参数未知的运动M1={(R1,t^11),(R1,t^12)},M2={(R2,t^21),(R2,t^22)},若下述两个条件满足:(1)T1={t^11,t^12},T2={t^21,t^22}是两个线性无关组(即本组内的两个平移向量线性无关);(2)R1,R2的旋转轴不同,则可线性地唯一确定摄像机的内参矩阵和运动参数。另外,在四参数摄像机模型下,严格证明了一组运动可线性地唯一确定摄像机的内参数矩阵和运动参数。模拟实验和实际图像实验验证了本文方法的正确性和可行性。  相似文献   

14.
对于精度要求高、成本低或使用广角镜头的系统,在标定摄像机参数时需要校正镜头畸变.通常在摄像机标定算法中,镜头畸变参数的校正和摄像机参数求解都结合在一起,增加了算法的复杂性,并且依赖标定模板.针对以上问题,提出了一种新的标定方法,即不需要标定模板,也不需要确定空间点的精确坐标.首先通过直线的射影不变性校正镜头畸变参数,再...  相似文献   

15.
一种新的基于结构光的三维视觉系统标定方法   总被引:16,自引:0,他引:16  
在视觉系统的标定中,确定三维空间点与图象上对应点所组成的样本点对的坐标是问题的关键,为提高样本点的定位精度,通常采用棋盘格形状的图案,取其中的交点作为样本点.但在应用平面结构光的三维视觉系统中,样本点又必须在结构光平面中,无法应用上述方法,使得样本点的定位很困难,为了解决这一问题,我们提出了一种新的标定方法,该方法利用交比不变性原理,借助一块特殊设计的标定块,可以方便准确地确定样本点的位置.在此基础上完成了三维视觉系统的标定,文章给出了实验结果和标定精度,以及进一步提高精度的措施.  相似文献   

16.
传统的相机标定方法通常需要建立复杂3维标定块或高精度3维控制场,在实际应用中受到了一定的限制。本文采用平面控制格网作为标定块,根据相机的理想模型确定内方位元素,利用2维直接线性变换和共线方程分解出相机的外方位元素初值,采用改进的Hough变换算法检测标定图像中的格网直线并利用最小二乘法拟合出最佳直线,通过求直线的交点得到标定格网点的像坐标。最后利用自检校光线束法平差进行相机的精确标定。实际图像数据实验结果表明,主点和焦距的标定精度分别达到了0.2像素和0.3像素左右。可以满足高精度近景3维量测的要求。  相似文献   

17.
This work presented a novel vision-based augmented-reality system for applications in multiuser collaborative environments. The kernel technology of this vision-based system locates the cameras that are utilized to point and simulate the positions of multiple viewers. Camera calibration based on computer vision is employed during the camera's locating process. The applications in multiuser collaborative environments allow the viewers to view various positions and in numerous directions. However, traditional calibration approaches are not suitable for these cases sufficiently. A novel calibration pattern based on pseudo-random arrays is designed for multiuser collaborative applications. The pattern has a simple and regular structure, easily extracts features, achieves robust recognition using local information, and does not limit viewer positions and directions. Experimental results indicate that the proposed system provides a effective platform for applications in multiuser collaborative environments.  相似文献   

18.
3-D position sensing using a passive monocular vision system   总被引:3,自引:0,他引:3  
Passive monocular 3-D position sensing is made possible by a new calibration scheme that relates depth to focus blur through a composite lens and aperture model. The calibration technique enables the recovery of absolute 3-D position coordinates from image coordinates and measured focus blur. A geometric model of the camera's position and orientation in space is used to transform the camera's imaging coordinates into world coordinates. The relationship between the world coordinate system and the screen coordinate system which includes the amount of focus blur, is developed by modeling the camera imaging arrangement. The modeling proceeds first through the perspective view from a pinhole camera located anywhere in space. The camera's lens and aperture system is investigated to find the relationship between depth and focus blur. The aspect ratio of the frame image is considered. Position accuracies comparable to those in stereo based vision systems are possible without the need for solving the difficult point of correspondence problem  相似文献   

19.
多传感器的联合标定方法   总被引:4,自引:0,他引:4  
陆建锋  唐振民 《机器人》1997,19(5):365-371
在智能机器人的视觉导航技术中,为了提高信息的可信度,可以采用多传感器数据融合技术,为了进行融合首先必须进行传感器的标定,即进行各种传感器坐标系之间的转换,本文针对一个实际的智能机器人系统,提出了一种简单、实用、准确的联合标定方法,取得了满意的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号