首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 218 毫秒
1.
针对大视场视觉测量应用,分析了摄像机和双目视觉传感器的数学模型,提出了一种基于基线尺的大视场双目视觉传感器标定方法。在测量空间内任意多次摆放基线尺,两摄像机拍摄基线尺图像。利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化方法结合同时估计摄像机的内部参数以及双目视觉传感器的结构参数。该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数。实验结果表明该方法在6000mm×4500mm的范围内可以达到0.06mm的测量精度,适合双目立体视觉传感器的现场标定。  相似文献   

2.
大视场双目视觉传感器的现场标定   总被引:10,自引:7,他引:3  
分析了摄像机和双目视觉传感器的数学模型,针对大视场视觉测量应用,提出了一种基于基线尺的大视场双目视觉传感器标定方法.在测量空间内任意多次摆放基线尺,由两摄像机拍摄基线尺图像.利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化相结合的方法同时估计摄像机的内部参数以及双目视觉传感器的结构参数.该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数.实验结果表明,该方法适合双目立体视觉传感器的现场标定,在6 000 mm×4 500 mm的范围内可以得到0.06 mm的测量精度.  相似文献   

3.
为减轻双目摄像机标定过程中对高精度靶标的依赖,实现摄像机参数的精确标定,并对空间坐标进行高精度重建,提出一种GPS双目摄像机标定及空间坐标重建方法,采用GPS代替2D或3D靶标进行双目摄像机标定。将GPS的位置在视场中任意移动,由被标摄像机拍摄多组含有GPS的图像,利用空间三维坐标与图像二维坐标间的映射关系,结合摄像机成像模型和双目摄像机标定原理,标定出双目摄像机参数,并对空间坐标进行精确重建。通过空间重建坐标与GPS实际测量值之间的相对距离误差,对重建精度进行检验。实验证明,该方法能够克服双目摄像机标定过程中对高精度靶标的依赖,空间重建坐标具有较高的精度,相对距离误差从1.56%减小到0.52%。  相似文献   

4.
针对摄像机镜头畸变对系统测量精度的影响,提出了基于纯平移两视图几何的镜头畸变参数标定方法。首先,分析了机器视觉测量中影响测量精度的主要畸变类型,建立了镜头非线性畸变模型。然后,利用射影几何及纯平移两视图几何的固有特性,构建了四组约束方程用于求解畸变参数。最后,针对大视场测量时标定板无法有效充满视场的问题,提出了利用四维电控平台对视场分区域拍摄多组纯平移运动图像的畸变参数标定流程,利用较小的靶标实现了大视场的镜头畸变参数标定。在实验室验证了本文提出的畸变校正方法的可行性。结果显示:提出的方法标定精度较高,标定后图像特征点连线的直线度误差减小了89%,标定精度及可靠性均满足机器视觉测量的要求。  相似文献   

5.
崔莉娟  朱洪俊  王明盛  王金鹏 《机械》2010,37(12):24-27
针对立体摄影测量中的双目立体摄影测量,利用透视变换方法及矩阵转换知识建立了双目立体摄影测量系统的空间三维坐标数学模型,提出一种不需要迭代求解摄像机参数的标定方法,避免了迭代算法收敛速度慢、耗时多的缺点。该标定方法只需对标定板在不同角度拍摄一组图像,在无需控制任何运动参数的情况下,通过成像过程中不同坐标系之间的转换,实现了像素坐标与基准坐标之间的直接转换。该算法快速、精确、简便。实验结果表明,该标定算法可达到相对误差为0.2的精度。  相似文献   

6.
基于彩色图像的高速目标单目位姿测量方法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对风洞分离实验对于视觉测量系统的高精度、大视场、高速的测量要求,提出一种基于单目摄像机的风洞运动目标位姿测量方法。该方法利用单目摄像机进行运动目标位姿信息测量,相比于双目测量方法具有设备简单、视场大的优点。首先提出一种基于靶标特征点相互约束关系的参数优化方法,采用复合式靶标实现摄像机的快速高精度标定;针对目标运动图像处理,提出一种基于图像差叠法和标记点位置估计的图像快速分割与目标定位方法,实现图像特征的快速准确定位;针对单目测量要求及目标运动特性,提出一种基于方向估计标记点布局方式,实现合作标记点的快速识别和提取;最后利用单目视觉原理求解运动目标的位置和姿态信息,通过实验室模拟实验完成了测量系统的精度验证,在1 m×1 m视场范围内,其位移测量精度可达到0.19 mm,俯仰和偏航角测量精度可达到0.18°。  相似文献   

7.
一种基于立体模板的双目视觉传感器现场标定方法   总被引:21,自引:12,他引:9  
给出了一种基于立体标定模板的双目视觉摄像机内、外部参数现场标定方法.该方法采用理想小孔模型忽略摄像机镜头的非线性畸变,把透视变换矩阵中的元素作为未知数,在已知一组三维空间特征点坐标及其对应的图像点坐标时,利用线性算法求解出透视变换矩阵中的各个元素,进而得到所需的参数.最后采用立体标定模板对该标定算法进行了实验验证,用标定完成的立体视觉传感器对已知长度进行测量,相对精度达到了0.02%,取得了较为理想的结果.结果表明:该方法由于无需迭代,因此计算速度快,在测量现场只需摆放一次标定模板即可完成标定,可高精度地实现摄像机内、外部参数的现场标定.  相似文献   

8.
用于三维变形测量的数字图像相关系统   总被引:8,自引:4,他引:4  
唐正宗  梁晋  肖振中  郭成 《光学精密工程》2010,18(10):2244-2253
针对材料力学实验中的三维变形测量,提出并实现了一种基于双目立体视觉、摄影测量术和数字图像相关法的便携式三维变形测量系统。研究了该系统涉及的双目摄像机标定,图像相关算法,三维重建,以及三维位移、应变计算等关键技术。提出了一种基于摄影测量术的摄像机标定算法,该算法采用10参数镜头畸变模型,不需要高精度标定板即可实现摄像机的高精度标定。利用最小二乘非线性优化算法实现了数字图像的高精度匹配,针对非线性优化初值难求的问题,提出了一种基于种子点的初值计算方法,为非线性优化提供了可靠的初值。最后,介绍了三维重建以及计算三维位移、三维应变的方法。实验结果表明,标定结果的重投影误差为0.03 pixel,图像匹配的误差约为0.02 pixel,静态外形及位移的测量精度为0.05%,应变的测量精度优于0.5%。与传统的测量方法相比,本文提出的系统可以更准确、全面、直观地实现对位移场、应变场的测量。  相似文献   

9.
双目视觉传感器的现场标定技术   总被引:13,自引:1,他引:12  
本文以凤影变换为依据,针对多视觉传感器中的双目视觉传感器中的双目视器,建立了双目视觉传感器测量空间三维坐标的模型,事先确定摄像机的部分不易变化整个系统后进行现场标定。该方法不需精确调整标定靶标,标定环境与实际测量上同,减少了安装传感器对标定参数的影响,实验结果表明,该标定方法能获得0.05mm的空间精度。  相似文献   

10.
为了提高立体视觉系统在大视场下的测量精度,基于误差溯源思想提出了一种构建虚拟立体靶标的大视场高精度视觉系统标定方法,克服了大尺寸高精度标定物难以制造等问题。对影响立体视觉系统测量精度的主要因素进行分析,列出视觉测量系统的误差溯源链,解析了大视场视觉系统精度瓶颈的原因。借助激光跟踪仪,运用非线性最小二乘单位四元数算法求解坐标系刚体变换,获取大范围高精度的空间点阵,构建虚拟靶标。在相机畸变模型中考虑了三阶径向畸变和二阶切向畸变参数,并使用Levenberg-Marquardt迭代算法进行标定参数求解,进一步提高系统精度。实验构建了一套测量空间约为4m×3m×2m的双目立体视觉系统,通过对某型号高精度直线导轨进行点距测量,在测量距离3m处,152组不同长度的横向距离测量的误差算术均值为-0.003mm,误差标准差为0.08mm。测量精度相较于传统的平面标定法有较大提升。  相似文献   

11.
提出了一种基于双目立体视觉的摄像机外参数在线自标定算法。该算法采用理想的小孔成像模型,事先离线标定好摄像机的内参数,且各项内参数在自标定过程中均不发生变化,通过双目系统采集的二维目标图像,进行匹配和分析计算,来实时标定视觉系统的位置参数即摄像机的外参数。由于该算法可以实现摄像机快速在线标定,可以实时获得视觉系统位置参数,故可为无人机的自主着陆提供高度信息。  相似文献   

12.
在视觉测量系统中,相机的标定精度至关重要,将影响整个测量系统的精度。针对现有相机标定方法难以兼顾精度和操作复杂度的问题,本文提出了一种基于棋盘格的高精度分区域相机标定方法。首先,将棋盘格置于不同位置,提取不同位置角点的世界坐标和像素坐标,对所有角点用线性变换和非线性最优算法求解出全局标定参数。然后,将角点分为中间区域角点和边缘区域角点,对两区域角点分别标定得到两组分区域标定参数。标定实验结果表明:与全局标定法相比,分区域标定法的图像平均投影误差至少降低16%。该方法操作简单,精度高,可以很好的应用于工业视觉检测。  相似文献   

13.
大视场双目立体视觉柔性标定   总被引:1,自引:0,他引:1  
为了实现双目立体视觉系统大范围高精度三维测量,提出了一种大视场双目立体视觉系统柔性标定方法,该方法将系统中各相机内部参数标定与相机间的姿态标定进行分离,标定内部参数时,只需要令标靶相对于相机任意摆放至少三个姿态,对标靶上的编码标志点进行识别,根据标靶上编码标志点信息,建立各姿态下视图的对应关系,粗略计算标志点的初始三维坐标;建立多姿态下逆向投影误差最小的目标函数,采用非线性最小二乘优化获取精确的相机内部参数和标志点三维坐标;最后,建立基于双相机逆向投影误差最小的目标函数,优化得到精确的相机间姿态的外部参数。实验结果表明:当测量空间为1 200mm×1 000mm×1 000mm时,立体视觉系统的测量精度优于0.1mm,满足大范围双目立体视觉系统的高精度测量需求。  相似文献   

14.
针对线结构激光扫描系统标定成本高,而双目立体视觉测量中立体匹配难的问题,提出了在双目立体视觉的原理上,结合线结构激光扫描的方法实现对被测物体的三维测量。该方法采用张正友相机标定方法对系统进行立体标定;采用BOUGUET’S法对左右相机图像进行立体校正;运用重心法进行激光中心线的精确提取。在图像校正的基础上,可快速实现激光中心线位置的立体匹配;再结合线扫描原理可完成对物体的扫描工作。最后,使用该系统对具有复杂自由曲面的鞋楦进行测量,结果表明:该方法能快速准确地测量出符合要求的三维数据。  相似文献   

15.
双目立体视觉的光学标定技术   总被引:1,自引:1,他引:0  
为了通过二维图像信息计算三维空间中的几何信息,对摄像机系统进行精确标定。在建立和分析双目立体视觉模型和现有摄像机标定方法的基础上,提出一种新的光学标定方法。该方法通过构建和分析双目摄像机理论模型,并改进现有的方法实现了双目立体视觉的光学标定。实验在双目摄像机平台上,采用黑方格模板和通过算法实现了光学参数的标定,使用Levenberg-Marquardt算法优化单应矩阵,并通过最大似然估计法进行参数优化,通过试验模型测定,结果显示其实际标定精度为0.050 9mm,满足双目立体视觉的测定需求。  相似文献   

16.
As a kind of binocular stereo vision system, stereo vision sensor constructed by a single camera and mirrors (SSCMs) has been paid increasing attention for three-dimensional measurement applications due to its low cost, high efficiency and synchronization. Currently, the existing model for SSCM considers the real camera as two half-Field-of-View (FOV) virtual cameras formed by reflection effects of the mirrors. The calibration methods based on this conventional model are either complicated to operate or deriving non-identical system parameters. To solve the problem, a novel model and the corresponding calibration approach are presented, which take the sensor as an integrated structure with the viewpoint that the camera captures two virtual points formed by the same object point due to the reflection effects of the mirrors. Also, the calibration and the measurement accuracy evaluation functions are discussed. Both simulated and real experiments compare the calibration and the measurement error of the proposed method with the two traditional methods. The results show that the proposed approach has higher measurement accuracy and more robust than the traditional methods, which meet high-precision requirements for low-cost three-dimensional measurement applications.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号