首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
航天活动中的许多任务如对目标的绕飞观测和逼近停靠等测控任务,其中的关键技术之一是相对位姿估计,而对非合作目标的相对位姿估计更是其中的重点与难点。针对该难点,提出了一种融合单目相机和激光测距仪的空间非合作目标相对位姿紧耦合估计方法。采用单目相机获取目标序列图像,在初始化时利用激光测距仪解决单目相机尺度模糊性问题,构建真实尺度下的世界坐标系,在后续对非合作目标进行连续位姿估计时,使用紧耦合的形式融合相机与激光测距仪数据来优化估计位姿,并且解决估计漂移问题。最后使用Blender软件生成空间非合作目标序列图像,仿真验证了本文算法能稳健地得到较高精度的空间非合作目标的相对位姿,且拥有较好的实时性。  相似文献   

2.
空间非合作目标位姿测量是空间在轨维护的前提。面向空间机械手对空间载体自动抓捕的应用需求,提出了基于结构光的空间非合作目标视觉测量方法。该方法以双套双线结构光测量装置作为测量传感器,以空间载体上普遍存在的星箭对接环作为抓捕目标。根据对接环的共同特点,选择直线特征和点特征相结合作为相对位姿的求解特征;基于直线特征求解圆环平面法向量,基于点特征求解圆环圆心坐标,进而得到机械手工具坐标系与对接环坐标系间的相对位姿关系;基于多重几何约束实现了不同光照条件下图像上目标直线的鲁棒识别。建立了演示验证实验系统,在大量演示实验的基础上,进行了实验结果分析。  相似文献   

3.
空间机器人捕获非合作目标的测量与规划方法   总被引:1,自引:0,他引:1  
提出了基于立体视觉的空间机器人捕获非合作目标的测量与规划方法,包括图像处理与特征提取、3D 重构及位姿测量、自主规划与控制等.同时,还建立了一套仿真系统,可进行包括图像采集、位姿测量、追踪星 GNC、空间机器人规划与控制、航天器动力学计算等在内的闭环仿真.仿真结果验证了算法的有效性.  相似文献   

4.
相对位姿测量是空间非合作目标态势感知的主要内容,在位姿测量中,需要先对目标图像进行特征提取,而特征提取的精度和鲁棒性直接影响位姿测量性能。为了提高空间非合作目标特征提取的鲁棒性,本文给出一种基于线段融合的特征提取算法。该算法首先采用基于梯度的滤波器来消除空间目标图像的背景干扰,然后采用LSD直线检测算法、Hough Lines直线检测算法和Shi-Tomasi角点检测算法提取三组特征点,再用K-D空间划分树以及K最近邻搜索算法融合这三组特征点,保留包含显著特征的较少数量特征点,进一步组合成线段结构,并对线段进行融合,以此来提取反映目标整体几何框架的信息,从而提升稳健性。仿真实验和半物理仿真实验测试结果表明,本文提出的基于线段融合的特征提取方法在空间目标特征提取中具有更好的稳健性。  相似文献   

5.
本文采用了一种基于AKAZE特征检测和PnP算法的单目视觉测量方法对相机的相对姿态进行解算,用于快速准确地确定空间中两个目标间的位姿关系.采集合作目标的模板图像,提取附加到合作目标上的4个特征点的像素坐标,利用AKAZE关键点对模板图像和待测图像进行匹配并计算映射矩阵,通过映射矩阵得到4个特征点在待测图像中的像素坐标,然后结合合作目标的尺寸信息求解基于4个共面特征点的PnP问题,解算相机与合作目标的相对位置.实验分析表明该方法计算的实时图像相机位姿与真实结果接近,验证了本文方法的有效性.  相似文献   

6.
针对图像制导目标跟踪系统在跟踪过程中,由于图像旋转、成像视角和目标尺度的变化带来的跟踪漂移问题,提出一种利用摄像机的位姿信息的匹配模板校正和更新方法。根据摄像机与目标的相对位姿信息,建立目标透视成像模型以及不同摄像机位姿情况下的模板校正方程;将校正方程分解为实时图像旋转和模板仿射变换两部分减小模板变换的误差;通过设计与相关系数和距离信息相关的模板更新策略达到适应跟踪系统逐渐接近目标过程中目标的变化。采用基于视景仿真软件Vega Prime产生的模拟飞行视频对算法进行了验证。实验表明所提算法能够适应图像制导跟踪系统在跟踪过程中目标尺度、成像视角以及图像旋转的变化,减小跟踪漂移。  相似文献   

7.
建立一种基于视觉的并联机器人位姿检测系统框架,包括图像采集、图像处理、位姿检测、参数反馈4个部分。使用单目摄像头采集图像,以二自由度冗余机器人为控制对象,利用Haar特征提取对目标进行粗跟踪。进一步获得目标上特定的几个特征点,基于平行不变性原理,得到机器人末端操作器的实际位姿参数。通过求解机器人的逆运动学方程,得到电机的控制参数。实验和仿真验证了该系统的可行性。  相似文献   

8.
针对目前空间非合作矩形目标位姿测量过程中提取像素级特征点误差大、距离测量值不稳定等导致的测量精度不高的问题,提出一种基于TOF(Time-of-Flight)相机的非合作矩形目标三维位姿测量方法。首先对灰度图像进行修正的FAST特征点提取,然后分别计算提取出的特征点在相机坐标系和目标坐标系下的三维坐标,最后检测矩形目标亚像素级角点并融合30帧距离信息后再计算姿态角。实验结果表明,对于1m距离范围内边长为50mm的非合作矩形目标,Z轴、X轴、Y轴方向位置测量的绝对误差平均值分别为2.65mm、1.28mm、0.60mm。姿态角γ测量的绝对误差平均值降为0.52°。相对于传统的基于点云配准的位姿测量方法,姿态角测量的绝对误差降低了48.0%,显著地提高了非合作目标三维位姿测量的精度和稳定性,具有广泛的应用前景。  相似文献   

9.
在实际中,真实图像序列的获取具有实现难度大、成本高、周期长等困难,针对这一问题,在分析摄影测量成像原理与OpenGL成像机理的基础上,提出一种基于OpenGL的空间目标2D/3D图像序列仿真方法。构建成像系统中目标、光源、2D相机、3D相机等部分的仿真模型,通过设置合理的仿真参数生成目标仿真图像序列,且能够在生成目标的2D图像序列的同时生成目标的3D图像序列。通过仿真实验验证了该方法的可行性,为空间目标位姿视觉测量提供有效的图像数据支持。  相似文献   

10.
针对下水道、勾缝等狭窄位置的手机拾取的问题, 本文提出一种基于机器视觉的伺服机械臂抓取方法. 首先对机械臂eye-in-hand上的相机进行标定, 图像预处理及目标检测等, 在位姿检测中提出一种基于二维坐标系下手机位姿解算算法, 得出解算的最佳位姿角只与夹持点的像素坐标的差值有关, 其位姿角的大小决定了手抓旋转的角度. 实验用Matlab软件对位姿检测进行仿真分析, 其包括SURF不变特征点的目标检测实验和位姿解算实验, 最后用Rethink双臂机器人的右臂对手机进行抓取验证. 实验表明, 在误差允许范围内, 提出的算法具有一定的有效性, 其结果为伺服机械臂抓取手机提供良好的准确性.  相似文献   

11.
针对水下场景水下机器人(AUV)位姿数据集难以获取、现有的基于深度学习的位姿估计方法无法应用的问题,提出了一种基于合成数据的AUV视觉定位方法。首先基于Unity3D仿真搭建虚拟水下场景,通过虚拟相机获取仿真环境下已知的渲染位姿数据。其次,通过非配对图像转换工作实现渲染图片到真实水下场景下的风格迁移,结合已知渲染图片的位姿信息得到了合成的水下位姿数据集。最后,提出一种基于局部区域关键点投影的卷积神经网络(CNN)位姿估计方法,并基于合成数据训练网络,预测已知参考角点的2维投影,产生2D-3D点对,基于随机一致性采样的Perspective-n-Point(PnP)算法获得相对位置和姿态。本文在渲染数据集以及合成数据集上进行了定量实验,并在真实水下场景进行了定性实验,论证了所提出方法的有效性。实验结果表明,非配对图像转换能够有效消除渲染图像与真实水下图像之间的差距,所提出的局部区域关键点投影方法可以进行更有效的6D位姿估计。  相似文献   

12.
单目视觉中基于IEKF,DD1及DD2滤波器的位姿和运动估计   总被引:1,自引:1,他引:0  
用单摄像机所获取的二维(2D)图像来估计两坐标之间的相对位姿和运动在实际应用中是可取的,其难点是从物体的三维(3D)特征投影到2D图像特征的过程是一个非线性变换,把基于单目视觉的位姿和运动估计系统定义为一个非线性随机模型,分别以迭代扩展卡尔曼滤波器(IEKF)、一阶斯梯林插值滤波器(DD1)和二阶斯梯林插值滤波器(DD2)作非线性状态估计器来估计位姿和运动.为了验证每种估计器的相对优点,用文中所提方法对每种估计器都作了仿真实验,实验结果表明DD1和DD2滤波器的特性要比IEKF好.  相似文献   

13.
设计了以激光为驱动光源的TOF相机嵌入式系统,采集灰度图像和深度图像对合作靶标进行实时检测识别、匹配,并求出目标物体的位姿信息。所使用的靶标为圆形靶标,采用经典的阈值算法,提取靶标的形心坐标以及计算圆心率作为靶标识别的条件,使用经典的确定性退火算法完成靶标配,得到两组三维坐标值,利用SVD方法求解位姿数据。在实验中,利用TOF相机解算的姿态角度精度能够达到0.13°,位置平移精度有0.6%,能够准确识别靶标并且计算位姿,验证了此TOF相机用于交会对接、SLAM等领域的可行性。  相似文献   

14.
由于单目摄像头尺度缺失,导致鲁棒位姿估计结果不准确,为此提出单目主动摄像头真实三维重建方法.通过融合机器人的控制信息和尺寸信息,得到单目相机的位置信息,利用位置信息计算出等效基线,根据变基线等效双目策略理论获取精度更高的深度估计;采用GoDec-RANSAC算法排除样本点中的局外点,估计鲁棒位姿;通过获取的位姿,估计最后一帧图像与第一帧图像之间的相对位姿,得到全局位姿估计,完成单目主动摄像头真实三维重建.仿真实验结果表明,该方法能够准确的估计鲁棒位姿.  相似文献   

15.
针对具有单目视觉的移动机器人,本文提出了一种基于单应性矩阵的视觉伺服控制算法,在缺乏深度信息的情况下利用视觉反馈实现了移动机器人的控制目标,即给定机器人目标位姿下拍摄得到的图像,通过视觉伺服使机器人从初始位姿准确到达目标位姿.视觉反馈环节采用单应性矩阵中的元素构造状态变量,而非利用常见的单应性分解,此外,考虑到视野约束,本文提出的算法在计算单应性矩阵时结合了单应性的传递特性,从而避免了参考目标的实时可见性.伺服环节设计了切换控制器,在满足非完整约束的同时可驱动机器人到达期望位姿.理论分析及实物仿真验证了该算法的可行性和有效性.  相似文献   

16.
朱枫  刘昶  吴清潇  周静  夏仁波 《机器人》2012,34(4):424-431,439
针对无人机相对机场跑道的位姿估计问题,提出一种利用机场跑道图像和机载位姿测量传感器进行参数后验估计的方法.首先利用高度表、全球定位系统、惯性导航系统等机载传感器测量无人机的位姿参数.假设各参数的测量误差的先验分布已知且彼此独立,将某时刻的一组测量值看作是对真实值的一次采样.与此同时利用机载已标定相机拍摄跑道的图像,并假设两条跑道边缘直线可从图像中准确提取.受两平行直线透视成像的约束,真实参数必然位于参数空间中某个约束曲面上,进而计算得到位姿参数的后验均值估计.仿真结果验证了该方法的有效性.  相似文献   

17.
空间非合作目标的增多导致太空安全受到严重威胁,对非合作目标进行捕获回收具有维护空间安全、节约资源等现实意义。非合作目标捕获回收需要进行位姿估计,而目前在硬件资源有限的航天器平台上,现有的大多数非合作目标位姿估计算法无法同时满足及时性和准确性的要求。设计一种超轻量级目标检测网络YOLO-GhostECA,利用GhostBottleneck网络减少特征图冗余,并使用高效注意力机制提取核心特征图,以降低模型参数,在提升运算速度的同时保证精度水平几乎不下降。根据YOLO-GhostECA网络的检测结果粗略估计姿态,以协助机械臂更加合理地执行智能捕获任务,解决2D识别算法无法检测出物体姿态的问题。在7自由度冗余机械臂上开展的空间非合作目标捕获地面模拟的实验结果表明,与YOLOv5s网络相比,该网络模型大小减小了80.4%,运算复杂度降低了78.9%,而精度基本保持不变,可准确快速地对非合作目标进行位姿估计,能够引导机器人成功捕获非合作物体。  相似文献   

18.
提出一种从序列图像中自动跟踪测量目标位置和姿态参数的方法。利用单应性原理和上一帧图像中目标位姿参数的测量结果,将目标上的典型平面区域重建为同时含有几何信息和亮度信息的平面区域模板;然后根据投影方程,将该模板在一定的位置姿态参数下进行投影仿真成像,当模板的仿真成像结果与当前帧图像中的该平面区域达到最佳匹配时,认为此时仿真成像的位置姿态参数即为当前帧图像的测量结果。通过对该匹配问题进行最优化建模和求解,实现了序列图像中目标位姿参数的自动测量。实验结果表明,本文方法能够在序列图像中对含有典型平面区域的目标实现较高精度的自动跟踪测量。  相似文献   

19.
针对传统洁具产品包装系统对直角阀产品识别准确率低,无法准确获取产品位置和位姿,造成产品包装效果不佳的问题,基于机器视觉,设计一个洁具产品包装虚拟设计系统。系统通过工业相机和机器人获取洁具图像后,采用图像处理程序的双边滤波和填水漫充方法进行图像滤波平滑处理和目标图像增强;确定图像中的ROI区域后,采用基于Haar小波快速模板匹配算法进行图像识别;然后应用特征图形求位姿方法确定洁具直角阀的位姿和位置。最后利用Robotstudio PC应用软件构建洁具产品包装机器人仿真模型。实验结果表明,相较于传统滤波处理方法,提出的双边滤波处理方法的平滑效果更佳;本方法的位姿确定准确率稳定在94%及以上,位姿识别的准确率较高,系统仿真发现,设计的系统满足洁具产品包装需求,具备可行性和有效性。  相似文献   

20.
P3P位姿测量方法的误差分析   总被引:1,自引:0,他引:1  
从工程应用的角度出发,在三个控制点构成等腰三角形的条件下,研究P3P位姿测量方法的误差与输入参数误差的关系。首先在理论上推导出测量位姿误差与输入参数误差间的关系,在此基础上通过误差统计分析和直接仿真验证的方式得到在输入误差中,图像坐标的检测误差和像机内参数标定误差对测量位姿误差的影响较大,而目标模型的测量误差对测量位姿误差的影响可以忽略不计的结论。这对位姿测量系统的设计与实现具有一定的指导意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号