首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
《中国测试》2017,(4):56-62
该文提出一种基于多传感信息融合技术进行机器人运动学标定的方法。首先通过对机器人的指数积(POE)正向运动学模型取微分的方式建立末端执行器的误差模型,利用ROMER-RA7520绝对关节臂测量机和安装在末端工具上的多个传感器分别采集末端执行器的位置和姿态信息;随后根据坐标统一原理将测量机的位置测量数据和多传感器的姿态量测数据转换到机器人基础坐标系下,实现位姿数据的空间配准;接着运用自适应加权融合算法融合处理经过空间配准后的位姿数据,得到末端执行器位姿测量值;最后应用迭代最小二乘法求解出参数偏差。KR5arc机器人标定仿真实验表明:该方法可大幅度提升机器人在任意位姿下的定位、定姿精度。  相似文献   

2.
针对二维刚体图像配准,本文提出了一种由粗到细的图像配准方法.该方法首先由多尺度Harris角点检测算法提取出参考图像和目标图像的特征角点,采用基于投票策略的特征点匹配算法进行初步配准,有效地减少假点和不稳定点,然后对变换矩阵参数进行初估计,采用基于窗的精细算法对变换矩阵参数进行精估计,并得到最终的变换矩阵.实验结果表明,该算法具有高精度,对噪声鲁棒和低计算量的特点.  相似文献   

3.
本文利用相机对目标物体特征点的测量信息解决机器人相对位置和姿态的估计问题。首先,针对机器人运动过程中相机获得的目标物体连续图像,利用扩展Kalman滤波器估计特征点的三维信息。然后,在SE(3)空间上设计了一个非线性位姿观测器。利用得到的特征点三维信息构造了 Lyapunov函数,并解耦成分别和姿态误差以及位置误差相关的两部分。利用Lyapunov稳定性原理设计了观测器的姿态误差和位置误差补偿律,证明了观测器在平衡点处是渐近稳定的。最后,通过数值仿真实验验证了所提算法的有效性。  相似文献   

4.
为了在图像位姿估计过程中充分利用更多空间点信息及减少噪声的影响,本文提出了一种基于EPnP算法的相机位姿估计优化方法。该方法先基于EPnP算法估计相机位姿,再把得到的相机位姿和空间点位置都作为优化变量,与相机的观测数据一起构建关于相机位姿的最小二乘优化问题,进行BA优化,来提高位姿的精确度。同时在SLAM后端对不同时刻视觉里程计的位姿和回环检测的信息进行优化,再把优化后的相机位姿作为观测数据和激光雷达信息进行融合,从而进一步提高SLAM过程的可靠性。实验结果证明了本文所提出的算法在机器人室内自定位和建图方面的准确性和可靠性。  相似文献   

5.
基于机器视觉的纽扣电池托盘分拣系统   总被引:1,自引:1,他引:0  
顾六平  姚庆文 《包装工程》2018,39(15):178-182
目的为了提高电池生产企业的检测效率,避免误检,以降低企业生产成本。方法分析传统分拣方式中存在的不足之处,以ABB并联机器人和美国康纳智能相机为平台,搭建一个基于机器视觉的工业机器人分拣系统。运用经典的SIFT算法对分拣对象的图片信息进行处理,克服了光照和位置变化对视觉系统造成的不良影响,提高分拣了效率。结果 ABB并联机器人根据图像信息能识别出待分拣的物体,且工作稳定、可靠,分拣成功率为100%。结论该分拣系统软硬件设计合理,满足了电池生产企业的要求。  相似文献   

6.
翟敬梅  黄乐 《包装工程》2022,43(8):66-75
目的 介绍机器人无序分拣技术最新进展和研究成果,为复杂场景下的机器人自动化应用提供研究思路和技术支撑。方法 从机器人无序分拣过程中的3个关键技术任务展开论述,具体包括散乱目标的检测与识别、目标的空间姿态估计与无序分拣的抓取决策,并对各个任务中涉及的方法进行分析总结。结论 机器人无序分拣技术目前面临的主要挑战在于处理复杂环境下散乱堆叠物体的视觉感知、位姿估计和抓取决策。具体的分拣系统应当考虑实际的场景环境,结合任务需求进行设计,以求达到机器人尽可能替代人力劳动的目的。  相似文献   

7.
由于工件表面油污、光照等因素干扰导致工件图像提取的特征点偏离实际位置,对工业机器人的抓取定位带来较大误差。该文以视觉引导工业机器人抓取气缸盖为应用对象,对双目视觉高准确度位姿测量技术进行分析。首先探讨特定条件下的双目视觉定位引导机器人技术以及粗差点产生原因与解决方法情况;其次介绍视觉系统视觉坐标系和目标坐标系,然后在位姿测量数学模型的基础上提出改进最小二乘法的准确计算方法,并搭建双目视觉引导的工业机器人抓取气缸盖系统进行测试分析。测试表明:改进最小二乘法的位姿计算方法可实现双目视觉对目标物的全自由度位姿测量,满足工业机器人高准确度抓取操作。  相似文献   

8.
基于Zernike矩的快速图像配准算法   总被引:1,自引:0,他引:1  
尹程龙  张旭明  徐侃 《光电工程》2012,39(11):81-87
图像配准是机器视觉中的重要研究课题.本文针对任意角度图像配准问题,提出了一种基于Zemike矩的互相关算法.首先根据三角函数的对称性和反对称性,仅基于八分之一单位圆信息,快速计算Zemike矩;然后通过求取图像多个矩的互相关性,确定配准点位置;进而通过最小二乘拟合,得到亚像素配准位置;最终利用Zemike相位信息,估算旋转角度.同时,在线阶段采用径向多项式查表法加速配准过程.实验结果表明,该算法在保障配准精度的前提下显著提高了配准速度.  相似文献   

9.
在木门加工生产线上,针对龙门机器人对不同尺寸板材分拣的需求,本文提出了一种基于虚拟仿真的龙门机器人板材智能分拣实验系统。该系统基于Unity3D软件平台开发,搭建了龙门机器人分拣任务虚拟仿真场景,并在虚拟仿真实验场景中完成了虚拟数据集采集、相机标定以及手眼标定。针对不同尺寸的板材分拣任务,本文提出了基于板材的矩形角点势自适应识别的智能分拣算法,首先利用目标检测模型在局部区域内对板材进行角点检测,由双目成像原理恢复出的角点三维坐标计算板材尺寸和目标板材的抓取位姿,以此完成木门的分拣。该方法在相机采集图像过程中出现板材被遮挡的情况以及在板材复杂纹理和复杂背景的情况中更为鲁棒。此外,该方法完全在虚拟仿真环境下进行开发测试,不仅节约成本、安全高效而且方便进行多种测试方案的改变,对于向真实场景进行算法迁移和开发具有积极作用。实验结果表明,本文提出的方法可以完成龙门机器人板材智能分拣任务,对设计木工家具制造过程中龙门机器人智能分拣系统具有指导意义。  相似文献   

10.
针对动态目标振动位姿测试问题,研究平行光轴立体视觉测试及标定模型,建立非接触动态目标空间位姿测试系统。通过双CCD拍摄目标靶振动图像,据目标点像素位置信息获得目标点空间坐标,再由像素始末位置变化求解点偏移量,进而求出动目标空间位姿。通过静、动态试验验证,测量精度约为0.1 mm,相对误差小于5%,满足工程测试要求。结果表明,测试系统结构紧凑,测量精度高,适用性强,能实现位姿测试智能化及数据分析处理自动化,可用于测量三维空间中目标的运动参数及空间姿态等。  相似文献   

11.
基于立体视觉的移动机器人自主导航定位系统   总被引:5,自引:0,他引:5  
描述了一种基于立体视觉的移动机器人自主导航定位系统。该系统采用双目立体视觉完成环境特征的3D信息提取,实时计算出机器人相对作业目标的位姿(6D)关系,导引移动机器人控制系统按目标异向进行运动。系统在相对位姿计算中采用旋动(Screw)理论,将带约束的多变量函数的非线性优化问题转化为线性方程组的最小二乘问题,简化了计算复杂性。实验表明,这个导航定位系统在定位精度和数据处理速度上均可满足机器人导航的要求。  相似文献   

12.
金闳奇  简川霞  赵荣丽 《包装工程》2018,39(13):194-198
目的为了提高印刷图像配准的精度,提出一种基于混合搜索算法的图像配准方法。方法首先求取图像的归一化互信息,然后利用GA算法(遗传算法)进行全局搜索,得出粗配准参数;最后,利用Powell算法进行局部寻优,得出精配准参数。结果混合算法的配准结果与只用单一Powell搜索算法或只用单一GA搜索算法相比,在各个几何变换方向上得到了更小的配准误差。结论与GA算法和Powell算法相比,文中建议的混合算法配准精确度更高、速度更快。  相似文献   

13.
邢帅  徐青 《光电工程》2007,34(6):57-66
本文提出了一种多重约束下由粗到精的多源图像自适应子像素级配准算法.该算法采用影像特征点作为匹配基元,利用具有不同精度等级的组合判据法、整体松弛法、最小二乘法实现由粗到精的匹配,同时在匹配过程中加入了多重约束,如定位点控制约束、交叉匹配约束、连续控制约束,以保证获取的配准控制点的可靠性和剔除粗差点.此外,该算法利用配准控制点自适应地构建整个图像的三角网,最后依据改进的三角形填充算法对目标图像进行逐像点纠正.对同源和非同源的遥感图像的实验证明,SPOT4全色图像(10m/pixel)和SPOT5多光谱图像(10m/pixel)的配准精度分别达到6~7m和5~6m.  相似文献   

14.
为了从输送带上杂乱工件中分拣出符合规格的目标工件,提出了一种基于多帧工件图像聚合分割的检测识别方法。该方法首先通过工业高精度相机获取工件图像,由改进的分水岭算法分割工件图像;然后基于工件外观形状特征,利用分类回归树(CART)对分割出来的工件图像进行类型识别;进而应用直方图反投影和核密度估计,将来自多个帧的同一个跟踪目标工件对象掩模组合成一个精细掩模,便于精确测量出工件尺寸;最后再联合机器人手眼标定参数,获取符合规格目标工件的位姿,实现机器人分拣。实验结果表明,该方法可快速从输送带上杂乱工件中准确分拣目标工件,具备良好的实用性和稳定性。  相似文献   

15.
《中国测试》2016,(8):98-102
该文提出一种将机器人的位置和姿态拆分开,分别进行标定的机器人位姿标定方法。采用空间精度控制网格标定机器人定位误差,粒子群优化算法(particle swarm optimization,PSO)优化神经网络标定机器人定姿误差。该方法以指数积公式(product of exponentials,POE)为基础建立机器人正向运动学模型,用映射法建立空间网格,用三坐标测量臂测量机器人位姿,用空间网格精度标定定位误差,用PSO优化的神经网络标定定姿误差。其优点在于既标定机器人工具中心点(TCP)的定位误差,又标定机器人工具坐标系的姿态误差,使得机器人定位、定姿误差都得到补偿。实验结果表明机器人的定位、定姿均方根误差减小接近一个数量级。  相似文献   

16.
目的在机器人视觉应用领域中,为控制机器人能够完成焊接、搬运、跟踪等任务,需要确定摄像机与目标之间的相对位姿关系,提出一种目标位姿测量方法。方法利用单摄像机获取目标特征,坐标变换参数表示为对偶四元数的形式,同时计算旋转矩阵和平移向量,构建位置向量和方向向量的测量值与模型值之间的误差方程,利用Hopfield神经网络实现拉格朗日乘子法,求解目标位姿最优解。结果利用Matlab软件平台,选择SVD,DQ以及文中算法进行比较,仿真实验结果表明,基于Hopfield神经网络和对偶四元数的位姿测量算法计算出的位姿参数误差最小。随着测量点数量的增大,文中提出的算法精度更高。结论对偶四元数同时求解位姿变换矩阵的旋转分量和平移分量,可消除计算误差,基于Hopfield神经网络和拉格朗日乘子法,可快速准确地计算,并收敛至目标位姿最优解。  相似文献   

17.
对激光制导测量机器人的定位理论进行了研究,分析了光电编码器测距原理,提出了基于此原理的激光制导测量机器人定位方法;研究了机器人的直线运动和圆弧运动定位算法;给定机器人的初始位姿,推导出了下一时刻的位姿,并实时反馈给控制系统,控制机器人准确定位;研制了激光制导测量机器人试验样机,能够实现在被测工件CAD模型的控制下,自动完成对工件的高精度测量.实验结果显示本定位算法理论是正确有效的.  相似文献   

18.
服务机器人目标同时识别与位姿判定研究   总被引:1,自引:0,他引:1  
目前机器人尚难以自主建立起目标姿态的概念,通过人机交互方式辅助机器人对目标建模则不失为一种可行方案。提出了一种基于新型目标模型的离线/在线两步目标识别与位姿判定系统。离线阶段采用人机交互方式构建目标模型,在线阶段通过场景图像与目标模型的特征点对应即可自动发现目标,并计算其相对于机器人的位姿。实验证明,该系统能够有效完成对纹理目标的同时识别与位姿判定。  相似文献   

19.
沈中华  陈万委  甘增康 《包装工程》2023,44(19):229-237
目的 提高工业分拣上常见的纹理多样、随机堆放盒体的检测与识别能力。方法 提出一种基于YOLOv5的旋转目标检测算法,该算法包括目标分类、位姿角度识别和边界框位置定位3个模块功能。目标分类模块中,通过自建数据集和设计8种目标分类标签以供模型分类学习;位姿角度识别模块对YOLOv5头网络中添加角度预测分支,引入环形平滑标签角度分类方法,实现分拣盒体的旋转角度精准检测;在边界框位置定位模块上,使用LCIoU回归框损失函数来计算旋转框回归损失,得到紧密包裹目标位置的边界框。结果 改进的YOLOv5算法在自建数据集上检测精度达到95.03%,在机器人多物体分拣实验中的准确率可达100%。结论 本文算法在盒体处于散乱堆放、密集堆放、堆叠堆放场景下均具有较高的定位与识别精度。  相似文献   

20.
许允喜  陈方 《光电工程》2012,39(10):95-102
立体视觉定位算法的运动估计通常在3D欧式空间中进行,但由于特征点3D坐标的噪声各向异性且分布不均匀,3D重建在深度方向上比另两个方向上的准确性差,从而导致3D欧式空间运动估计精确不高.本文提出了一种新的基于视差空间运动估计的高精度立体视觉定位算法.算法首先采用视差空间4点闭环线性解法和RANSAC算法得到初始鲁棒运动估计和匹配内点.接着,利用新的视差空间再投影误差函数提出了基于LM算法的视差空间运动参数非线性优化方法,对初始运动参数进一步优化.视差空间噪声分布均匀且各向同性,本文的初始运动参数线性估计和非线性优化都在视差空间中进行且能达到全局最小.仿真实验和真实实验结果表明,本文算法能得到高精度的立体视觉定位结果,优于传统的3D欧式空间运动估计方法.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号