共查询到20条相似文献,搜索用时 31 毫秒
1.
《中国测试》2017,(4):56-62
该文提出一种基于多传感信息融合技术进行机器人运动学标定的方法。首先通过对机器人的指数积(POE)正向运动学模型取微分的方式建立末端执行器的误差模型,利用ROMER-RA7520绝对关节臂测量机和安装在末端工具上的多个传感器分别采集末端执行器的位置和姿态信息;随后根据坐标统一原理将测量机的位置测量数据和多传感器的姿态量测数据转换到机器人基础坐标系下,实现位姿数据的空间配准;接着运用自适应加权融合算法融合处理经过空间配准后的位姿数据,得到末端执行器位姿测量值;最后应用迭代最小二乘法求解出参数偏差。KR5arc机器人标定仿真实验表明:该方法可大幅度提升机器人在任意位姿下的定位、定姿精度。 相似文献
2.
3.
4.
5.
基于机器视觉的纽扣电池托盘分拣系统 总被引:1,自引:1,他引:0
目的为了提高电池生产企业的检测效率,避免误检,以降低企业生产成本。方法分析传统分拣方式中存在的不足之处,以ABB并联机器人和美国康纳智能相机为平台,搭建一个基于机器视觉的工业机器人分拣系统。运用经典的SIFT算法对分拣对象的图片信息进行处理,克服了光照和位置变化对视觉系统造成的不良影响,提高分拣了效率。结果 ABB并联机器人根据图像信息能识别出待分拣的物体,且工作稳定、可靠,分拣成功率为100%。结论该分拣系统软硬件设计合理,满足了电池生产企业的要求。 相似文献
6.
目的 介绍机器人无序分拣技术最新进展和研究成果,为复杂场景下的机器人自动化应用提供研究思路和技术支撑。方法 从机器人无序分拣过程中的3个关键技术任务展开论述,具体包括散乱目标的检测与识别、目标的空间姿态估计与无序分拣的抓取决策,并对各个任务中涉及的方法进行分析总结。结论 机器人无序分拣技术目前面临的主要挑战在于处理复杂环境下散乱堆叠物体的视觉感知、位姿估计和抓取决策。具体的分拣系统应当考虑实际的场景环境,结合任务需求进行设计,以求达到机器人尽可能替代人力劳动的目的。 相似文献
7.
8.
9.
在木门加工生产线上,针对龙门机器人对不同尺寸板材分拣的需求,本文提出了一种基于虚拟仿真的龙门机器人板材智能分拣实验系统。该系统基于Unity3D软件平台开发,搭建了龙门机器人分拣任务虚拟仿真场景,并在虚拟仿真实验场景中完成了虚拟数据集采集、相机标定以及手眼标定。针对不同尺寸的板材分拣任务,本文提出了基于板材的矩形角点势自适应识别的智能分拣算法,首先利用目标检测模型在局部区域内对板材进行角点检测,由双目成像原理恢复出的角点三维坐标计算板材尺寸和目标板材的抓取位姿,以此完成木门的分拣。该方法在相机采集图像过程中出现板材被遮挡的情况以及在板材复杂纹理和复杂背景的情况中更为鲁棒。此外,该方法完全在虚拟仿真环境下进行开发测试,不仅节约成本、安全高效而且方便进行多种测试方案的改变,对于向真实场景进行算法迁移和开发具有积极作用。实验结果表明,本文提出的方法可以完成龙门机器人板材智能分拣任务,对设计木工家具制造过程中龙门机器人智能分拣系统具有指导意义。 相似文献
10.
11.
12.
13.
本文提出了一种多重约束下由粗到精的多源图像自适应子像素级配准算法.该算法采用影像特征点作为匹配基元,利用具有不同精度等级的组合判据法、整体松弛法、最小二乘法实现由粗到精的匹配,同时在匹配过程中加入了多重约束,如定位点控制约束、交叉匹配约束、连续控制约束,以保证获取的配准控制点的可靠性和剔除粗差点.此外,该算法利用配准控制点自适应地构建整个图像的三角网,最后依据改进的三角形填充算法对目标图像进行逐像点纠正.对同源和非同源的遥感图像的实验证明,SPOT4全色图像(10m/pixel)和SPOT5多光谱图像(10m/pixel)的配准精度分别达到6~7m和5~6m. 相似文献
14.
为了从输送带上杂乱工件中分拣出符合规格的目标工件,提出了一种基于多帧工件图像聚合分割的检测识别方法。该方法首先通过工业高精度相机获取工件图像,由改进的分水岭算法分割工件图像;然后基于工件外观形状特征,利用分类回归树(CART)对分割出来的工件图像进行类型识别;进而应用直方图反投影和核密度估计,将来自多个帧的同一个跟踪目标工件对象掩模组合成一个精细掩模,便于精确测量出工件尺寸;最后再联合机器人手眼标定参数,获取符合规格目标工件的位姿,实现机器人分拣。实验结果表明,该方法可快速从输送带上杂乱工件中准确分拣目标工件,具备良好的实用性和稳定性。 相似文献
15.
《中国测试》2016,(8):98-102
该文提出一种将机器人的位置和姿态拆分开,分别进行标定的机器人位姿标定方法。采用空间精度控制网格标定机器人定位误差,粒子群优化算法(particle swarm optimization,PSO)优化神经网络标定机器人定姿误差。该方法以指数积公式(product of exponentials,POE)为基础建立机器人正向运动学模型,用映射法建立空间网格,用三坐标测量臂测量机器人位姿,用空间网格精度标定定位误差,用PSO优化的神经网络标定定姿误差。其优点在于既标定机器人工具中心点(TCP)的定位误差,又标定机器人工具坐标系的姿态误差,使得机器人定位、定姿误差都得到补偿。实验结果表明机器人的定位、定姿均方根误差减小接近一个数量级。 相似文献
16.
目的在机器人视觉应用领域中,为控制机器人能够完成焊接、搬运、跟踪等任务,需要确定摄像机与目标之间的相对位姿关系,提出一种目标位姿测量方法。方法利用单摄像机获取目标特征,坐标变换参数表示为对偶四元数的形式,同时计算旋转矩阵和平移向量,构建位置向量和方向向量的测量值与模型值之间的误差方程,利用Hopfield神经网络实现拉格朗日乘子法,求解目标位姿最优解。结果利用Matlab软件平台,选择SVD,DQ以及文中算法进行比较,仿真实验结果表明,基于Hopfield神经网络和对偶四元数的位姿测量算法计算出的位姿参数误差最小。随着测量点数量的增大,文中提出的算法精度更高。结论对偶四元数同时求解位姿变换矩阵的旋转分量和平移分量,可消除计算误差,基于Hopfield神经网络和拉格朗日乘子法,可快速准确地计算,并收敛至目标位姿最优解。 相似文献
17.
18.
19.
目的 提高工业分拣上常见的纹理多样、随机堆放盒体的检测与识别能力。方法 提出一种基于YOLOv5的旋转目标检测算法,该算法包括目标分类、位姿角度识别和边界框位置定位3个模块功能。目标分类模块中,通过自建数据集和设计8种目标分类标签以供模型分类学习;位姿角度识别模块对YOLOv5头网络中添加角度预测分支,引入环形平滑标签角度分类方法,实现分拣盒体的旋转角度精准检测;在边界框位置定位模块上,使用LCIoU回归框损失函数来计算旋转框回归损失,得到紧密包裹目标位置的边界框。结果 改进的YOLOv5算法在自建数据集上检测精度达到95.03%,在机器人多物体分拣实验中的准确率可达100%。结论 本文算法在盒体处于散乱堆放、密集堆放、堆叠堆放场景下均具有较高的定位与识别精度。 相似文献
20.
立体视觉定位算法的运动估计通常在3D欧式空间中进行,但由于特征点3D坐标的噪声各向异性且分布不均匀,3D重建在深度方向上比另两个方向上的准确性差,从而导致3D欧式空间运动估计精确不高.本文提出了一种新的基于视差空间运动估计的高精度立体视觉定位算法.算法首先采用视差空间4点闭环线性解法和RANSAC算法得到初始鲁棒运动估计和匹配内点.接着,利用新的视差空间再投影误差函数提出了基于LM算法的视差空间运动参数非线性优化方法,对初始运动参数进一步优化.视差空间噪声分布均匀且各向同性,本文的初始运动参数线性估计和非线性优化都在视差空间中进行且能达到全局最小.仿真实验和真实实验结果表明,本文算法能得到高精度的立体视觉定位结果,优于传统的3D欧式空间运动估计方法. 相似文献