首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于单目视觉提出了工业机器人拆垛系统构想。为实现工业机器人视觉拆垛系统中机器人精确运动控制与工件位姿识别,运用D-H位移矩阵法建立了机器人运动学模型,得到机器人末端相对机器人坐标系的位姿信息。基于形状模板匹配法提出目标图像识别算法,得到各个目标图像在相机坐标系下的位姿信息;将三维视觉模型与机器人运动学模型进行信息融合,建立机器人视觉拆垛控制系统数学模型。基于CCD工业相机、4-DOF工业机器人搭建视觉定位抓取实验系统。通过对空间目标进行抓取的实验,验证基于单目视觉的工业机器人拆垛系统的正确性、精确性、鲁棒性。  相似文献   

2.
针对目前工业机器人上料时大都采用预先示教的方式,一旦工作条件发生变化就会导致抓取失败的问题,研究了一种基于视觉引导FANUC机器人的抓取系统,提高了机器人柔性化抓取能力。系统采用单目视觉定位方法:将图像中的特征点通过相机标定参数、Eye-in-Hand手眼标定参数转换为机器人基坐标系下的位姿,利用FANUC Robot Interface实现上位机与机器人通信并把定位结果发送到机器人位置寄存器,引导机器人运动到相应位置并通过末端执行器完成对空心圆柱体工件的抓取。经过多次抓取实验数据分析,该系统定位误差在0.5mm以内,具有很好的实际应用价值。  相似文献   

3.
目前大部分工业装配生产线中机器人抓取待装件都是预先将固定类型的工件进行机械定位。为了提高机器人柔性抓取能力,实现了双目视觉引导机器人的抓取系统。文章通过定位工装板来间接定位工件的方法来完成双目视觉引导机器人抓取,首先通过双目视觉系统拍摄的图像识别工装板上6个定位孔,计算孔中心在相机坐标系下的位置,利用这6个定位孔中心空间位置用最小二乘法拟合出最优的工装板平面,由于工件相对于工装板的位置固定,可求得工件相对于相机坐标系的位置,进而通过标定参数转化为在机器人基坐标系下位置和姿态,供机器人抓取工件。经过多次工件抓取实验,分析数据得出,系统距离定位误差小于0.5mm,满足工业生产要求且适应于多种类型工件的抓取,具有通用性。  相似文献   

4.
以MOTOMAN-SV3X机器人、摄像机和传动带为基础,构建了一个基于机器视觉的机器人目标抓取系统.本系统中摄像机和机器人分别布置在传动带两端,其工作原理为:利用视觉定位和系统标定结果,经过坐标系转换将位姿信息转化到机器人基础坐标系中,然后根据位姿信息进行运动学逆解得相应的控制文件,最终实现摄像机在一端拍摄,机器人在另外一端对目标进行抓取.抓取实验结果验证了此系统的可行性和实用性,为提高生产线的自动化程度提供了一种新的方法,对后续的相关研究做了铺垫.  相似文献   

5.
为了解决传统工业机器人无法对多个不定位姿的工件进行分拣抓取的问题,搭建一套基于机器视觉的零件分拣及上下料系统。所搭建系统能够较准确地对铝件和有机玻璃件进行分拣,并对工件的位姿进行识别,最后将结果换算到机器人的世界坐标系下,对工件进行准确抓取和上下料。其中针对工件的分拣,提出了通过条形码进行识别分拣的方法,此方法简单有效,快速便捷。对与背景对比度不高的透明有机玻璃件的位姿识别,提出一种自适应调参线性变换方法,从而准确识别出透明件的位姿信息。经实验测试,所搭建系统具有较高的准确性。  相似文献   

6.
为解决机器人因运动学参数误差而导致的绝对定位精度损失,提出一种基于双结构光视觉的关节机器人运动学标定方法,具体研究了双结构光光源配合双目视觉在求取光源发射装置空间位置中的应用、推导了出光源装置位置误差与连杆参数误差的误差方程。通过采集机器人若干末端的机器人坐标系位姿与世界坐标系位姿数据,再基于最小二乘理论求取机器人坐标系与世界坐标系的单应性矩阵,将之后采集的点通过单应性矩阵转换到机器人坐标系下的位姿。再通过误差方程来获取连杆参数误差,并对其真实参数进行修正,从而提高机器人定位精度。最后讨论了该方法在SK-10R关节机器人上进行标定的实验结果,结果表明该方法能实现机器人空间位姿的标定,在低成本的条件下大幅提高机器人的绝对定位精度。  相似文献   

7.
在粉体包装领域常使用人工抓取阀口袋完成粉料的装填,自动化程度低且危害人体健康。为了解决这一问题,设计一套基于机器视觉的阀口袋动态抓取系统。首先,通过机器视觉完成相机标定、图像特征信息提取,得到阀口袋在机器人坐标系下的位姿数据。为了提高运动状态下阀口袋的定位精度,采用卡尔曼滤波对特征点位置进行校正。然后使用数据拟合描述阀口袋的位姿变化,进而预测抓取时刻阀口袋的位姿。在PLC控制下,工业机器人实现了对输送带上运动阀口袋的动态抓取,系统运行稳定,抓取误差小于1 mm,为实现自动化粉体包装提供了一种可行方案。  相似文献   

8.
针对机械手对复杂工况下的工件进行自动抓取时精度较低的问题,提出一种采用改进SSD卷积神经网络算法配合多激光传感的方法,对堆叠情况下的工件进行快速精确定位。采用SSD算法融合多视窗检测方法,对视觉获取的RGB图片进行检测,获取工件水平位置信息;结合主动跟踪激光传感系统,获取工件表面的法向量,确定工件的空间位姿。搭建了硬件实验平台,在此平台上开发了一套视觉与激光融合的工件定位抓取系统,并以非标零件为实验对象在堆叠情况下进行多组实验,在模拟车间自然光照环境下,工件识别率95.4%,平均耗时为40ms,工件识别的平均坐标偏差1.86mm,法向量平均偏差为1.39°,机器人抓取率为98.2%,实验结果表明,该方法定位准确,速度快,在自动化生产线上具有可行性。  相似文献   

9.
为了满足生产制造过程中物料无序分拣的需要,设计基于机器视觉的机器人作业目标定位系统。利用Qt开发人机交互界面,实现图像采集处理、通信和机器人运动控制功能。对图像进行阈值分割等处理,得到理想工作区域。通过机器人视觉系统标定实现相机像素坐标和机器人基坐标之间的转换,得到机器人坐标系下的工件位姿识别。在机器人目标抓取平台上随机摆放一定数量的工件进行数据采样,结果表明:系统准确度以及速度具有优势。  相似文献   

10.
针对机器人自动化焊接过程中工件的定位误差、加工误差和激光传感器的安装误差的问题,提出了一种基于线结构视觉激光传感器获取焊缝形状位置信息,并使机器人能够自动调整焊枪位置和姿态来修正误差,同时自适应不同角度焊缝的多层多道路径规划方法。首先进行手眼标定,采用pyqt5在windows系统环境下部署焊接机器人手眼标定软件,把焊道空间点信息从视觉坐标系转换为机器人基坐标系下。然后对工件进行扫描,通过预设定算法完成对实际坐标点的预处理计算,并自适应调节工具坐标系的位姿弥补偏差;最后根据处理得到的焊缝坡口的特征参数和焊接工艺要求,规划多层多道焊接的路径完成焊接。对中厚板碳钢单边V形坡口进行试验,结果表明,该方法具有良好的实用性。  相似文献   

11.
为了提高自动化装配任务中高节拍机器人抓取工件的位置精度与效率要求,提高工作节拍时间,搭建了基于视觉的SCARA机器人抓取平台,同时开展了抓取工件的实验研究。使用Open CV完成摄像机标定,运用改进的霍夫变换算法进行工件轮廓检测,根据抓取平台的机械结构和运动特点,完成抓取作业;最后,对多次抓取实验结果进行研究分析。结果表明,该抓取平台具有较高的工业生产应用价值,其定位误差在0.5mm范围内。  相似文献   

12.
为提高家电装配生产线自动化水平和生产节拍,提出采用基于机器视觉的跟踪抓取和装配系统代替人工进行分拣上料和装配工作。使用Open CV进行摄像机内外参数标定,运用基于1DPHT方法求取目标位姿,采用卡尔曼滤波算法对目标位置进行跟踪预测。并搭建基于SCARA机器人的视觉跟踪抓取平台和基于6R机器人的装配平台,实验表明该系统能够实现2D空间移动目标的有效抓取和装配,且工作效率和精度较高。  相似文献   

13.
为解决自动装配生产线上针对无精确定位工件的涂胶机器人作业问题,提出了采用视觉搜索定位来事先检测工件位姿的机器人自校正系统,并着重阐述了激光视觉搜索定位的流程、工件位姿检测的数学模型及检测算法、机器人作业运动轨迹修正程序设计等的实现.实验证明,对于在小范围内位姿变化的箱体类作业对象,该机器人系统作业具有较好的自适应性.  相似文献   

14.
在视觉引导机器人完成抓取的过程中,最重要的步骤是手眼标定,手眼标定的精度将直接影响后续工作的精度。充分考虑相机畸变对手眼标定的影响,在Halcon环境下,设计一种高精度的固定视点手眼标定方法,该方法在确定了机器人基础坐标系与相机图像坐标系之间关系的同时也标定了相机的内外参数,并通过实验进行验证。结果表明:该标定方法具有较高的精度,可广泛应用于视觉机器人的定位抓取工作。  相似文献   

15.
针对批量工件坡口切割过程中,重复定位误差导致过切割或欠切割现象,提出一种视觉校正方法。通过固定视点手眼标定(Eye-To-Hand),得到相机图像坐标与机器人工具坐标的位姿转换关系;通过模板匹配方法计算待切割工件与模板工件间的旋转与位移偏差,并转换成机器人工件坐标偏差后发送到机器人校正切割轨迹。实验结果表明,该方法校正后的切割轨迹误差在1.5 mm以内,切割准备时长降至1.3 s以内,能够解决实际切割过程中工件位姿偏差造成的过切割与欠切割问题,有效实现坡口切割轨迹的校正。  相似文献   

16.
基于结构光三维视觉的再制造工件的测量及重建   总被引:3,自引:1,他引:2       下载免费PDF全文
杨培  徐滨士  吴林 《焊接学报》2005,26(8):12-15
提出了一种基于结构光三维视觉的再制造工件测量及重建方法。采用安装在机器人末端的结构光三维视觉传感器进行测量,给出了传感器的标定方法。控制机器人运动,使激光扫描整个工件表面,结合机器人末端位姿和传感器参数,可计算出扫描线上每个点的机器人基坐标系坐标,即获得了整个工件表面的三维坐标。对所获取的工件表面的轮廓测量数据,用B样条曲面拟合,给出了截面数据的B样条拟合算法。生成的再制造工件曲面,可以直接输入至离线编程系统,对再制造进行离线规划,并给出了轴类工件的算例。  相似文献   

17.
基于机器视觉的工件的在线检测   总被引:1,自引:0,他引:1  
利用HALCON软件提供的算子对摄像机内、外参数和机器人"手眼"系统进行标定,在此基础上结合视觉检测技术提出了一种工件在线缺陷检测的方法。该方法是根据触发时刻的空间位置来确定抓取时刻工件位置的一种空间相量平移方法,接着利用图像处理软件发出的电信号来控制机械手来完成缺陷工件的动态抓取工作。最后利用C++完成人机界面的设计,经调试可完成实时在线检测、可达到生产要求精度。  相似文献   

18.
针对机器人在加工应用中的弱刚性问题,对串联机器人打磨过程中的位姿进行优化以提高操作刚度。文章以ABB公司IRB6700六自由度串联机器人为研究对象,研究了该机器人在不同位姿下的刚度特性。首先以该型号机器人的连杆及结构参数,建立机器人各连杆坐标系,推导出其运动学方程及雅克比矩阵。其次忽略机器人臂杆刚度,建立了考虑关节刚度的机器人末端静刚度模型。最后研究了机器人在不同位姿下的刚度特性,以优化机器人末端刚度为目的,得到了该型号机器人在本打磨工况下的最优加工位姿。  相似文献   

19.
研究机器人运动学较为传统的方法为D-H参数法,以4-R(SS)2并联机器人为研究对象,基于旋量理论,根据指数积公式对该机器人进行正运动学分析,得到机器人的位姿变换矩阵。旋量法只需要建立惯性坐标系S和工具坐标系T,经过每一个关节变量之间的变换,最终可得到其运动学方程。与D-H参数法相比,此方法使运动学模型变得更为简单,并且具有更明确的几何意义。最后对并联机器人进行运动仿真,构建其仿真模型,确定机器人各结构的参数,输入随机关节变量,得到的结果与文中计算的结果进行对比,验证本文方法的准确性。  相似文献   

20.
以ABB机器人、快换手爪、双目相机为硬件基础,搭建了基于双目立体视觉的工业机器人智能抓取系统,旨在实现随机放置物体的识别定位和自动抓取。基于视觉模块,研究了图像处理、立体匹配和深度计算以及坐标转换,以C++为开发平台,结合Open CV图像开发库和Triclops库,开发了视觉识别与定位算法,实现对圆柱体和长方体薄板对象的分类和位姿识别。最后,通过实验验证,表明该视觉算法有较高的识别定位精度,满足抓取系统的要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号