当目标工件通过模板匹配的方法被识别后,要执行机器人对目标工件的抓取动作,还需要知道工件在机器人世界坐标系下的坐标,由于本文研究的主要是位于水平流水线的工件,且选取的工件高度保持在定值,所以只需考虑工件在二维坐标平面上的位置信息。因此,当我们求出了工件的抓取中心之后,即可以说完成了工件的定位。工件的抓取中心坐标的获得,本文利用矩描述子来进行推导。矩代表的是对目标提取出得轮廓上的点进行求和而得到的粗略特征。平面二维图像的轮廓的矩一般定义为:
在机器人的抓取过程中,需要了解目标工件的矢量信息,从而确定如何对目标进行抓取。上述介绍的基于轮廓矩的手段虽然也能够求出目标的矢量信息,但是计算复杂,求取过程繁琐,在实际应用中作用有限。具体问题具体分析,为简化计算,提高工作效率,本文选用工件轮廓的最小外接矩形来推导出工件的重心坐标点。求解过程为:
2.由于目标工件的朝向可能在平面内的任何方向,以平面坐标系的原点为中心,将此原点作为圆心,提取出得工件轮廓在圆的某一圆弧上慢慢移动,工件每移动一次的同时,求出工件轮廓的外接矩,同时计算出矩形的面积和顶点。
4.5本章小结
本章在图像预处理的基础上,完成了视觉引导机器人系统中的多目标识别和定位,对比分析了各种模板匹配方法的优劣,为提高匹配速度,利用数字圆投影的方法对二维数字图像中可能的匹配点进行筛选;完成了对目标中心点的提取,并进行了误差验证。具体如下:
1.探究了SSDA, Hu不变矩、Zernike矩等用于模板匹配方法的优缺点,通过比较,最终选取Zernike矩作为目标识别的方法,为提高匹配速度,在Zernike矩识别之前,先要把方块形状的模板转换成圆状的数字圆图像,在搜索的过程中定义一块搜索区域为子图,那么在进行粗搜索时利用的就是子图的圆投影值作为匹配的图像特征与模板进行匹配,从而完成目标模板的粗匹配。之后再计算这些匹配点的Zernike矩,从而完成对旋转模板的精确匹配。
2.经过一系列的图像处理,图像滤波、二值化、图像边缘轮廓提取和最小外接矩形求取,完成了对目标工件的定位实验,并利用对称的目标图像最小外接矩形质心和其自身重心进行重合度对比,实现了对误差的分析。 搬运机器人