[go: up one dir, main page]

CN116619350A - 一种基于双目视觉测量的机器人误差标定方法 - Google Patents

一种基于双目视觉测量的机器人误差标定方法 Download PDF

Info

Publication number
CN116619350A
CN116619350A CN202210132480.1A CN202210132480A CN116619350A CN 116619350 A CN116619350 A CN 116619350A CN 202210132480 A CN202210132480 A CN 202210132480A CN 116619350 A CN116619350 A CN 116619350A
Authority
CN
China
Prior art keywords
robot
error
model
binocular
binocular vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210132480.1A
Other languages
English (en)
Inventor
江小辉
孙翼飞
丁子珊
郭维诚
魏雨希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202210132480.1A priority Critical patent/CN116619350A/zh
Publication of CN116619350A publication Critical patent/CN116619350A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)

Abstract

本发明公开了一种基于双目视觉测量的机器人误差标定方法,包括:步骤1,搭建并调试基于双目视觉测量的机器人误差标定平台,推导机器人运动学模型和建立机器人误差补偿模型;步骤2,基于机器人运动学模型和机器人误差补偿模型,建立机器人距离误差模型;步骤3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到机器人系统数据;步骤4,对机器人系统数据进行处理,进行双目视觉图像校正与匹配处理,得到双目视觉图像,并根据双目视觉图像,得出机器人距离误差模型的距离误差项;步骤5,基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何参数误差模型中实现运动学标定效果。

Description

一种基于双目视觉测量的机器人误差标定方法
技术领域
本发明属于机器人技术领域,具体涉及一种基于双目视觉测量的机器人误差标定方法。
背景技术
由于工业机器人关节的弱刚性与内部运动学模型微小偏差,导致其无法保证较高的绝对定位精度。机器人运动学标定是提升机器人工作精度的关键技术之一,所谓标定就是应用先进的测量手段和基于运动学模型的参数识别方法,辨识出机器人模型的准确运动学几何参数,从而提高机器人绝对精度的过程。
机器人的定位精度分为重复定位精度与绝对定位精度,现今工业机器人的重复定位精度能够达到0.1mm以内,但是绝对定位精度仅能达到毫米级,这个级别的精度在某些高端制造领域内是不够的,例如飞机装配制造生产线的制孔工序,叶片打磨等。一般的工业机器人对飞机制造环境而言,仅有毫米级的精度根本无法达到航空航天制造的要求,工业机器人的误差标定技术是提高机器人绝对定位精度的有效手段,因此机器人误差标定技术的研究十分重要。
为了测量机器人末端定位误差,目前普遍采用的方法有:
1.采用激光跟踪仪与配套的标靶球或使用机器人厂家提供的特定标定装置,将激光跟踪仪标靶球安装在机器人基座上,经过多次标定测量后可确定机器人基座平面,而后将靶球固定在机器人末端法兰上,通过机器人一、二轴的圆周转动标定机器人基坐标系,随后选定标定完成的基坐标来获得机器人末端法兰相对于机器人基坐标系的绝对位置;
2.采用拉线式位移传感器配以相应测试软件,通过将拉线传感器一端固定于基座,一端固定于机器人末端,读取机器人运动时拉线传感器上位软件输出的位移值与机器人内部生成的坐标进行比较测量;
3.采用球杆仪或双球杆仪对机器人进行接触式标定,球杆仪的两端有高精度钢球组成,一端固定,另一端连接着一个高精度位移传感器。两个钢球两端通过三点定位的磁性吸座进行定位,一端吸附在主轴上,另一端则吸附在工作台上。其主要是用于测量机器人末端位置在X-Y,X-Z和Y-Z平面内运动时的精度。当工作台相对于主轴作圆周插补运动时,形成一个机器人模拟圆弧轨迹,传感器采集两钢球间距离的变化并传递给计算机,经过迭代算法计算与分析,得到机器人末端运动的圆度精度并分离出各种单项误差,如机器人各轴几何参数误差,机器人末端运动距离误差等。采用激光跟踪仪与标靶球的方法精度较高,但价格高昂且激光跟踪仪与相应软件需要专业培训;采用拉线式位移传感器等设备总体占用体积大,布置测量平台过程复杂,使得测量空间有限;采用球杆仪的方法精度较高,但是标定范围有限,制造精度越高的球杆仪其成本也越高。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于双目视觉测量的机器人误差标定方法。
本发明提供了一种基于双目视觉测量的机器人误差标定方法,具有这样的特征,包括以下步骤:步骤1,搭建并调试基于双目视觉测量的机器人误差标定平台,并推导机器人运动学模型和建立机器人误差补偿模型;步骤2,基于机器人运动学模型和机器人误差补偿模型,建立机器人距离误差模型;步骤3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到双目相机系统数据;步骤4,对双目相机系统数据进行处理,进行双目视觉图像校正与匹配,得到双目视觉图像,并根据双目视觉图像,得出机器人距离误差模型的距离误差项;步骤5,基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何参数误差模型中实现运动学标定效果。
在本发明提供的基于双目视觉测量的机器人误差标定方法中,还可以具有这样的特征:其中,步骤1中,根据机器人外形尺寸推导机器人运动学模型,并且引入微分运动原理建立机器人误差补偿模型。
在本发明提供的基于双目视觉测量的机器人误差标定方法中,还可以具有这样的特征:其中,步骤2中,采用M-DH方法推导建立机器人距离误差模型。
在本发明提供的基于双目视觉测量的机器人误差标定方法中,还可以具有这样的特征:其中,步骤3中,双目相机系统数据包括双目相机畸变、内参与世界坐标系,根据机器人本体尺寸与工作运动范围,选择分辨率、视野、焦距合适的相机与相机镜头,通过机器人夹持高精度光学标定板在其工作范围运动,同时调整双目相机位置保证相机能够精确捕捉到标定板角点,通过算法标定双目相机畸变、内参与世界坐标系。
在本发明提供的基于双目视觉测量的机器人误差标定方法中,还可以具有这样的特征:其中,步骤4分为以下子步骤:步骤4-1,在机器人控制软件上编写机器人的运动控制程序,以运动控制程序驱动机器人进行运动,此外,编写机器人上位机程序对双目相机系统数据进行处理;步骤4-2,启动机器人并执行运动控制程序,使末端执行器按圆周运动,设定一初始点为圆心,令其为之后轨迹的起始点并在相机视野范围内确定圆的半径,在圆上寻取轨迹的第二点通过机器人误差补偿模型计算轨迹的理论距离;步骤4-3,通过机器人上位机程序与信号控制,控制相机拍摄机器人到达轨迹起始与终点处的图像,并使用相机畸变值与内参进行双目图像校正,得到双目视觉图像;步骤4-4,以机器人末端圆形法兰为特征,提取双目视觉图像中的特征点并结合双目标定结果进行特征点在世界坐标系下的计算,得到特征点位置信息;步骤4-5,在MATLAB中保存特征点位置信息并结合双目相机系统数据得出机器人距离误差模型的距离误差项。
在本发明提供的基于双目视觉测量的机器人误差标定方法中,还可以具有这样的特征:其中,步骤5中,从D-H模型入手,对D-H参数表中理论参数进行修正,将修正后的D-H模型用来描述实际机器人空间运动,以此实现机器人运动误差补偿,重复对模型进行修正。
发明的作用与效果
根据本发明所涉及的基于双目视觉测量的机器人误差标定方法,因为标定步骤为:步骤1,搭建并调试基于双目视觉测量的机器人误差标定平台,并推导机器人运动学模型和建立机器人误差补偿模型;步骤2,基于机器人运动学模型和机器人误差补偿模型,建立机器人距离误差模型;步骤3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到双目相机系统数据;步骤4,对双目相机系统数据进行处理,进行双目视觉图像校正与匹配处理,得到双目视觉图像,并根据双目视觉图像,得出机器人距离误差模型的距离误差项;步骤5,基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何参数误差模型中实现运动学标定效果。
因此,本发明的基于双目视觉测量的机器人误差标定方法的测量标定工具为双目视觉相机,相对于常用的激光跟踪仪,其成本大大降低。同时,使用双目视觉作为标定工具,可通过机器人控制柜信号触发拍摄图片,不仅能够易于实现标定过程自动化,而且相机可以进一步投入到后续视觉引导中,使得整个机器人作业工序紧凑。
此外,本发明的基于双目视觉测量的机器人误差标定方法相较于激光跟踪仪与高精度双球杆标定方式来说,降低了大量成本与场地布置时间。
此外,本发明的基于双目视觉测量的机器人误差标定方法只需要重新标定相机,即可将机器人投入到后续机器人视觉引导相关的应用,使得机器人的运用效率提升;
此外,本发明的基于双目视觉测量的机器人误差标定方法可应用于机器人的精密应用领域例如机器人磨抛、钻孔、焊接等等。
附图说明
图1是本发明的实施例中基于双目视觉测量的机器人误差标定方法流程图;
图2是本发明的实施例中基于双目视觉测量的机器人误差标定平台示意图;
图3是本发明的实施例中机器人末端法兰夹持标定板的连接示意图;
图4是本发明的实施例中机器人距离误差标定轨迹描述图;
图5是本发明的实施例中距离误差标定原理图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下实施例结合附图对本发明一种基于双目视觉测量的机器人误差标定方法作具体阐述。
在本实施例中,提供了一种基于双目视觉测量的机器人误差标定方法。
图1是本实施例中基于双目视觉测量的机器人误差标定方法流程图。
如图1所示,本实施例中的基于双目视觉测量的机器人误差标定方法包括如下步骤:
步骤S1,搭建并调试基于双目视觉测量的机器人误差标定平台,并推导机器人运动学模型和建立机器人误差补偿模型。
图2是本实施例中基于双目视觉测量的机器人误差标定平台示意图。
如图2所示,本实施例中的基于双目视觉测量的机器人误差标定平台1000包括机器人模块100、双目视觉测量模块200以及数据处理模块300。
机器人模块100包括机器人本体10、机器人控制柜2以及安装于机器人末端用于相机标定的高精度标定板9。
双目视觉测量模块200包括信号连接线1、两个相同的高精度CMOS相机5和高精度CMOS相机7、三角支架3、球副云台4以及长条形回转台6。
三角支架3具有旋转和升降功能,在支架3上置有长条形回转台6,在回转台6上有一球副云台4,球副云台4可在回转台6横向方向移动调整相机位置,双目相机置于两个球副云台4上可进行三自由度方向旋转,以便于调整相机镜头至合适位置,三角支架3根据镜头焦距优选设置于机器人10的正前方,并且球副云台4上的相机镜头应尽量平行放置以减小标定过程中产生的计算误差。
本实施例中的支撑云台包括回转台6和升降三角支架3,回转台6设置于升降支撑架3上,双目视觉相机5和7置于回转台6上的三维云台4上,其中升降支撑架3为落地三脚架。
数据处理模块300包括工装台11、上位显示器12以及计算机13。
图3是本实施例中机器人末端法兰夹持标定板的连接示意图。
本实施例中,通过两个高精度CMOS相机5和7对机器人10的正前方平面空间区域进行某一圆周轨迹位置点的测量,两个高精度CMOS相机5和7的视场范围完全包含该平面空间区域,避免测量点超出视场范围或者测量误差较大所导致的无法消除的测量误差的现象,如图3所示,本实施例中,需要确保机器人10在目标平面的任一运动情况下其末端法兰面都可以作为特征点进行有效测量。两个高精度CMOS相机5和7均为双目视觉相机。
上位显示器12、计算机13与双目视觉相机5和7之间通过信号连接线1进行数据传输,保证在多相机工作情况下数据高速高帧率稳定传输。
本实施例中,根据机器人外形尺寸推导机器人运动学模型,并且引入微分运动原理建立机器人误差补偿模型。
本发明中所有测量坐标系均基于空间笛卡尔坐标系,以D-H方法建立机器人运动学模型,实现输入机器人各个关节轴关节值[q1,q2,q3,q4,q5,q6],通过运动学系统输出机器人达到的末端位姿Tp的过程,由上述方法从机器人的第i杆件坐标系到第i+1杆件坐标系的正运动学表达式如下:
i+ i 1T=Rot(Z,θi)Trans(Z,di)Trans(X,ai)Rot(X,αi)
将上述式子展开为齐次旋转矩阵的形式为:
其中,cθi为cosθi的缩写,sθi为sinθi的缩写,其余类似表达以上述为例以此类推。
根据串联机器人连杆之间的链接关系与D-H方法原理,可求得工业六轴机器人从基座到末端执行器的运动学系统表达:
将上述表达转换为齐次旋转矩阵的形式为:
步骤S2,基于机器人运动学模型和机器人误差补偿模型,采用M-DH方法推导建立机器人距离误差模型。得到机器人理论轨迹上相邻两点之间的距离与实际轨迹上相邻两点之间距离的误差与机器人本体几何参数之间的映射关系。
步骤S3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到双目相机系统数据。
双目相机系统数据包括双目相机畸变、内参与世界坐标系,根据机器人本体尺寸与工作运动范围,选择分辨率、视野、焦距合适的相机与相机镜头,通过机器人夹持高精度光学标定板(精度达0.01mm)在其工作范围运动,同时调整双目相机位置保证相机能够精确捕捉到标定板角点,通过算法标定双目相机畸变、内参与世界坐标系。
首先,将标定板9置于机器人末端法兰夹板8上,通过双目相机采集不同机器人姿态下的标定板照片,总计需要10-20组照片为宜。
本实施例中基于VisualStudio2019开发环境下的OpenCV4.1.0视觉算法库编写双目相机标定与测量程序,求得双目相机的内参与世界坐标系关系。
本实例中相机标定的内参形式如下,fx代表像素坐标系下的x轴方向焦距的长度,fy代表像素坐标系下的y轴方向焦距的长度,σxσy代表主点在像素平面下的实际位置(由于本实例中使用的相机镜头非鱼眼镜头,所以可不考虑切向畸变,只需标定径向畸变即可)。
本实例中相机标定的世界坐标系为以左相机为参考坐标系下右相机相对于左相机的空间位置,其形式如下。
步骤S4,对双目相机系统数据进行处理,进行双目视觉图像校正与匹配处理,得到双目视觉图像,并根据双目视觉图像,得出机器人距离误差模型的距离误差项。分为以下子步骤:
步骤S4-1,在机器人控制软件上编写为已给定的机器人运动轨迹及操作方法机器人的运动控制程序,以运动控制程序驱动机器人进行运动,此外,编写结合机器人控制软件开发的机器人上位机程序与MATLAB数据处理程序,机器人上位机程序对双目相机系统数据进行处理。
步骤S4-2,启动机器人并执行运动控制程序,使末端执行器按圆周运动,设定一初始点为圆心,令其为之后轨迹的起始点并在相机视野范围内确定圆的半径,在圆上寻取轨迹的第二点通过机器人误差补偿模型计算轨迹的理论距离。
步骤S4-3,通过机器人上位机程序与信号控制,控制相机拍摄机器人到达轨迹起始与终点处的图像,并使用相机畸变值与内参进行双目图像校正,得到双目视觉图像。
根据上述求得的相机内外参数,校正双目图像使其极线对齐便于后续特征点的世界坐标计算。
步骤S4-4,以机器人末端圆形法兰为特征,提取双目视觉图像中的特征点并结合双目标定结果进行特征点在世界坐标系下的计算,得到特征点位置信息。
本实例中以机器人末端圆形法兰为特征进行图像特征点的圆心坐标提取,由于工业机器人以圆形末端法兰居多,所以该测量方法可适用于所有具有上述特征的机器人的末端位置测量上。
然后,将左右图像上的特征点进行匹配,确保左右图像上的特征点表达的是真实空间中的同一点,为此以机器人末端圆形法兰半径和圆度为约束条件对采集图片中的其他冗余特征点进行过滤。在匹配过程中需要确定三个图像阈值f、Fy、L,f为画面分割阈值,防止全图匹配时冗余点过多的情况,Fy为像素Y方向误差阈值,通过该值筛选左右图像中相互匹配的同一点,L为极线长度误差阈值,由于双目图像已经做了极线对齐校正,则每个特征点的匹配极限长度应相等,通过此值进一步进行匹配点的筛选。
最后,根据上述标定得到的双目相机内外参与特征点的提取与匹配,计算得出机器人末端圆形法兰圆心相对于世界坐标系的坐标,得到特征点位置信息。
步骤S4-5,在MATLAB中保存特征点位置信息并结合双目相机系统数据得出机器人距离误差模型的距离误差项。
本实施例中,首先,微分运动学以机器人实际位姿误差很小为成立前提,可认为机器人某一杆件的微分运动是该杆件绕其笛卡尔坐标系三轴微分平移与微分旋转后共同作用的结果,可表示为如下形式:
dT=T·Rot(X,Y,Z)·Trans(X,Y,Z)
然后,对机器人的六个串联杆件全部引入上述的微分算子,同时由于D-H模型在平行关节处出现的不连续性,在平行关节处引入一个绕Y轴旋转的β角,采用M-DH方法建立其各个关节微分运动算子与机器人各关节几何运动学参数误差的映射关系:
P(dx,dy,dz)=G(i)ξ(θi,di,aiii)
然后,将所有杆件的微分误差通过微分运动学原理转换至末端坐标系上,并结合位置微分算子与几何运动学参数误差的映射关系得出末端坐标系下位置误差量与机器人所有连杆几何参数误差之间的辨识方程:
P(Dx,Dy,Dz)=F(i)3×30ξ(i)30×1
最后,为便于后续机器人连杆几何参数误差辨识,前后测量位置的起始点O与终点P距离应尽可能保持相等,所以以机器人工作范围且在双目相机视野范围内一点作为圆心O,在双目相机视野范围内选取半径R生成一圆平面,且该平面平行于相机成像面。
图4是本实施例中机器人距离误差标定轨迹描述图。
控制机器人以圆心O为起点,以圆上的任意不同点Pi为终点建立一组参数辨识方程,具体点位与机器人控制流程如图4所示,由此保证每一组参数辨识方程的距离l相等,总计获得30组以上的参数辨识方程构成方程组。
每当机器人运动至圆上的点Pi后,控制柜通过IO信号触发上升沿控制相机记录机器人当前位置图像,并且通过上位机读出机器人控制器中的机器人当前TCP位姿信息,随后将数据存入MATLAB中。重复将机器人移回圆心O处再回到圆面上,结合信号控制的相机图像采集可实现标定过程自动化,大幅提升了机器人误差标定的效率。
步骤S5,基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何参数误差模型中实现运动学标定效果。
为实现机器人空间误差补偿的通用性,从能够描述机器人结构参数的D-H等模型入手,从D-H模型入手,对D-H参数表中理论参数进行修正,将修正后的D-H模型用来描述实际机器人空间运动,以此实现机器人运动误差补偿,重复对模型进行修正。
图5是本实施例中距离误差标定原理图。
本实施例中,首先,机器人在空间中的任一运动路径都可视为多个点的插补进行直线运动的结果,所以将机器人运动路径上的两点提取出来如图5,其中P1P1'代表实际起始点与理论起始点,P2P2'代表实际终点与理论终点。实际起始点与终点构成向量理论起始点与终点构成向量/>则实际运动距离与理论运动距离的差表示为:
其次,将步骤S4-5中得出的机器人末端坐标系下位置误差量与所有几何参数误差的关系带入距离误差的表达式中,将距离误差分解为空间坐标系中沿XYZ方向的分量,建立如下机器人距离误差与连杆几何参数误差的辨识方程:
其中,Δl为上述轨迹距离误差,(F(2)-F(1))3×30为起始与终点两点之间误差辨识矩阵的差,ξ(i)30×1为待辨识的机器人连杆几何参数误差。由于基于M-DH模型的机器人误差参数数量为30个,所以需要测量的距离误差至少要30组空间点位。
最后,将机器人上位机数据域双目视觉图像处理得出的数据整合保存入MATLAB中,通过最小二乘法参数辨识原理建立参数辨识程序。为实现机器人空间运动误差补偿的通用性,从能够描述机器人结构参数的D-H模型入手,建立如下表的机器人D-H参数表,基于参数辨识得到的几何参数误差补偿入D-H模型中,用修正后的D-H模型来描述实际机器人空间运动,以此实现机器人运动误差补偿。
表1为机器人D-H参数表。
表1
需要说明的是,上述对方法实施例的解释说明也适用于类似实施例的装置,此处不再赘述。
综上,本实施例提出的一种基于双目视觉测量的工业机器人误差标定方法,首先确定机器人的几何误差模型;其次,根据机器人的工作范围选定合适双目相机进行末端位置测量;然后,对获得的图像与双目相机系统数据进行处理;最后基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何模型中实现运动学标定效果,进一步提高机器人的定位精度,同时基于IO信号可编程控制的双目视觉图像采集模块使得整个误差标定流程自动化,提升机器人误差标定的效率,较传统方法更加经济且便于操作。
实施例的作用与效果
根据本实施例所涉及的基于双目视觉测量的机器人误差标定方法,标定步骤为:步骤1,搭建并调试基于双目视觉测量的机器人误差标定平台,并推导机器人运动学模型和建立机器人误差补偿模型;步骤2,基于机器人运动学模型和机器人误差补偿模型,建立机器人距离误差模型;步骤3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到双目相机系统数据;步骤4,对双目相机系统数据进行处理,进行双目视觉图像校正与匹配处理,得到双目视觉图像,并根据双目视觉图像,得出机器人距离误差模型的距离误差项;步骤5,基于距离误差模型辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入初始几何参数误差模型中实现运动学标定效果。
因此,本实施例的基于双目视觉测量的机器人误差标定方法的测量标定工具为双目视觉相机,相对于常用的激光跟踪仪,其成本大大降低。同时,使用双目视觉作为标定工具,可通过机器人控制柜信号触发拍摄图片,不仅能够易于实现标定过程自动化,而且相机可以进一步投入到后续视觉引导中,使得整个机器人作业工序紧凑。
此外,本实施例的基于双目视觉测量的机器人误差标定方法相较于激光跟踪仪与高精度双球杆标定方式来说,降低了大量成本与场地布置时间。
此外,本实施例的基于双目视觉测量的机器人误差标定方法只需要重新标定相机,即可将机器人投入到后续机器人视觉引导相关的应用,使得机器人的运用效率提升;
此外,本实施例的基于双目视觉测量的机器人误差标定方法可应用于机器人的精密应用领域例如机器人磨抛、钻孔、焊接等等。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。

Claims (6)

1.一种基于双目视觉测量的机器人误差标定方法,其特征在于,包括如下步骤:
步骤1,搭建并调试基于双目视觉测量的机器人误差标定平台,并推导机器人运动学模型和建立机器人误差补偿模型;
步骤2,基于所述机器人运动学模型和所述机器人误差补偿模型,建立机器人距离误差模型;
步骤3,根据机器人的工作范围选定合适双目相机进行末端位置测量得到双目相机系统数据;
步骤4,对双目相机系统数据进行处理,进行双目视觉图像校正与匹配,得到双目视觉图像,并根据所述双目视觉图像,得出所述机器人距离误差模型的距离误差项;
步骤5,基于所述距离误差项辨识机器人连杆几何参数误差,将标定得到的误差参数补偿入几何参数误差模型中实现运动学标定效果。
2.根据权利要求1所述的基于双目视觉测量的机器人误差标定方法,其特征在于:
其中,步骤1中,根据机器人外形尺寸推导所述机器人运动学模型,并且引入微分运动原理建立所述机器人误差补偿模型。
3.根据权利要求1所述的基于双目视觉测量的机器人误差标定方法,其特征在于:
其中,步骤2中,采用M-DH方法推导建立所述机器人距离误差模型。
4.根据权利要求1所述的基于双目视觉测量的机器人误差标定方法,其特征在于:
其中,步骤3中,所述双目相机系统数据包括双目相机畸变、内参与世界坐标系,
根据机器人本体尺寸与工作运动范围,选择分辨率、视野、焦距合适的相机与相机镜头,通过机器人夹持高精度光学标定板在其工作范围运动,同时调整双目相机位置保证相机能够精确捕捉到标定板角点,通过算法标定所述双目相机畸变、所述内参与所述世界坐标系。
5.根据权利要求1所述的基于双目视觉测量的机器人误差标定方法,其特征在于:
其中,步骤4分为以下子步骤:
步骤4-1,在机器人控制软件上编写机器人的运动控制程序,以所述运动控制程序驱动机器人进行运动,此外,编写机器人上位机程序对所述双目相机系统数据进行处理;
步骤4-2,启动机器人并执行所述运动控制程序,使末端执行器按圆周运动,设定一初始点为圆心,令其为之后轨迹的起始点并在相机视野范围内确定圆的半径,在圆上寻取轨迹的第二点通过所述机器人误差补偿模型计算轨迹的理论距离;
步骤4-3,通过所述机器人上位机程序与信号控制,控制相机拍摄机器人到达轨迹起始与终点处的图像,并使用相机畸变值与内参进行双目图像校正,得到双目视觉图像;
步骤4-4,以机器人末端圆形法兰为特征,提取所述双目视觉图像中的特征点并结合双目标定结果进行所述特征点在世界坐标系下的计算,得到特征点位置信息;
步骤4-5,在MATLAB中保存所述特征点位置信息并结合所述双目相机系统数据得出所述机器人距离误差模型的所述距离误差项。
6.根据权利要求1所述的基于双目视觉测量的机器人误差标定方法,其特征在于:
其中,步骤5中,从D-H模型入手,对D-H参数表中理论参数进行修正,将修正后的D-H模型用来描述实际机器人空间运动,以此实现机器人运动误差补偿,重复对模型进行修正。
CN202210132480.1A 2022-02-14 2022-02-14 一种基于双目视觉测量的机器人误差标定方法 Pending CN116619350A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210132480.1A CN116619350A (zh) 2022-02-14 2022-02-14 一种基于双目视觉测量的机器人误差标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210132480.1A CN116619350A (zh) 2022-02-14 2022-02-14 一种基于双目视觉测量的机器人误差标定方法

Publications (1)

Publication Number Publication Date
CN116619350A true CN116619350A (zh) 2023-08-22

Family

ID=87608581

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210132480.1A Pending CN116619350A (zh) 2022-02-14 2022-02-14 一种基于双目视觉测量的机器人误差标定方法

Country Status (1)

Country Link
CN (1) CN116619350A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117490571A (zh) * 2024-01-02 2024-02-02 中国石油大学(华东) 一种镜像视觉测量系统双平面镜安装误差测量方法
CN118429427A (zh) * 2024-07-04 2024-08-02 宝鸡市力华有色金属有限公司 一种金属加工钻孔高精度定位方法
CN118544360A (zh) * 2024-07-25 2024-08-27 佛山大学 基于激光补偿的机器人视觉检测方法、系统、终端及介质
CN119077754A (zh) * 2024-11-06 2024-12-06 哈尔滨思哲睿智能医疗设备股份有限公司 一种分体式机器人的标定方法、装置、设备、介质及产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107214703A (zh) * 2017-07-11 2017-09-29 江南大学 一种基于视觉辅助定位的机器人自标定方法
CN113733088A (zh) * 2021-09-07 2021-12-03 河南大学 一种基于双目视觉的机械臂运动学自标定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107214703A (zh) * 2017-07-11 2017-09-29 江南大学 一种基于视觉辅助定位的机器人自标定方法
CN113733088A (zh) * 2021-09-07 2021-12-03 河南大学 一种基于双目视觉的机械臂运动学自标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
江小辉: "基于双目视觉距离误差测量的工业机器人运动学标定方法", 计量学报, 31 October 2024 (2024-10-31), pages 1470 - 1478 *
符桂铭: "基于双目视觉和距离误差模型的工业机器人运动学参数标定方法", 机床与液压, 31 August 2021 (2021-08-31), pages 10 - 16 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117490571A (zh) * 2024-01-02 2024-02-02 中国石油大学(华东) 一种镜像视觉测量系统双平面镜安装误差测量方法
CN117490571B (zh) * 2024-01-02 2024-03-22 中国石油大学(华东) 一种镜像视觉测量系统双平面镜安装误差测量方法
CN118429427A (zh) * 2024-07-04 2024-08-02 宝鸡市力华有色金属有限公司 一种金属加工钻孔高精度定位方法
CN118429427B (zh) * 2024-07-04 2024-09-27 宝鸡市力华有色金属有限公司 一种金属加工钻孔高精度定位方法
CN118544360A (zh) * 2024-07-25 2024-08-27 佛山大学 基于激光补偿的机器人视觉检测方法、系统、终端及介质
CN119077754A (zh) * 2024-11-06 2024-12-06 哈尔滨思哲睿智能医疗设备股份有限公司 一种分体式机器人的标定方法、装置、设备、介质及产品

Similar Documents

Publication Publication Date Title
CN116619350A (zh) 一种基于双目视觉测量的机器人误差标定方法
JP4021413B2 (ja) 計測装置
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
CN112070133B (zh) 一种基于测距仪和机器视觉的三维空间点定位的方法
CN106426172B (zh) 一种工业机器人工具坐标系的标定方法与系统
CN106272416B (zh) 基于力觉和视觉的机器人细长轴精密装配系统及方法
CN110238849B (zh) 机器人手眼标定方法及装置
TWI670153B (zh) 機器人及機器人系統
CN115091456B (zh) 基于矩阵求解的机器人手眼标定方法
CN112894823B (zh) 一种基于视觉伺服的机器人高精度装配方法
CN112833792B (zh) 一种用于六自由度机械臂的精度标定和验证方法
CN110666798A (zh) 一种基于透视变换模型的机器人视觉标定方法
CN110136204B (zh) 基于双侧远心镜头相机机床位置标定的音膜球顶装配系统
WO1993005479A1 (en) Robot end-effector terminal control frame (tcf) calibration method and device
Hu et al. Automatic calibration of hand–eye–workspace and camera using hand-mounted line laser
CN112658643A (zh) 接插件装配方法
CN112361958A (zh) 一种线激光与机械臂标定方法
CN114800574A (zh) 一种基于双三维相机的机器人自动化焊接系统及方法
CN111482964A (zh) 一种新的机器人手眼标定方法
CN114643578A (zh) 一种提高机器人视觉引导精度的标定装置及方法
JP2682763B2 (ja) ロボット機体の作動誤差の自動測定方法
CN116061196B (zh) 一种多轴运动平台运动学参数标定方法和系统
CN116061162B (zh) 一种避免奇异性的手眼标定数据采集与处理方法
King et al. Vision guided robots for automated assembly

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination