[go: up one dir, main page]

CN115519536A - 用于3d眼手协调的误差校正和补偿的系统和方法 - Google Patents

用于3d眼手协调的误差校正和补偿的系统和方法 Download PDF

Info

Publication number
CN115519536A
CN115519536A CN202210638283.7A CN202210638283A CN115519536A CN 115519536 A CN115519536 A CN 115519536A CN 202210638283 A CN202210638283 A CN 202210638283A CN 115519536 A CN115519536 A CN 115519536A
Authority
CN
China
Prior art keywords
pose
controller
camera
robotic
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210638283.7A
Other languages
English (en)
Inventor
萨布里什·库杜瓦·西夫纳特
徐征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eboz Co ltd
Original Assignee
Eboz Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/751,228 external-priority patent/US12030184B2/en
Priority claimed from US17/751,348 external-priority patent/US12194643B2/en
Application filed by Eboz Co ltd filed Critical Eboz Co ltd
Publication of CN115519536A publication Critical patent/CN115519536A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39024Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39041Calibrate only for end position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39044Estimate error model from error at different attitudes and points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

本公开涉及用于3D眼手协调的误差校正和补偿的系统和方法。一个实施例可以提供机器人系统。该系统可以包括机器视觉模块、包括末端致动器的机器人臂、被配置为控制机器人臂的移动的机器人控制器,以及被配置为通过确定与末端致动器的相机指示的姿态对应的控制器期望的姿态,使得当机器人控制器基于控制器期望的姿态控制机器人臂的移动时,末端致动器实现如由机器视觉模块观察到的相机指示的姿态来补偿机器人臂的姿态误差。误差补偿模块可以包括机器学习模型,该机器学习模型被配置为输出使相机指示的姿态与控制器期望的姿态关联的误差矩阵。

Description

用于3D眼手协调的误差校正和补偿的系统和方法
相关申请
本申请要求于2021年6月9日提交的标题为“SYSTEM AND METHOD FOR CORRECTINGAND COMPENSATING ERRORS OF 3D EYE-TO-HAND COORDINATION”、代理人案卷号为EBOT21-1001PSP的美国临时专利申请No.63/208,816以及于2021年6月11日提交的标题为“SYSTEMAND METHOD FOR IMPROVING ACCURACY OF 3D EYE-TO-HAND COORDINATION OF A ROBOTICSYSTEM”、代理人案卷号为EBOT21-1002PSP的美国临时专利申请No.63/209,933的权益,它们的公开内容通过引用整体并入本文用于所有目的。
技术领域
本公开一般而言涉及用于机器人应用的计算机视觉系统。特别地,本发明涉及一种通过训练神经网络导出误差矩阵来对机器人系统的3D眼手协调进行误差校正和补偿的系统和方法。
背景技术
机器人已在现代工业工厂中广泛采用和开发,从而代表了生产流程中特别重要的元素。对更高灵活性和快速可重构性的要求推动了机器人技术的进步。工业机器人的位置准确度和可重复性是实现灵活制造任务自动化所需的基本属性。机器人的位置准确度和可重复性在机器人工作空间内可能会有很大差异,并且引入了视觉引导机器人系统来提高机器人的灵活性和准确度。已经做了大量工作来提高机器视觉系统在机器人末端致动器方面的准确度,即所谓的眼手协调。实现高度准确的眼手协调是一项艰巨的任务,特别是在三维(3D)空间中。来自机器人臂和末端致动器的定位/移动误差、3D视觉的测量误差以及校准目标中包含的误差都会导致整体系统误差,从而限制机器人系统的操作准确度。对于6轴机器人而言,要在其整个工作空间中实现亚毫米级准确度可能具有挑战性。
发明内容
一个实施例可以提供一种机器人系统。该系统可以包括机器视觉模块、包括末端致动器的机器人臂、被配置为控制机器人臂的移动的机器人控制器,以及误差补偿模块,该误差补偿模块被配置为通过确定与末端致动器的相机指示的姿态对应的控制器期望的姿态,使得当机器人控制器基于控制器期望的姿态控制机器人臂的移动时,末端致动器实现如由机器视觉模块观察到的相机指示的姿态来补偿机器人臂的姿态误差。误差补偿模块可以包括机器学习模型,该机器学习模型被配置为输出使相机指示的姿态与控制器期望的姿态关联的误差矩阵。
在该实施例的变体中,机器学习模型可以包括神经网络。
在还有的变体中,神经网络可以包括嵌入层和处理层,并且嵌入层和处理层中的每一层可以包括多层感知器。
在还有的变体中,嵌入层可以被配置为嵌入姿态的单独的平移分量和旋转分量。
在还有的变体中,嵌入层可以使用整流线性单元(ReLU)作为激活函数,并且处理层可以使用泄漏(leaky)ReLU作为激活函数。
在还有的变体中,该系统还可以包括模型训练模块,该模型训练模块被配置为通过收集训练样本来训练神经网络。在训练神经网络时,模型训练模块被配置为:使机器人控制器生成控制器期望的姿态样本;基于控制器期望的姿态样本控制机器人臂的移动;使用机器视觉模块确定末端致动器的实际姿态;以及基于控制器期望的姿态样本和实际姿态计算误差矩阵。
在还有的变体中,模型训练模块可以被配置为训练神经网络,直到机器学习模型产生的误差矩阵达到预定的准确度水平。
在本实施例的变体中,该系统还可以包括坐标变换模块,该坐标变换模块被配置为将由机器视觉模块确定的姿态从以相机为中心的坐标系变换到以机器人为中心的坐标系。
在还有的变体中,坐标变换模块还可以被配置为基于校准目标的预定数量的测量姿态来确定变换矩阵。
在还有的变体中,坐标变换模块还可以被配置为使由末端致动器保持的部件的姿态与末端致动器的对应姿态关联。
一个实施例可以提供一种计算机实现的方法。该方法可以包括由机器视觉模块确定用于完成组装任务的机器人臂的末端致动器的相机指示的姿态;由机器人控制器确定与末端致动器的相机指示的姿态对应的控制器期望的姿态,这包括应用机器学习模型来获得使相机指示的姿态与控制器期望的姿态关联的误差矩阵;以及基于控制器期望的姿态控制机器人臂的移动,从而促进末端致动器实现相机指示的姿态以便完成组装任务。
一个实施例可以提供一种计算机实现的方法。该方法可以包括使用神经网络对与机器人臂的末端致动器相关联的姿态误差进行建模;使用多个训练样本来训练神经网络,相应的训练样本包括末端致动器的相机指示的姿态和使末端致动器的相机指示的姿态与控制器期望的姿态关联的对应误差矩阵;以及应用经训练的神经网络来补偿机器人臂操作期间的姿态误差。
附图说明
图1图示了根据一个实施例的示例性机器人系统。
图2图示了根据一个实施例的示例性姿态误差检测神经网络。
图3呈现了流程图,该流程图图示了根据一个实施例的用于校准机器人系统和获得变换矩阵的示例性处理。
图4呈现了流程图,该流程图图示了根据一个实施例的用于训练姿态误差检测神经网络的示例性处理。
图5A呈现了流程图,该流程图图示了根据一个实施例的机器人系统的示例性操作处理。
图5B图示了根据一个实施例的柔性电缆被机器人臂的末端致动器拾取的场景。
图6图示了根据一个实施例的示例性机器人系统的框图。
图7图示了根据一个实施例的促进机器人系统中的误差检测和补偿的示例性计算机系统。
在各图中,相同的附图标记指代相同的图元素。
具体实施方式
呈现以下描述以使本领域的任何技术人员能够制作和使用实施例,并且在特定应用及其要求的上下文中提供以下描述。对于本领域技术人员来说,对所公开的实施例的各种修改将是显而易见的,并且在不脱离本公开的精神和范围的情况下,本文定义的一般原理可以应用于其它实施例和应用。因此,本发明不限于所示的实施例,而是要符合与本文公开的原理和特征一致的最宽范围。
概述
本文描述的实施例解决了校正机器人系统的姿态误差的技术问题。更具体而言,可以训练机器学习模型(例如,神经网络)来学习误差矩阵,该误差矩阵表征机器人臂在机器人臂的工作空间内的每个位置处的姿态误差。训练机器学习模型可以包括监督训练处理。在训练期间,机器人臂的抓爪(gripper)可以移动并放置成预定的姿态,并且可以使用3D机器视觉系统测量抓爪的实际姿态。可以基于预定姿态和测量姿态之间的差异导出误差矩阵。一旦经过充分训练,机器学习模型就可以推断出与工作空间内的任何姿态对应的误差矩阵。在操作期间,可以基于推断出的误差矩阵对抓爪可能的姿态误差进行实时补偿。
误差矩阵
图1图示了根据一个实施例的示例性机器人系统。机器人系统100可以包括机器人臂102和3D机器视觉模块104。在一些实施例中,机器人臂102可以包括基部106、多个关节(例如,关节108和110)和抓爪112。多个关节的组合可以使机器人臂102能够具有广泛的移动范围并具有六个自由度(6DoF)。图1示出了机器人控制器用于控制机器人臂102的姿态的笛卡尔坐标系(例如,X-Y-Z)。该坐标系被称为机器人基础坐标系。在图1中所示的示例中,机器人基础坐标系的原点位于机器人基部106处,因此该坐标系也被称为以机器人为中心的坐标系。
图1还示出了3D机器视觉模块104(其可以包括多个相机)被配置为捕获机器人臂102的图像,包括由抓爪112保持的校准目标114的图像。校准目标114通常包括预定义的图案,诸如目标114的放大视图中所示的点阵列。捕获校准目标114的图像允许3D机器视觉模块104确定抓爪112的确切地点。图1还示出了由3D机器视觉系统104用来跟踪机器人臂102的姿态的笛卡尔坐标系。该坐标系被称为相机坐标系或以相机为中心的坐标系。在图1中所示的示例中,相机坐标系的原点位于其中一个相机处。
机器人眼手协调是指将坐标从相机坐标系变换到机器人基础坐标系,使得可以使用机器视觉来引导机器人臂的移动。坐标系之间的变换可以被表达为:
Figure BDA0003681372710000051
其中bHc是变换矩阵,
Figure BDA0003681372710000052
是机器人基础空间中的向量(即,它使用机器人基础坐标系中的坐标表示),
Figure BDA0003681372710000053
是相机空间中的向量(即,它使用相机坐标系中的坐标表示)。方程(1)可以通过使用其X、Y和Z分量表达每个向量来展开,以获得:
Figure BDA0003681372710000061
其中Xc,Yc,Zc是相机空间中的坐标;Xr,Yr,Zr是机器人基础空间中的坐标;Rij是旋转系数,i=1,2,3并且j=1,2,3;以及Tx,Ty,Tz是平移系数。
可以通过执行眼手校准处理来获得变换矩阵。在校准处理期间,用户可以安全地安装机器人臂和3D机器视觉系统的相机,然后将校准目标(例如,图1中所示的目标114)附接到机器人臂的末端致动器g。机器人臂可以将末端致动器g移动到相机视野(FOV)内的多个计划的姿态。机器人控制器将末端致动器g相对于机器人基部(即,相对于机器人基础坐标系的原点)的姿态记录为bHg,并且3D机器视觉系统将校准目标相对于相机(即,相对于相机坐标系的原点)的姿态记录为cHt。机器人基础空间和相机空间中的姿态满足以下方程:
g(i)Hb bHc cHt(i)g(j)Hb bHc cHt(j), (3)
其中i和j对应于姿态,g(i)Hbg(j)Hb是机器人基部相对于末端致动器g的姿态(其中g(i)Hb=[bHg(i)]-1并且g(j)Hb=[bHg(j)]-1cHt(i)cHt(j)是校准目标相对于相机空间中原点的姿态,并且bHc是相对于机器人基础空间的原点的相机姿态,其实际上是从相机空间到机器人基础空间的变换矩阵。换句话说,知道bHc,就可以将目标的相机观察姿态转换成末端致动器g的机器人控制器控制的姿态。可以重新排列方程(3)以获得:
Figure BDA0003681372710000062
已经开发了各种数值方法来求解方程(4),以便导出变换矩阵(bHc)。已经证明,求解方程(4)至少需要三个姿态(或两对姿态)。线性最小二乘技术或奇异向量分解(SVD)可以用于导出变换矩阵。通过最小化欧几里得群上的距离度量,李(Lie)理论也可以用来推导变换矩阵。更具体而言,可以引入最小二乘拟合来使用李群的规范坐标获得变换矩阵的解。附加方法可以包括使用四元数和非线性最小化来提高解决方案的鲁棒性,使用克罗内克(Kronecker)积和向量化来提高小旋转角度情况下的鲁棒性,以及使用SVD实现双四元数和旋转及平移的同时解来提高变换矩阵的准确度。
虽然上述方法已被证明可以提高变换矩阵的准确度,但由于运动学的非线性和数值计算的固有性质,仍然可能存在误差。此外,来自机器人控制器和相机的输入数据也可能包含误差,这可能导致变换矩阵中不可避免的误差。例如,在当前的机器人系统中,旋转系数△Rij的误差在10-3以上。变换矩阵中的误差会导致机器人的定位/姿态误差。
为了提高定位/姿态准确度,期望具有实时校正变换矩阵中的误差的能力。已经尝试了多种方法来校正定位和姿态误差,包括基于机器学习的方法。例如,一种方法训练神经网络以获得眼手协调来代替变换矩阵,并且另一种类似的方法将神经网络应用于眼手协调来代替变换矩阵,以及应用于眼关节协调而不是逆移动学。但是,这些方法仍可能导致数毫米范围内的定位准确度。另一种方法是构建特殊的神经网络来预测定位误差并补偿沿着规定的末端致动器路径的误差。虽然这种方法可以在补偿后将定位误差降低到不到一毫升,但它并没有解决与姿态误差相关联的问题。一般而言,现有的机器人系统无法满足制造消费者电子产品(例如,智能电话、平板计算机、可穿戴设备等)的准确度和可重复性要求。组装消费者电子产品通常涉及在有限空间中处理许多小型(例如,毫米或更小范围中)的部件,并且需要机器人定位/姿态准确度达到亚毫米范围甚至更高(有时低至10-3mm)。
为了实时减少工作机器人在其整个工作空间中的定位/姿态误差,可以引入误差矩阵的概念。误差矩阵可以指示机器人末端致动器的控制器期望姿态(即,由机器人控制器编程的姿态)与末端致动器的实际姿态(其可以由相机捕获并使用变换矩阵从相机空间转换到机器人基础空间)之间的差异,并且可以随着工作空间中末端致动器位置的变化而改变。在一些实施例中,误差矩阵可以被表达为从指示的姿态到机器人基础空间中期望的姿态的变换:
Figure BDA0003681372710000081
其中Htd是机器人基础空间中工具中心位置(TCP)的控制器期望姿态(或简称为期望姿态),Hti是使用变换矩阵从相机空间转换到机器人基础空间的实际姿态,并且被称为相机指示姿态(或简称为指示姿态),并且
Figure BDA0003681372710000082
是误差矩阵,它是位置向量
Figure BDA0003681372710000083
的函数。在一个示例中,机器人控制器可以发送命令以将末端致动器移动到期望的TCP姿态Htd。但是,由于机器人系统中的误差(例如,关节和末端致动器的驱动误差),当控制器指示机器人臂实现这种姿态时,所得姿态通常与Htd不同。由3D机器视觉模块测量并从相机空间变换到机器人基础空间的末端致动器的实际姿态可以是指示姿态Hti。因此,给定指示姿态(即,相机已知的姿态),如果误差矩阵
Figure BDA0003681372710000084
已知,那么可以计算控制器可以使用,以指示机器人臂将末端致动器移动到指示姿态,从而实现眼(相机)手(机器人控制器)协调的期望姿态。
实时误差检测和补偿
虽然可以推导出
Figure BDA0003681372710000085
但是给定机器人可以具有六个自由度(6DoF)(意味着TCP姿态可以包括至少六个分量)并且误差矩阵是位置的非线性函数,这种任务在计算上会是密集的。TCP姿态可以被表达为[x,y,z,rx,ry,rz],其中[x,y,z]是平移分量,并且[rx,ry,rz]是姿态的旋转(例如,滚动、俯仰和偏航)分量。此外,误差的非线性性质也意味着误差矩阵可能具有无限的维度。为了减少推导误差矩阵
Figure BDA0003681372710000086
所需的计算量,在本申请的一些实施例中,可以使用机器学习技术,其中可以使用经训练的机器学习模型(例如,神经网络)来学习误差矩阵。当学习到误差矩阵时,系统可以计算指示的TCP姿态以实现期望的TCP姿态。然后机器人控制器可以向机器人臂发送适当的姿态命令。
在一些实施例中,误差检测机器学习模型可以包括神经网络(例如,深度学习神经网络)。模型的输入可以是指示姿态Hti,并且模型的输出可以是误差矩阵
Figure BDA0003681372710000091
换句话说,给定指示姿态,模型可以预测误差,然后可以使用方程(5)计算期望姿态。控制器可以使用期望姿态来控制机器人的移动。神经网络可以被构建为包括嵌入层(其可以用于将离散变量(例如,TCP姿态)映射为连续向量)和处理层。在一些实施例中,为了降低嵌入复杂性并提高效率,平移分量(即,[x,y,z])并且旋转分量(即,[rx,ry,rz])可以被单独嵌入(例如,使用两个平行的嵌入层)。
图2图示了根据一个实施例的示例性姿态误差检测神经网络。神经网络200可以包括嵌入层202和204、级联模块206和处理层208。嵌入层202可以用于嵌入姿态的旋转分量,并且嵌入层204可以用于嵌入姿态的平移分量。注意的是,取决于实际应用,输入到神经网络200的姿态可以是期望姿态或指示姿态。例如,如果应用要基于指示姿态计算期望姿态,那么使用指示姿态作为输入。另一方面,如果应用要为给定的期望姿态确定指示姿态,那么期望姿态将用作输入。在以上两种情况中,误差矩阵的定义可以不同。但是,误差矩阵指示期望姿态和指示姿态之间的变换。级联模块206可以用于级联平移分量和旋转分量的嵌入以获得姿态的嵌入。在一些实施例中,每个嵌入层(层202或204)可以使用多层感知器(MLP)来实现,该多层感知器可以包括多个内部层(例如,输入层、隐藏层和输出层)。在进一步的实施例中,每个嵌入层可以使用整流线性单元(ReLU)作为每个节点处的激活函数。除了ReLU之外,嵌入层也可以使用其它类型的激活函数,诸如非线性激活函数。
可以将级联的嵌入发送到处理层208,该处理层208学习姿态和误差矩阵之间的映射。在一些实施例中,处理层208也可以使用MLP来实现,并且在处理层208的每个节点处,泄漏ReLU可以用作激活函数。除了泄露ReLU之外,处理层208也可以使用其它类型的激活函数,诸如非线性激活函数。
在训练姿态误差检测神经网络之前,需要对系统进行校准,并且需要导出变换矩阵。即使导出的变换矩阵很可能包含误差,这些误差也考虑神经网络学习的误差矩阵并且由其来校正。图3呈现了流程图,该流程图图示了根据一个实施例的用于校准机器人系统和获得变换矩阵的示例性处理。在操作期间,安装3D机器视觉系统(操作302)。3D机器视觉系统可以包括多个相机和结构化光投影仪。3D机器视觉系统可以安装并固定在被校准的机器人臂的末端致动器上方,其中相机的镜头和结构化光投影仪面向机器人臂的末端致动器。机器人操作员可以安装和固定6轴机器人臂,使得机器人臂的末端致动器可以自由移动到3D机器视觉系统的FOV和景深(DOV)内的所有可能姿态(操作304)。
出于校准目的,校准目标(例如,图1中所示的目标114)可以附接到末端致动器(操作306)。校准目标上的预定图案可以促进3D机器视觉系统确定末端致动器的姿态(其不仅包括地点,而且还包括倾斜角度)。校准目标的表面积小于3D机器视觉系统的FOV。
机器人臂的控制器可以在机器人基础空间中生成多个预定姿态(操作308),并顺序地将末端致动器移动到这些姿态(操作310)。在每个姿态下,3D机器视觉系统可以捕捉校准目标的图像并确定校准目标在相机空间中的姿态(操作312)。然后可以基于机器人基础空间中生成的姿态和相机空间中机器视觉确定的姿态来导出变换矩阵(操作314)。可以使用各种技术来确定变换矩阵。例如,方程(4)可以基于机器人基础空间和相机空间中的预定姿态使用各种技术来求解,包括但不限于:线性最小二乘或SVD技术、基于李理论的技术、基于四元数和非线性最小化或对偶四元数的技术、基于克罗内克(Kronecker)积和向量化的技术等。
图4呈现了流程图,该流程图图示了根据一个实施例的用于训练姿态误差检测神经网络的示例性处理。在一些实施例中,神经网络的训练可以包括监督训练处理。在训练期间,机器人操作员可以用抓爪替换校准目标并校准抓爪的工具中心点(TCP)(操作402)。机器人臂的控制器可以在机器人臂的工作空间内或在3D机器视觉系统的FOV和DOV内生成期望姿态(操作404)。期望姿态可以随机或遵循预定路径生成。在一些实施例中,可以将工作空间划分为具有预定数量的单元的3D网格,并且控制器可以为每个单元生成一个指示姿态。这样可以确保训练能够覆盖足够部分的工作空间。然后机器人控制器可以基于期望姿态移动抓爪(操作406)。例如,机器人控制器可以基于期望姿态生成运动命令,并将运动命令发送到机器人臂上的各种电机,以便调整抓爪的TCP姿态。在替代实施例中,末端致动器可以移动到随机姿态,而不是让控制器生成随机姿态,并且可以通过读取机器人臂的编码器的值来确定抓爪TCP的期望姿态。
在抓爪的移动停止之后,3D机器视觉模块可以测量抓爪TCP的姿态(操作408)。由于3D机器视觉的高准确度,测量的姿态可以被认为是抓爪的实际姿态。换句话说,来自3D机器视觉模块的任何测量误差都可以被认为是微不足道的并且可以忽略。注意的是,3D机器视觉模块的测量输出可以在相机空间中。然后可以使用先前确定的变换矩阵将相机空间中的测量姿态转换成机器人基础空间中的测量姿态以获得指示姿态(操作410)。基于在机器人基础空间中的测量姿态以及期望姿态(其也在机器人基础空间中),可以计算当前地点
Figure BDA0003681372710000111
的误差矩阵
Figure BDA0003681372710000112
(操作412)。例如,误差矩阵可以被计算为
Figure BDA0003681372710000113
其中Hti是指示姿态并且Htd是期望姿态。系统可以记录Hti
Figure BDA0003681372710000114
作为训练样本(操作414)并确定是否已经收集到预定数量的训练样本(操作416)。如果是,那么收集到的样本,包括在不同地点的
Figure BDA0003681372710000115
对可以用于训练姿态误差检测神经网络(操作418);如果否,那么控制器可以生成附加姿态(操作404)。在一个实施例中,系统也可以在单个地点收集多个姿态样本。
在一些实施例中,神经网络的训练可以在足够部分的工作空间(例如,50%)已经被覆盖时停止。例如,如果工作空间被划分为1000个单元的3D网格,并且已经随机选择超过50%的单元进行训练(即,机器人臂已移动到这些单元并收集了训练样本),那么可以停止训练。在替代实施例中,神经网络的训练可以在神经网络可以以高于预定阈值水平的准确度预测/检测误差之后停止。在这种情况下,在操作418的初始训练之后,控制器可以生成测试期望姿态(操作420)并根据测试期望姿态移动抓爪的TCP(操作422)。3D机器视觉模块测量相机空间中抓爪TCP的姿态(操作424)。可以使用变换矩阵将相机空间中的测量姿态转换到机器人基础空间以获得测试指示姿态(操作426)。神经网络可以预测/推断与测试指示姿态对应的误差矩阵(操作428)。此外,系统可以使用测试期望姿态和测试指示姿态来计算误差矩阵(操作430)。可以比较预测的误差矩阵和计算出的误差矩阵以确定差值是否小于预定阈值(操作432)。如果是,那么训练完成。如果不是,那么通过返回到操作404来收集附加的训练样本。阈值可以取决于机器人操作所需的定位准确度而改变。
一旦姿态误差检测神经网络被充分训练,机器人系统就可以具有实时误差校正能力进行操作。例如,对于机器人臂的工作空间中的任何指示姿态,系统可以使用神经网络推断/预测对应的误差矩阵,然后通过将推断的误差矩阵与指示姿态相乘来确定抓爪的期望姿态。在一个示例中,可以通过使用3D机器视觉模块测量待组装部件在工作空间中的姿态来获得抓爪的指示姿态。因此,通过基于期望姿态Htd生成命令,机器人控制器可以将抓爪移动到Hti以与部件对准,从而促进抓爪抓住部件。
图5A呈现了流程图,该流程图图示了根据一个实施例的机器人系统的示例性操作处理。机器人系统可以包括机器人臂和3D机器视觉系统。在操作期间,操作员可以在机器人臂上安装抓爪并校准其TCP(操作502)。机器人控制器可以在3D机器视觉系统的引导下将抓爪移动到工作空间中待组装部件附近(操作504)。在这个阶段,3D机器视觉系统可以生成低分辨率图像(例如,使用具有大FOC的相机)来引导抓爪的移动。
3D机器视觉系统可以确定部件在相机空间中的姿态(操作506),然后使用变换矩阵将部件姿态从相机空间转换到机器人基础空间(操作508)。在这个示例中,假设抓爪的TCP姿态应与部件对准,以促进抓爪拾取部件。因此,转换后的部件姿态可以是抓爪TCP的指示姿态。姿态误差检测和补偿系统然后可以使用神经网络来推断指示姿态的误差矩阵(操作510)。基于指示姿态和误差矩阵,姿态误差检测和补偿系统可以确定抓爪的期望姿态,使得抓爪能够成功地抓住期望姿态的部件(操作512)。例如,可以通过将指示姿态与预测的误差矩阵相乘来计算期望姿态。机器人控制器可以基于期望姿态生成运动命令并将运动命令发送到机器人臂(操作514)。抓爪相应地移动以抓住部件(操作516)。
当抓爪牢固地抓住部件时,机器人控制器可以在3D机器视觉系统(518)的引导下将带有部件的抓爪移动到部件的安装地点附近。如在操作504中,在操作518中,3D机器视觉系统可以以低分辨率操作。3D机器视觉系统可以确定安装地点在相机空间中的姿态(操作520)。例如,如果抓住的部件要与另一个部件配合,那么3D机器视觉系统可以确定该另一个部件的姿态。姿态误差检测和补偿系统可以类似地确定安装地点的期望姿态(操作522)。例如,3D机器视觉系统可以测量安装地点在相机空间中的姿态,并且姿态误差检测和补偿系统可以将相机空间中的测量姿态转换成机器人基础空间中的测量姿态,然后应用误差矩阵来获得安装地点的期望姿态。
提供了期望姿态,机器人控制器可以生成运动命令(操作524)并将运动命令发送到机器人臂,以便移动抓爪与安装地点对准(操作526)。然后抓爪可以在安装地点安装和固定部件(操作528)。
系统可以准确地推断/预测抓爪在工作空间内的任何可能姿态的误差矩阵,从而显著提高机器人的操作准确度并减少调整机器人移动所需的时间量。此外,姿态误差检测神经网络可以通过收集附加的样本来不断训练,以提高其准确度或重新校准。例如,在每次机器人移动之后,3D机器视觉系统可以测量并记录抓爪的实际姿态,并且这样的测量可以用来生成附加的训练样本。在一些实施例中,可以周期性地或根据需要执行训练处理(例如,图4中所示的处理)。例如,如果在机器人系统的正常操作期间检测到超过预定阈值的姿态误差,那么可以停止操作,并且可以重新训练神经网络。
在某些情况下,机器人臂需要拾取和安装柔性部件。例如,机器人臂可以拾取RF电缆、将电缆连接器与插座对准,以及将电缆连接器插入到插座中。由于电缆是柔性的,因此每次机器人臂的末端致动器/抓爪抓住电缆时,末端致动器和电缆的相对位置会改变。此外,电缆的曲率可能在半空中变化,从而难以将电缆连接器与插座对准,即使进行了误差补偿也是这样。仅仅控制末端致动器的姿态可能不足以完成安装或连接电缆的任务。
图5B图示了根据一个实施例的柔性电缆被机器人臂的末端致动器拾取的场景。在图5B中,机器人臂530的末端致动器532拾取柔性电缆534。末端致动器532的目标是将电缆534移动到期望地点,使得电缆534末端的连接器536可以与对应的连接器配合。由于电缆534的柔性性质,简单地控制末端致动器532的姿态可能无法保证这种电缆连接任务的成功。但是,可以将连接器536的姿态与末端致动器532的姿态关联,并且确定连接器536的期望姿态可以促进确定末端致动器532的期望姿态。
在一些实施例中,系统可以使用附加的变换矩阵来将TCP从末端致动器的尖端延伸到连接器的中心,使得控制器期望的姿态可以参考RF连接器的中心。这个附加的变换矩阵可以被称为部件变换矩阵Tc,它将部件的姿态变换/关联到保持该部件的末端致动器的姿态(两个姿态都已转换到机器人基础空间)。更具体而言,给定末端致动器He的姿态,部件姿态Hc可以使用以下方程来计算:
Hc=Tc×He (6)
可以实时确定部件变换矩阵。在机器人臂的操作期间,末端致动器和部件(即,图5中所示的末端致动器532和连接器536)的姿态可以使用3D机器视觉系统来确定,并且部件变换矩阵然后可以使用以下方程来计算:
Tc=Hc×He -1 (7)
通过将TCP扩展到部件,控制器期望的姿态可以被计算为:
Figure BDA0003681372710000151
其中Htd是末端致动器的控制器期望的姿态,并且Hci是部件的相机指示的姿态。换句话说,一旦相机确定了部件的目标姿态,系统就可以计算控制器期望的姿态,该姿态可以用于生成用于移动末端致动器,使得可以将部件移动到其目标姿态运动命令。在一些实施例中,为了确保准确度,系统可以重复(例如,以短间隔)测量和计算部件变换矩阵,使得即使部件也可以相对于末端致动器移动,这种相对姿态的变化可以被捕获。例如,系统可以每300ms计算Tc。最近的Tc将用于计算控制器期望的姿态。
图6图示了根据一个实施例的示例性机器人系统的框图。机器人系统600可以包括3D机器视觉模块602、六轴机器人臂604、机器人控制模块606、坐标变换模块608、姿态误差检测机器学习模型610、模型训练模块612和误差补偿模块614。
3D机器视觉模块602可以使用3D机器视觉技术(例如,在结构化光照明下捕获图像、构建3D点云等)来确定对象(包括两个待组装部件和抓爪)在相机的FOV和DOV内的3D姿态。在一些实施例中,3D机器视觉模块602可以包括具有不同FOV和DOV的多个相机以及一个或多个结构化光投影仪。
六轴机器人臂604可以具有多个关节和6DoF。六轴机器人臂604的末端致动器可以在3D机器视觉模块602的相机的FOV和DOV中自由移动。在一些实施例中,机器人臂604可以包括多个区段,其中相邻区段经由旋转关节彼此耦合。每个旋转关节可以包括能够在特定平面内连续旋转的伺服电机。多个旋转关节的组合可以使机器人臂604能够以6DoF具有广泛的移动范围。
机器人控制模块606控制机器人臂604的移动。机器人控制模块606可以生成运动计划,该计划可以包括一系列运动命令,这些命令可以发送到机器人臂604中的每个单独的电机,以促进抓爪的移动来完成特定的组装任务,诸如拾取部件、将部件移动到期望的安装地点,以及安装部件。由于系统中包含的误差(例如,每个电机处的编码器误差),当机器人控制模块606指示抓爪移动到一个姿态时,抓爪可能最终移动到稍微不同的姿态。这样的定位误差可以得到补偿。
坐标变换模块608可以负责将抓爪的姿态从相机空间转换到机器人基础空间。坐标变换模块608可以维护变换矩阵并使用变换矩阵将由3D机器视觉模块602在相机空间中观察到的姿态变换或关联到机器人基础空间中的姿态。可以通过测量校准目标的多个姿态的校准处理来获得变换矩阵。变换矩阵中包含的误差可以通过误差矩阵来考虑和补偿。在还有的实施例中,坐标变换模块608还可以维护部件变换矩阵,该矩阵可以使由末端致动器保持的部件(例如,柔性电缆的末端)的姿态与末端致动器的姿态关联。
姿态误差检测机器学习模型610应用机器学习技术来学习机器人臂604的工作空间中的所有姿态的误差矩阵。在一些实施例中,姿态误差检测机器学习模型610可以包括神经网络,该神经网络可以将由3D机器视觉模块602指示/看到的姿态作为输入,并输出可以用于计算机器人控制器的期望姿态以实现相机看到/指示的姿态的误差矩阵。神经网络可以包括嵌入层和处理层,这两个层都使用MLP实现。姿态的旋转分量和平移分量的嵌入可以单独完成,并且嵌入结果在被发送到处理层之前被级联。嵌入层中使用的激活函数包括ReLU,而泄漏ReLU用作处理层中的激活函数。模型训练模块612通过例如监督训练来训练神经网络。更具体而言,模型训练模块612通过指示机器人控制模块606生成姿态来收集训练样本,然后计算这些姿态的误差矩阵。
误差补偿模块614可以补偿姿态误差。为此,对于期望姿态,误差补偿模块614可以通过应用姿态误差检测机器学习模型610来获得对应的误差矩阵。误差补偿模块614可以通过计算控制器期望的姿态来补偿姿态误差,以实现实际的或相机看到/指示的姿态。误差补偿模块614可以将控制器期望的姿态发送到机器人控制模块606以允许它生成适当的运动命令,以便将抓爪移动到期望姿态。
图7图示了根据一个实施例的促进机器人系统中的误差检测和补偿的示例性计算机系统。计算机系统700包括处理器702、存储器704和存储设备706。此外,计算机系统700可以耦合到外围输入/输出(I/O)用户设备710,例如,显示设备712、键盘714和定点设备716。存储设备706可以存储操作系统720、误差检测和补偿系统722和数据740。
误差检测和补偿系统722可以包括指令,该指令在由计算机系统700执行时,可以使计算机系统700或处理器702执行本公开中描述的方法和/或处理。具体而言,误差检测和补偿系统722可以包括用于控制3D机器视觉模块以测量抓爪的实际姿态的指令(机器视觉控制模块724)、用于控制机器人臂的移动以便将抓爪置于特定姿态的命令(机器人控制模块726)、用于将姿态从相机空间变换到机器人基础空间的指令(坐标变换模块728)、用于训练姿态误差检测机器学习模型的指令(模型训练模块730)、用于在机器人臂操作期间执行机器学习模型以推断与姿态相关联的误差矩阵的指令(模型执行模块732),以及用于基于推断出的误差矩阵误差补偿的指令(误差补偿模块734)。数据740可以包括收集到的训练样本742。
一般而言,本发明的实施例可以提供用于实时检测和补偿机器人系统的姿态误差的系统和方法。该系统可以使用机器学习技术(例如,训练神经网络)来预测误差矩阵,该误差矩阵可以将相机看到的姿态(即,指示姿态)变换成控制器控制的姿态(即,期望姿态)。因此,为了将抓爪与相机视图中的部件对准,系统可以首先获得部件的相机看到的姿态,然后使用经训练的神经网络来预测误差矩阵。通过将相机看到的姿态与误差矩阵相乘,系统可以获得控制器控制的姿态。然后机器人控制器可以使用控制器控制的姿态将抓爪移动到期望姿态。
具体实施方式部分中描述的方法和处理可以被实施为代码和/或数据,其可以存储在如上所述的计算机可读存储介质中。当计算机系统读取并执行存储在计算机可读存储介质上的代码和/或数据时,计算机系统执行实施为数据结构和代码并存储在计算机可读存储介质内的方法和处理。
此外,上述方法和处理可以包括在硬件模块或装置中。硬件模块或装置可以包括但不限于专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)、在特定时间执行特定软件模块或一段代码的专用或共享处理器,以及现在已知或以后开发的其它可编程逻辑设备。当硬件模块或装置被激活时,它们执行其中包含的方法和处理。
仅出于说明和描述的目的而呈现本发明的实施例的前述描述。它们并非旨在穷举或将本发明限制为所公开的形式。因此,对于本领域技术人员来说,许多修改和变化将是显而易见的。此外,上述公开并非旨在限制本发明。本发明的范围由所附权利要求限定。

Claims (22)

1.一种机器人系统,所述系统包括:
机器视觉模块;
包括末端致动器的机器人臂;
机器人控制器,被配置为控制机器人臂的移动;以及
误差补偿模块,被配置为通过确定与末端致动器的相机指示的姿态对应的控制器期望的姿态,使得当机器人控制器基于控制器期望的姿态控制机器人臂的移动时,末端致动器实现如由机器视觉模块观察到的相机指示的姿态来补偿机器人臂的姿态误差;
其中误差补偿模块包括机器学习模型,所述机器学习模型被配置为输出使相机指示的姿态与控制器期望的姿态关联的误差矩阵。
2.如权利要求1所述的机器人系统,其中所述机器学习模型包括神经网络。
3.如权利要求2所述的机器人系统,其中所述神经网络包括嵌入层和处理层,并且其中所述嵌入层和所述处理层中的每一层包括多层感知器。
4.如权利要求3所述的机器人系统,其中所述嵌入层被配置为嵌入姿态的单独的平移分量和旋转分量。
5.如权利要求3所述的机器人系统,其中所述嵌入层使用整流线性单元(ReLU)作为激活函数,并且其中所述处理层使用泄漏ReLU作为激活函数。
6.如权利要求2所述的机器人系统,还包括模型训练模块,所述模型训练模块被配置为通过收集训练样本来训练神经网络,其中在训练神经网络时,所述模型训练模块被配置为:
使机器人控制器生成控制器期望的姿态样本;
基于控制器期望的姿态样本控制机器人臂的移动;
使用机器视觉模块确定末端致动器的实际姿态;以及
基于控制器期望的姿态样本和实际姿态计算误差矩阵。
7.如权利要求6所述的机器人系统,其中所述模型训练模块被配置为训练神经网络,直到由所述机器学习模型产生的误差矩阵达到预定的准确度水平。
8.如权利要求1所述的机器人系统,还包括坐标变换模块,所述坐标变换模块被配置为将由所述机器视觉模块确定的姿态从以相机为中心的坐标系变换到以机器人为中心的坐标系。
9.如权利要求8所述的机器人系统,其中所述坐标变换模块还被配置为基于校准目标的预定数量的测量姿态来确定变换矩阵。
10.如权利要求8所述的机器人系统,其中所述坐标变换模块还被配置为使由末端致动器保持的部件的姿态与末端致动器的对应姿态关联。
11.一种计算机实现的方法,所述方法包括:
由机器视觉模块确定用于完成组装任务的机器人臂的末端致动器的相机指示的姿态;
确定与末端致动器的相机指示的姿态对应的控制器期望的姿态,包括应用机器学习模型来获得使相机指示的姿态与控制器期望的姿态关联的误差矩阵;以及
由机器人控制器基于控制器期望的姿态控制机器人臂的移动,从而促进末端致动器实现相机指示的姿态,以便完成组装任务。
12.如权利要求11所述的方法,其中所述机器学习模型包括神经网络,其中所述神经网络包括嵌入层和处理层,并且其中所述嵌入层和所述处理层中的每一层包括多层感知器。
13.如权利要求12所述的方法,其中应用机器学习模型包括由所述嵌入层单独嵌入姿态的平移分量和旋转分量。
14.如权利要求12所述的方法,其中应用机器学习模型还包括:
在嵌入层处实现整流线性单元(ReLU)作为激活函数,以及
在处理层处实现泄露ReLU作为激活函数。
15.如权利要求12所述的方法,还包括通过收集训练样本来训练神经网络,其中收集相应的训练样本包括:
使机器人控制器生成控制器期望的姿态样本;
基于控制器期望的姿态样本控制机器人臂的移动;
使用机器视觉模块确定末端致动器的实际姿态;以及
基于控制器期望的姿态样本和实际姿态计算误差矩阵。
16.如权利要求11所述的方法,还包括确定用于将由机器视觉模块确定的姿态从以相机为中心的坐标系变换到以机器人为中心的坐标系的变换矩阵。
17.如权利要求11所述的方法,还包括确定用于将由末端致动器保持的部件的姿态变换到末端致动器的对应姿态的分量变换矩阵。
18.一种计算机实现的方法,所述方法包括:
使用神经网络对与机器人臂的末端致动器相关联的姿态误差进行建模;
使用多个训练样本训练神经网络,其中相应的训练样本包括末端致动器的相机指示的姿态和使末端致动器的相机指示的姿态与控制器期望的姿态关联的对应误差矩阵;以及
应用经训练的神经网络来补偿机器人臂的操作期间的姿态误差。
19.如权利要求18所述的计算机实现的方法,其中所述神经网络包括嵌入层和处理层,并且其中所述嵌入层和所述处理层中的每一层包括多层感知器。
20.如权利要求19所述的计算机实现的方法,其中对姿态误差进行建模包括由所述嵌入层单独嵌入姿态的平移分量和旋转分量。
21.如权利要求19所述的计算机实现的方法,其中对姿态误差进行建模包括:
在所述嵌入层处实现整流线性单元(ReLU)作为激活函数,以及
在所述处理层处实现泄露ReLU作为激活函数。
22.如权利要求18所述的计算机实现的方法,还包括收集训练样本,其中收集相应的训练样本包括:
使机器人控制器生成控制器期望的姿态样本;
基于控制器期望的姿态样本控制机器人臂的移动;
使用机器视觉模块确定末端致动器的实际姿态;以及
基于控制器期望的姿态样本和实际姿态计算误差矩阵。
CN202210638283.7A 2021-06-09 2022-06-07 用于3d眼手协调的误差校正和补偿的系统和方法 Pending CN115519536A (zh)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US202163208816P 2021-06-09 2021-06-09
US63/208,816 2021-06-09
US202163209933P 2021-06-11 2021-06-11
US63/209,933 2021-06-11
US17/751,348 2022-05-23
US17/751,228 US12030184B2 (en) 2021-06-09 2022-05-23 System and method for error correction and compensation for 3D eye-to-hand coordination
US17/751,228 2022-05-23
US17/751,348 US12194643B2 (en) 2021-06-09 2022-05-23 System and method for improving accuracy of 3D eye-to-hand coordination of a robotic system

Publications (1)

Publication Number Publication Date
CN115519536A true CN115519536A (zh) 2022-12-27

Family

ID=81854328

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210637151.2A Pending CN115446847A (zh) 2021-06-09 2022-06-07 用于提高机器人系统的3d眼手协调准确度的系统和方法
CN202210638283.7A Pending CN115519536A (zh) 2021-06-09 2022-06-07 用于3d眼手协调的误差校正和补偿的系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210637151.2A Pending CN115446847A (zh) 2021-06-09 2022-06-07 用于提高机器人系统的3d眼手协调准确度的系统和方法

Country Status (2)

Country Link
EP (2) EP4101604A1 (zh)
CN (2) CN115446847A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220402131A1 (en) * 2021-06-09 2022-12-22 eBots Inc. System and method for error correction and compensation for 3d eye-to-hand coordinaton

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021109336B4 (de) * 2021-04-14 2023-06-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
CN115990890B (zh) * 2023-03-23 2023-06-30 深圳广成创新技术有限公司 一种机械手的标定方法、装置、计算机设备和存储介质
CN116551690B (zh) * 2023-05-24 2024-07-09 广州民航职业技术学院 一种柔性驱动关节的力矩控制方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555347A (en) * 1992-09-21 1996-09-10 Toyoda Koki Kabushiki Kaisha Method and apparatus for controlling a robot using a neural network
CN109304710A (zh) * 2017-07-27 2019-02-05 中国商用飞机有限责任公司 基于径向基神经网络的机械臂精度标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
CN112518753A (zh) * 2020-12-04 2021-03-19 浙江理工大学 一种神经网络迭代补偿的工业机器人轨迹跟踪系统和方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US11911914B2 (en) * 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555347A (en) * 1992-09-21 1996-09-10 Toyoda Koki Kabushiki Kaisha Method and apparatus for controlling a robot using a neural network
CN109304710A (zh) * 2017-07-27 2019-02-05 中国商用飞机有限责任公司 基于径向基神经网络的机械臂精度标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
CN112518753A (zh) * 2020-12-04 2021-03-19 浙江理工大学 一种神经网络迭代补偿的工业机器人轨迹跟踪系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
STEFAN GADRINGER等: "Robot Calibration combining Kinematic Model and Neural Network for enhanced Positioning and Orientation Accuracy", IFAC PAPERSONLINE VOL.53, NO.2 (2020), vol. 53, no. 2, 11 July 2020 (2020-07-11), pages 8432, XP093012239, DOI: 10.1016/j.ifacol.2020.12.1436 *
XIAO-LIN ZHONG 等: "A New Method for Autonomous Robot Calibration", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 21 May 1995 (1995-05-21) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220402131A1 (en) * 2021-06-09 2022-12-22 eBots Inc. System and method for error correction and compensation for 3d eye-to-hand coordinaton
US12030184B2 (en) * 2021-06-09 2024-07-09 eBots Inc. System and method for error correction and compensation for 3D eye-to-hand coordination

Also Published As

Publication number Publication date
EP4116043A2 (en) 2023-01-11
CN115446847A (zh) 2022-12-09
EP4101604A1 (en) 2022-12-14
EP4116043A3 (en) 2023-02-15

Similar Documents

Publication Publication Date Title
US12030184B2 (en) System and method for error correction and compensation for 3D eye-to-hand coordination
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
CN115519536A (zh) 用于3d眼手协调的误差校正和补偿的系统和方法
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人系统
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP6430986B2 (ja) ロボットを用いた位置決め装置
CN107351084B (zh) 一种面向维修任务的空间机械臂手系统误差修正方法
US12194643B2 (en) System and method for improving accuracy of 3D eye-to-hand coordination of a robotic system
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2019014030A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
US12128571B2 (en) 3D computer-vision system with variable spatial resolution
JP2013036988A (ja) 情報処理装置及び情報処理方法
JP5450242B2 (ja) マニピュレータのキャリブレーション方法及びロボット制御システム
JP2019155556A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP2019069493A (ja) ロボットシステム
CN114494426A (zh) 用于控制机器人来在不同的方位拿起对象的装置和方法
JP5574805B2 (ja) 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム
Fontana et al. Unconventional calibration strategies for micromanipulation work-cells
Ðurović et al. Visual servoing for low-cost SCARA robots using an RGB-D camera as the only sensor
Cheng et al. Real-time robot end-effector pose estimation with deep network
US20220301209A1 (en) Device and method for training a neural network for controlling a robot
Axelrod et al. Improving hand-eye calibration for robotic grasping and manipulation
CN111823222B (zh) 单目相机多视场视觉引导装置及引导方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination