CN112536797A - 一种工业机器人的位置与姿态误差综合补偿方法 - Google Patents
一种工业机器人的位置与姿态误差综合补偿方法 Download PDFInfo
- Publication number
- CN112536797A CN112536797A CN202011385036.8A CN202011385036A CN112536797A CN 112536797 A CN112536797 A CN 112536797A CN 202011385036 A CN202011385036 A CN 202011385036A CN 112536797 A CN112536797 A CN 112536797A
- Authority
- CN
- China
- Prior art keywords
- robot
- attitude
- error
- industrial robot
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000012795 verification Methods 0.000 claims abstract description 9
- 238000013136 deep learning model Methods 0.000 claims abstract description 6
- 239000012636 effector Substances 0.000 claims description 22
- 238000003062 neural network model Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract 1
- 210000002569 neuron Anatomy 0.000 description 7
- 238000009826 distribution Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开一种工业机器人的位置与姿态误差综合补偿方法,包括构建机器人末端实际位置与姿态的双目视觉测量,采样机器人在大规模构型下的末端实际位置与姿态误差,建立机器人理论位置姿态及对应误差的训练数据集和验证数据集,通过训练深度学习模型来实现机器人目标点位置和姿态误差的综合预测与补偿,本发明不仅可以实现机器人位置与姿态误差的综合补偿,基于大规模机器人构型下的采样数据可以更好的反应机器人位置与姿态误差的分布规律;可以有效降低工业机器人的位置与姿态误差。
Description
技术领域
本发明涉及工业机器人位姿误差补偿技术领域,具体涉及一种工业机器人的位置与姿态误差综合补偿方法。
背景技术
工业机器人具有高柔性、高效率、关节灵活、开放性好、维护成本低等优势,是智能制造的重要组成单元,工业机器人的精度是影响产品质量的一个重要因素。但是由于工业机器人的制造、装配、连杆变形、齿轮间隙等引起的误差,导致工业机器人的绝对位姿精度要远低于重复位姿精度。工业机器人绝对位姿精度低,会导致产品加工质量急剧下降。特别是结合离线编程的飞机装配等高级制造领域,工业机器人误差补偿技术是一个必须要解决的难题。
专利CN104535027B公开了一种变参数误差辨识的机器人精度补偿方法,通过构建机器人在不同空间下的位姿点误差,根据机器人目标位姿点所在的空间,依据目标位姿点周围已知误差的位姿点,通过L-M算法来拟合目标位姿误差,该方法需要依据机器人参数运动学模型,受已经误差位姿点数和空间范围的影响。专利CN102607552A公开了一种基于神经网络的工业机器人的空间网格精度补偿方法,通过粒子群优化的BP神经网络来训练机器人在不同温度下的定位误差规律,并结合已知误差样本点的空间插值来实现机器人定位误差的预测与补偿,该方法的补偿精度与效果受插值样本精度与数量的影响,且神经网络只是用于考虑温度对机器人的影响。专利CN110385720A公开了一种基于深度神经网络的机器人定位误差补偿方法,构建了神经网络模型,以机器人理论位姿与对应的位置误差为训练样本,训练的神经网络模型可以预测机器人目标点的位置误差,该方法不需要构建复杂的运动误差模型,同时考虑了机器人定位姿态对定位误差的影响,但是误差预测过程的可解释性较弱,另外无法实现机器人姿态误差的预测与补偿。现有的机器人精度补偿方法大致存在以下不足:只实现了机器人目标点的位置误差补偿,姿态误差没有得到补偿;不同机器人构型的采样点规模太小,不足以充分的反应机器人位置误差和姿态误差的分布规律。
发明内容
(一)解决的技术问题
本发明的目的是提供一种工业机器人的位置与姿态误差综合补偿方法,通过构建机器人末端实际位置与姿态的双目视觉测量,对机器人在大规模构型下的末端理论位置姿态及对应的实际误差进行采样,用样本数据来训练深度学习模型,训练后的深度学习模型可以实现机器人目标点位置误差和姿态误差的综合预测与补偿。本发明可以同时提升工业机器人的绝对位置精度和姿态精度,有利于拓展工业机器人的场景。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:一种工业机器人的位置与姿态误差综合补偿方法,具体包括以下步骤:
S1:在机器人末端执行器的规划工作空间内生成不同机器人构型的采样点,并获取采样点的理论位置和姿态数据;
S2:在机器人末端执行器和基座上固定视觉靶标点;
S3:将工业机器人初始位置设为Home点位置,构建工业机器人基坐标系FB;
S4:根据机器人基坐标系,建立跟踪坐标系FM、视觉坐标系FS;将机器人末端执行器上的视觉靶标点与所述跟踪坐标系FM固连;双目视觉通过跟踪测量末端执行器上靶标点的跟踪坐标系FM来获取机器人末端执行器实际的位置和姿态,对应测量步骤S1中的所述采样点的实际位置和姿态信息,并计算出对应的位置误差和姿态误差;
S5:从步骤S1中的所述采样点中随机分为训练集和验证集;
S6:构建包含输入层、输出层和多层隐含层的深度学习神经网络模型,使用所述训练集来训练网络模型;
S7:使用所述验证集样本来验证训练完成后的深度学习模型的机器人位置误差和姿态误差预测准确性;
S8:以机器人目标点的理论位置和姿态信息为输入,用深度学习神经网络模型预测的目标位置误差ep和姿态误差eo来校正目标位置理论坐标Pp和姿态理论坐标Po,将修正后的位置坐标(Pp+ep)与姿态坐标(Po+eo)作为机器人目标位姿的控制指令输入到机器人控制系统,机器人根据修正后的指令运动,可以更接近理想目标位姿,从而实现工业机器人位置与姿态误差的综合补偿。
进一步的,所述步骤S2中,固定在机器人末端执行器和基座上的视觉靶标点为任意三点不共线且不对称分布。
进一步的,所述训练集和所述验证集中的样本数据比例为8:1。
进一步的,所述步骤S6中的深度学习神经网络模型的训练过程包括无监督的预训练和有监督的反向微调。
进一步的,所述预训练是以机器人理论位置与姿态为特征,采用无监督贪婪逐层对网络进行训练,来确定深度学习神经网络模型的初始权值和偏置。
进一步的,所述有监督的反向微调是以样本点中理论位置姿态所对应的位置误差和姿态误差作为监督特征,通过有监督训练来优化预训练所得到的初始化网络参数。
进一步的,所述深度学习神经网络模型中的隐含层节点数、学习率和动量因子由粒子群优化算法获得。
(三)有益效果
(1)可以同时对工业机器人的位置误差和姿态误差进行预测和补偿,更综合的提升了机器人的加工精度,拓展了工业机器人的应用场景;
(2)双目视觉测量方法可以方便的获取大规模的工业机器人实际位置和姿态信息,大规模的不同构型采样信息可以更全面的反应机器人误差分布规律,所训练的深度学习模型也就可以更准确的预测机器人位置误差和姿态误差。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的方法流程图
图2为本发明验证样本位置误差补偿前后对比图;
图3为本发明验证样本姿态误差补偿前后对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1-3,工业机器人的实验平台包括工业机器人及其控制柜、双目视觉测量装置,其中机器人末端安装有末端执行器,工业机器人为6自由度开链机械手,机器人的重复精度为±0.08mm。机器人通过关节的运动将末端执行器运动到目标位姿,但由于机器人的参数、制造、安装等误差导致末端执行器会偏离目标位姿,故此本发明提出了机器人位置和姿态误差的综合补偿方法:
步骤1:在机器人末端执行器的工作空间规划800mmx1200mmx800mm的范围和目标点姿态角均在±15°范围,生成9000个不同机器人构型的采样点,获取9000个采样点的理论位置和姿态数据。
步骤2:在机器人末端执行器和基座上固定视觉靶标点,靶标点的固定为任意三点不共线,且避免对称分布,靶标点群中心尽可能的靠近刀尖点位置。
步骤3:将工业机器人初始位置设为Home点位置;分别转动关节A1,A2,由C-Track采集工业机器人圆弧运动时的点位信息,拟合成圆,记为C1,C2;以C2圆心为平面上一点,C1为法向构建平面P1,并向工业机器人基坐标系方向平移1045mm(名义尺寸),记为PB,其法向为工业机器人z轴方向;以C1圆心为平面上一点,C2为法向构建平面P2,与PB相交,交线即为基坐标系x轴,并根据工业机器人当前位置确定x轴方向;根据右手法则,确定工业机器人基坐标系y轴方向,构建工业机器人基坐标系FB。
步骤4:根据机器人基坐标系,建立跟踪坐标系FM、视觉坐标系FS;在机器人末端执行器上贴上视觉靶标点,n个视觉靶标点与跟踪坐标系FM固连,将靶标点在跟踪坐标系FM坐标系下的坐标值mi构成矩阵M,M=[m1 m2 L mn],在视觉坐标系FS下,靶标点的坐标值si构成矩阵S,S=[s1 s2 L sn],跟踪坐标系FM相对于视觉坐标系FS之间的位姿变换关系满足:
其中R是FM变换到FS的旋转矩阵,t是FM变换到FS的平移向量。
双目视觉通过跟踪测量末端执行器上靶标点的跟踪坐标系来获取机器人末端执行器实际的位置和姿态。根据步骤1规划的样本点,对应测量这个9000个样本点的实际位置和姿态信息,并计算出对应的位置误差和姿态误差;
步骤5:在9000对样本点中随机选取8000个形成训练集,用于训练深度学习网络模型,剩下1000个样本点用于验证模型。
步骤6:构建包含输入层、输出层和多层隐含层的深度学习神经网络模型,用8000个样本来训练网络模型,模型的训练过程包括无监督的预训练和有监督的反向微调。预训练是以机器人理论位置与姿态为特征,预训练采用无监督贪婪逐层对网络进行训练,来确定整个网络的初始权值和偏置,用v表示工业机器人状态参数,用h表示工业机器人误差特征,用θ表示网络模型的初始化参数,建立工业机器人误差预测能量函数:
其中θ={W,ai,bj},W是wij形成的矩阵,ai是ai形成的向量,bj是bj形成的向量。n和m分别为工业机器人状态参数的神经元个数和工业机器人误差特征的神经元节点数,vi为在第i个神经元的工业机器人状态参数,hj为在第j个神经元的工业机器人误差特征,ai是工业机器人状态参数可视层导隐含层的偏置,bj是工业机器人误差特征的偏置,wij为工业机器人状态参数第i个神经元到工业机器人误差特征第j个神经元之间的连接权重。通过不断的优化模型的初始化参数θ,使工业机器人误差决策能量函数趋于最小,从而实现工业机器人误差的预测;工业机器人状态参数v和工业机器人误差特征h的联合概率分布函数为:
在给定工业机器人状态参数的情况下,工业机器人误差特征的第i个神经元开启时的条件概率表示为:
其中δ为介于0.5到1之间的常数,训练过程中采用对比散度来求解参数θ。
步骤7:预训练之后,以8000个样本点中理论位置姿态所对应的位置误差和姿态误差作为监督特征,通过有监督训练来优化预训练所得到的初始化网络参数,设网络模型的实际输出y’和期望输出y对应的代价函数为:
其中τ为迭代次数,N训练样本的数量。
网络输出层与最后一层隐含层之间的权值更新:
η′为反向微调时的学习率,网络从输出层开始自上而下一层对初始化参数进行微调,得到整个网络最终的参数,从而完成网络的训练。训练完成之后的网络模型参数:网络模型输入和输出层节点数都为6,中间隐含层节点数分别为20、28、20、18,网络学习率为0.001,动量因子为0.685。
步骤8:用1000个验证样本来验证训练完成后的深度学习模型的机器人位置误差和姿态误差预测准确性。以机器人目标点的理论位置和姿态信息为输入,模型输出为对应的位置误差和姿态误差,从而实现工业机器人的位置误差和姿态误差的综合预测;
步骤9:用模型预测的目标位置误差ep和姿态误差eo来校正目标位置理论坐标Pp和姿态理论坐标Po,将修正后的位置坐标(Pp+ep)与姿态坐标(Po+eo)作为机器人目标位姿的控制指令输入到机器人控制系统,机器人根据修正后的指令运动,可以更接近理想目标位姿,从而实现工业机器人位置与姿态误差的综合补偿。经过本方法进行补偿之后,机器人末端执行器的最大位置误差由1.524mm减小到0.292mm,减小了80.84%。机器人末端执行器的最大姿态误差由0.096deg减小到0.041deg,减小了57.29%。补偿前后机器人位置误差和姿态误差结果如图2图3和表1所示。
表1工业机器人位置和姿态误差补偿前后对比
验证结果表明,本文提出的位姿误差补偿方案显著提高了机器人的绝对位姿精度,扩展了机器人的应用领域。与其他离线前馈补偿方法相比,该方案不依赖于任何形式的运动学模型,可以同时补偿位置误差和姿态误差,并且不需要机器人控制系统有足够高的开放权限,或改造机器人与昂贵的编码器,因此该方案具有良好的通用性。该方案可以方便的获取大规模的工业机器人实际位置和姿态信息,大规模的不同构型采样信息可以更全面的反应机器人误差分布规律,所训练的深度学习模型也就可以更准确的预测机器人位置误差和姿态误差。
在本公开中参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本公开的实施例不必定义在包括本发明的所有方面。应当理解,上面介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (7)
1.一种工业机器人的位置与姿态误差综合补偿方法,其特征在于,具体包括以下步骤:
S1:在机器人末端执行器的规划工作空间内生成不同机器人构型的采样点,并获取采样点的理论位置和姿态数据;
S2:在机器人末端执行器和基座上固定视觉靶标点;
S3:将工业机器人初始位置设为Home点位置,构建工业机器人基坐标系FB;
S4:根据机器人基坐标系,建立跟踪坐标系FM、视觉坐标系FS;将机器人末端执行器上的视觉靶标点与所述跟踪坐标系FM固连;双目视觉通过跟踪测量末端执行器上靶标点的跟踪坐标系FM来获取机器人末端执行器实际的位置和姿态,对应测量步骤S1中的所述采样点的实际位置和姿态信息,并计算出对应的位置误差和姿态误差;
S5:从步骤S1中的所述采样点中随机分为训练集和验证集;
S6:构建包含输入层、输出层和多层隐含层的深度学习神经网络模型,使用所述训练集来训练网络模型;
S7:使用所述验证集样本来验证训练完成后的深度学习模型的机器人位置误差和姿态误差预测准确性;
S8:以机器人目标点的理论位置和姿态信息为输入,用深度学习神经网络模型预测的目标位置误差ep和姿态误差eo来校正目标位置理论坐标Pp和姿态理论坐标Po,将修正后的位置坐标(Pp+ep)与姿态坐标(Po+eo)作为机器人目标位姿的控制指令输入到机器人控制系统,机器人根据修正后的指令运动,可以更接近理想目标位姿,从而实现工业机器人位置与姿态误差的综合补偿。
2.根据权利要求1所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述步骤S2中,固定在机器人末端执行器和基座上的视觉靶标点为任意三点不共线且不对称分布。
3.根据权利要求1所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述训练集和所述验证集中的样本数据比例为8:1。
4.根据权利要求1所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述步骤S6中的深度学习神经网络模型的训练过程包括无监督的预训练和有监督的反向微调。
5.根据权利要求4所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述预训练是以机器人理论位置与姿态为特征,采用无监督贪婪逐层对网络进行训练,来确定深度学习神经网络模型的初始权值和偏置。
6.根据权利要求4所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述有监督的反向微调是以样本点中理论位置姿态所对应的位置误差和姿态误差作为监督特征,通过有监督训练来优化预训练所得到的初始化网络参数。
7.根据权利要求1所述的一种工业机器人的位置与姿态误差综合补偿方法,其特征在于:所述深度学习神经网络模型中的隐含层节点数、学习率和动量因子由粒子群优化算法获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011385036.8A CN112536797A (zh) | 2020-12-01 | 2020-12-01 | 一种工业机器人的位置与姿态误差综合补偿方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011385036.8A CN112536797A (zh) | 2020-12-01 | 2020-12-01 | 一种工业机器人的位置与姿态误差综合补偿方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112536797A true CN112536797A (zh) | 2021-03-23 |
Family
ID=75016917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011385036.8A Pending CN112536797A (zh) | 2020-12-01 | 2020-12-01 | 一种工业机器人的位置与姿态误差综合补偿方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112536797A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113074718A (zh) * | 2021-04-27 | 2021-07-06 | 广东电网有限责任公司清远供电局 | 一种定位方法、装置、设备及存储介质 |
CN113799137A (zh) * | 2021-09-30 | 2021-12-17 | 天津大学 | 一种基于神经网络的移动加工机器人快速视觉定位方法 |
CN114310873A (zh) * | 2021-12-17 | 2022-04-12 | 上海术航机器人有限公司 | 位姿转换模型的生成方法、控制方法、系统、设备和介质 |
CN114454177A (zh) * | 2022-03-15 | 2022-05-10 | 浙江工业大学 | 一种基于双目立体视觉的机器人末端位置补偿方法 |
CN114523478A (zh) * | 2022-04-24 | 2022-05-24 | 季华实验室 | 机械臂结构参数的补偿模型获取方法和补偿方法 |
CN113442171B (zh) * | 2021-07-01 | 2022-06-24 | 南京蔚蓝智能科技有限公司 | 一种机器人动态稳定判别方法和动态自适应姿态控制方法 |
CN115648222A (zh) * | 2022-11-23 | 2023-01-31 | 中国计量大学 | 一种减少工业机器人关节反向的板料定位方法 |
CN115648228A (zh) * | 2022-12-28 | 2023-01-31 | 广东隆崎机器人有限公司 | 工业机器人多源误差补偿方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344882A (zh) * | 2018-09-12 | 2019-02-15 | 浙江科技学院 | 基于卷积神经网络的机器人控制目标位姿识别方法 |
CN109623656A (zh) * | 2018-11-12 | 2019-04-16 | 南京航空航天大学 | 基于厚度在线检测的移动式双机器人协同打磨装置及方法 |
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
CN110444257A (zh) * | 2019-08-05 | 2019-11-12 | 燕山大学 | 一种基于无监督和有监督学习的水泥游离钙软测量方法 |
US20200156255A1 (en) * | 2018-11-21 | 2020-05-21 | Ford Global Technologies, Llc | Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture |
-
2020
- 2020-12-01 CN CN202011385036.8A patent/CN112536797A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344882A (zh) * | 2018-09-12 | 2019-02-15 | 浙江科技学院 | 基于卷积神经网络的机器人控制目标位姿识别方法 |
CN109623656A (zh) * | 2018-11-12 | 2019-04-16 | 南京航空航天大学 | 基于厚度在线检测的移动式双机器人协同打磨装置及方法 |
US20200156255A1 (en) * | 2018-11-21 | 2020-05-21 | Ford Global Technologies, Llc | Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture |
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
CN110444257A (zh) * | 2019-08-05 | 2019-11-12 | 燕山大学 | 一种基于无监督和有监督学习的水泥游离钙软测量方法 |
Non-Patent Citations (1)
Title |
---|
花芳芳 等: "基于深度神经网络的机器人定位误差补偿方法", 《航空制造技术》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113074718A (zh) * | 2021-04-27 | 2021-07-06 | 广东电网有限责任公司清远供电局 | 一种定位方法、装置、设备及存储介质 |
CN113074718B (zh) * | 2021-04-27 | 2024-03-29 | 广东电网有限责任公司清远供电局 | 一种定位方法、装置、设备及存储介质 |
CN113442171B (zh) * | 2021-07-01 | 2022-06-24 | 南京蔚蓝智能科技有限公司 | 一种机器人动态稳定判别方法和动态自适应姿态控制方法 |
CN113799137B (zh) * | 2021-09-30 | 2023-09-22 | 天津大学 | 一种基于神经网络的移动加工机器人快速视觉定位方法 |
CN113799137A (zh) * | 2021-09-30 | 2021-12-17 | 天津大学 | 一种基于神经网络的移动加工机器人快速视觉定位方法 |
CN114310873A (zh) * | 2021-12-17 | 2022-04-12 | 上海术航机器人有限公司 | 位姿转换模型的生成方法、控制方法、系统、设备和介质 |
CN114310873B (zh) * | 2021-12-17 | 2024-05-24 | 上海术航机器人有限公司 | 位姿转换模型的生成方法、控制方法、系统、设备和介质 |
CN114454177A (zh) * | 2022-03-15 | 2022-05-10 | 浙江工业大学 | 一种基于双目立体视觉的机器人末端位置补偿方法 |
CN114523478B (zh) * | 2022-04-24 | 2022-06-28 | 季华实验室 | 机械臂结构参数的补偿模型获取方法和补偿方法 |
CN114523478A (zh) * | 2022-04-24 | 2022-05-24 | 季华实验室 | 机械臂结构参数的补偿模型获取方法和补偿方法 |
CN115648222A (zh) * | 2022-11-23 | 2023-01-31 | 中国计量大学 | 一种减少工业机器人关节反向的板料定位方法 |
CN115648222B (zh) * | 2022-11-23 | 2024-12-17 | 中国计量大学 | 一种减少工业机器人关节反向的板料定位方法 |
CN115648228A (zh) * | 2022-12-28 | 2023-01-31 | 广东隆崎机器人有限公司 | 工业机器人多源误差补偿方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112536797A (zh) | 一种工业机器人的位置与姿态误差综合补偿方法 | |
CN111590581B (zh) | 机器人的定位补偿方法及装置 | |
CN112497216B (zh) | 一种基于深度学习的工业机器人位姿精度补偿方法 | |
CN113510709A (zh) | 基于深度强化学习的工业机器人位姿精度在线补偿方法 | |
Wang et al. | Pose accuracy compensation of mobile industry robot with binocular vision measurement and deep belief network | |
Hu et al. | Robot positioning error compensation method based on deep neural network | |
CN102183205A (zh) | 一种大型零部件最佳装配位姿匹配的方法 | |
CN109108978B (zh) | 基于学习泛化机制的三自由度空间机械臂运动规划方法 | |
CN113733088A (zh) | 一种基于双目视觉的机械臂运动学自标定方法 | |
Hsiao et al. | Positioning accuracy improvement of industrial robots considering configuration and payload effects via a hybrid calibration approach | |
CN113878581A (zh) | 一种五自由度混联机器人误差预测及实时补偿技术 | |
CN108717262A (zh) | 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 | |
CN113799137A (zh) | 一种基于神经网络的移动加工机器人快速视觉定位方法 | |
CN113910218A (zh) | 基于运动学与深度神经网络融合的机器人标定方法和装置 | |
Behera et al. | A hybrid neural control scheme for visual-motor coordination | |
CN115107022A (zh) | 一种基于gbdt算法的工业机器人位置误差补偿方法和系统 | |
Gu et al. | Homography‐based uncalibrated visual servoing with neural‐network‐assisted robust filtering scheme and adaptive servo gain | |
CN118990489A (zh) | 一种基于深度强化学习的双机械臂协作搬运系统 | |
CN113601499A (zh) | 一种单关节锁定失效下的空间机械臂逆运动学方法 | |
CN117921685A (zh) | 一种双机器人协同定位精度的标定方法 | |
Laflaquiere et al. | Learning an internal representation of the end-effector configuration space | |
Djelal et al. | LSTM-Based Visual Control for Complex Robot Interactions. | |
WO2018084164A1 (ja) | 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体 | |
Lin et al. | Accuracy Compensation Technology of Closed-Loop Feedback of Industrial Robot Joints. | |
Ao et al. | Unified data collection for visual-inertial calibration via deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210323 |
|
RJ01 | Rejection of invention patent application after publication |