CN106994696B - 用于末端执行器的定向系统和坐标系变换方法 - Google Patents
用于末端执行器的定向系统和坐标系变换方法 Download PDFInfo
- Publication number
- CN106994696B CN106994696B CN201611120508.0A CN201611120508A CN106994696B CN 106994696 B CN106994696 B CN 106994696B CN 201611120508 A CN201611120508 A CN 201611120508A CN 106994696 B CN106994696 B CN 106994696B
- Authority
- CN
- China
- Prior art keywords
- workpiece
- camera
- end effector
- coordinate system
- imager
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000012636 effector Substances 0.000 title claims abstract description 62
- 238000011426 transformation method Methods 0.000 title description 2
- 230000009466 transformation Effects 0.000 claims abstract description 13
- 238000013519 translation Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 25
- 239000003973 paint Substances 0.000 claims description 9
- 238000002310 reflectometry Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 230000010287 polarization Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000820 nonprescription drug Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37571—Camera detecting reflected light from laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39045—Camera on end effector detects reference pattern
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40613—Camera, laser scanner on end effector, hand eye manipulator, local
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
机器人臂末端执行器上的相机用于通过连续测量附连到工件的目标与其预期位置之间的偏移来定位相对于末端执行器坐标系的旋转和平移的工件坐标系变换。目标反射来自由光束源提供的光束的能量。分束器用于将光束与相机的视线对准。
Description
技术领域
本公开总体上涉及机器人制造操作,并且更具体地涉及在制造操作期间识别工件坐标系相对于机器人坐标系的旋转和平移的变换。
背景技术
飞行器制造过程依赖于机械固定装置来保持正在被组装的工件,并且依赖于技工来将在工件上执行制造操作的工具对准。逐渐地,带有工具的机器人用于执行先前需要这种手动对准操作的制造功能。然而,机器人工作操作的准确性依赖于知道工件相对于机器人及其相关联的一个或多个工具的放置。
可以由机器人操作者使用安装在工具上的相机定位特定特征部诸如孔或基准标记来对准工具。通常,在手动干预的帮助下,使用数控程序命令,使相机非常缓慢地靠近工件放置,以便相对于杂乱的背景准确地配准小特征部。然而,必须防止其上定位有相机的机器人臂意外地接触工件,或者对相机、机器人臂或工件中的任何一个或全部的损坏的风险。这种紧密接近放置可涉及机械探针或光学传感器的使用,以及操作者的耗时的视觉检查。当半自主地识别了足够的特征部以在三维旋转和平移中导出工件坐标系时,工件能够配准到机器人的坐标系,并且操作者能够开始完全自主的机器人组装操作,诸如切割、钻孔、紧固或焊接。上述半自主对准操作是劳动密集型的,并且能够给制造操作周期增加10分钟或更长时间。除了工件特征部的机器视觉测量通常所依赖的末端执行器相机之外,3D定位装置诸如激光测距设备或激光投影仪是大且昂贵的,并且引入它们自己的后校准残余偏移误差。
发明内容
在本公开的方面,相对于机器的末端执行器定位工件的方法包括利用反射元件识别工件上的点,在联接到末端执行器的相机的成像器处接收包括从反射元件接收的光的光束,以及识别在成像器处从反射元件接收的光的质心。该方法也包括确定质心距从反射元件接收的光的质心的预测位置的偏移,以及使用该偏移确定工件相对于末端执行器的实际位置。
在本公开的另一方面,一种用于相对于工件定向机器人臂的末端执行器的系统包括附接到末端执行器的相机。该相机具有在相机的透镜与相机中的成像器之间形成的视线。该系统也包括附接到末端执行器的光束源,该光束源投影光束;以及分束器,其将来自光束源的光束与相机的视线对准。该系统进一步包括控制器,其基于来自工件上的多个位置中的每一个的成像器上的返回光的相应质心,使用从所述多个位置反射的光束的返回光来计算从末端执行器坐标系到工件坐标系的变换。
在本公开的又一方面,一种适合用于确定工件的位置的末端执行器包括附接到机器人臂的框架、用在制造操作中联接到框架的作业工具以及联接到框架的相机,该相机具有沿相机的视线对准的透镜和成像器。末端执行器也包括产生光束的光束子组件以及具有至少一个反射器的分束器,所述至少一个反射器沿相机的视线对准光束,并且允许光束的反射的至少一部分传递到成像器。
已经讨论的特征、功能和优点能够在各种实施例中独立地实现或者可以在其他实施例中组合,其进一步的细节能够参考下面的描述和附图而见到。
附图说明
为了更完整地理解所公开的方法和设备,应当参考根据附图更详细地说明的实施例,在附图中:
图1是示出根据本公开的工件和机器人的透视图;
图2是图1的工件的进一步的图示;
图3是另一个工件和机器人的透视图;
图4是工作环境中的末端执行器的成像组件的图示;
图5是工件和机器人的替代实施例的图示;
图6是工作环境中的末端执行器的替代实施例;
图7是图4的成像组件的相机的成像器处的反射光的质心的图示;
图8是机器人臂和末端执行器相对于两个反射器的顶视图;以及
图9是根据本公开的由光学定位用于机器人操作的工件的一个实施例执行的操作的图示。
应当理解,附图不一定按比例绘制,并且所公开的实施例有时以图解的方式和以局部视图的方式进行说明。在某些情况下,可省略对于理解所公开的方法和设备不必要的或使得其他细节难以察觉的细节。当然,应当理解,本公开不限于本文所示的特定实施例。
具体实施方式
机器人制造操作的元素之一是机器人或更精确地机器人的末端执行器将以非常精确且可重复的方式沿着固定的空间轨迹操作。因此,工件在三维旋转和平移中相对于机器人的坐标系的位置对于成功的自主制造操作是重要的。在一些制造环境中,这种放置的误差容限会在三个维度中的每一个中均小于百分之一或甚至千分之一英寸。如上所述,工件坐标系相对于机器人的坐标系的确定可使用基准标记或其他参考点,诸如拐角,其能够使用末端执行器上的相机来识别。然而,通常这种相机在宏观水平上操作并且被放置得非常靠近基准标记或参考点,以便使用机器视觉检测和提取算法来针对杂乱的背景图像光学地辨别工件特征部。考虑到机器人与具有大的位置不确定性的工件的接近操作,通常需要手动操作者干预以防止意外的机器人与工件的碰撞。这经常需要操作者将相机移动到精确的特征部位置或使用机械探针(feeler),以防止相机或末端执行器与工件无意的物理接触。一旦以合理的精度知道工件的主体姿态,机器人可以高精度高速地执行后续操作。
以下讨论公开了用于使用从与工件相关联的已知点反射的光来确定工件相对于末端执行器坐标系的坐标系的系统和方法。现在转到附图,图1是诸如可以在制造操作中采用的工件100的图示。工件100可以是单个元件,或者可以是如图1所示的子组件。工件100可包括设置在精确已知的位置处的孔106、108、110、112,例如作为先前制造操作的一部分。孔106、108、110、112可以在先前的制造操作步骤中产生,在所述步骤中,工件100已经处于已知的位置。机器人臂102可具有末端执行器104,并且在图1所示的应用中,可具有工具105。末端执行器104还可包括相机组件,下面参照图4更详细地讨论该相机组件。
图2示出一个或多个反射器120、122、124、126在工件100上的放置。反射器120、122、124、126中的每个可具有相应的安装柱121,其允许反射器120、122、124、126准确地但可移除地设置在工件100上。反射器120、122、124、126被设计成在被照射时提供漫射的高反射率、高对比度图像,如下面更详细讨论的。合适的反射器可商购自例如新罕布什尔州伦敦德里的激光投影技术公司(Laser Projection Technologies Inc.of Londonderry,NewHampshire)。
在图3中示出反射器120、122、124、126的使用的替代方案,其中,代替反射器120、122、124、126,由吸收环包围的反射涂料点130-138可以设置在工件100上的各个点处。反射涂料点130-138可提供漫反射表面。吸收环可以吸收与涂料点相邻的大多数入射光。反射点周围的吸收环产生高对比度辐射对象。反射涂料点130-138和吸收环也可以例如通过在先前的制造操作中的机器人准确地放置在工件100上。
图4示出用于光学定位用于机器人操作的工件的成像组件160的实施例。成像组件160可附连到末端执行器104,使得其在末端执行器104内并且相应地与工具105的物理关系被准确地知道。成像组件160可包括光束子组件162和成像器子组件164。
光束子组件162可包括光束源166、光束扩展器168和平面镜170。在一个实施例中,光束源166可以是产生窄带偏振光束186的激光器。光束扩展器168将光束源166的输出加宽到期望的直径187。例如,如果工件100的姿态的平均变化是1/2英寸,则光束的期望直径可以是1英寸,使得光束可能在瞄准特定反射器120的标称或预期位置时包绕该特定反射器120。光束源166和光束扩展器168是可商购的柜台可购(over-the-counter)产品。平面镜170简单地用于改变用于图4所示的物理配置的光束186的路径。基于空间要求,其他物理配置是可能的。例如,如果可以在末端执行器104中适应对成像组件160的占用空间(footprint)的所需改变,则光束源166和光束扩展器168可以旋转90°并且向上移动到平面镜170的大致位置。
成像器子组件164可具有包括透镜174和成像器176的相机172。成像器176可具有焦平面178,焦平面178的中心可以在反射器成像操作期间用作末端执行器104的旋转的参考点。这将在下面参考图8更详细地讨论。透镜174可以是适合在从几英寸到无限远的距离范围内使用的可变焦距宏透镜。透镜174和成像器176形成相机172的视线。
成像器子组件164还可包括分束器180,在一个实施例中,分束器180包括偏振涂覆的分束表面182。分束器180允许光束186与相机的视线对准,使得出程光和回程光可以是同轴的。窗口184可用于将光透射进并透射出成像组件160。
在操作中,成像组件160可以瞄准反射器120的预期位置,使得从成像组件160出来的光束186包绕反射器120。反射光束188可以被透射回成像器子组件164。在工件100在预期之外地不在适当的位置的情况下,可移动末端执行器104以致使光束186从预期位置以螺旋向外的模式移动,直到反射表面被包绕在光束186中并且在相机172处捕获反射光束188,从而指示已经定位了反射器。如果没有发现反射器,或者如果发现的反射器距预期位置超出了阈值极限,则会出现误差并且可通知操作者。
虽然在一些情况下反射光束188可以被容易地识别,但是其他因素可以组合以使得反射光束188更加难以清楚地识别。这些条件可包括到反射器120的距离、非常明亮的宽带架空灯、来自焊接操作的迷雾、高湿度、围绕反射器的工件的图像等。可以采取步骤来改善反射光束188的信噪比。
一种信噪比改善技术使用偏振涂覆的分束表面182。出程光束186可以是S偏振的并且从表面182完全反射。然而,反射光束188可包括S偏振光和P偏振光两者,使得S偏振光190被反射,并且P偏振光穿过分束表面182到达相机172。入射到表面182的其他光的透射或反射将取决于表面182涂层的宽带光学性质。另一个有利的实施例可采用圆偏振来代替线偏振光源166和分束表面182。
另一种信噪比改善可利用成像器176的性质。大多数像素化成像器176包含滤色器马赛克,其中在像素上的每个马赛克元件/元素对窄带色光诸如三原色是能透射的。当计算反射器图像的质心时,仅选择光束源166所处的成像器176原色将允许忽略在其他2个原色带内的进入相机172的所有环境(白色)光。也就是说,光束源166可以被选择为呈现在滤色器马赛克元件/元素中的一个内的光束颜色。这有效地在反射器图像和图像中的一切别的东西之间产生更清晰的对比度,从而导致对反射器图像质心的更准确的计算。
图5示出光学定位用于机器人操作的工件的替代实施例。在图5的实施例中,使用例如发光二极管(LED)的有源光源125代替图2的反射器120。有源光源125可输出随机偏振的光束,或者优选地包括滤波以输出线偏振光束或圆偏振光束。如上所述,可以选择有源光源的LED的颜色以呈现在相机172的滤色器马赛克元件中的一个内的颜色。
图6示出适于与图5的实施例一起使用的示例性成像组件250。成像组件250可包括与图4的成像组件160中使用的相机相同或相似的相机172。相机172接收在有源光源125处产生的光束256。成像组件250可包括分束器180以提供如上所述的环境光噪声降低。当使用时,偏振涂覆的分束表面可以仅使具有包括线性或圆形的单个偏振的光束258通过。然而,因为有源光源125可以是随机偏振的,所以由分束器180提供的附加噪声降低可能不可实现或不必要。
转向图7,来自相机172的成像器176被示出为显示了假设工件100完美地处于其预期位置时反射光束188的预期位置194。也就是说,成像组件160瞄准反射器120的预期位置,使得如果工件被正确定位,则反射光束188的质心将落在成像器176的正中心。该点在该图示中被指定为位置cx,cy。反射光束188的实际图像196也在图7中示出。反射光束188的二维质心198被指定为u,v。使用这两个维度测量、它们对应的标称三维位置以及关于相机的已知信息诸如焦距和透镜特性,能够使用方程和方法来重建旋转矩阵R和平移向量t,其将标称设定姿态的工件变换为实际设定姿态的工件——期望的目标。一个这样的方程和方法是在公共领域中找到的solvepnp()函数。solvepnp()函数的一个表达式是:
m'=A[R|t]M' 方程式1
其中:
[X Y Z 1]’是反射器120、122、124、126等的标称位置的已知3D坐标的列矩阵M’;
[u v]’是来自反射器120、122、124、126等的反射光束188的以像素为单位的对应测量质心的坐标的列矩阵m’;
A是相机特定参数的矩阵;
(cx,cy)是反射光束188的预期位置;
fx和fy是以像素为单位的焦距;
[R|t]是描述从标称3D坐标到所测量的2D坐标的变换的未知组合旋转-平移矩阵。
给定测量的2D质心[u v]’、标称3D位置[X Y Z 1]’和相机矩阵A,未知旋转矩阵R和平移矢量t能够通过各种方法诸如在solvepnp()中公开的方法中的一个来求解。
方程式2假设所有已知输入来自单个相机和姿态。由于相机视野不可能大到足以包含来自单个相机姿态的所有期望的反射器位置,因此机器人将需要在反射器测量之间重新定向相机姿态。如图8所示,在焦平面质心179必须在反射器测量之间旋转和/或平移的情况下,在末端执行器坐标系中准确地知道从一个测量姿态到另一个测量姿态的旋转和平移的实际变换。控制器199能够通过将每个反射器测量变换到公共末端执行器坐标系来使这些测量对准。除了计算坐标系变换之外,控制器199可控制机器人臂102和/或作业工具105。
在图9的流程图中示出相对于机器的末端执行器定位工件的方法200。在方框202处,可以用反射器120识别工件100上的点。在一个实施例中,可以用反射涂料点130和吸收环或其他高对比度发光或反射元件来识别工件100上的点。
在方框204处,可以在相机172的成像器176处接收包括从反射器120反射的光的光束192。在方框206处继续,在成像器176处接收的光的质心198可以通过例如仅包括在质量中心计算中高于指定阈值的像素测量来确定,或者在另一示例中,通过成像器176上的各个位置处的叉积图像强度来确定。一旦已经定位了质心198,在方框208处就可确定从质心198到质心的预期位置194的偏移。
可以在方框210处进行测试以确定用反射器120、122、124、126识别的每个点是否已经在其确定的相应质心中被测量。如果不是,可采用从方框210到方框212的“否”分支,相机172可瞄准另一个反射元件。处理可在方框204处继续,直到已经识别所有的点,可以采用从方框210到方框214的“是”分支。在方框214处,使用偏移,可以计算工件100相对于末端执行器104的实际位置。使用该实际位置,工件100可以相对于机器人臂102的坐标空间定向,使得可以使用工具105在工件100上执行制造操作。
在一些实施例中,相机172已经在末端执行器104中的适当位置用于宏操作,诸如关闭基准标记识别、使用工具105的位置验证、完成的制造操作的质量验证或者这些项的某个组合以及其他可能的用途。
在一定距离处相对于机器人臂102的坐标系定位工件100的能力具有若干益处。对于制造商来说,一个优点是在定位工件姿态时减少多达10分钟。由于在有限的机器人工作包络内多次重新定位大工件是很常见的,所以大量的重新定位事件表示机器人执行的制造操作的时间的显著减少,以及因此表示机器人执行的制造操作的成本的显著降低。进一步地,通过允许机器人在一定距离处执行工件定位,通过例如使用测隙规消除了对将末端执行器104驱动到极端近距离的需要,减少了操作者的压力。消除关闭操作还有助于当现有技术方法由于部件之间的无意接触而导致对末端执行器104、机器人臂102或工件100的损坏时避免昂贵的停机时间。
进一步地,本公开包括根据以下条款的实施例:
条款1.一种确定从机器的末端执行器的末端执行器坐标系到工件的坐标系的坐标系变换的方法,该方法包括:
识别工件上的点;
在联接到末端执行器的相机的成像器处接收包括从所识别的点接收的光的光束;
识别在成像器处从所识别的点中的每一个接收的光的相应质心;
确定每个相应质心与从所识别的点中的每一个接收的光的相应质心的预测位置的偏移;以及
使用该偏移,确定工件坐标系相对于末端执行器坐标系的旋转和平移的坐标系变换。
条款2.根据条款1所述的方法,其中在相机的成像器处接收包括从所识别的点接收的光的光束进一步包括在成像器的焦平面处接收光束,其中该方法进一步包括:
围绕成像器的焦平面的质心旋转末端执行器,以从工件上的所识别的点中的每一个接收光束。
条款3.根据条款1所述的方法,其中识别工件上的点包括利用相应反射元件识别工件上的点中的每一个。
条款4.根据条款3所述的方法,进一步包括利用偏振光照亮相应反射元件中的每一个。
条款5.根据条款4所述的方法,其中利用偏振光照亮相应反射元件包括使用在安装在末端执行器上的相机附近安装的光束源照亮反射元件。
条款6.根据条款1所述的方法,其中识别工件上的点包括将有源光源附接到工件上的每一个相应点。
条款7.根据条款1所述的方法,其中确定从末端执行器坐标系到工件坐标系的坐标系变换包括使用二维至三维重建算法。
条款8.一种用于相对于工件定向机器人臂的末端执行器的系统,该系统包括:
相机,其附接到末端执行器,所述相机具有在相机的透镜和相机中的成像器之间形成的视线;
以及
控制器,其基于来自多个位置中的每一个的成像器上的光束的相应质心,使用从工件上的多个位置接收的光束来计算从末端执行器坐标系到工件坐标系的变换。
条款9.根据条款8所述的系统,进一步包括:
光束源,其附接到末端执行器,所述光束源将光束投影到工件上的多个位置中的每一个;
分束器,其将来自光束源的光束与相机的视线对准。
条款10.根据条款9所述的系统,进一步包括在工件上的多个位置中的每一个处的漫反射器。
条款11.根据条款10所述的系统,其中漫反射器是涂料标记和回归反射目标中的一个。
条款12.根据条款9所述的系统,其中光束源包括光束扩展器,该光束扩展器将光束的直径增大到大约多个位置处的目标的尺寸加上初始位置容差。
条款13.根据条款9所述的系统,其中分束器包括滤波分束器,其选择性地使从多个位置中的每一个接收的光束的一部分通过。
条款14.根据条款8所述的系统,进一步包括产生光束的有源光源。
条款15.根据条款14所述的系统,其中有源光源是偏振光源。
条款16.一种适合用于确定工件位置的机器人臂的末端执行器,该末端执行器包括:
作业工具,其用在制造操作中;
相机,其以与作业工具已知的关系安装,所述相机具有沿相机的视线对准的透镜和成像器;
光束子组件,其产生光束;以及
分束器,其具有至少一个反射器,所述至少一个反射器沿相机的视线对准光束,并且允许光束的反射的至少一部分传递到成像器。
条款17.根据条款16所述的末端执行器,其中光束子组件包括光束扩展器。
条款18.根据条款16所述的末端执行器,其中分束器中的至少一个反射器是滤波分束器。
条款19.根据条款16所述的末端执行器,其中光束子组件经调谐以提供与成像器的滤色器马赛克元件的颜色匹配的光束颜色。
条款20.根据条款16所述的末端执行器,其中透镜是适合宏焦点和距离焦点之间的调节的可变焦透镜。
尽管仅阐述了某些实施例,但是对于本领域技术人员来说,从上述描述中,替代和修改将是显而易见的。这些和其他替代被认为是等同的并且在本公开和所附权利要求的精神和范围内。
Claims (5)
1.一种确定从机器的末端执行器(104)的末端执行器坐标系到工件(100)的坐标系的坐标系变换的方法,所述方法包括:
利用相应反射元件识别所述工件上的点中的每一个,其中所述反射元件是在被照射时提供漫射的高反射率、高对比度图像的反射器,或者是由吸收环包围的反射涂料点,所述吸收环吸收与所述涂料点相邻的大多数入射光;
使用安装在相机(172)附近的光束源、利用偏振光照亮所述相应反射元件,所述相机(172)安装在所述末端执行器上,其中所述光束源投影光束,所述光束通过分束器与所述相机(172)的视线对准,所述视线形成在所述相机(172)的透镜与所述相机(172)中的成像器(176)之间;
在联接到所述末端执行器的所述相机(172)的所述成像器(176)处接收包括接收自所识别的点的反射光的光束(192);
识别在所述成像器处接收自所述所识别的点中的每一个的所述反射光的相应质心(198);
确定每个相应质心距接收自所述所识别的点中的所述每一个的所述光的所述相应质心的预测位置(194)的偏移;以及
使用所述偏移,确定所述工件的所述坐标系相对于所述末端执行器坐标系的旋转和平移的所述坐标系变换。
2.根据权利要求1所述的方法,其中在所述相机(172)的所述成像器(176)处接收包括接收自所述所识别的点的所述光的所述光束(192)进一步包括在所述成像器的焦平面(178)处接收所述光束,其中所述方法进一步包括:
围绕所述成像器的所述焦平面的质心(198)旋转所述末端执行器(104),以接收来自所述工件(100)上的所述所识别的点中的每一个的所述光束。
3.根据权利要求1所述的方法,其中识别所述工件(100)上的所述点包括将有源光源(125)附接到所述工件上的每一个相应点。
4.一种用于相对于工件(100)定向机器人臂(102)的末端执行器(104)的系统,所述系统包括:
相机(172),其附接到所述末端执行器,所述相机具有在所述相机的透镜(174)和所述相机中的成像器(176)之间形成的视线;
光束源(166),其附接到所述末端执行器(104),所述光束源将光束(186)投影到所述工件(100)上的多个位置中的每一个;
分束器(180),其将来自所述光束源的所述光束与所述相机(172)的所述视线对准;
在所述工件(100)上的所述多个位置中的每一个位置处的漫反射器,其中所述漫反射器是反射器或反射涂料点(130-138)中的一个,其中所述反射器被设计为在被照射时提供漫射的高反射率、高对比度图像,所述反射涂料点(130-138)由吸收环包围,所述吸收环适于吸收与所述涂料点相邻的大多数入射光;以及
控制器(199),其基于来自所述多个位置中的每一个的所述成像器上的所述光束的相应质心(198),使用接收自所述工件上的多个位置的反射光束(188)来计算从末端执行器坐标系到工件坐标系的变换。
5.根据权利要求4所述的系统,其中所述光束源(166)包括光束扩展器(168),所述光束扩展器(168)将所述光束(186)的直径增大到所述多个位置处的目标(120)的尺寸加上初始位置容差。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/004,459 US9815204B2 (en) | 2016-01-22 | 2016-01-22 | Apparatus and method to optically locate workpiece for robotic operations |
US15/004,459 | 2016-01-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106994696A CN106994696A (zh) | 2017-08-01 |
CN106994696B true CN106994696B (zh) | 2022-04-19 |
Family
ID=57233314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611120508.0A Active CN106994696B (zh) | 2016-01-22 | 2016-12-05 | 用于末端执行器的定向系统和坐标系变换方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9815204B2 (zh) |
EP (1) | EP3195989B1 (zh) |
CN (1) | CN106994696B (zh) |
BR (1) | BR102016029103B1 (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9026242B2 (en) | 2011-05-19 | 2015-05-05 | Taktia Llc | Automatically guided tools |
JP6301314B2 (ja) | 2012-04-26 | 2018-03-28 | シェイパー ツールズ, インク.Shaper Tools, Inc. | 材料に作業を実行するため又は材料の表面に対する装置の位置を特定するためのシステム及び方法 |
WO2016183390A1 (en) | 2015-05-13 | 2016-11-17 | Taktia Llc | Systems, methods and apparatus for guided tools |
EP4375773A3 (en) | 2016-08-19 | 2024-07-17 | Shaper Tools, Inc. | Apparatus and method for guiding a tool positioned on the surface of a piece of material |
JP6622775B2 (ja) * | 2017-10-12 | 2019-12-18 | ファナック株式会社 | 計測システム |
CN108107439A (zh) * | 2017-11-30 | 2018-06-01 | 上海华力微电子有限公司 | 蚀刻设备真空传输腔内机械手臂位置量测方法及装置 |
TWI653130B (zh) | 2017-12-05 | 2019-03-11 | 財團法人工業技術研究院 | 機械手臂的校正裝置及其校正方法 |
US11609544B2 (en) | 2018-01-29 | 2023-03-21 | Shaper Tools, Inc. | Systems, methods and apparatus for guided tools with multiple positioning systems |
JP6816070B2 (ja) | 2018-08-24 | 2021-01-20 | ファナック株式会社 | 干渉回避装置およびロボットシステム |
US10926416B2 (en) | 2018-11-21 | 2021-02-23 | Ford Global Technologies, Llc | Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture |
DE102020112352A1 (de) | 2019-05-30 | 2020-12-03 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Kamera und Roboter-System |
US10989671B2 (en) | 2019-09-16 | 2021-04-27 | The Boeing Company | Method and system for determining alignment and orientation of a target |
US11113844B2 (en) | 2019-11-26 | 2021-09-07 | The Boeing Company | Systems and methods for automatic quality assessment of multiple-camera calibration |
CN114945884B (zh) * | 2020-01-22 | 2025-07-08 | Abb瑞士股份有限公司 | 用于控制机器人的系统和方法、电子设备和计算机可读介质 |
ES1243504Y (es) * | 2020-02-13 | 2020-09-01 | Sosa Gonzalez S L | Robot autónomo de pintura |
CN111325659A (zh) * | 2020-02-19 | 2020-06-23 | 北京迈格威科技有限公司 | 三维人像的获取方法、视频分析方法、装置、设备和介质 |
US11548158B2 (en) * | 2020-04-17 | 2023-01-10 | Abb Schweiz Ag | Automatic sensor conflict resolution for sensor fusion system |
CN116133783A (zh) | 2020-07-29 | 2023-05-16 | 株式会社尼康 | 加工系统 |
US11794352B2 (en) | 2021-01-04 | 2023-10-24 | The Boeing Company | Bore metrology methods and systems, and bore locating target assemblies for use therewith |
CN119424023A (zh) * | 2024-11-15 | 2025-02-14 | 中国人民解放军陆军第九五七医院 | 一种实验用钝性打击控制方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6266142B1 (en) * | 1998-09-21 | 2001-07-24 | The Texas A&M University System | Noncontact position and orientation measurement system and method |
US6314631B1 (en) * | 1981-05-11 | 2001-11-13 | Great Lakes Intellectual Property | Vision target based assembly |
US7200260B1 (en) * | 1999-04-08 | 2007-04-03 | Fanuc Ltd | Teaching model generating device |
US7800758B1 (en) * | 1999-07-23 | 2010-09-21 | Faro Laser Trackers, Llc | Laser-based coordinate measuring device and laser-based method for measuring coordinates |
CN103895023A (zh) * | 2014-04-04 | 2014-07-02 | 中国民航大学 | 一种基于编码方位装置的机械臂末端跟踪测量系统及方法 |
CN104736304A (zh) * | 2012-10-19 | 2015-06-24 | 伊诺斯自动化软件有限责任公司 | 工业机器人的在线校准方法,执行该方法的系统和包括该校准系统的工业机器人 |
CN104776815A (zh) * | 2015-03-23 | 2015-07-15 | 中国科学院上海光学精密机械研究所 | 一种基于达曼光栅的彩色三维轮廓测量装置与方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5164579A (en) * | 1979-04-30 | 1992-11-17 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects including light spot centroid determination |
US5280179A (en) * | 1979-04-30 | 1994-01-18 | Sensor Adaptive Machines Incorporated | Method and apparatus utilizing an orientation code for automatically guiding a robot |
US4373804A (en) * | 1979-04-30 | 1983-02-15 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects |
US4456961A (en) * | 1982-03-05 | 1984-06-26 | Texas Instruments Incorporated | Apparatus for teaching and transforming noncoincident coordinate systems |
US4815845A (en) * | 1986-04-16 | 1989-03-28 | Westinghouse Electric Corp. | Axial alignment aid for remote control operations and related method |
US5195234A (en) * | 1991-08-19 | 1993-03-23 | Motorola, Inc. | Method and apparatus for visual alignment of parts |
DE69637413T2 (de) * | 1995-12-27 | 2009-01-22 | Fanuc Ltd. | Kompositdetektionssystem für roboter |
US6044308A (en) * | 1997-06-13 | 2000-03-28 | Huissoon; Jan Paul | Method and device for robot tool frame calibration |
US6070109A (en) * | 1998-03-10 | 2000-05-30 | Fanuc Robotics North America, Inc. | Robot calibration system |
SE0001312D0 (sv) * | 2000-04-10 | 2000-04-10 | Abb Ab | Industrirobot |
US6741364B2 (en) | 2002-08-13 | 2004-05-25 | Harris Corporation | Apparatus for determining relative positioning of objects and related methods |
JP4021413B2 (ja) * | 2004-01-16 | 2007-12-12 | ファナック株式会社 | 計測装置 |
JP4191080B2 (ja) * | 2004-04-07 | 2008-12-03 | ファナック株式会社 | 計測装置 |
JP3946711B2 (ja) * | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
US7536242B2 (en) * | 2004-11-12 | 2009-05-19 | The Boeing Company | Optical laser guidance system apparatus and method |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
WO2007124010A2 (en) * | 2006-04-20 | 2007-11-01 | Faro Technologies, Inc. | Camera based six degree-of-freedom target measuring and target tracking device |
WO2007124009A2 (en) * | 2006-04-21 | 2007-11-01 | Faro Technologies, Inc. | Camera based six degree-of-freedom target measuring and target tracking device with rotatable mirror |
JP4267005B2 (ja) * | 2006-07-03 | 2009-05-27 | ファナック株式会社 | 計測装置及びキャリブレーション方法 |
US9393694B2 (en) * | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
US9266241B2 (en) * | 2011-03-14 | 2016-02-23 | Matthew E. Trompeter | Robotic work object cell calibration system |
GB2504890A (en) * | 2011-04-15 | 2014-02-12 | Faro Tech Inc | Enhanced position detector in laser tracker |
JP6025386B2 (ja) * | 2012-05-02 | 2016-11-16 | キヤノン株式会社 | 画像計測装置、画像計測方法及び画像計測プログラム |
WO2014016814A2 (en) * | 2012-07-27 | 2014-01-30 | University Of Kwazulu-Natal | An apparatus for use on a cable; and a system for and method of inspecting a cable |
US8485017B1 (en) * | 2012-08-01 | 2013-07-16 | Matthew E. Trompeter | Robotic work object cell calibration system |
EP2934821A1 (en) | 2012-12-21 | 2015-10-28 | Beckman Coulter, Inc. | System and method for laser-based auto-alignment |
US9041914B2 (en) * | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9476695B2 (en) * | 2013-07-03 | 2016-10-25 | Faro Technologies, Inc. | Laser tracker that cooperates with a remote camera bar and coordinate measurement device |
US10021379B2 (en) * | 2014-06-12 | 2018-07-10 | Faro Technologies, Inc. | Six degree-of-freedom triangulation scanner and camera for augmented reality |
US9903934B2 (en) * | 2015-06-30 | 2018-02-27 | Faro Technologies, Inc. | Apparatus and method of measuring six degrees of freedom |
-
2016
- 2016-01-22 US US15/004,459 patent/US9815204B2/en active Active
- 2016-10-28 EP EP16196434.1A patent/EP3195989B1/en active Active
- 2016-12-05 CN CN201611120508.0A patent/CN106994696B/zh active Active
- 2016-12-12 BR BR102016029103-8A patent/BR102016029103B1/pt active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6314631B1 (en) * | 1981-05-11 | 2001-11-13 | Great Lakes Intellectual Property | Vision target based assembly |
US6266142B1 (en) * | 1998-09-21 | 2001-07-24 | The Texas A&M University System | Noncontact position and orientation measurement system and method |
US7200260B1 (en) * | 1999-04-08 | 2007-04-03 | Fanuc Ltd | Teaching model generating device |
US7800758B1 (en) * | 1999-07-23 | 2010-09-21 | Faro Laser Trackers, Llc | Laser-based coordinate measuring device and laser-based method for measuring coordinates |
CN104736304A (zh) * | 2012-10-19 | 2015-06-24 | 伊诺斯自动化软件有限责任公司 | 工业机器人的在线校准方法,执行该方法的系统和包括该校准系统的工业机器人 |
CN103895023A (zh) * | 2014-04-04 | 2014-07-02 | 中国民航大学 | 一种基于编码方位装置的机械臂末端跟踪测量系统及方法 |
CN104776815A (zh) * | 2015-03-23 | 2015-07-15 | 中国科学院上海光学精密机械研究所 | 一种基于达曼光栅的彩色三维轮廓测量装置与方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170210011A1 (en) | 2017-07-27 |
CN106994696A (zh) | 2017-08-01 |
US9815204B2 (en) | 2017-11-14 |
EP3195989A1 (en) | 2017-07-26 |
EP3195989B1 (en) | 2020-02-19 |
BR102016029103B1 (pt) | 2021-12-21 |
BR102016029103A2 (pt) | 2017-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106994696B (zh) | 用于末端执行器的定向系统和坐标系变换方法 | |
KR20210019014A (ko) | 공간의 복잡한 표면에서 지점의 위치를 결정하기 위한 방법 및 플랜트 | |
US10157458B2 (en) | Laser projection system and method | |
EP3619498B1 (en) | Triangulation scanner having flat geometry and projecting uncoded spots | |
EP3274737B1 (en) | Methods and systems for lidar optics alignment | |
EP3584533A1 (en) | Coordinate measurement system | |
JP6080969B2 (ja) | 対象物の姿勢を決定するための方法と装置 | |
US20140081459A1 (en) | Depth mapping vision system with 2d optical pattern for robotic applications | |
CN105190235A (zh) | 以六自由度跟踪的结构光扫描仪的补偿 | |
CN105102925A (zh) | 三维坐标扫描仪和操作方法 | |
CA2541635A1 (en) | Hybrid sensing apparatus for adaptive robotic processes | |
JP2017019072A (ja) | 位置計測システム | |
US20160071272A1 (en) | Noncontact metrology probe, process for making and using same | |
US11927477B2 (en) | Method for photometric characterization of the optical radiation characteristics of light sources and radiation sources | |
US11105607B2 (en) | Non-contact probe and method of operation | |
US5363185A (en) | Method and apparatus for identifying three-dimensional coordinates and orientation to a robot | |
US20180364358A1 (en) | System and method for positioning measurement | |
US12036682B2 (en) | Calibration system comprising an end effector with an adjustable member and a measurement instrument for determining a location of the adjustable member, and a method of operating the same | |
JPH0820207B2 (ja) | 光学式3次元位置計測方法 | |
US10060733B2 (en) | Measuring apparatus | |
US10885368B2 (en) | Six-dimensional smart target | |
JP5280918B2 (ja) | 形状測定装置 | |
CN117557627A (zh) | 基于红外标记进行定位的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |