CN115272466A - 手眼标定方法、视觉机器人、手眼标定设备和存储介质 - Google Patents
手眼标定方法、视觉机器人、手眼标定设备和存储介质 Download PDFInfo
- Publication number
- CN115272466A CN115272466A CN202210869748.XA CN202210869748A CN115272466A CN 115272466 A CN115272466 A CN 115272466A CN 202210869748 A CN202210869748 A CN 202210869748A CN 115272466 A CN115272466 A CN 115272466A
- Authority
- CN
- China
- Prior art keywords
- calibration
- light field
- image
- pixel
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 230000000007 visual effect Effects 0.000 title claims abstract description 47
- 230000009466 transformation Effects 0.000 claims abstract description 96
- 239000011159 matrix material Substances 0.000 claims abstract description 37
- 230000015654 memory Effects 0.000 claims description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 14
- 238000009877 rendering Methods 0.000 claims description 12
- 238000009432 framing Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000009792 diffusion process Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请实施例公开了一种手眼标定方法,方法包括:获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像;基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系;基于目标位姿变换关系对视觉机器人进行手眼标定。本申请实施例同时还公开了一种视觉机器人、手眼标定设备和存储介质。
Description
技术领域
本申请涉及电子与信息技术领域,尤其是涉及一种手眼标定方法、视觉机器人、手眼标定设备和存储介质。
背景技术
随着工业现场的工艺对精度要求越来越高,视觉机器人的机械手需要通过搭配高精度的视觉传感器如相机作为视觉机器人的“眼睛”协调以完成高精度的工艺。为了保证机械手的抓取精度,在安装相机后需通过手眼标定来获取相机相对于机器手的位姿变换关系,以建立视觉传感器和视觉机器人之间的信息转换,使得当视觉传感器采集到标定物的视觉信息如视觉图像后,将标定物的视觉信息转换成视觉机器人可接受的位置信息,从而控制机械手对标定物的精准抓取。目前,对手眼标定方法还有待进一步研究。
发明内容
本申请实施例期望提供一种手眼标定方法、视觉机器人、手眼标定设备和存储介质。
本申请的技术方案是这样实现的:
本申请提供一种手眼标定方法,所述方法包括:
获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;
控制视觉机器人的机械手运动,获得所述机械手在至少两个位姿下,通过所述视觉机器人的光场相机拍摄所述参考点阵得到的光场图像;
基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系;
基于所述目标位姿变换关系对所述视觉机器人进行手眼标定。
本申请提供一种视觉机器人,所述视觉机器人包括:
光场相机,用于拍摄光场图像;
机器人本体,所述机器人本体具有基座,以及设置在所述基座上的机械手,所述机械手用于固定待拍摄物体;
控制装置,用于获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得所述机械手在至少两个位姿下,通过所述视觉机器人的光场相机拍摄所述参考点阵得到的光场图像;基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系;基于所述目标位姿变换关系对所述视觉机器人进行手眼标定。
本申请提供一种手眼标定设备,所述手眼标定设备包括:
存储器,用于存储手眼标定程序;
处理器,用于执行所述存储器中存储的手眼标定程序,实现上述所述的手眼标定方法。
本申请提供一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述所述的手眼标定方法。
本申请实施例所提供的手眼标定方法、视觉机器人、手眼标定设备和存储介质,获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像;基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系;基于目标位姿变换关系对视觉机器人进行手眼标定;如此,基于获取的不同位姿下的光场图像,以及标定物中任一参考标定点的三维物理坐标,确定标定物相对于光场相机的目标位姿变换关系,从而快速完成视觉机器人的手眼标定,提高了手眼标定的准确度和效率。
附图说明
图1为本申请实施例提供的一种手眼标定设备所采用的设备的示意图;
图2为本申请实施例提供的视觉机器人的机械手末端移动至不同位姿时的示意图;
图3为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图4为本申请实施例提供的选取参考点阵的示意图;
图5为本申请实施例提供的光场成像原理的示意图;
图6为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图7为本申请实施例提供的光在传播过程中所包含的光场信息的示意图;
图8为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图9为本申请实施例提供的中心视角图像和视差图像的示意图;
图10为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图11为本申请实施例提供的包括所有目标标定点在相机坐标系下的三维点云坐标;
图12为本申请实施例提供的标定板重建结果和实际值之间的结果对比以及绝对距离误差的示意图;
图13为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图14为本申请实施例提供的结合光场相机的光学配置和光传播过程的示意图;
图15为本申请实施例提供的微透镜的投影中心标定的示意图;
图16为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图17为本申请实施例提供的点状特征检测过程的示意图;
图18为本申请实施例提供的弥散圆特征的提取过程的示意图;
图19为本申请实施例提供的一种可选的手眼标定方法的流程示意图;
图20为本申请实施例提供的点状特征重投影过程的示意图;
图21为本申请实施例提供的一种视觉机器人的结构示意图;
图22为本申请实施例提供的一种手眼标定设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
相关技术中,存在两种类型的手眼标定,即“眼在手上”的手眼标定和“眼在手外”的手眼标定,本申请实施例提供的手眼标定方法适用于上述两种情况,这里,本申请实施例中以“眼在手外”的情况为例对手眼标定的基本原理进行说明。参照图1和图2所示,手眼标定设备所采用的设备如下:视觉机器人、光场相机和标定物,且标定物被固定在视觉机器人的机械手上,将光场相机固定于世界坐标系,光场图像拍摄固定于视觉机器人的机械手上的标定物,在确保光场相机可以观察到标定物的条件下,控制视觉机器人的机械手移动,进而使得标定物移动至若干位置,分别记录各个位置处视觉机器人的位姿。这里,光场相机(camera)的相机坐标系为{C},机械人的基座(base)坐标系记为{B},第i个位置处的机械手末端(griper)坐标系为{Gi},第i个位置处的标定物坐标系(world)记为{Wi}。需要说明的是,视觉机器人的基座坐标系{B}、机械手末端坐标系{Gi}、相机坐标系{C}和标定物坐标系{Wi}形成一个循环,通过这个循环关系可以实现各个坐标系之间的转换。这里,标定物被固定在视觉机器人的机械手中,当机械手末端移动到两个不同位置G1和G2,标定物跟着机械手的移而运动到W1和W2位置,在整个标定过程中,由于光场相机相对于基座的位姿变换关系bHc和标定物相对于机械手的位姿变换关系gHw是固定的,因此,标定物相对于机械手的位姿变换关系可以通过如下(公式1)表示,
gHw=g1Hb·bHc·cHw1=g2Hb·bHc·cHw2 (公式1)
其中,gHw表示标定物相对于机械手的位姿变换关系,gHb表示基座相对于机械手末端的位姿变换关系,bHc表示光场相机相对于基座的位姿变换关系,cHw表示标定物相对于光场相机的位姿变换关系。
进一步地,对(公式1)进行变换处理,得到如下(公式2),
(g2Hb)-1·g1Hb·bHc=bHc·cHw2·(cHw1)-1 (公式2)
令A=(g2Hb)-1·g1Hb,B=cHw2·(cHw1)-1,X=bHc,(公式2)可化简为A·X=X·B的形式,手眼标定求解问题即转化为求解A·X=X·B中X的问题,在任意两个位姿下进行拍摄标定物,并通过机器人示教器上读取的关节角度以及和机器人正运动学模型计算得到不同位姿下基座相对于机器手末端的位姿变换关系gHb,并得到标定物相对于光场相机的位姿变换关系cHw,进而基于基座相对于机器手末端的位姿变换关系gHb和标定物相对于光场相机的位姿变换关系cHw,求解X,即求解光场相机相对于基座的位姿变换关系bHc。
基于上述的手眼标定设备以及手眼标定的原理,本申请的实施例提供一种手眼标定方法,应用于视觉机器人,参照图3所示,该方法包括以下步骤:
步骤101、获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标。
本申请实施例中,标定物是具有特定方格或图案的标定板,如标定物可以为棋盘格的标定板。标定板广泛应用在机器视觉、图像测量、摄影测量、三维重建等领域中。通过相机拍摄带有固定间距图案阵列平板、经过标定算法的计算,可以得出相机的几何模型,从而得到高精度的测量和重建结果。而带有固定间距图案阵列的平板就是标定板。
本申请实施例中,标定物包括多个标定点,且相邻两个标定点之间的间距相等。示例性的,相邻两个标定点之间的间距可以是0.5毫米(millimeter,mm)。
本申请实施例中,参考点阵是从标定物包括的所有标定点中,选取一定数量的标定点组成的阵列,且参考点阵是用于计算的点阵。参考标定点是参考点阵中的任一标定点。
在实际应用中,标定物坐标系是以标定物中的任一标定点为原点,标定物的左右方向为X轴所在的方向,标定物的前后方向为Y轴所在的方向,标定物的上下方向为Z轴所在的方向建立的空间直角坐标系。示例性的,参照图4所示,以标定物的所有标定点中,位于左下角的标定点为原点,选取9×12个标定点作为参考点阵,并确定参考点阵中每一参考标定点在标定物坐标系下的三维物理坐标,即每一参考标定点在标定物坐标系下的位置坐标。
步骤102、控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像。
本申请实施例中,光场图像是机械手在至少两个位姿下,光场相机拍摄标定物得到的原始图像。这里,光场图像可以是标定物固定在机械手上,光场相机拍摄固定在机械手上的标定物中的参考矩阵处于至少两个位姿下所获得的原始图像;光场图像也可以是光场相机固定在机械手上,使用光场相机采用至少两个位姿拍摄标定物中的参考矩阵所获得的原始图像,对此,本申请不做具体限制。
这里,对光场相机的光学配置进行说明,光场相机的光学配置由三部分构成,分别为:前置光学系统、微透镜阵列以及光电传感器。前置光学系统是一个透镜组,其功能是对光线进行传递;微透镜阵列将采集到的光线信息进行聚焦及散焦;之后,由光电传感器将所有光线信息进行采集。如图5所示,光场成像原理示意图中,主透镜组利用一个主透镜代替,将微透镜阵列放在主透镜的焦平面位置。微透镜阵列中含有m×m个独立的微透镜,这些微透镜均按照六边形结构分布,且每个微透镜下面覆盖着n×n个像素。这里,微透镜阵列相当于一个散焦元件,目的是使目标发出的光线通过主透镜组的聚焦之后,散射到若干个探测器单元上,使探测器可以记录来自不同位置、不同角度的光线信息。微透镜阵列的另一个作用是,把主透镜组的光成像在探测器上,并覆盖探测器上若干个像素;由此可知,主透镜组的整个光能够被探测器单元分割成了若干个子孔径。
步骤103、基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系。
本申请实施例,目标位姿变换关系用于标定标定物相对于光场相机的位姿变换。
本申请实施例中,视觉机器人控制自身的机械手运动,获得机械手在至少两个位姿下,视觉机器人的光场相机拍摄参考点阵得到的光场图像之后,基于机械手在至少两个不同位姿下得到的光场图像,以及参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系。
步骤104、基于目标位姿变换关系对视觉机器人进行手眼标定。
本申请实施例中,视觉机器人基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系之后,基于目标位姿变换关系,通过Tasi两步法对视觉机器人进行手眼标定,进而得到光场相机相对于基座(眼到手)的位姿变换关系,或光场相机相对于机械手末端(眼在手)的位姿变换关系。这里,通过Tasi两步法对视觉机器人进行手眼标定为常用的技术,本申请对此不作说明。
本申请实施例所提供的手眼标定方法,获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像;基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系;基于目标位姿变换关系对视觉机器人进行手眼标定;如此,基于获取的不同位姿下的光场图像,以及标定物中任一参考标定点的三维物理坐标,确定标定物相对于光场相机的目标位姿变换关系,从而快速完成视觉机器人的手眼标定,提高了手眼标定的准确度和效率。
本申请的实施例提供一种手眼标定方法,应用于视觉机器人,参照图6所示,该方法包括以下步骤:
步骤201、获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标。
步骤202、控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像。
步骤203、通过光场渲染算法对至少两个光场图像中每一光场图像进行渲染处理,得到每一光场图像对应的多视角图像。
其中,多视角图像包括中心视角图像。
本申请实施例中,多视角图像指的是每一光场图像在光线以不同入射角进行照射时得到的图像。这里,参照图7所示,光场是一束光在传播过程中所包含的光场信息,故光场图像包括所有光场信息,光场信息可以用一个四维的参数化表示L(x,y,u,v),光场信息包括光线强度、光线位置和光线方向等信息,L表示光的强度,(x,y)表示光场中的坐标信息,即微透镜排列次序,(u,v)表示光场中的角度信息,即宏像素像素排布。
本申请实施例中,由于光场相机相当于一个小型的相机阵列,故通过光场相机拍摄得到的光场图像不仅包含了拍摄场景中光线的空间位置信息还包含了入射角度信息;进一步地,视觉机器人通过光场渲染算法,将光场相机的uv平面和xy平面的信息进行解耦合,从而获取在不同位姿下的至少两个光场图像中每一光场图像在不同入射角下的多视角图像。需要说明的是,光场渲染算法的实质是将光场图像中每一个微透镜覆盖的区域(宏像素)中的各个位置的像素,即宏像素像素排布(u,v)按微透镜排列次序(x,y)重新排列。
步骤204、通过外极线图像算法对每一光场图像对应的多视角图像进行处理,得到每一光场图像对应的视差图像。
本申请实施例中,视差图像是一个二维图像,视差图像用于标定点的定位。
本申请实施例中,视觉机器人通过光场渲染算法对至少两个光场图像中每一光场图像进行渲染处理,得到每一光场图像对应的多视角图像之后,通过外极线图像算法对每一光场图像对应的多视角图像进行处理,得到每一光场图像对应的视差图像。这里,外极线图像(Epipolar Plane Image,EPI)算法的基本思想是,在四维光场数据L(x,y,u,v)中,若将坐标u和x进行固定,然后对(y,v)坐标下的像素按照对应关系进行重新排列,便可生成一幅(y,v)坐标下的EPI图像;同样若对四维光场数据L(x,y,u,v)中的v和y进行固定,对(x,u)坐标下的像素进行重排列,则可生成一幅(x,u)坐标下的EPI图像。之后根据极线斜率推算对应视差的算法,得到估计每一标定点的估计视差值。
步骤205、基于中心视角图像中所有参考标定点,对视差图像中的标定点进行定位,得到视差图像中的目标标定点。
本申请实施例中,视差图像中的目标标定点与参考标定点对应。
本申请实施例中,所有目标标定点组成目标点阵。
本申请实施例中,步骤205基于中心视角图像中所有参考标定点,对视差图像中的标定点进行定位,得到视差图像中的目标标定点的过程结合图8作出进一步地说明,
步骤2051、获得所有参考标定点中每一参考标定点在图像像素坐标系下的第二像素位置。
本申请实施例中,图像像素坐标系是以中心视角图像中的定好的像素或标定点为原点,在中心视角图像上建立的相应的坐标系。
本申请实施例中,第二像素位置指的是中心视角图像中的参考标定点在图像像素坐标系下的位置,并不是真实距离的位置,仅表示参考标定点在图像像素坐标系下的第几排第几列。
步骤2052、确定视差图像在图像像素坐标系下,与第二像素位置对应的标定点为目标标定点。
这里,参照图9所示,图9中的A示出的是中心视角图像,图9中的B示出的是视差图像,从图中可以看出,中心视角图像中的标定点的位置与视差图像中的标定点的位置一样,故视觉机器人获得中心视角图像中所有参考标定点中每一参考标定点在图像像素坐标系下的第二像素位置。并在视差图像中建立以与中心视角图像相应的标定点为原点的图像像素坐标系,在该图像像素坐标系下,确定视差图像中与第二像素位置对应的标定点为目标标定点,进而确定视差图像中的目标标定点与标定物中选取的参考标定点是一一对应关系。
步骤206、基于目标标定点在图像像素坐标系下的第一像素位置,得到目标标定点在相机坐标系下的三维点云坐标。
本申请实施例中,步骤206基于目标标定点在图像像素坐标系下的第一像素位置,得到目标标定点在相机坐标系下的三维点云坐标的过程结合图10作出进一步地说明,
步骤2061、获得视差图像中的每一目标标定点的视差值。
步骤2062、基于第一像素位置和视差值,得到三维点云坐标。
本申请实施例中,视差图像是二维灰度图像,视差图像中的每一像素点(标定点)的灰度值表征深度信息,且视差值与深度信息有关,视觉机器人通过光场校准,得到视差图像中的每一目标标定点的深度信息,进而得到视差图像中的每一目标标定点的视差值;进一步地,基于目标标定点在图像像素坐标系下的第一像素位置和视差值,转换成该目标标定点在相机坐标系下的三维点云坐标,进而得到包括所有目标标定点在在相机坐标系下的三维点云坐标,参照图11所示,图11示出的是包括所有目标标定点在相机坐标系下的三维点云坐标。
步骤207、基于所有目标标定点对应的三维点云坐标,与对应位置的参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系。
本申请实施例中,视觉机器人将目标点阵中所有目标标定点在相机坐标系下对应的三维点云坐标,和对应位置的参考标定点在标定物坐标系的三维物理坐标进行匹配,计算相机坐标系下对应的所有三维点云坐标和标定物坐标系下对应的三维物理坐标之间的刚体变换,得到标定物相对于光场相机的目标位姿变换关系。
步骤208、基于目标位姿变换关系对视觉机器人进行手眼标定。
在一种可实现的应用场景中,将光场相机固定在外部环境中,具有高精度点阵的标定板固定视觉机器人的机械手末端上,标定板中的相邻标定点之间的间距为0.5mm。参照图4所示,以位于左下角的点为原点,选取9×12个标定点作为参考点阵,移动机械手末端至13个不同的位姿状态并保证在各个位置处光场相机都能拍摄到参考点阵,并记录机械手末端的关节角度。
进一步地,数据采集完毕后,通过视觉机器人示教器可以计算可以得到视觉机器人每个位姿下基座坐标系{B}相对于机械手末端坐标系{Gi}的位姿变换关系bHgi,通过点云匹配计算每个位姿下标定物坐标系{Wi}相对于相机坐标系{C}的位姿变换关系cHwi,故可以得到12组用于手眼标定求解的齐次变换矩阵AN和BN(N=1,2,…,11)。计算得到的光场相机相对于基座的位姿变换关系bHc为:
示例性的,取第一组位姿数据,对点云匹配计算出的标定物相对于相机的位姿变换关系cHw进行精度验证。利用cHw把目标点阵对应三维点云坐标重投影到标定物坐标系中,与参考点阵在标定物坐标系的三维物理坐标进行对比,以重建结果和实际值(三维物理坐标)之间的绝对距离作为误差衡量标准,参照图12所示,图12中的A示出的是标定板重建结果和实际值之间的结果对比示意图;图12中的B示出的是标定板重建结果和实际值之间的绝对距离误差的示意图。从图中可以看出,第一组位姿变换关系中,重建误差最大为0.041mm。
由上述可知,本申请实施例中,通过光场相机拍摄标定物的参考点阵,计算出参考点阵在相机坐标系下的三维点云坐标。已知标定物中相邻标定点的点阵间距,可自行确定原点建立标定板坐标系(z方向坐标为0),由于中心视角图像和视差图像一一对应,视差图像上的像素值又与三维点云一一对应,因此可以利用中心视角图像进行定位,将目标点阵中所有目标标定点在相机坐标系下对应的三维点云坐标,和对应位置的参考标定点在标定物坐标系的三维物理坐标进行匹配,计算相机坐标系下对应的所有三维点云坐标和标定物坐标系下对应的三维物理坐标之间的刚体变换,得到标定物相对于光场相机的目标位姿变换关系,进而实现机器人的手眼标定,提高了手眼标定的效率。
需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。
本申请的实施例提供一种手眼标定方法,应用于视觉机器人,参照图13所示,该方法包括以下步骤:
步骤301、获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标。
步骤302、控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,视觉机器人的光场相机拍摄参考点阵得到的光场图像。
这里,参照图14和表1所示,图14示出的是结合光场相机的光学配置和光传播过程的示意图,表1列出了光场投影模型中使用的符号的含义。根据图14所示的非聚焦全光相机的光学配置,来自三维物理空间中单个点的光线将首先通过主透镜,然后到达单个会聚点即像点。然后光线将由一组微透镜根据其传播角度进行分离,在传感器平面上形成光场图像。
P<sub>C</sub>(P<sub>C</sub><sup>x</sup>,P<sub>C</sub><sup>y</sup>,P<sub>C</sub><sup>z</sup>) | 参考标定点在相机坐标系{C}下的坐标(mm) |
l<sub>ci</sub> | 第i个微透镜中心的位置 |
l<sub>pi</sub> | 第i个微透镜在传感器平面的投影中心的位置 |
p<sub>ci</sub> | 第i个微透镜对应的点状特征的位置 |
Q<sub>p</sub>(Q<sub>p</sub><sup>u</sup>,Q<sub>p</sub><sup>v</sup>) | 像点Q<sub>C</sub>在传感器平面的投影的位置 |
O<sub>c</sub>(O<sub>c</sub><sup>u</sup>,O<sub>c</sub><sup>v</sup>) | 相机在图像坐标中的光学中心 |
D<sub>p</sub> | 弥散圆直径(像素,pixel) |
C<sub>p</sub>(C<sub>p</sub><sup>u</sup>,C<sub>p</sub><sup>v</sup>) | 弥散圆圆心(pixel) |
S<sub>i</sub> | 像距(mm),即主透镜与焦平面之间的距离 |
f<sub>l</sub> | 微透镜焦距(mm) |
p<sub>p</sub> | 像素真实物理尺寸(mm) |
p<sub>m</sub> | 主透镜有效光圈直径(mm) |
f<sub>m</sub> | 主透镜焦距(mm) |
p<sub>l</sub> | 微透镜真实物理尺寸(mm) |
f<sub>#,m</sub> | 主透镜的F数 |
f<sub>#,l</sub> | 微透镜的F数,f<sub>#,l</sub>=f<sub>l</sub>/p<sub>l</sub> |
M | 主透镜的放大倍率 |
PMR | PMR=p<sub>l</sub>/p<sub>p</sub> |
表1
步骤303、获得通过光场相机拍摄纯色标定物所获得纯色图像。
本申请实施例中,光场相机在对纯色标定物进行拍摄之前,需要调整光场相机的主透镜的光圈,并将主透镜的光圈调至最小,从而使微透镜形成小光圈。此时,通过调至后的光场相机拍摄纯色标定物所获得的纯色图像,即为微透镜形成的所有小光圈中相邻小光圈(宏像素)相切。在实际应用过程中,参照图15所示,图15示出的是微透镜的投影中心标定的示意图,图15中的A示出的是主透镜的光圈调至最小时获得的最小光圈图,图15中的B示出的是将光场相机调至宏像素相切状态得到的宏像素相切图。
本申请实施例中,纯色标定物可以是亮度均匀的标定物,如白板、白墙或其他纯色物体。
步骤304、对纯色图像进行标定处理,得到光场相机的微透镜阵列中每一微透镜的中心于光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置。
本申请实施例中,参照图14所示,视觉机器人获得通过光场相机拍摄纯色标定物所获得纯色图像之后,通过微透镜阵列标定算法对纯色图像进行亮度加权计算,得到光场相机的微透镜阵列(Micro Lens Array,MLA)中每一微透镜的微透镜中心lci,以及微透镜中心lci在光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置lpi。
在实际应用中,参照图14所示,由于主透镜为理想薄透镜,来自光场图像中任一参考标定点在相机坐标系下的坐标PC(PC x,PC y,PC z)的所有光线,三维空间中的PC通过主透镜将形成像点QC(QC x,QC y,QC z)。因此,根据薄透镜成像原理给出了光场图像中的任一参考标定点PC和像点QC之间的关系如公式3所示,
其中,-QC z是像点QC在Z方向上与主透镜的距离,是光场图像中的参考标定点PC在相机坐标系{C}下在Z轴方向上与主透镜的距离,fm是主透镜焦距。来自像点QC的光线将到达MLA平面(又称微透镜平面或微透镜阵列平面)并遇到一组微透镜。由于微透镜被建模为针孔阵列,MLA下方的投影图像中心将偏离微透镜中心。这里,Oc(Oc u,Oc v)表示相机在图像坐标中的光学中心。视觉机器人基于纯色图像得到微透镜阵列中每一微透镜中心,这里,第i个透镜的透镜中心的坐标表示为假设光场相机内部具有理想的物理对准,MLA平面平行于主透镜。也就是说,微透镜与主透镜平面的距离恒定。这里,用微透镜投影中心lpi和光心Oc在传感器平面投影坐标Op表示微透镜中心lci,从而确定微透镜中心lci和微透镜投影中心lpi的关系,这里,微透镜投影中心lpi和光心Oc在传感器平面投影坐标Op表示微透镜中心lci,可以通过如下公式5表示,
需要说明的是,此处以及后续的第i个微透镜中心的位置lci可以描述成微透镜中心lci,第i个微透镜在传感器平面的投影中心的位置可以描述成微透镜投影中心lpi或投影中心lpi。
步骤305、针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在传感器平面中,对应第三像素位置的点状特征的第四像素位置,得到所有投影中心对应的所有点状特征在图像坐标系下的第四像素位置。
其中,第一预设窗口用于包括参考标定点对应的投影中心。
本申请实施例中,视觉机器人在得到光场相机的微透镜阵列中每一微透镜的微透镜中心lci,以及微透镜中心lci在光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置lpi之后,针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在传感器平面中,对应第三像素位置lpi的点状特征的第四像素位置pci,得到所有投影中心对应的所有点状特征在图像坐标系下的第四像素位置pci。需要说明的是,此处以及后续的所有点状特征在图像坐标系下的第四像素位置pci可以描述成所有点状特征pci。
本申请实施例中,步骤305针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在传感器平面中,对应第三像素位置lpi的点状特征的第四像素位置pci的过程结合图16作出进一步地说明,
步骤3051、在光场图像中框定以第三像素位置为中心,确定具有第一预设窗口的第一区域。
步骤3052、从第一区域的所有像素中,确定像素特征满足特征选择条件的像素为第一目标点。
本申请实施例中,像素特征满足特征选择条件包括:第一区域内像素的亮度值大于亮度阈值且像素的亮度值大于或等于相邻像素的亮度值,以及像素与第三像素位置对应的投影中心之间的距离最短。
步骤3053、在光场图像中框定以第一目标点为中心,确定具有第二预设窗口的第二区域。
其中,第二预设窗口的大小小于第一预设窗口的大小。
步骤3054、基于对第二区域的所有像素的像素位置进行灰度加权平均,得到点状特征的第四像素位置。
在一种可实现的应用场景中,参照图14所示,来自参考标定点PC的光线将遇到一组微透镜。对于每个遇到的微透镜,对应的微图像下最多包含一个点状特征。然而,标定物上的实际白点并非无限小,并且在实际成像过程中存在像差。注意,每个点状特征将覆盖几个像素。因此,使用如下方法从光场图像计算点状特征的位置。点状特征检测过程如图17所示。首先,在空间上检索相应的微透镜中心。然后,在光场图像中框定以第三像素位置lpi为中心,确定具有第一预设窗口Wl如13×13的第一区域,在第一区域中,选择像素特征满足特征选择条件的第一目标点,像素特征满足特征选择条件包括:第一区域内像素的亮度值大于亮度阈值且像素的亮度值大于相邻像素的亮度值,以及像素与第三像素位置对应的投影中心之间的距离最短;进一步地,在光场图像中框定以第一目标点为中心,确定具有第二预设窗口Ws如5×5的第二区域,对第二区域的所有像素的像素位置进行灰度加权平均,得到点状特征的第四像素位置pci。如此,选择像素特征满足特征选择条件的标定点,避免了出现像素值相同的情况,设置了距离最近可以解决像素相同的问题又可以排除找到别的微透镜区域的问题,进而准确找到满足要求的标定点,以精确标定物相对于光场相机的目标位姿变换关系,从而快速完成视觉机器人的手眼标定,提高了手眼标定的准确度和效率。
步骤306、基于所有投影中心的第三像素位置和所有点状特征的第四像素位置,确定参考标定点对应的弥散圆特征。
本申请实施例中,弥散圆特征包括弥散圆的圆心位置和弥散圆的直径
本申请实施例中,视觉机器人基于所有投影中心的第三像素位置和所有点状特征的第四像素位置,通过如下公式6确定参考标定点对应的弥散圆的圆心Cp(Cp u,Cp v)和弥散圆的直径Dp。
其中,lpi(lpi u,lpi v)是第i个微透镜中心于传感器面投影位置在图像坐标系下的像素位置,pci(pci u,pci v)是第i个微透镜对应的点状特征在图像坐标系下的像素位置,(Dp,Cp u,Cp v)表示弥散圆特征。参照图18所示,图18示出了弥散圆特征的提取过程。
这里,参照图14所示,公式6的推导过程可以通过如下公式7-公式20得到,具体地,由三角形相似则点状特征在图像坐标系下的第四像素位置pci通过微透镜中心lci和像点QC在传感器平面投影坐标Qp表示成如下公式7,
把公式5代入公式7中,可以得到点状特征在图像坐标系下的第四像素位置pci通过微透镜投影中心lpi,相机光心在传感器平面投影坐标Op、像点Qc在传感器平面的投影坐标Qp(Qp u,Qp v)表示为如下公式8,
其中,点Q在传感器平面的投影坐标Qp(Qp u,Qp v)和Q在相机坐标系下的坐标QC(QC x,QC y,QC z)之间的关系可以通过公式9表示,
进一步地,由ΔOAlci~Δlpipcilci,得到可得光线PA与主透镜的交点在相机坐标系下的坐标A(Ax,Ay,0),与第i个微透镜的投影中心对应的点状特征在图像坐标系下的第四像素位置pci之间为关系,可通过公式11表示,
其中,A(Ax,Ay,0)是光线PA与主透镜的交点在相机坐标系下的坐标,lpi(lpi u,lpi v)是第i个微透镜中心于传感器面投影位置在图像坐标系下的像素位置,pci(pci u,pci v)是第i个微透镜对应的点状特征在图像坐标系下的像素位置,lpi(lpi u,lpi v)是第i个微透镜中心于传感器平面投影位置在图像坐标系下的像素位置。
由投影相似性可得在微透镜平面形成的弥散圆特征的直径Dl与在传感器平面形成的弥散圆特征的直径Dp之间的关系,可通过公式12表示,
结合公式10,对公式12进行简化,得到MLA平面上形成的弥散圆特征的直径Dl和中心坐标Cl(Cl u,Cl v)、微透镜中心lci、点A在相机坐标系下的坐标(Ax,Ay,0)之间的关系,可通过公式13表示,
对公式11进行转换,得到用微透镜投影中心lpi和点状特征pci表示A点在相机坐标系下的坐标(Ax,Ay,0),具体表示如下公式14,
将公式14代入到公式13中可得,在微透镜平面形成的弥散圆特征的直径Dl与第i个微透镜中心于传感器面投影位置在图像坐标系下的像素位置lpi(lpi u,lpi v)、第i个微透镜对应的点状特征在图像坐标系下的像素位置pci(pci u,pci v)和第i个微透镜中心于传感器平面投影位置在图像坐标系下的像素位置lpi(lpi u,lpi v)之间的关系,可通过公式15表示,
即
对公式12进行变换处理,得到的在微透镜平面形成的弥散圆特征的直径Dl与在传感器平面形成的弥散圆特征的直径Dp之间的关系可通过公式16表示;对公式12进行变换处理,得到的在微透镜平面形成的弥散圆特征中心Cl和在传感器平面形成的弥散圆中心Cp之间的关系,可通过公式17表示,
将公式16代入到公式15中,可得
由(公式17)有
将公式19代入到公式18中可得,
即
对公式20进行变换,得到公式6,即确定在光场图像中的参考标定点在传感器平面形成的弥散圆特征的直径Dp和在传感器平面形成的弥散圆中心Cp。
步骤307、基于所有参考标定点对应的弥散圆特征和所有参考标定点对应的三维物理坐标,得到目标位姿变换关系。
本申请实施例中,步骤307基于所有参考标定点对应的弥散圆特征和所有参考标定点对应的三维物理坐标,得到目标位姿变换关系的过程结合图19作出进一步地说明,
步骤3071、基于弥散圆特征和所有参考标定点对应的三维物理坐标,采用非线性方程组最小二乘法,确定标定物坐标系与相机坐标系之间的初始位姿变换关系和光场相机的内部参数初始值。
本申请实施例中,视觉机器人获得弥散圆特征(Dp,Cp u,Cp v)和光场图像在相机坐标系下任一参考标定点坐标PC(PC x,PC y,PC z)之间的第一变换关系;这里,第一变换关系可以通过如下公式21表示,
这里,参照图14,公式21的推导过程可以通过如下公式22-公式28得到,具体地,对公式12进行变换处理,得到在微透镜平面形成的弥散圆特征的直径Dl与在传感器平面形成的弥散圆特征的直径Dp之间的关系,可通过公式22表示,
对公式10进行变换处理,得到在微透镜平面形成的弥散圆特征的直径Dl和像点QC之间的关系,可通过公式23表示,
将公式23代入公式22中,得到在传感器平面形成的弥散圆特征的直径Dp和像点QC之间的关系,可通过公式24表示,
即
由可得又因为则有在传感器平面形成的弥散圆中心Cp中的Cp u和光场图像中任一参考标定点在相机坐标系下的坐标PC之间的关系,可通过公式27表示;在传感器平面形成的弥散圆中心Cp中的Cp v和光场图像中任一参考标定点在相机坐标系下的坐标PC之间的关系,可通过公式28表示,
进而基于公式26-至公式28,得到弥散圆特征(Dp,Cp u,Cp v)和光场图像在相机坐标系下任一参考标定点坐标PC(PC x,PC y,PC z)之间的第一变换关系。
进一步地,引入光场图像中任一参考标定点在相机坐标系下的坐标PC(PC x,PC y,PC z)与对应的参考标定点在标定物坐标系下的三维物理坐标(Pw x,Pw y,0)之间的位姿变换关系可以通过如下公式30表示,
其中,rot表示光场图像中参考标定点在相机坐标系下的坐标与对应的参考标定点在标定物坐标系下之间的旋转变换关系,rot表示光场图像中参考标定点在相机坐标系下的坐标与对应的参考标定点在标定物坐标系下之间的平移变换关系,其中,
将公式30代入公式21中,可整理成如下公式31,
对于第n个位姿处的标定物,由于rotn和posT n恒定,参考点阵中第m个位置处的弥散圆均满足公式32,即:
那么,对于第n个位姿标定物上所有参考点阵,则有:进一步地,通过奇异值分解(The Singular ValueDecomposition,SVD)得到最小二乘解再通过约束条件得到的线性解,的线性解包括光场相机的内部参数初始值。如公式33所示,
这里,基于旋转变换关系和平移变换关系,得到不同位姿下,标定物坐标系与相机坐标系之间的初始位姿变换关系,可以通过如下公式34表示,
步骤3072、构建非线性优化模型,将初始位姿变换关系和内部参数初始值输入至非线性优化模型中,得到非线性优化模型输出的目标位姿变换关系。
这里,根据理想薄透镜模型,相机的理论内部参数可以计算由:
Si=fm(1-M)
f#,m=f#,l/(1-M)
pm=fm/f#,m
M=-1
其中,M=-1,相机光心投影中心像素坐标位置Qp(Qp u,Qp v)可以用相机视图中心像素坐标位置作为初始值,即Qp u=3960,Qp v=2718。表2给出了相机内部参数。
相机参数 | 数值 |
PMR | 可知 |
f<sub>l</sub> | 可知 |
p<sub>l</sub> | 可知 |
p<sub>p</sub> | 可知 |
f<sub>m</sub> | 200(mm) |
M | -1 |
f<sub>#,l</sub> | 8.1349 |
f<sub>#,m</sub> | 4.0675 |
S<sub>i</sub> | 400(mm) |
p<sub>m</sub> | 49.1707 |
Q<sub>p</sub><sup>u</sup> | 3960 |
Q<sub>p</sub><sup>v</sup> | 2718 |
表2
将表2中的数据作为相机内部参数的输入初始值,求解的初始位姿变换关系cHwn作为相机外部参数的输入初始值,最小化弥散圆重投影误差进行非线性优化。确定弥散圆重投影误差函数为非线性优化模型:
agmin{||[Dp;Cp u;Cp v]compute-[Dp;Cp u;Cp v]estimate||2}
其中,[Dp;Cp u;Cp v]compute是通过将已知的参考点阵在标定物坐标系下的坐标借由初始位姿变换关系cHwn和公式21从而计算出的弥散圆特征,[Dp;Cp u;Cp v]estimate是通过公式6拟合提取出的弥散圆特征。参照图20所示,图20示出的是点状特征重投影过程,浅灰色的点状特征为计算出的特征,深灰色的点状特征为搜索出的特征。
步骤308、基于目标位姿变换关系对视觉机器人进行手眼标定。
需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。
本申请的实施例提供一种视觉机器人,该视觉机器人可以用于实施图3、图6、图8、图10、图13、图16和图19对应的实施例提供的一种手眼标定方法,参照图21所示,该视觉机器人21包括:
光场相机401,用于拍摄光场图像;
机器人本体402,机器人本体具有基座,以及设置在基座上的机械手,机械手用于固定待拍摄物体;
控制装置403,用于获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像;基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系;基于目标位姿变换关系对视觉机器人进行手眼标定。
本申请一些实施例中,控制装置403,还用于通过光场渲染算法对至少两个光场图像中每一光场图像进行渲染处理,得到每一光场图像对应的多视角图像,其中,多视角图像包括中心视角图像;通过外极线图像算法对每一光场图像对应的多视角图像进行处理,得到每一光场图像对应的视差图像;基于中心视角图像中所有参考标定点,对视差图像中的标定点进行定位,得到视差图像中的目标标定点;基于目标标定点在图像像素坐标系下的第一像素位置,得到目标标定点在相机坐标系下的三维点云坐标;基于所有目标标定点对应的三维点云坐标,与对应位置的参考标定点对应的三维物理坐标,得到目标位姿变换关系。
本申请一些实施例中,控制装置403,还用于获得所有参考标定点中每一参考标定点在图像像素坐标系下的第二像素位置;确定视差图像在图像像素坐标系下,与第二像素位置对应的标定点为目标标定点。
本申请一些实施例中,控制装置403,还用于获得视差图像中的每一目标标定点的视差值;基于第一像素位置和视差值,得到三维点云坐标。
本申请一些实施例中,控制装置403,还用于获取通过光场相机拍摄纯色标定物所获得纯色图像;对纯色图像进行标定处理,得到光场相机的微透镜阵列中每一微透镜的中心于光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置;针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在传感器平面中,对应第三像素位置的点状特征的第四像素位置,得到所有投影中心对应的所有点状特征在图像坐标系下的第四像素位置;其中,第一预设窗口用于包括参考标定点对应的所有投影中心;基于所有投影中心的第三像素位置和所有点状特征的第四像素位置,确定参考标定点对应的弥散圆特征;基于所有参考标定点对应的弥散圆特征和所有参考标定点对应的三维物理坐标,得到目标位姿变换关系。
本申请一些实施例中,控制装置403,还用于在光场图像中框定以第三像素位置为中心,确定具有第一预设窗口的第一区域;从第一区域的所有像素中,确定像素特征满足特征选择条件的像素为第一目标点;在光场图像中框定以第一目标点为中心,确定具有第二预设窗口的第二区域;其中,第二预设窗口的大小小于第一预设窗口的大小;基于对第二区域的所有像素的像素位置进行灰度加权平均,得到点状特征的第四像素位置。
本申请一些实施例中,像素特征满足特征选择条件,包括:第一区域内像素的亮度值大于亮度阈值且像素的亮度值大于或等于相邻像素的亮度值,以及像素与第三像素位置对应的投影中心之间的距离最短。
本申请一些实施例中,控制装置403,还用于基于弥散圆特征和所有参考标定点对应的三维物理坐标,采用非线性方程组最小二乘法,确定标定物坐标系与相机坐标系之间的初始位姿变换关系和光场相机的内部参数初始值;构建非线性优化模型,将初始位姿变换关系和内部参数初始值输入至非线性优化模型中,得到非线性优化模型输出的目标位姿变换关系。
基于前述实施例,该手眼标定设备可以用于图3、图6、图8、图10、图13、图16和图19对应的实施例提供的一种手眼标定方法,参照图22所示,该手眼标定设备22(图22中的手眼标定设备22与图21中的视觉机器人21相对应)包括:处理器501和存储器502,其中:
存储器502,用于存储手眼标定程序;
处理器501,用于执行存储器中502存储的手眼标定程序,实现以下步骤:
获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;
控制视觉机器人的机械手运动,获得机械手在至少两个位姿下,通过视觉机器人的光场相机拍摄参考点阵得到的光场图像;
基于至少两个光场图像和参考点阵中所有参考标定点对应的三维物理坐标,得到标定物相对于光场相机的目标位姿变换关系;
基于目标位姿变换关系对视觉机器人进行手眼标定。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
通过光场渲染算法对至少两个光场图像中每一光场图像进行渲染处理,得到每一光场图像对应的多视角图像,其中,多视角图像包括中心视角图像;通过外极线图像算法对每一光场图像对应的多视角图像进行处理,得到每一光场图像对应的视差图像;基于中心视角图像中所有参考标定点,对视差图像中的标定点进行定位,得到视差图像中的目标标定点;基于目标标定点在图像像素坐标系下的第一像素位置,得到目标标定点在相机坐标系下的三维点云坐标;基于所有目标标定点对应的三维点云坐标,与对应位置的参考标定点对应的三维物理坐标,得到目标位姿变换关系。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
获得所有参考标定点中每一参考标定点在图像像素坐标系下的第二像素位置;确定视差图像在图像像素坐标系下,与第二像素位置对应的标定点为目标标定点。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
获得视差图像中的每一目标标定点的视差值;基于第一像素位置和视差值,得到三维点云坐标。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
获取通过光场相机拍摄纯色标定物所获得纯色图像;对纯色图像进行标定处理,得到光场相机的微透镜阵列中每一微透镜的中心于光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置;针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在传感器平面中,对应第三像素位置的点状特征的第四像素位置,得到所有投影中心对应的所有点状特征在图像坐标系下的第四像素位置;其中,第一预设窗口用于包括参考标定点对应的所有投影中心;基于所有投影中心的第三像素位置和所有点状特征的第四像素位置,确定参考标定点对应的弥散圆特征;基于所有参考标定点对应的弥散圆特征和所有参考标定点对应的三维物理坐标,得到目标位姿变换关系。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
在光场图像中框定以第三像素位置为中心,确定具有第一预设窗口的第一区域;从第一区域的所有像素中,确定像素特征满足特征选择条件的像素为第一目标点;在光场图像中框定以第一目标点为中心,确定具有第二预设窗口的第二区域;其中,第二预设窗口的大小小于第一预设窗口的大小;基于对第二区域的所有像素的像素位置进行灰度加权平均,得到点状特征的第四像素位置。
本申请的其他实施例中,像素特征满足特征选择条件,包括:第一区域内像素的亮度值大于亮度阈值且像素的亮度值大于或等于相邻像素的亮度值,以及像素与第三像素位置对应的投影中心之间的距离最短。
本申请的其他实施例中,处理器501用于执行存储器502中存储的手眼标定程序,以实现以下步骤:
基于弥散圆特征和所有参考标定点对应的三维物理坐标,采用非线性方程组最小二乘法,确定标定物坐标系与相机坐标系之间的初始位姿变换关系和光场相机的内部参数初始值;构建非线性优化模型,将初始位姿变换关系和内部参数初始值输入至非线性优化模型中,得到非线性优化模型输出的目标位姿变换关系。
本申请的实施例提供一种计算机存储介质,该计算机存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现图3、图6、图8、图10、图13、图16和图19对应的实施例提供的一种手眼标定方法。
需要说明的是,上述计算机存储介质/存储器可以是只读存储器(Read OnlyMemory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (11)
1.一种手眼标定方法,其特征在于,所述方法包括:
获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;
控制视觉机器人的机械手运动,获得所述机械手在至少两个位姿下,通过所述视觉机器人的光场相机拍摄所述参考点阵得到的光场图像;
基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系;
基于所述目标位姿变换关系对所述视觉机器人进行手眼标定。
2.根据权利要求1所述的手眼标定方法,其特征在于,所述基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系,包括:
通过光场渲染算法对所述至少两个光场图像中每一光场图像进行渲染处理,得到所述每一光场图像对应的多视角图像,其中,所述多视角图像包括中心视角图像;
通过外极线图像算法对所述每一光场图像对应的多视角图像进行处理,得到所述每一光场图像对应的视差图像;
基于所述中心视角图像中所述所有参考标定点,对所述视差图像中的标定点进行定位,得到所述视差图像中的目标标定点;
基于所述目标标定点在图像像素坐标系下的第一像素位置,得到所述目标标定点在相机坐标系下的三维点云坐标;
基于所有目标标定点对应的三维点云坐标,与对应位置的参考标定点对应的三维物理坐标,得到所述目标位姿变换关系。
3.根据权利要求2所述的手眼标定方法,其特征在于,所述基于所述中心视角图像中所述所有参考标定点,对所述视差图像中的标定点进行定位,得到所述视差图像中的目标标定点,包括:
获得所述所有参考标定点中每一参考标定点在图像像素坐标系下的第二像素位置;
确定所述视差图像在所述图像像素坐标系下,与所述第二像素位置对应的标定点为所述目标标定点。
4.根据权利要求2所述的手眼标定方法,其特征在于,所述基于所述目标标定点在图像像素坐标系下的第一像素位置,得到所述目标标定点在相机坐标系下的第二三维点云坐标,包括:
获得所述视差图像中的每一目标标定点的视差值;
基于所述第一像素位置和所述视差值,得到所述三维点云坐标。
5.根据权利要求1所述的手眼标定方法,其特征在于,所述基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系,包括:
获取通过所述光场相机拍摄纯色标定物所获得纯色图像;
对所述纯色图像进行标定处理,得到所述光场相机的微透镜阵列中每一微透镜的中心于所述光场相机的传感器平面的进行投影时,在图像坐标系下的投影中心的第三像素位置;
针对所有投影中心,基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在所述传感器平面中,对应所述第三像素位置的点状特征的第四像素位置,得到所述所有投影中心对应的所有点状特征在所述图像坐标系下的第四像素位置;其中,所述第一预设窗口用于包括所述参考标定点对应的所述所有投影中心;
基于所述所有投影中心的第三像素位置和所述所有点状特征的第四像素位置,确定所述参考标定点对应的弥散圆特征;
基于所述所有参考标定点对应的弥散圆特征和所述所有参考标定点对应的三维物理坐标,得到所述目标位姿变换关系。
6.根据权利要求5所述的手眼标定方法,其特征在于,所述光场图像是经过灰度处理的图像,所述基于获得的第一预设窗口,确定每一光场图像中任一参考标定点在所述传感器平面中,对应所述第三像素位置的点状特征的第四像素位置,包括:
在所述光场图像中框定以所述第三像素位置为中心,确定具有所述第一预设窗口的第一区域;
从所述第一区域的所有像素中,确定像素特征满足特征选择条件的像素为第一目标点;
在所述光场图像中框定以所述第一目标点为中心,确定具有第二预设窗口的第二区域;其中,所述第二预设窗口的大小小于所述第一预设窗口的大小;
基于对所述第二区域的所有像素的像素位置进行灰度加权平均,得到所述点状特征的第四像素位置。
7.根据权利要求6所述的手眼标定方法,其特征在于,所述像素特征满足特征选择条件,包括:所述第一区域内像素的亮度值大于亮度阈值且所述像素的亮度值大于或等于相邻像素的亮度值,以及所述像素与所述第三像素位置对应的投影中心之间的距离最短。
8.根据权利要求5所述的手眼标定方法,其特征在于,所述基于所述所有参考标定点对应的弥散圆特征和所述所有参考标定点对应的三维物理坐标,得到所述目标位姿变换关系,包括:
基于所述弥散圆特征和所述所有参考标定点对应的三维物理坐标,采用非线性方程组最小二乘法,确定所述标定物坐标系与所述相机坐标系之间的初始位姿变换关系和所述光场相机的内部参数初始值;
构建非线性优化模型,将所述初始位姿变换关系和所述内部参数初始值输入至所述非线性优化模型中,得到所述非线性优化模型输出的目标位姿变换关系。
9.一种视觉机器人,其特征在于,所述视觉机器人包括:
光场相机,用于拍摄光场图像;
机器人本体,所述机器人本体具有基座,以及设置在所述基座上的机械手,所述机械手用于固定待拍摄物体;
控制装置,用于获得标定物中确定的参考点阵中的任一参考标定点,在标定物坐标系下的三维物理坐标;控制视觉机器人的机械手运动,获得所述机械手在至少两个位姿下,通过所述视觉机器人的光场相机拍摄所述参考点阵得到的光场图像;基于至少两个光场图像和所述参考点阵中所有参考标定点对应的三维物理坐标,得到所述标定物相对于所述光场相机的目标位姿变换关系;基于所述目标位姿变换关系对所述视觉机器人进行手眼标定。
10.一种手眼标定设备,其特征在于,所述手眼标定设备包括:
存储器,用于存储手眼标定程序;
处理器,用于执行所述存储器中存储的手眼标定程序,实现如权利要求1至8中任一项所述的手眼标定方法。
11.一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至8中任一项所述的手眼标定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210869748.XA CN115272466A (zh) | 2022-07-22 | 2022-07-22 | 手眼标定方法、视觉机器人、手眼标定设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210869748.XA CN115272466A (zh) | 2022-07-22 | 2022-07-22 | 手眼标定方法、视觉机器人、手眼标定设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272466A true CN115272466A (zh) | 2022-11-01 |
Family
ID=83769730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210869748.XA Pending CN115272466A (zh) | 2022-07-22 | 2022-07-22 | 手眼标定方法、视觉机器人、手眼标定设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272466A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761000A (zh) * | 2022-11-06 | 2023-03-07 | 卢米纳科技(深圳)有限公司 | 基于视觉激光的清洗标定方法和系统 |
CN116630443A (zh) * | 2023-07-24 | 2023-08-22 | 长春工程学院 | 基于四维动态光场的增强现实系统标定方法 |
CN117237455A (zh) * | 2023-09-14 | 2023-12-15 | 江苏立讯机器人有限公司 | 标定方法、装置、电子设备及可读存储介质 |
CN119295557A (zh) * | 2024-09-27 | 2025-01-10 | 湘潭大学 | 一种三视角深度视觉观测空间构建与标定方法 |
-
2022
- 2022-07-22 CN CN202210869748.XA patent/CN115272466A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761000A (zh) * | 2022-11-06 | 2023-03-07 | 卢米纳科技(深圳)有限公司 | 基于视觉激光的清洗标定方法和系统 |
CN115761000B (zh) * | 2022-11-06 | 2023-08-29 | 卢米纳科技(深圳)有限公司 | 基于视觉激光的清洗标定方法和系统 |
CN116630443A (zh) * | 2023-07-24 | 2023-08-22 | 长春工程学院 | 基于四维动态光场的增强现实系统标定方法 |
CN116630443B (zh) * | 2023-07-24 | 2023-10-03 | 长春工程学院 | 基于四维动态光场的增强现实系统标定方法 |
CN117237455A (zh) * | 2023-09-14 | 2023-12-15 | 江苏立讯机器人有限公司 | 标定方法、装置、电子设备及可读存储介质 |
CN119295557A (zh) * | 2024-09-27 | 2025-01-10 | 湘潭大学 | 一种三视角深度视觉观测空间构建与标定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110572630B (zh) | 三维图像拍摄系统、方法、装置、设备以及存储介质 | |
US11503275B2 (en) | Camera calibration system, target, and process | |
CN115272466A (zh) | 手眼标定方法、视觉机器人、手眼标定设备和存储介质 | |
JP6855587B2 (ja) | 視点から距離情報を取得するための装置及び方法 | |
US11039121B2 (en) | Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method | |
CN109767474B (zh) | 一种多目相机标定方法、装置及存储介质 | |
CN110462686B (zh) | 用于从场景获得深度信息的设备和方法 | |
US8619144B1 (en) | Automatic camera calibration | |
JP5999615B2 (ja) | カメラ較正情報生成装置、カメラ較正情報生成方法およびカメラ較正情報生成プログラム | |
US11881001B2 (en) | Calibration apparatus, chart for calibration, and calibration method | |
CN105308627B (zh) | 一种标定相机的方法及其系统 | |
CN111080705B (zh) | 一种自动对焦双目摄像头标定方法及装置 | |
CN106548489A (zh) | 一种深度图像与彩色图像的配准方法、三维图像采集装置 | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN115797461A (zh) | 基于双目视觉的火焰空间定位系统标定与校正方法 | |
CN108340405B (zh) | 一种机器人三维扫描系统及方法 | |
CN106355621A (zh) | 基于阵列图像的深度信息获取方法 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
JPWO2019065260A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ | |
JP6237032B2 (ja) | 色と三次元形状の計測方法及び装置 | |
CN113329179A (zh) | 拍摄对位方法、装置、设备及存储介质 | |
CN111489384A (zh) | 基于互视角的遮挡评估方法及装置、设备、系统和介质 | |
JP2007024647A (ja) | 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 | |
JP7312594B2 (ja) | キャリブレーション用チャートおよびキャリブレーション用器具 | |
RU2789190C1 (ru) | Способ калибровки подводной видеокамеры |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 200240 102, 1/F, Building 98, 1441 Humin Road, Minhang District, Shanghai 302, 3/F, Building 98, 402, 4/F, Building 98 Applicant after: Yimu (Shanghai) Technology Co.,Ltd. Address before: 200240 room 1206, building 1, No. 951, Jianchuan Road, Minhang District, Shanghai Applicant before: Yimu (Shanghai) Technology Co.,Ltd. |
|
CB02 | Change of applicant information |