CN109255813B - 一种面向人机协作的手持物体位姿实时检测方法 - Google Patents
一种面向人机协作的手持物体位姿实时检测方法 Download PDFInfo
- Publication number
- CN109255813B CN109255813B CN201811034333.0A CN201811034333A CN109255813B CN 109255813 B CN109255813 B CN 109255813B CN 201811034333 A CN201811034333 A CN 201811034333A CN 109255813 B CN109255813 B CN 109255813B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- image
- camera
- color
- measured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000011897 real-time detection Methods 0.000 claims abstract description 9
- 230000003238 somatosensory effect Effects 0.000 claims abstract 8
- 238000013519 translation Methods 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000003709 image segmentation Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 229920000535 Tan II Polymers 0.000 claims 2
- 238000013480 data collection Methods 0.000 claims 1
- 230000008447 perception Effects 0.000 abstract description 5
- 230000003993 interaction Effects 0.000 abstract description 2
- 238000009616 inductively coupled plasma Methods 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004870 electrical engineering Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011089 mechanical engineering Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种面向人机协作的手持物体位姿实时检测方法,属于人机协作交互系统以及工业机器人对手持工作物件位姿感知的技术领域。通过3D体感摄影机对待检测物体各部分进行深度图像拍摄,将各局部点云对齐合并为物体完整的三维点云模型;采集实时的RGB彩色图像及包含场景三维点云信息的深度图像。将RGB图像进行自动阈值分割,获得图像中表示物体的像素点,将采集到的深度图像中对应点云与之融合,得到场景中物体的带颜色信息的RGB‑D图像;利用ICP算法将物体的RGB‑D图像与物体完整的三维点云图像进行点云匹配,获得场景中手持物体的位置及姿态。该方法克服了能够得到手持物体当前时刻的准确位姿,可用于多样化的场景。
Description
技术领域
本发明属于人机协作交互系统以及工业机器人对工作物件位姿感知的技术领域,涉及到一种面向人机协作的手持物体位姿实时检测方法。
背景技术
机器人技术是跨越传统工程界限发展而来的现代技术中一个相对年轻的领域,它覆盖了电气工程、机械工程、系统和工业工程、计算机科学、经济学和数学等领域。20世纪60年代,随着第一台可编程机器人的诞生,机器人领域得到了快速的发展。但从其发展历史上看,大体经过如下三个阶段。早期阶段,第一代机器人称为示教机器人,它主要通过操作者进行示教,内部程序存储信息,然后在工作时读取信息,重复示教动作;第二代机器人称为可感知外界信息的机器人,它主要通过配置各种传感器,具有一定程度的视觉、触觉、力觉等的感知能力;第三代机器人称为智能机器人,它只需要操作者告知做什么,而不用告诉它怎么做,就能完成感知、运动、推理和人机交互等动作和任务。
近年来,随着对智能机器人的深入研究,要实现具有与人协同工作能力的新一代工业机器人系统,如何解决工业机器人对人机共享环境的建模、感知与场景理解是最根本的问题,而对场景中手持物体进行实时位姿检测则是其中最为重要的部分之一。
传统的物体位姿检测方法主要是基于单目视觉,以目标物体的几何特征和摄像机成像原理为基础,实现对目标物体的姿态估计。其中,应用最为广泛的算法则为PnP算法。该算法通过3D与2D点之间的对应关系求解相机姿态,即 n点投影问题。该算法在已知摄像机内参的前提条件下,通过摄像机拍摄一幅包含n个特征点的图像,根据这n个特征点在世界坐标系的位置和对应在图像坐标系之间的投影关系,计算摄像机的位置和姿态,该姿态的逆矩阵即为物体相对摄像机坐标系的姿态(贾未.基于视觉的机械臂空间目标位姿识别与抓取[D]. 大连理工大学,2018.)。这种位姿检测方法的优点是易操作,效率高,缺点是,在物体信息不完全(手持物体存在局部遮挡)的情况下会造成关键点缺失,无法准确得出场景中物体的姿态信息。
另外一种常用的检测方法是通过神经网络训练模型,将场景中背景和物体提前学习好,分割出场景中的目标物体,再通过点云匹配得到当前物体的位姿。这种方法的优点是准确性高,但其应用场景单一,当换到另外一个场景时,则需要大量的时间和数据重新训练模型(Zeng A,Yu K T,Song S,et al.Multi-view Self-supervised Deep Learning for6D Pose Estimation in the Amazon Picking Challenge[J].2016:1386-1383.)。因此,上述两种方法都在对场景中手持物体进行实时位姿检测时存在不足。
发明内容
本发明提出了基于物体三维点云信息的物体位姿实时检测方法。通过3D体感摄影机对待检测物体各部分进行深度图像拍摄,得到物体局部的三维点云信息,使用点云处理软件将各局部点云对齐合并为物体完整的三维点云模型。再使用3D体感摄影机对场景进行实时数据采集,得到当前场景的RGB彩色图像,及包含场景三维点云信息的深度图像。将得到的RGB图像进行自动阈值分割,获得图像中表示物体的像素点,接着将采集到的深度图像中对应点云与之融合,得到场景中物体的带颜色信息的三维点云(RGB-D)图像。最后利用ICP算法将物体的RGB-D图像与物体完整的三维点云图像进行点云匹配,获得场景中手持物体的位置及姿态。
本发明的技术方案:
一种面向人机协作的手持物体位姿实时检测方法,包括如下步骤:
1)数据的采集及点云图像的预处理
将待测物体放置于实验平台上,使用3D体感摄影机对其进行拍摄,通过多角度拍摄待测物体各个局部得到不同角度的点云图像,将得到的点云图像进行滤波,滤掉图像中的离群点。
2)构建待测物体完整的点云模型图像
通过关键点匹配的方法,以滤波后的一幅点云图像作为基准,其他点云图像参照此基准实现点云对齐。再将对齐后的点云图像进行合并,得到待测物体完整的点云模型图像。
3)图像的实时采集
在3D体感摄影机摄像头的可视范围内,将戴好黑色手套的“人手”及所持待测物体置于设置好的实验平台上方。通过3D体感摄影机对当前场景进行深度图像和彩色图像的实时采集。
4)图像分割
对步骤3)采集的彩色图像转化为灰度图像,利用自适应阈值分割算法,对灰度图像进行图像分割,将灰度图像分成背景和目标两部分。找到分割后图像中的最大连通域即为待检测物体,删除其余杂点部分,得到只包含待测物体的灰度图像,将只包含待测物体的灰度图像对应转化为待测物体的彩色图像。
5)得到待测物体彩色三维点云图像(RGB-D图像)
根据3D体感摄影机自身的相机内参,得到深度图像和待测物体的彩色图像的像素坐标之间的转换关系,根据转换关系完成深度图像和待测物体的彩色图像的融合,得到待测物体彩色三维点云图像。
所述深度图像和待测物体的彩色图像的像素坐标之间的转换过程如下:
其中,3D体感摄影机深度图像素坐标为(u,v),深度摄像头的相机坐标为 (x,y,z),dx和dy表示每一列和每一行分别代表多少mm,即每一列中1像素=dx mm,每一行中1像素=dy mm,fx和fy分别表示相机在水平方向和竖直方向上的焦距,u0、v0分别为光心在像素坐标系的坐标与像素坐标系原点的水平偏移量和竖直偏移量。
当3D体感摄影机的彩色图像像素坐标为(u',v'),彩色摄像头的相机坐标为 (x',y',z')时,则两个坐标之间同样存在的转换关系为:
深度摄像头和彩色摄像头之间的旋转平移矩阵通过3D体感摄影机自身参数得到,两个摄像头相机坐标转换关系如下式:
其中,a表示深度摄像头和彩色摄像头之间在水平方向上的位移。
联立式(1)、(2)、(3)得到:
在深度摄像头的相机坐标系和彩色摄像头的相机坐标系中,认为二者对应像素点的深度相等,即z=z',则得到:
公式(5)即为深度图像和彩色图像的像素坐标之间的转换关系。
6)实时检测待测物体位姿
将步骤2)得到的点云模型图像作为基准位置,再把待测物体的RGB-D图像与点云模型图像进行比对,通过ICP点云匹配算法,求得场景中物体的三维点云相对点云模型图像中的三维点云的旋转平移矩阵,即得到场景中物体点云相对基准位置三维点云的旋转分量和平移分量,通过将其旋转矩阵转化为欧拉角形式,进而得到当前场景下手持物体的位姿。
所述的ICP点云匹配算法为:
在每次迭代的过程中,对待测物体彩色三维点云图像中的每一点,在模型点云图像中寻找欧式距离最近点作为对应点,通过这组对应点使目标函数最小化:
其中,f(R,t)为目标函数;Qi为模型点云图像中的第i个点;n为需校准点云的所有点的数量;R为两幅待测物体彩色三维点云图像之间的旋转分量;Pi为需校准点云中的第i个点;t为两幅待测物体彩色三维点云图像相差的平移分量。
通过上式得到最优的平移向量t和旋转矩阵R,将平移向量t和旋转矩阵R 作用到待测物体彩色三维点云图像上,得到新的点云数据带入下次迭代过程,直到满足迭代停止条件,输出求得的旋转平移矩阵Rt:
平移向量t表示为:[t0 t1 t2]T;
其中,t0、t1、t2分别为两幅待测物体彩色三维点云图像中对应点之间在三个坐标方向上的距离。
旋转向量R表示为:
其中,R为3*3的矩阵,r00、r01、r02、r10、r11、r12、r20、r21、r22分别为矩阵中对应位置的值;
为使机械臂能够准确的抓取当前场景中的待测物体,需将待测物体相对基准位置的旋转平移矩阵Rt转换为机械臂能识别的形式表示,即用欧拉角表示 (X,Y,Z,rx,ry,rz),再将转换后的信息发送给机械臂。
通过ICP算法求得的旋转平移矩阵为:
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的平移分量 X、Y、Z分别为:
X=t0,Y=t1,Z=t2(9);
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的旋转分量 rx、ry、rz分别为:
rx=atan2(r22,r21)(10);
rz=atan2(r10,r00)(12);
待测物体的位姿为(X,Y,Z,rx,ry,rz)。
本发明的有益效果:本发明中对手持物体位姿的实时检测方法,可以实现传统单目视觉在物体信息不完全(手持物体存在局部遮挡)时无法使用的情况下得到准确的检测结果。
附图说明
图1为Kinect拍摄的待测物体上面和左侧面的深度图。
图2为Kinect拍摄的待测物体上面和右侧面以及前侧面的深度图。
图3为Kinect以拍摄的待测物体底面和后侧面的深度图。
图4为物体完整的三维点云模型示意图。
图5为当前场景灰度图。
图6为只包含待测物体的灰度图。
图7为只包含待测物体的RGB-D图。
图8为待测物体的当前位姿与物体完整点云模型的初始相对位置示意图。
图9为ICP点云迭代次数为5次时结果图。
图10为ICP点云迭代次数为10次时结果图。
图11为ICP点云迭代次数为20次时结果图。
图12为ICP点云最终匹配结果图。
具体实施方式
下面将结合具体实施例和附图对本发明的技术方案进行进一步的说明。
本发明具体实施过程中使用的是Kinect传感器对待检测物体进行各个方位的深度图像的拍摄,最终得到物体完整的三维点云模型。Kinect传感器的有效视角为水平方向57°,垂直方向43°,其可视范围为0.4米~3.5米。Kinect传感器可以每秒30帧的速度生成深度图像和彩色图像,两种图像的像素均为 640*480。
一种面向人机协作的手持物体位姿实时检测方法,包括如下步骤:
第一步,采集数据并进行点云的预处理,建立物体完整三维点云模型
仅通过一幅深度图像,总会由于存在不同程度的遮挡,无法得到物体各个面的三维点云信息。因此,我们采取多角度拍摄物体各个局部的深度图像,再按照各部分所表示的物体实际位置进行对齐合并,最终得到物体完整的三维模型图像。
具体的操作为:将待检测物体放置于实验平台上,使用Kinect传感器对实验平台上待检测物体进行深度图像拍摄,将物体水平旋转90度,再用Kinect传感器对其进行拍摄,多次旋转及拍摄,确保得到物体各部分的局部点云图像。如图1、图2、图3所示。再将得到的点云图像进行滤波,滤掉图像中的离群点。将其中一幅图像作为基准,其他点云图像则参照此基准通过关键点匹配的方法实现对齐操作。再把对齐之后的几幅点云图像进行合并,使之成为物体完整的点云模型图像,如图4所示。
第二步,获得场景中物体RGB-D图像
首先通过Kinect获得了场景中手持物体的RGB彩色图像,再将此彩色图像转化为灰度图像并进行自动阈值分割,将待测物体和人手以及实验平台等背景区分开来。然后把只含有待测物体的彩色图像与其对应的深度图像进行融合,最终得到物体的RGB-D图像。具体操作如下:
1)图像的实时采集
将戴好黑色手套的“人手”及所持物体至于设置好的实验平台上方,以保证在Kinect摄像头可视范围之内。通过Kinect对当前场景进行深度图像和彩色图像的实时采集。
2)图像分割
首先,将Kinect采集的RGB图像转化为灰度图像,如图5所示,再使用自适应阈值分割算法对图像进行分割。该方法利用图像的灰度特性,将图像分成背景和目标两部分。即待测物体的灰度值为255(白色像素点),而其他包括人手、实验平台、机械臂等都视为背景,其灰度值为0(黑色像素点)。背景和目标之间的类间方差越大,说明构成图像的两部分的差别越大,当部分目标错分为背景或部分背景错分为目标都会导致两部分差别变小。因此,使类间方差最大的分割意味着错分概率最小。为了使分割结果更为准确,持物体的“人手”需要戴上黑色的手套,否则可能会因为人的肤色与待测物体颜色相近,而造成分割结果不理想。
由于噪声、光线等影响,自适应阈值分割后的图像中,会包含一些杂点。杂点的面积都比较小,所以在分割后的图像中,寻找最大连通域即为待检测物体,然后删除掉其余部分,得到只包含待测物体的灰度图像,如图6所示。
物体的灰度图像中所有灰度值为255的像素点即为表示物体的像素点,进而在原RGB图像中,找到所有像素坐标与之对应的像素点,即为带颜色信息的表示物体的像素点集合,除此之外,其他像素点的值设置为(0,0,0),即可将原RGB图像转化为只包含待测物体的RGB图像。
3)得到待测物体彩色三维点云图像(RGB-D图像)
统计上一步求得的图像中,像素值为255的像素点个数,若像素点少于1500,则说明手部遮挡信息过多,即此帧图像可信度不高,不再继续下一步,而是返回步骤2),处理下一帧图像。
将上述步骤中获得的只包含待测物体的RGB图像,与由Kinect采集原场景中的深度图像进行融合。由于Kinect的深度摄像头和彩色摄像头存在一定的物理位移,所以将两幅图像进行融合前,需要求得深度图像和彩色图像的像素坐标之间的转换关系。
在任何一个光学相机中,都包含相机坐标系和像素坐标系,而二者之间,存在一定的转换关系。假设Kinect深度图像素坐标为(u,v),深度摄像头的相机坐标为(x,y,z),则它们之间的转换关系如公式(1)所示。
其中,Kinect传感器深度图像素坐标为(u,v),深度摄像头的相机坐标为 (x,y,z),dx和dy表示每一列和每一行分别代表多少mm,即每一列中1像素=dx mm,每一行中1像素=dy mm,fx和fy分别表示相机在水平方向和竖直方向上的焦距,u0、v0分别为光心在像素坐标系的坐标与像素坐标系原点的水平偏移量和竖直偏移量。
当Kinect传感器的彩色图像像素坐标为(u',v'),彩色摄像头的相机坐标为(x',y',z')时,则两个坐标之间同样存在的转换关系为:
深度摄像头和彩色摄像头之间的旋转平移矩阵通过Kinect传感器自身参数得到,两个摄像头相机坐标转换关系如下式。
其中,a表示深度摄像头和彩色摄像头之间在水平方向上的位移。
联立式(1)、(2)、(3)得到:
在深度摄像头的相机坐标系和彩色摄像头的相机坐标系中,认为二者对应像素点的深度相等,即z=z',则得到:
公式(5)即为深度图像和彩色图像的像素坐标之间的转换关系。
根据本实施例中Kinect自身的相机内参可知,深度摄像头和相机的彩色摄像头之间的位移a为2cm,即a=0.02,fy/dy即为相机焦距,其值为550,因此,可以得到深度图像和彩色图像的像素坐标之间的转换关系为:
这样,就得到了深度图像和彩色图像的像素坐标之间的转换关系,通过对应的像素点坐标可以将场景的深度图像与彩色图像进行融合,最终获得场景中待测物体的RGB-D图像,如图7所示。
第三步,场景中物体位姿实时检测
将建立好的物体完整的三维点云模型作为基准位置,再把物体的RGB-D图像与物体完整的三维点云模型图像进行比对,通过ICP点云匹配算法,即可得到当前场景下手持物体的位置及姿态。
ICP算法是最常用的点云精确配准方法,算法在每次迭代的过程中,对点云数据的每一点,在模型点云中寻找欧式距离最近点作为对应点,通过这组对应点使目标函数最小化:
其中,f(R,t)为目标函数;Qi为模型点云图像中的第i个点;n为需校准点云的所有点的数量;R为两幅待测物体彩色三维点云图像之间的旋转分量;Pi为需校准点云中的第i个点;t为两幅待测物体彩色三维点云图像相差的平移分量。
通过上式得到最优的平移向量t和旋转矩阵R,将平移向量t和旋转矩阵R 作用到点云数据上,得到新的点云数据带入下次迭代过程,直到满足迭代停止条件,即与对应点的距离小于设定值或达到设置的最大迭代上限,方停止迭代,输出求得的Rt矩阵。
平移向量t可表示为:[t0 t1 t2]T;
其中,t0、t1、t2分别为两幅待测物体彩色三维点云图像中对应点之间在三个坐标方向上的距离。
旋转向量可表示为:
其中,R为3*3的矩阵,r00、r01、r02、r10、r11、r12、r20、r21、r22分别为矩阵中对应位置的值;
由于ICP点云匹配算法耗时较长,为了解决这一缺陷,先将两幅点云图像进行适当降采样,减少点的数量,达到提高匹配效率的目的。通过对两幅点云图像进行ICP点云匹配,得到当前场景下物体相对基准位置的旋转平移矩阵。
为使机械臂能够准确的抓取当前场景中的物体,需将物体相对基准位置的旋转平移矩阵Rt转换为机械臂可识别的形式表示,即欧拉角(X,Y,Z,rx,ry,rz)表示,再将转换后的信息发送给机械臂。
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的平移分量 X、Y、Z分别为:
X=t0,Y=t1,Z=t2(9);
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的旋转分量 rx、ry、rz分别为:
rx=atan2(r22,r21)(10);
rz=atan2(r10,r00)(12);
因此,可以得到待测物体的位姿(X,Y,Z,rx,ry,rz)。
本实施例通过ICP点云匹配算法,求得场景中物体的三维点云相对物体完整模型中的三维点云的旋转平移矩阵,即为当前场景下手持物体的位姿。以图6 为例,待测物体的当前位姿与物体完整点云模型的初始相对位置如图8所示,通过ICP匹配算法,则求得旋转平移矩阵的结果为:
将求得的旋转平移矩阵转换为欧拉角的形式表示:
X=-0.0817,Y=0.4572,Z=0.0089(15);
rx=-3.1211,ry=-0.0013,rz=-0.5566(16);
进而求得物体的位姿为(-0.0817,0.4572,0.0089,-3.1211,-0.0013,-0.5566)。
ICP匹配过程如图9、10、11所示,三幅图分别为点云迭代次数为5次、10次、和20次时匹配效果。而如图12所示,为达到最终迭代停止条件,即匹配完成时的匹配效果。
Claims (1)
1.一种面向人机协作的手持物体位姿实时检测方法,其特征在于,包括如下步骤:
1)数据的采集及点云图像的预处理
将待测物体放置于实验平台上,使用3D体感摄影机对其进行拍摄,通过多角度拍摄待测物体各个局部得到不同角度的点云图像,将得到的点云图像进行滤波,滤掉图像中的离群点;
2)构建待测物体完整的点云模型图像
通过关键点匹配的方法,以滤波后的一幅点云图像作为基准,其他点云图像参照此基准实现点云对齐;再将对齐后的点云图像进行合并,得到待测物体完整的点云模型图像;
3)图像的实时采集
在3D体感摄影机摄像头的可视范围内,将戴好黑色手套的“人手”及所持待测物体置于设置好的实验平台上方;通过3D体感摄影机对当前场景进行深度图像和彩色图像的实时采集;
4)图像分割
对步骤3)采集的彩色图像转化为灰度图像,利用自适应阈值分割算法,对灰度图像进行图像分割,将灰度图像分成背景和目标两部分;找到分割后图像中的最大连通域即为待检测物体,删除其余杂点部分,得到只包含待测物体的灰度图像,将只包含待测物体的灰度图像对应转化为待测物体的彩色图像;
5)得到待测物体彩色三维点云RGB-D图像
根据3D体感摄影机自身的相机内参,得到深度图像和待测物体的彩色图像的像素坐标之间的转换关系,根据转换关系完成深度图像和待测物体的彩色图像的融合,得到待测物体彩色三维点云图像;
所述深度图像和待测物体的彩色图像的像素坐标之间的转换过程如下:
其中,3D体感摄影机深度图像素坐标为(u,v),深度摄像头的相机坐标为(x,y,z),dx和dy表示每一列和每一行分别代表多少mm,即每一列中1像素=dx mm,每一行中1像素=dymm,fx和fy分别表示相机在水平方向和竖直方向上的焦距,u0、v0分别为光心在像素坐标系的坐标与像素坐标系原点的水平偏移量和竖直偏移量;
当3D体感摄影机的彩色图像像素坐标为(u',v'),彩色摄像头的相机坐标为(x',y',z')时,则两个坐标之间同样存在的转换关系为:
深度摄像头和彩色摄像头之间的旋转平移矩阵通过3D体感摄影机自身参数得到,两个摄像头相机坐标转换关系如下式;
其中,a表示深度摄像头和彩色摄像头之间在水平方向上的位移;
联立式(1)、(2)、(3)得到:
在深度摄像头的相机坐标系和彩色摄像头的相机坐标系中,认为二者对应像素点的深度相等,即z=z',则得到:
公式(5)即为深度图像和彩色图像的像素坐标之间的转换关系;
6)实时检测待测物体位姿
将步骤2)得到的点云模型图像作为基准位置,再把待测物体的RGB-D图像与点云模型图像进行比对,通过ICP点云匹配算法,求得场景中物体的三维点云相对点云模型图像中的三维点云的旋转平移矩阵,即得到场景中物体点云相对基准位置三维点云的旋转分量和平移分量,通过将其旋转矩阵转化为欧拉角形式,进而得到当前场景下手持物体的位姿;
所述的ICP点云匹配算法为:
在每次迭代的过程中,对待测物体彩色三维点云图像中的每一点,在模型点云图像中寻找欧式距离最近点作为对应点,通过这组对应点使目标函数最小化:
其中,f(R,t)为目标函数;Qi为模型点云图像中的第i个点;n为需校准点云的所有点的数量;R为两幅待测物体彩色三维点云图像之间的旋转分量;Pi为需校准点云中的第i个点;t为两幅待测物体彩色三维点云图像相差的平移分量;
通过上式得到最优的平移分量t和旋转分量R,将平移分量t和旋转分量R作用到待测物体彩色三维点云图像上,得到新的点云数据带入下次迭代过程,直到满足迭代停止条件,输出求得的旋转平移矩阵Rt:
平移分量t表示为:[t0 t1 t2]T;
其中,t0、t1、t2分别为两幅待测物体彩色三维点云图像中对应点之间在三个坐标方向上的距离;
旋转分量R表示为:
其中,R为3*3的矩阵,r00、r01、r02、r10、r11、r12、r20、r21、r22分别为矩阵中对应位置的值;
为使机械臂能够准确的抓取当前场景中的待测物体,需将待测物体相对基准位置的旋转平移矩阵Rt转换为机械臂能识别的形式表示,即用欧拉角表示(X,Y,Z,rx,ry,rz),再将转换后的信息发送给机械臂;
通过ICP算法求得的旋转平移矩阵为:
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的平移分量X、Y、Z分别为:
X=t0,Y=t1,Z=t2 (9);
实际的待测物体点云相对基准位置三维点云在三个坐标方向上的旋转分量rx、ry、rz分别为:
rx=a tan2(r22,r21) (10);
rz=a tan2(r10,r00) (12);
待测物体的位姿为(X,Y,Z,rx,ry,rz)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811034333.0A CN109255813B (zh) | 2018-09-06 | 2018-09-06 | 一种面向人机协作的手持物体位姿实时检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811034333.0A CN109255813B (zh) | 2018-09-06 | 2018-09-06 | 一种面向人机协作的手持物体位姿实时检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109255813A CN109255813A (zh) | 2019-01-22 |
CN109255813B true CN109255813B (zh) | 2021-03-26 |
Family
ID=65047090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811034333.0A Active CN109255813B (zh) | 2018-09-06 | 2018-09-06 | 一种面向人机协作的手持物体位姿实时检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109255813B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4123258A1 (en) * | 2021-07-22 | 2023-01-25 | Siemens Corporation | Planar object segmentation |
US11851290B2 (en) | 2019-02-22 | 2023-12-26 | Dexterity, Inc. | Robotic multi-item type palletizing and depalletizing |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872355B (zh) * | 2019-01-25 | 2022-12-02 | 合肥哈工仞极智能科技有限公司 | 一种基于深度相机的最短距离获取方法及装置 |
CN111414798B (zh) * | 2019-02-03 | 2022-12-06 | 沈阳工业大学 | 基于rgb-d图像的头部姿态检测方法及系统 |
CN109895094B (zh) * | 2019-02-11 | 2020-11-24 | 苏州瀚华智造智能技术有限公司 | 一种工业机器人测量轨迹定位误差分析方法及系统 |
US11741566B2 (en) | 2019-02-22 | 2023-08-29 | Dexterity, Inc. | Multicamera image processing |
CN109903279B (zh) * | 2019-02-25 | 2022-11-18 | 北京深度奇点科技有限公司 | 焊缝运动轨迹的自动示教方法和装置 |
CN111666935B (zh) * | 2019-03-06 | 2024-05-24 | 北京京东乾石科技有限公司 | 物品中心定位方法、装置以及物流系统和存储介质 |
JP2020166371A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
CN110363815A (zh) * | 2019-05-05 | 2019-10-22 | 东南大学 | 一种单视角点云下基于实例分割的机器人抓取检测方法 |
CN110288657B (zh) * | 2019-05-23 | 2021-05-04 | 华中师范大学 | 一种基于Kinect的增强现实三维注册方法 |
CN110378937B (zh) * | 2019-05-27 | 2021-05-11 | 浙江工业大学 | 基于Kinect摄像头的工业机械臂人机安全距离检测方法 |
CN110223336B (zh) * | 2019-05-27 | 2023-10-17 | 上海交通大学 | 一种基于tof相机数据的平面拟合方法 |
CN110232710B (zh) * | 2019-05-31 | 2021-06-11 | 深圳市皕像科技有限公司 | 基于三维相机的物品定位方法、系统及设备 |
CN110458772B (zh) * | 2019-07-30 | 2022-11-15 | 五邑大学 | 一种基于图像处理的点云滤波方法、装置和存储介质 |
CN110490908B (zh) * | 2019-08-26 | 2021-09-21 | 北京华捷艾米科技有限公司 | 一种动态场景下小物体的位姿追踪方法及装置 |
CN110580725A (zh) * | 2019-09-12 | 2019-12-17 | 浙江大学滨海产业技术研究院 | 一种基于rgb-d相机的箱体分拣方法及系统 |
CN110728222B (zh) * | 2019-09-30 | 2022-03-25 | 清华大学深圳国际研究生院 | 一种用于机械臂抓取系统中目标物体的位姿估计方法 |
CN110705487B (zh) * | 2019-10-08 | 2022-07-29 | 清华大学深圳国际研究生院 | 掌纹采集设备、方法及其图像采集装置 |
CN110793441B (zh) * | 2019-11-05 | 2021-07-27 | 北京华捷艾米科技有限公司 | 一种高精度物体几何尺寸测量方法及装置 |
CN110853099B (zh) * | 2019-11-19 | 2023-04-14 | 福州大学 | 一种基于双Kinect相机的人机交互方法及系统 |
CN111179348A (zh) * | 2019-12-31 | 2020-05-19 | 湖南机电职业技术学院 | 一种基于颜色识别功能的棉花摘收方法及装置 |
CN111311679B (zh) * | 2020-01-31 | 2022-04-01 | 武汉大学 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
CN111340873B (zh) * | 2020-02-28 | 2023-05-23 | 广东工业大学 | 一种多视角图像的物体最小外包络尺寸测算方法 |
CN111402256B (zh) * | 2020-04-13 | 2020-10-16 | 视研智能科技(广州)有限公司 | 一种基于模板的三维点云目标检测和姿态估计方法 |
CN111784834B (zh) * | 2020-06-24 | 2024-06-18 | 阿波罗智能技术(北京)有限公司 | 一种点云地图生成方法、装置以及电子设备 |
CN112183485B (zh) * | 2020-11-02 | 2024-03-05 | 北京信息科技大学 | 基于深度学习的交通锥桶检测定位方法、系统及存储介质 |
CN112308912B (zh) * | 2020-11-03 | 2023-09-15 | 长安大学 | 一种路面病害同源多特征图像获取系统、装置及方法 |
CN112508983B (zh) * | 2020-12-18 | 2023-06-20 | 华南理工大学 | 一种基于图像边缘检测的点云降采样方法 |
CN112927297A (zh) * | 2021-02-20 | 2021-06-08 | 华南理工大学 | 一种基于yolo系列的目标检测和视觉定位方法 |
CN115131268A (zh) * | 2021-03-25 | 2022-09-30 | 南京知谱光电科技有限公司 | 一种基于图像特征提取与三维模型匹配的自动化焊接系统 |
CN113112504B (zh) * | 2021-04-08 | 2023-11-03 | 浙江大学 | 一种植物点云数据分割方法及系统 |
CN113341706B (zh) * | 2021-05-06 | 2022-12-06 | 东华大学 | 基于深度强化学习的人机协作流水线系统 |
CN115222809B (zh) * | 2021-06-30 | 2023-04-25 | 达闼科技(北京)有限公司 | 目标位姿估计方法、装置、计算设备及存储介质 |
CN113379825B (zh) * | 2021-07-01 | 2022-04-22 | 北京亮亮视野科技有限公司 | 物体尺寸检测方法、装置、电子设备和可读介质 |
CN113587816B (zh) * | 2021-08-04 | 2024-07-26 | 天津微深联创科技有限公司 | 一种阵列式大场景结构光三维扫描测量方法及其装置 |
CN113570721B (zh) * | 2021-09-27 | 2021-12-21 | 贝壳技术有限公司 | 三维空间模型的重建方法、装置和存储介质 |
CN114029946A (zh) * | 2021-10-14 | 2022-02-11 | 五邑大学 | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 |
CN114119631A (zh) * | 2021-11-11 | 2022-03-01 | 上海景吾智能科技有限公司 | 清洁区域自动生成方法及系统 |
CN114061488B (zh) * | 2021-11-15 | 2024-05-14 | 华中科技大学鄂州工业技术研究院 | 一种物体测量方法、系统以及计算机可读存储介质 |
CN114449165B (zh) * | 2021-12-27 | 2023-07-18 | 广州极飞科技股份有限公司 | 拍照控制方法、装置、无人设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017035739A (ja) * | 2015-08-06 | 2017-02-16 | キヤノン株式会社 | 仮想環境作成方法、ロボット装置の制御方法、およびロボットシステム |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN107748890A (zh) * | 2017-09-11 | 2018-03-02 | 汕头大学 | 一种基于深度图像的视觉抓取方法、装置及其可读存储介质 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
-
2018
- 2018-09-06 CN CN201811034333.0A patent/CN109255813B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017035739A (ja) * | 2015-08-06 | 2017-02-16 | キヤノン株式会社 | 仮想環境作成方法、ロボット装置の制御方法、およびロボットシステム |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN107748890A (zh) * | 2017-09-11 | 2018-03-02 | 汕头大学 | 一种基于深度图像的视觉抓取方法、装置及其可读存储介质 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
Non-Patent Citations (3)
Title |
---|
《Following Human Guidance to Cooperatively Carry a Large Object》;Jorg Stuckler,et al;《In Proceedings of the 11th IEEE-RAS International Conference on Humanoid Robots》;20140605;第1-7页 * |
《Multi-view Self-supervised Deep Learning for 6D Pose Estimation in the Amazon Picking Challenge》;Andy Zeng,et al;《arXiv:1609.09475v3》;20170507;第1-8页 * |
《基于Kinect的物体三维模型构建和姿态估计方法研究》;石广升;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160215(第2期);第I138-1423页 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11851290B2 (en) | 2019-02-22 | 2023-12-26 | Dexterity, Inc. | Robotic multi-item type palletizing and depalletizing |
EP4123258A1 (en) * | 2021-07-22 | 2023-01-25 | Siemens Corporation | Planar object segmentation |
Also Published As
Publication number | Publication date |
---|---|
CN109255813A (zh) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255813B (zh) | 一种面向人机协作的手持物体位姿实时检测方法 | |
CN113524194B (zh) | 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法 | |
CN109308693B (zh) | 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统 | |
CN110211180A (zh) | 一种基于深度学习的机械臂自主抓取方法 | |
WO2023071964A1 (zh) | 数据处理方法, 装置, 电子设备及计算机可读存储介质 | |
CN114952809B (zh) | 工件识别和位姿检测方法、系统及机械臂的抓取控制方法 | |
CN107688391B (zh) | 一种基于单目视觉的手势识别方法和装置 | |
CN110480637B (zh) | 一种基于Kinect传感器的机械臂零件图像识别抓取方法 | |
CN108053449A (zh) | 双目视觉系统的三维重建方法、装置及双目视觉系统 | |
CN110434516A (zh) | 一种智能焊接机器人系统及焊接方法 | |
WO2022021156A1 (zh) | 用于机器人抓取三维物体的方法和装置 | |
Momeni-k et al. | Height estimation from a single camera view | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
Chang et al. | GhostPose: Multi-view pose estimation of transparent objects for robot hand grasping | |
Fan et al. | A shape-based stereo matching algorithm for binocular vision | |
CN115578460A (zh) | 基于多模态特征提取与稠密预测的机器人抓取方法与系统 | |
CN114463244A (zh) | 一种视觉机器人抓取系统及其控制方法 | |
CN111399634B (zh) | 一种手势引导物体识别的方法及装置 | |
Liu et al. | Slam for robotic navigation by fusing rgb-d and inertial data in recurrent and convolutional neural networks | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
CN109214295B (zh) | 基于Kinect v2和Leap Motion的数据融合的手势识别方法 | |
CN117817653A (zh) | 基于深度图像视觉可供性引导的夹具抓取位姿检测方法 | |
Huang et al. | Intelligent humanoid mobile robot with embedded control and stereo visual feedback | |
CN114240998B (zh) | 一种机器人视觉识别定位方法及系统 | |
CN116206189A (zh) | 一种曲面图形标识码及其识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |