[go: up one dir, main page]

CN104647390B - 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法 - Google Patents

用于机械臂遥操作的多摄像机联合主动跟踪目标的方法 Download PDF

Info

Publication number
CN104647390B
CN104647390B CN201510072044.XA CN201510072044A CN104647390B CN 104647390 B CN104647390 B CN 104647390B CN 201510072044 A CN201510072044 A CN 201510072044A CN 104647390 B CN104647390 B CN 104647390B
Authority
CN
China
Prior art keywords
camera
particle
coordinate system
coordinates
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510072044.XA
Other languages
English (en)
Other versions
CN104647390A (zh
Inventor
孙富春
刘华平
滕辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201510072044.XA priority Critical patent/CN104647390B/zh
Publication of CN104647390A publication Critical patent/CN104647390A/zh
Application granted granted Critical
Publication of CN104647390B publication Critical patent/CN104647390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,属于机械臂遥操作领域。本发明在遥操作基础上,将多个摄像机安放在不同角度,对摄像机进行标定,采用粒子滤波和sift局部特征匹配进而实现联合主动跟踪,保证待跟踪目标始终处于视场中央,对机械臂各个角度进行监控,并避免因遮挡等因素引起的跟踪失败,并加入人机交互,提高跟踪的鲁棒性。本发明方法在遥操作过程中,通过人机交互方式标注新的目标,使目标始终处在操作员的观察区域,或者更新目标,方便操作员制定下一步的控制策略。

Description

用于机械臂遥操作的多摄像机联合主动跟踪目标的方法
技术领域
本发明涉及一种用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,属于机械臂遥操作领域。
背景技术
对于机械臂的遥操作,视觉系统是机械臂遥操作中的一个关键技术,其为操作臂提供目标物体的实时图像信息和空间位姿信息。同时视觉系统还将操作臂所处的状态、环境、以及工作阶段直观的反馈给地面操作员。
目前的遥操作方法中,摄像机提供了图像信息,并没有利用图像信息实现对机械臂工作过程中特定目标的主动跟踪,且摄像头都保持不变,不能主动调整视角,没有考虑机械臂运动超过摄像头视场而无法监控的情况。
现有的技术文献中,发明专利“基于Kinect的空间遥操作机器人的控制系统及其方法”,公开号为CN201310193564.7,利用Kinect实现三维环境建模,并对预测环境进行一致性校正。该方法的缺点是,只采用一台摄像机对机械臂区域进行拍摄,并且没有对目标实现跟踪。另外,该方法摄像头保持不动,无法确保机械臂始终在视场中。
发明内容
本发明的目的是提出一种用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,在遥操作基础上,为机械臂遥操作设计一套多个摄像头主动视觉系统,以实时采集、传输图像,为操作员提供直观的视觉观测依据。
本发明提出的用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,包括以下步骤:
(1)将多个摄像机置于机械臂的左上、右上和正面,对摄像机进行标定,分别获得多台摄像机的内参数矩阵M1、外参数矩阵M2、畸变系数和位姿变换矩阵T12,T23,T34……,具体步骤如下:
(1-1)设空间点P在摄像机坐标系中的坐标为P(xC,yC,zC),使空间点P沿着通过光心的光线投影到一个图像平面上,在图像平面中建立图像坐标系,得到该空间点P在图像坐标系中的投影坐标为P(x,y),将该投影坐标表示为计算机图像坐标系中的坐标为P(u,v),由小孔成像原理得到,空间点P在摄像机坐标中的坐标(xC,yC,zC)与投影坐标P(x,y)的坐标变换关系为: x = f x C z C y = f y C z C , 其中f为摄像机焦距;
(1-2)设定一个成像单元,该成像单元在上述图像坐标系中的x轴和y轴方向上的物理尺寸分别为dx和dy,成像单元中任意一个像素在上述计算机图像坐标系下的坐标(u,v)和上述图像坐标系下的坐标(x,y)存在以下坐标变换关系: u = x dx + u 0 v = y dy + v 0 , 其中,O(u0,v0)为位于摄像机主光轴上任意一点在计算机图像坐标系中的成像坐标,该成像坐标即主点坐标;
(1-3)根据上述步骤(1-1)和步骤(1-2)的坐标变换关系,得到摄像机的内参数矩阵M1为: M 1 = f dx 0 u 0 0 f dy v 0 0 0 1 , 其中,为摄像机焦距f在摄像机图像平面坐标系的u轴上的归一化焦距,为摄像机焦距f在摄像机图像平面坐标系的v轴上的归一化焦距;
(1-4)设空间点P在世界坐标系中的坐标为(xW,yW,zW),空间点P在摄像机坐标系中的坐标和在世界坐标系中的坐标存在以下关系: x C y C z C = R t x w y w z w 1 , 其中,R为3×3的单位正交矩阵,t为摄像机坐标系和世界坐标系之间的三维平移向量,定义其中的[Rt]为摄像机外参数矩阵M2
(1-5)根据上述步骤(1-3)和步骤(1-4)得到的摄像机内参数M1和外参数M2,得到空间点P在世界坐标系中的坐标与空间点P在计算机图像坐标系中的投影坐标之间的投影变换关系为:P=M1M2
(1-6)设摄像机的径向畸变参数为k1、k2和k3,使k1、k2和k3满足以下方程组: x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) , 求解该方程组,得到摄像机的径向畸变参数k1、k2和k3,其中,(x,y)为空间点P在图像坐标系中的原始位置坐标,(xu,yu)为空间点P通过成像原理得到的理想位置坐标;
设摄像机的切向畸变参数为p1和p2,使p1和p2满足以下方程组: x = x u + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) , 求解该方程组,得到摄像机的切向畸变参数p1和p2
(1-7)根据上述步骤(1-6)得到的径向畸变参数为k1、k2和k3和切向畸变参数p1和p2,空间点P的原始位置坐标与理想位置坐标之间存在以下转换关系:
x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) ;
空间点P的理想位置坐标与原始位置坐标之间存在以下转换关系:
x u = x - 2 p 1 xy + p 2 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 y u = y - 2 p 2 xy + p 1 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ;
(1-8)遍历多个摄像机中的每个摄像机,重复步骤(1-1)-步骤(1-7),完成摄像机的标定;
(1-9)设多个摄像机中的第一个摄像机和第二个摄像机之间的旋转矩阵为R12,第一个摄像机和第二个摄像机之间的平移矩阵为Tran12,得到第一个摄像机和第二个摄像机之间的位姿变换矩阵T12:T12=[R12Tran12];
(1-10)遍历多个摄像机中的每任意两个摄像机,重复步骤(1-9),得到多个摄像机的位姿变换矩阵T12,T23,T34……
(2)使经过上述步骤(1)标定后的多台摄像机主动跟踪待抓取目标,具体包括以下步骤:
(2-1)将多个经过上述步骤(1)标定后的摄像机置于机械臂的左上、右上和正面,设待抓取目标中心S在摄像机成像平面Pd上的投影为S',计算S'与摄像机成像平面的中心C之间的距离d,设定距离阈值th,对距离d进行判断,若d>th,则向摄像机发送一个调整指令,使摄像机镜头进行使距离d减小的方向转动,直到d≤th,若d≤th,则使摄像机镜头保持原来位置;
(2-2)采用粒子滤波跟踪算法,摄像机联合主动跟踪待抓取目标,具体步骤如下:
(2-2-1)使多台摄像机中的任意一台摄像机获取待抓取目标的视频图像序列,对视频图像序列中t0时刻的图像进行手工标注,标注出其中的待抓取目标区域;
(2-2-2)以上述待抓取目标区域的中心为原点,产生一个粒子集{},其中m为粒子集中的粒子个数,m=1,...,M,每个粒子代表一个待抓取目标可能存在的区域;设粒子集{}中的粒子的运动服从正态分布,粒子集{}中的每个粒子独立传播,得到t时刻的粒子集{}和t+1时刻的粒子集{};
(2-2-3)设t0时刻粒子集{}的参考直方图为参考直方图q*共有L个灰度级,设t时刻粒子集{}的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集{}中的粒子,对t时刻粒子集{}中的每个粒子独立传播后,得到的t+1时刻粒子集{}进行观测,得到粒子集{}中每个粒子区域的颜色直方图和参考直方图,计算粒子集}中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:定义粒子权值为ω,使ω=D,N的取值为200;
(2-2-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):其中,ωt+1是t+1时刻的每个粒子权值;
(2-2-5)将上述期望值E(xt+1)作为待抓取目标在t+1时刻的存在概率最优估计,并将上述粒子集{}中的存在概率最优粒子所覆盖的区域的中心作为待抓取目标区域中心;
(2-2-6)重复上述步骤(2-2-2)~步骤(2-2-5),得到待抓取目标在时刻t到下一时刻t+1的存在概率最优估计和待抓取目标区域中心;
(2-2-7)重复步骤(2-1),使摄像机镜头对准上述步骤(2-2-6)的待抓取目标区域中心;
(2-2-8)提取上述步骤(2-2-7)的待抓取目标区域的局部特征点;
(2-2-9)使多台摄像机中的其他几台摄像机获取待抓取目标的视频图像序列,从多个视频图像序列中分别提取局部特征点;
(2-2-10)将步骤(2-2-8)提取到的待抓取目标区域的局部特征点与步骤(2-2-9)提取到的所有局部特征点进行匹配,得到多台摄像机中的其他几台摄像机的待抓取目标区域的精确区域;
(2-2-11)重复上述步骤(2-2-2)~步骤(2-2-10),使每台摄像机分别跟踪得到的待抓取目标区域的精确区域,实现多摄像机联合主动跟踪目标。
本发明提出的用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,具有以下优点:
1、本发明的用于机械臂遥操作的多摄像机联合主动跟踪方法,采用多个摄像机,实现对特抓取目标的主动跟踪。
2、本发明中的多个摄像机,安放在不同角度,进行联合主动跟踪,被跟踪目标始终处于镜头中心,对机械臂各个角度进行监控,并避免因遮挡、背景混乱等因素引起的跟踪失败。
3、本发明采用了粒子滤波跟踪算法和sift特征点匹配,实现多个摄像机联合跟踪,提高了摄像机跟踪的鲁棒性。
附图说明
图1是本发明方法中摄像机成像原理示意图。
图2是本发明方法中摄像机控制模型示意图
具体实施方式
本发明提出的用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,包括以下步骤:
(1)将多个摄像机置于机械臂的左上、右上和正面,对摄像机进行标定,分别获得多台摄像机的内参数矩阵M1、外参数矩阵M2、畸变系数和位姿变换矩阵T12,T23,T34……,具体步骤如下:
(1-1)如图1所示,设空间点P在摄像机坐标系中的坐标为P(xC,yC,zC),使空间点P沿着通过光心的光线投影到一个图像平面上,在图像平面中建立图像坐标系,得到该空间点P在图像坐标系中的投影坐标为P(x,y),将该投影坐标表示为计算机图像坐标系中的坐标为P(u,v),由小孔成像原理得到,空间点P在摄像机坐标中的坐标(xC,yC,zC)与投影坐标P(x,y)的坐标变换关系为: x = f x C z C y = f y C z C , 其中f为摄像机焦距;
(1-2)设定一个成像单元,该成像单元在上述图像坐标系中的x轴和y轴方向上的物理尺寸分别为dx和dy,成像单元中任意一个像素在上述计算机图像坐标系下的坐标(u,v)和上述图像坐标系下的坐标(x,y)存在以下坐标变换关系: u = x dx + u 0 v = y dy + v 0 , 其中,O(u0,v0)为位于摄像机主光轴上任意一点在计算机图像坐标系中的成像坐标,该成像坐标即主点坐标;
(1-3)根据上述步骤(1-1)和步骤(1-2)的坐标变换关系,得到摄像机的内参数矩阵M1为: M 1 = f dx 0 u 0 0 f dy v 0 0 0 1 , 其中,为摄像机焦距f在摄像机图像平面坐标系的u轴上的归一化焦距,为摄像机焦距f在摄像机图像平面坐标系的v轴上的归一化焦距;
(1-4)设空间点P在世界坐标系中的坐标为(xW,yW,zW),空间点P在摄像机坐标系中的坐标和在世界坐标系中的坐标存在以下关系: x C y C z C = R t x w y w z w 1 , 其中,R为3×3的单位正交矩阵,t为摄像机坐标系和世界坐标系之间的三维平移向量,定义其中的[Rt]为摄像机外参数矩阵M2
(1-5)根据上述步骤(1-3)和步骤(1-4)得到的摄像机内参数M1和外参数M2,得到空间点P在世界坐标系中的坐标与空间点P在计算机图像坐标系中的投影坐标之间的投影变换关系为:P=M1M2
(1-6)设摄像机的径向畸变参数为k1、k2和k3,使k1、k2和k3满足以下方程组: x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) , 求解该方程组,得到摄像机的径向畸变参数k1、k2和k3,其中,(x,y)为空间点P在图像坐标系中的原始位置坐标,(xu,yu)为空间点P通过成像原理得到的理想位置坐标;
设摄像机的切向畸变参数为p1和p2,使p1和p2满足以下方程组: x = x u + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) , 求解该方程组,得到摄像机的切向畸变参数p1和p2
(1-7)根据上述步骤(1-6)得到的径向畸变参数为k1、k2和k3和切向畸变参数p1和p2,空间点P的原始位置坐标与理想位置坐标之间存在以下转换关系:
x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) ;
空间点P的理想位置坐标与原始位置坐标之间存在以下转换关系:
x u = x - 2 p 1 xy + p 2 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 y u = y - 2 p 2 xy + p 1 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ;
(1-8)遍历多个摄像机中的每个摄像机,重复步骤(1-1)-步骤(1-7),完成摄像机的标定;
(1-9)设多个摄像机中的第一个摄像机和第二个摄像机之间的旋转矩阵为R12,第一个摄像机和第二个摄像机之间的平移矩阵为Tran12,得到第一个摄像机和第二个摄像机之间的位姿变换矩阵T12:T12=[R12Tran12];
(1-10)遍历多个摄像机中的每任意两个摄像机,重复步骤(1-9),得到多个摄像机的位姿变换矩阵T12,T23,T34……
(2)使经过上述步骤(1)标定后的多台摄像机主动跟踪待抓取目标,具体包括以下步骤:
(2-1)将多个经过上述步骤(1)标定后的摄像机置于机械臂的左上、右上和正面,设待抓取目标中心S在摄像机成像平面Pd上的投影为S',如图2所示,计算S'与摄像机成像平面的中心C之间的距离d,设定距离阈值th,对距离d进行判断,若d>th,则向摄像机发送一个调整指令,使摄像机镜头进行使距离d减小的方向转动,直到d≤th,若d≤th,则使摄像机镜头保持原来位置;
(2-2)采用粒子滤波跟踪算法,摄像机联合主动跟踪待抓取目标,具体步骤如下:
(2-2-1)使多台摄像机中的任意一台摄像机获取待抓取目标的视频图像序列,对视频图像序列中t0时刻的图像进行手工标注,标注出其中的待抓取目标区域;
(2-2-2)以上述待抓取目标区域的中心为原点,产生一个粒子集{},其中m为粒子集中的粒子个数,m=1,...,M,每个粒子代表一个待抓取目标可能存在的区域;设粒子集{}中的粒子的运动服从正态分布,粒子集{}中的每个粒子独立传播,得到t时刻的粒子集{}和t+1时刻的粒子集{};
(2-2-3)设t0时刻粒子集{}的参考直方图为参考直方图q*共有L个灰度级,设t时刻粒子集{}的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集{}中的粒子,对t时刻粒子集{}中的每个粒子独立传播后,得到的t+1时刻粒子集{}进行观测,得到粒子集{}中每个粒子区域的颜色直方图和参考直方图,计算粒子集{}中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:定义粒子权值为ω,使ω=D,N的取值为200;
(2-2-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):其中,ωt+1是t+1时刻的每个粒子权值;
(2-2-5)将上述期望值E(xt+1)作为待抓取目标在t+1时刻的存在概率最优估计,并将上述粒子集{}中的存在概率最优粒子所覆盖的区域的中心作为待抓取目标区域中心;
(2-2-6)重复上述步骤(2-2-2)~步骤(2-2-5),得到待抓取目标在时刻t到下一时刻t+1的存在概率最优估计和待抓取目标区域中心;
(2-2-7)重复步骤(2-1),使摄像机镜头对准上述步骤(2-2-6)的待抓取目标区域中心;
(2-2-8)提取上述步骤(2-2-7)的待抓取目标区域的局部特征点;
(2-2-9)使多台摄像机中的其他几台摄像机获取待抓取目标的视频图像序列,从多个视频图像序列中分别提取局部特征点(即sift局部特征点),
(2-2-10)将步骤(2-2-8)提取到的待抓取目标区域的局部特征点与步骤(2-2-9)提取到的所有局部特征点进行匹配,得到多台摄像机中的其他几台摄像机的待抓取目标区域的精确区域;
(2-2-11)重复上述步骤(2-2-2)~步骤(2-2-10),使每台摄像机分别跟踪得到的待抓取目标区域的精确区域,实现多摄像机联合主动跟踪目标。

Claims (1)

1.一种用于机械臂遥操作的多摄像机联合主动跟踪目标的方法,其特征在于该方法包括以下步骤:
(1)将多个摄像机置于机械臂的左上、右上和正面,对摄像机进行标定,分别获得多台摄像机的内参数矩阵M1、外参数矩阵M2、畸变系数和位姿变换矩阵T12,T23,T34……,具体步骤如下:
(1-1)设空间点P在摄像机坐标系中的坐标为P(xC,yC,zC),使空间点P沿着通过光心的光线投影到一个图像平面上,在图像平面中建立图像坐标系,得到该空间点P在图像坐标系中的投影坐标为P(x,y),将该投影坐标表示为计算机图像坐标系中的坐标为P(u,v),由小孔成像原理得到,空间点P在摄像机坐标中的坐标(xC,yC,zC)与投影坐标P(x,y)的坐标变换关系为: x = f x C z C y = f y C z C , 其中f为摄像机焦距;
(1-2)设定一个成像单元,该成像单元在上述图像坐标系中的x轴和y轴方向上的物理尺寸分别为dx和dy,成像单元中任意一个像素在上述计算机图像坐标系下的坐标(u,v)和上述图像坐标系下的坐标(x,y)存在以下坐标变换关系: u = x dx + u 0 v = y dy + v 0 , 其中,O(u0,v0)为位于摄像机主光轴上任意一点在计算机图像坐标系中的成像坐标,该成像坐标即主点坐标;
(1-3)根据上述步骤(1-1)和步骤(1-2)的坐标变换关系,得到摄像机的内参数矩阵M1为: M 1 = f dx 0 u 0 0 f dy v 0 0 0 1 , 其中,为摄像机焦距f在摄像机图像平面坐标系的u轴上的归一化焦距,为摄像机焦距f在摄像机图像平面坐标系的v轴上的归一化焦距;
(1-4)建立世界坐标系,设空间点P在世界坐标系中的坐标为(xW,yW,zW),空间点P在摄像机坐标系中的坐标和在世界坐标系中的坐标存在以下关系: x C y C z C = R t x W y W z W 1 , 其中,R为3×3的单位正交矩阵,t为摄像机坐标系和世界坐标系之间的三维平移向量,定义其中的[Rt]为摄像机外参数矩阵M2
(1-5)根据上述步骤(1-3)和步骤(1-4)得到的摄像机内参数M1和外参数M2,得到空间点P在世界坐标系中的坐标与空间点P在计算机图像坐标系中的投影坐标之间的投影变换关系为:P=M1M2
(1-6)设摄像机的径向畸变参数为k1、k2和k3,使k1、k2和k3满足以下方程组: x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) , 求解该方程组,得到摄像机的径向畸变参数k1、k2和k3,其中,(x,y)为空间点P在图像坐标系中的原始位置坐标,(xu,yu)为空间点P通过成像原理得到的理想位置坐标;
设摄像机的切向畸变参数为p1和p2,使p1和p2满足以下方程组: x = x u + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) , 求解该方程组,得到摄像机的切向畸变参数p1和p2
(1-7)根据上述步骤(1-6)得到的径向畸变参数为k1、k2和k3和切向畸变参数p1和p2,空间点P的原始位置坐标与理想位置坐标之间存在以下转换关系:
x = x u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 1 x u y u + p 2 ( r 2 + 2 x u 2 ) y = y u ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) + 2 p 2 x u y u + p 1 ( r 2 + 2 y u 2 ) ;
空间点P的理想位置坐标与原始位置坐标之间存在以下转换关系:
x u = x - 2 p 1 xy + p 2 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 y u = y - 2 p 2 x y + p 1 ( r 2 + 2 x 2 ) 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ;
(1-8)遍历多个摄像机中的每个摄像机,重复步骤(1-1)-步骤(1-7),完成摄像机的标定;
(1-9)设多个摄像机中的第一个摄像机和第二个摄像机之间的旋转矩阵为R12,第一个摄像机和第二个摄像机之间的平移矩阵为Tran12,得到第一个摄像机和第二个摄像机之间的位姿变换矩阵T12:T12=[R12Tran12];
(1-10)遍历多个摄像机中的每任意两个摄像机,重复步骤(1-9),得到多个摄像机的位姿变换矩阵T12,T23,T34……
(2)使经过上述步骤(1)标定后的多台摄像机主动跟踪待抓取目标,具体包括以下步骤:
(2-1)将多个经过上述步骤(1)标定后的摄像机置于机械臂的左上、右上和正面,设待抓取目标中心S在摄像机成像平面Pd上的投影为S',计算S'与摄像机成像平面的中心C之间的距离d,设定距离阈值th,对距离d进行判断,若d>th,则向摄像机发送一个调整指令,使摄像机镜头进行使距离d减小的方向转动,直到d≤th,若d≤th,则使摄像机镜头保持原来位置;
(2-2)采用粒子滤波跟踪算法,摄像机联合主动跟踪待抓取目标,具体步骤如下:
(2-2-1)使多台摄像机中的任意一台摄像机获取待抓取目标的视频图像序列,对视频图像序列中t0时刻的图像进行手工标注,标注出其中的待抓取目标区域;
(2-2-2)以上述待抓取目标区域的中心为原点,产生一个粒子集其中m为粒子集中的粒子个数,m=1,...,M,每个粒子代表一个待抓取目标可能存在的区域;设粒子集中的粒子的运动服从正态分布,粒子集中的每个粒子独立传播,得到t时刻的粒子集和t+1时刻的粒子集
(2-2-3)设t0时刻粒子集的参考直方图为参考直方图q*共有L个灰度级,设t时刻粒子集的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集中的粒子,对t时刻粒子集中的每个粒子独立传播后,得到的t+1时刻粒子集进行观测,得到粒子集中每个粒子区域的颜色直方图和参考直方图,计算粒子集中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:定义粒子权值为ω,使ω=D,N的取值为200;
(2-2-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):其中,ωt+1是t+1时刻的每个粒子权值;
(2-2-5)将上述期望值E(xt+1)作为待抓取目标在t+1时刻的存在概率最优估计,并将上述粒子集中的存在概率最优粒子所覆盖的区域的中心作为待抓取目标区域中心;
(2-2-6)重复上述步骤(2-2-2)~步骤(2-2-5),得到待抓取目标在时刻t到下一时刻t+1的存在概率最优估计和待抓取目标区域中心;
(2-2-7)重复步骤(2-1),使摄像机镜头对准上述步骤(2-2-6)的待抓取目标区域中心;
(2-2-8)提取上述步骤(2-2-7)的待抓取目标区域的局部特征点;
(2-2-9)使多台摄像机中的其他几台摄像机获取待抓取目标的视频图像序列,从多个视频图像序列中分别提取局部特征点;
(2-2-10)将步骤(2-2-8)提取到的待抓取目标区域的局部特征点与步骤(2-2-9)提取到的所有局部特征点进行匹配,得到多台摄像机中的其他几台摄像机的待抓取目标区域的精确区域;
(2-2-11)重复上述步骤(2-2-2)~步骤(2-2-10),使每台摄像机分别跟踪得到的待抓取目标区域的精确区域,实现多摄像机联合主动跟踪目标。
CN201510072044.XA 2015-02-11 2015-02-11 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法 Active CN104647390B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510072044.XA CN104647390B (zh) 2015-02-11 2015-02-11 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510072044.XA CN104647390B (zh) 2015-02-11 2015-02-11 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法

Publications (2)

Publication Number Publication Date
CN104647390A CN104647390A (zh) 2015-05-27
CN104647390B true CN104647390B (zh) 2016-02-10

Family

ID=53239282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510072044.XA Active CN104647390B (zh) 2015-02-11 2015-02-11 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法

Country Status (1)

Country Link
CN (1) CN104647390B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447869B (zh) * 2015-11-30 2019-02-12 四川华雁信息产业股份有限公司 基于粒子群优化算法的摄像机自标定方法及装置
CN106023139B (zh) * 2016-05-05 2019-05-17 北京圣威特科技有限公司 一种基于多摄像机的室内跟踪定位方法和系统
CN106934353B (zh) * 2017-02-28 2020-08-04 北京奥开信息科技有限公司 一种用于养老机器人的人脸识别及主动跟踪的方法
CN107150343B (zh) * 2017-04-05 2019-07-23 武汉科技大学 一种基于nao机器人抓取物体的系统
CN108074264A (zh) * 2017-11-30 2018-05-25 深圳市智能机器人研究院 一种分级多目视觉定位方法、系统及装置
CN111481293B (zh) * 2020-04-16 2021-09-17 首都医科大学 一种基于最优视点选择的多视点光学定位方法及系统
CN114074320B (zh) * 2020-08-10 2023-04-18 库卡机器人(广东)有限公司 机器人控制方法及装置
CN113850860A (zh) * 2021-08-13 2021-12-28 东莞理工学院 一种遥操作姿态跟踪估计系统和方法
CN113687627B (zh) * 2021-08-18 2022-08-19 太仓中科信息技术研究院 一种基于摄像机器人的目标跟踪方法
CN117464692B (zh) * 2023-12-27 2024-03-08 中信重工机械股份有限公司 一种基于结构光视觉系统的衬板抓取机械臂控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2861699A (en) * 1950-10-16 1958-11-25 Gen Mills Inc Method and apparatus for performing operations at a remote point
US5300869A (en) * 1992-07-30 1994-04-05 Iowa State University Research Foundation, Inc. Nonholonomic camera space manipulation
CN1590040A (zh) * 2003-09-03 2005-03-09 中国科学院自动化研究所 一种基于机器人运动的摄像机自标定方法
WO2009059716A1 (en) * 2007-11-05 2009-05-14 Sebastian Repetzki Pointing device and method for operating the pointing device
CN103170973A (zh) * 2013-03-28 2013-06-26 上海理工大学 基于Kinect摄像机的人机协作装置及方法
CN103209809A (zh) * 2010-05-14 2013-07-17 康耐视公司 用于机器视觉系统和机器人之间的稳健校准的系统和方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2861699A (en) * 1950-10-16 1958-11-25 Gen Mills Inc Method and apparatus for performing operations at a remote point
US5300869A (en) * 1992-07-30 1994-04-05 Iowa State University Research Foundation, Inc. Nonholonomic camera space manipulation
CN1590040A (zh) * 2003-09-03 2005-03-09 中国科学院自动化研究所 一种基于机器人运动的摄像机自标定方法
WO2009059716A1 (en) * 2007-11-05 2009-05-14 Sebastian Repetzki Pointing device and method for operating the pointing device
CN103209809A (zh) * 2010-05-14 2013-07-17 康耐视公司 用于机器视觉系统和机器人之间的稳健校准的系统和方法
CN103170973A (zh) * 2013-03-28 2013-06-26 上海理工大学 基于Kinect摄像机的人机协作装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于立体视觉的串联机器人跟踪检测系统;孙美霞;《中国优秀硕士学位论文全文数据库信息科技辑2012年》;中国学术期刊(光盘版)电子杂志社;20120715(第07期);全文 *
面向智能空间的多视角视觉系统关键技术研究;刘亚辉;《中国博士学位论文全文数据库信息科技辑2011年》;中国学术期刊(光盘版)电子杂志社;20111215(第12期);全文 *

Also Published As

Publication number Publication date
CN104647390A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
CN104647390B (zh) 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法
CN102800103B (zh) 基于多视角的深度相机的无标记动作捕捉方法及装置
CN106553195B (zh) 工业机器人抓取过程中的物体6自由度定位方法及系统
CN104354167B (zh) 一种机器人手眼标定方法及装置
CN102927908B (zh) 机器人手眼系统结构光平面参数标定装置及方法
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
CN113276106B (zh) 一种攀爬机器人空间定位方法及空间定位系统
CN102842117B (zh) 显微视觉系统中运动误差矫正方法
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
CN110555889A (zh) 一种基于CALTag和点云信息的深度相机手眼标定方法
WO2024027647A1 (zh) 机器人控制方法、系统和计算机程序产品
CN107030693B (zh) 一种基于双目视觉的带电作业机器人目标跟踪方法
CN107914272A (zh) 一种七自由度机械臂组件抓取目标物体的方法
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
CN106403924B (zh) 基于深度摄像头的机器人快速定位与姿态估计方法
WO2020063058A1 (zh) 一种多自由度可动视觉系统的标定方法
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
CN114851201A (zh) 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法
CN110202560A (zh) 一种基于单个特征点的手眼标定方法
CN115578460A (zh) 基于多模态特征提取与稠密预测的机器人抓取方法与系统
CN113208731B (zh) 基于双目视觉系统的手术穿刺机器人手眼标定方法
CN106335061A (zh) 一种基于四自由度机器人的手眼关系标定方法
CN116766194A (zh) 基于双目视觉的盘类工件定位与抓取系统和方法
CN117237414A (zh) 移动机器人平台下基于双目图像的抓取引导方法及系统
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant