[go: up one dir, main page]

CN102350700A - 一种基于视觉的机器人控制方法 - Google Patents

一种基于视觉的机器人控制方法 Download PDF

Info

Publication number
CN102350700A
CN102350700A CN2011102772065A CN201110277206A CN102350700A CN 102350700 A CN102350700 A CN 102350700A CN 2011102772065 A CN2011102772065 A CN 2011102772065A CN 201110277206 A CN201110277206 A CN 201110277206A CN 102350700 A CN102350700 A CN 102350700A
Authority
CN
China
Prior art keywords
staff
robot
hand
point
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011102772065A
Other languages
English (en)
Inventor
张平
杜广龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN2011102772065A priority Critical patent/CN102350700A/zh
Publication of CN102350700A publication Critical patent/CN102350700A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本发明提供一种基于视觉的机器人控制方法,包括步骤:(1)通过摄像机获取人手手势图像;(2)提取手势图像中人手的特征点;(3)对特征点进行三维重建,得到人手特征点在三维空间的位置关系;(4)把人手特征点对应的坐标点变换到机器人基坐标下。(5)利用人手在机器人基坐标系下的位姿关系进行反解计算,得到机器人的关节角度;(6)利用计算得到的关节角度驱动机器人运行。本发明的优点在于:1)控制直观,机器人手抓姿态直接对应人手姿态;2)控制灵活,无需与繁重的交换工具接触;3)利用虚拟现实技术可以辅助操作者更准确更安全地进行操作;4)允许中途中断恢复或更换操作者;5)操作者无需大范围走动,减少操作者的操作压力。

Description

一种基于视觉的机器人控制方法
技术领域
本发明属于机器人人机交互领域,特别涉及一种一种基于视觉的机器人控制方法。
背景技术
随着机器人应用领域的日益扩大,特别是机器人进入人们的日常生活,人和机器人对等交互(peer-to-peer interaction)研究越来越被重视,在对等交互中,人和机器人更多的是伙伴关系,而不是简单的人和工具关系。
遥操作机器人系统和全自主机器人系统存在一些不足,使得人-机器人协作系统具有很大的潜力。在这类系统中,人和机器人成员根据自身能力相互协作共同完成目标任务,这种团队模式的优势在于集成人和机器人的智能来有效的完成目标任务。
人-机器人交互主题的研究涉及许多不同领域,例如不同的交互模式、认知模型以及评价方法等。在交互模式研究中,符合人际交流习惯的交互模式是当前研究的热点,手势作为一种自然而直观的人际交流模式而被重视,其中手势跟踪是手势识别的基础。另外由于手势本事具有的多样性、多义性、以及时间和空间上的差异性等特点,当前实用的手势交互往往根据应用特点设计特定语义库,以保证手势交互的准确性和有效性。
机械臂作业需要一系列复杂的指令,简单的特定语义库并不能满足机械臂的控制要求。机械臂操作的难点在于姿态的控制。由于机械臂仿效人手的结构进行设计,那么用人手控制机械臂是一个很直观的方法。
发明内容
本发明的目的在于克服上述现有技术的缺点与不足,提供一种灵活自然的一种基于视觉的机器人控制方法。为达上述目的,本发明采用如下的技术方案:
一种基于视觉的机器人控制方法,其特征在于,包括如下步骤:
S1、通过摄像机获取人手手势图像;
S2、提取手势图像中人手的特征点;
S3、对特征点进行三维重建,得到人手特征点在三维空间的位置关系;
S4、把人手特征点对应的坐标点变换到机器人基坐标下;
S5、利用人手在机器人基坐标系下的位姿关系进行反解计算,得到机器人的关节角度;
S6、利用计算得到的关节角度驱动机器人运动。
2、根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,所述步骤S1包括:根据双目定位原理,在人手的上方安装两个摄像头,实时捕捉人手运动图像。
上述基于视觉的机器人控制方法中,所述步骤S2包括:根据人手图像中人手特征的特点,通过特征点提取的方法进行图像处理,得到人手特征点的像素区域,然后提取人手特征区域的中心点作为人手特征点。在特征点提取中需要用到24位的(R,G,B)颜色模型,在RGB颜色模型中,所有颜色都可以由R,G,B三种颜色组成,不同的组合呈现不同的颜色。为了能识别图像中的特征点,利用红颜色标记手部的特征点,而黄色的手套是为了便于上色,下面给出特征点提取的具体颜色模型。
假设图像中像素i(i取正整数)的值为(Ri,Gi,Bi),那么识别图中红色像素的模型为:
R i > G i + δ g R i > B i + δ b R i > δ
其中δg,δb,δ为颜色阀值,表示像素中R值必须超过不等式右边的值才是标记点,上述不等式表示标志点的R值比G,B值要大。
上述基于视觉的机器人控制方法中,所述步骤S3包括:在步骤S2中可以得到红色标记点在左右图像中的位置,为了重建出标记点的三维坐标,采用双目重建原理进行三维重建。
双目定位深度计算:
T + x r - x l Z - f = T Z
令:d=xl-xr得:
Z = f T d
其中P为测量点,T为宽线,f为焦距,Z为测量点到宽线的距离,Ql为左摄像机的光心,Qr为右摄像机的中心,Pl为测量点在左摄像机上的投影,Pr为测量点在右摄像机上的投影,x1为左图像中心到左投影点Pl的向量,xr为右图像中心到右投影点Pr的向量。
上述基于视觉的机器人控制方法中,步骤S4包括:包括以下步骤:
S41、通过人手控制机器人的位置变化;
S42、通过人手控制机器人的姿态变化;
S43、人手姿态与机器人末端姿态进行映射。
上述基于视觉的机器人控制方法中,步骤S41包括:
由于在进行机械臂控制过程中无须操作者大范围走动,而机械臂的运动空间又是比较大的,以小空间到大空间的映射会造成精度损失,所以采取差分的定位方法。首先在初始化机械臂后,通过正解算法可以得到手抓末端的初始位置(xp,yp,zp),接下来在摄像机拍摄范围内规定一个工作空间(working space),人手只能在该工作空间运动,否则指令失效,然后再定义一个方向空间(Direction Space),方向空间与工作空间形成一个空隙,该空隙用于改变机械臂的位置:
xp=xp+Δx*σ
yp=zp+Δy*σ
zp=zp+Δz*σ
Δx、Δy和Δz分别为人手在三个方向轴上的位移,而σ是一个可调的参数,则控制端位置可以是一个无限的空间,可以通过修改σ的值来达到粗控制与微控制的效果。
上述基于视觉的机器人控制方法中,步骤S42包括:
手抓末端的姿态与人手中拇指端,食指端和拇指根部与食指根部之间的凹槽点三点组成的姿态是一致的。
上述基于视觉的机器人控制方法中,步骤S43包括:
先不考虑平移,假设人手坐标系与控制台坐标系的原点重合。变换矩阵为一个3*3的矩阵M,则在人手坐标系中的一个点A,变换到控制台基坐标系中为A′,有A′=MA。
其中:
M = m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33
在人手定位中,人手坐标系中x轴单位向量P1[1,0,0],y轴单位向量P2[0,1,0],z轴单位向量P3[0,0,1]在摄像机坐标系下为:[x1,x2,x3],[y1,y2,y3],[z1,z2,z3],那么有:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 1 0 0 = x 1 x 2 x 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 1 0 = y 1 y 2 y 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 0 1 = z 1 z 2 z 3
由上式得:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 = x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3
由于人手相对于控制台坐标系的姿态变换矩阵与手抓末端相对于基坐标系的姿态变换矩阵是一致的,而手抓末端相对于基坐标系的平移关系在定位模型已经给出,所以最后得到位姿的变换矩阵为:
M ′ = x 1 y 1 z 1 p 1 x 2 y 2 z 2 p 2 x 3 y 3 z 3 p 3 0 0 0 1
其中[p1,p2,p3]为手抓末端相对于基坐标系的平移矩阵。
上述基于视觉的机器人控制方法中,步骤S5包括:包括以下步骤:
在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换阵(i取正整数),一般地有:
A i = cos θ i - sin θ i cos α i sin θ i sin α i l i cos θ i sin θ i cos θ i cos α i - cos θ i sin α i l i sin θ i 0 sin α i cos α i r i 0 0 0 1
对于一个具有n(n≥6)关节的机器人,从机座坐标架到最后一个坐标架的齐次变换阵定义为:
T 6 = A 1 A 2 . . . A n = n n 0 s n 0 a n 0 p n 0 0 0 0 1
式中
Figure BDA0000092226140000044
为手爪的法向矢量,
Figure BDA0000092226140000045
为滑动矢量,为接近矢量,
Figure BDA0000092226140000047
为位置矢量。
利用上面两式有:
Tn=M
通过求解上式得到n个关节运动角度值:(θ1,θ2,…,θn)。
上述基于视觉的机器人控制方法中,步骤S6包括:包括以下步骤:利用步骤S5计算得到n个关节角角度驱动机器人运动,从而使得机器人末端达到期望位置。
本发明相对于现有技术具有如下的优点及技术效果:
1、控制直观,机器人手抓姿态直接对应人手姿态。
2、控制灵活,无需与繁重的交换工具接触。
3、利用虚拟现实技术可以辅助操作者更准确更安全地进行操作。
4、允许中途中断恢复或更换操作者。
5、操作者无需大范围走动,减少操作者的操作压力。
附图说明
图1为实施方式中的框架模型图;
图2为定位模型图;
图3a、图3b分别是手抓末端的姿态与人手中拇指端、食指端和拇指根部与食指根部之间的凹槽点三点组成的姿态模型图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此实施例,图1给出的是框架模型图。
本根据基于视觉控制机器人方法,包括如下步骤:
S1、通过摄像机获取人手手势图像;
S2、提取手势图像中人手的特征点;
S3、对特征点进行三维重建,得到人手特征点在三维空间的位置关系;
S4、把人手特征点对应的坐标点变换到机器人基坐标下;
S5、利用人手在机器人基坐标系下的位姿关系进行反解计算,得到机器人的关节角度;
S6、利用计算得到的关节角度驱动机器人运动。
所述步骤S1包括以下步骤:
S11、根据双目定位原理,在人手的上方安装两个摄像头,实时捕捉人手运动图像。
所述步骤S2包括以下步骤:
S21、根据权利要求1所述的视觉控制机器人方法,其特征在于,所述步骤S2包括:根据人手图像中人手特征的特点,通过特征点提取的方法进行图像处理,得到人手特征点的像素区域,然后提取人手特征区域的中心点作为人手特征点。在特征点提取中需要用到24位的(R,G,B)颜色模型,在RGB颜色模型中,所有颜色都可以由R,G,B三种颜色组成,不同的组合呈现不同的颜色。为了能识别图像中的特征点,利用红颜色标记手部的特征点,而黄色的手套是为了便于上色。
所述步骤S3包括以下步骤:
S31、在人手识别系统中,可以得到红色标记点在左右图像中的位置,为了重建出标记点的三维坐标,采用双目重建原理进行三维重建。
所述步骤S4包括以下步骤:
S41、由于在进行机械臂控制过程中无须操作者大范围走动,而机械臂的运动空间又是比较大的,以小空间到大空间的映射会造成精度损失,所以采取差分的定位方法。首先在初始化机械臂后,通过正解算法可以得到手抓末端的初始位置(xp,yp,zp),如图2所示,接下来在摄像机拍摄范围内规定一个工作空间(working space),人手只能在该工作空间运动,否则指令失效,然后再定义一个方向空间(Direction Space),方向空间与工作空间形成一个空隙,该空隙用于改变机械臂的位置:
xp=xp+Δx*σ
yp=zp+Δy*σ
zp=zp+Δz*σ
Δx、Δy和Δz分别为人手在三个方向轴上的位移,而σ是一个可调的参数,则控制端位置可以是一个无限的空间,可以通过修改σ的值来达到粗控制与微控制的效果。
S42、手抓末端的姿态与人手中拇指端,食指端和拇指根部与食指根部之间的凹槽点三点组成的姿态是一致的,如图3a和图3b所示。
S43、先不考虑平移,假设人手坐标系与控制台坐标系的原点重合。变换矩阵为一个3*3的矩阵M,则在人手坐标系中的一个点A,变换到控制台基坐标系中为A′,有A′=MA。
其中:
M = m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33
在人手定位中,人手坐标系中x轴单位向量P1[1,0,0],y轴单位向量P2[0,1,0],z轴单位向量P3[0,0,1]在摄像机坐标系下为:[x1,x2,x3],[y1,y2,y3],[z1,z2,z3],那么有:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 1 0 0 = x 1 x 2 x 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 1 0 = y 1 y 2 y 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 0 1 = z 1 z 2 z 3
由上式得:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 = x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3
由于人手相对于控制台坐标系的姿态变换矩阵与手抓末端相对于基坐标系的姿态变换矩阵是一致的,而手抓末端相对于基坐标系的平移关系在定位模型已经给出,所以最后得到位姿的变换矩阵为:
M ′ = x 1 y 1 z 1 p 1 x 2 y 2 z 2 p 2 x 3 y 3 z 3 p 3 0 0 0 1
其中[p1,p2,p3]为手抓末端相对于基坐标系的平移矩阵。
所述步骤S5包括以下步骤:
S51、在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换阵(i取正整数),一般地有:
A i = cos θ i - sin θ i cos α i sin θ i sin α i l i cos θ i sin θ i cos θ i cos α i - cos θ i sin α i l i sin θ i 0 sin α i cos α i r i 0 0 0 1
对于一个具有n(n≥6)关节的机器人,从机座坐标架到最后一个坐标架的齐次变换阵定义为:
T 6 = A 1 A 2 . . . A n = n n 0 s n 0 a n 0 p n 0 0 0 0 1
式中为手爪的法向矢量,
Figure BDA0000092226140000075
为滑动矢量,
Figure BDA0000092226140000076
为接近矢量,为位置矢量。
利用上面两式有:
Tn=M
通过求解上式得到n个关节运动角度值:(θ1,θ2,…,θn)。
所述步骤S6包括以下步骤:
S61、利用步骤S5计算得到n个关节角角度驱动机器人运动,从而使得机器人末端达到期望位置。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于视觉的机器人控制方法,其特征在于,包括如下步骤:
S1、通过摄像机获取人手手势图像;
S2、提取手势图像中人手的特征点;
S3、对特征点进行三维重建,得到人手特征点在三维空间的位置关系;
S4、把人手特征点对应的坐标点变换到机器人基坐标下;
S5、利用人手在机器人基坐标系下的位姿关系进行反解计算,得到机器人的关节角度;
S6、利用计算得到的关节角度驱动机器人运动。
2.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,所述步骤S1包括:根据双目定位原理,在人手的上方安装两个摄像头,实时捕捉人手运动图像。
3.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,所述步骤S2包括根据人手图像中人手特征的特点,通过特征点提取的方法进行图像处理,得到人手特征点的像素区域,然后提取人手特征区域的中心点作为人手特征点;在特征点提取中需要用到24位的RGB颜色模型,在RGB颜色模型中,所有颜色由R,G,B三种颜色组成,不同的组合呈现不同的颜色;为了能识别图像中的特征点,利用红颜色标记手部的特征点,而黄色的手套是为了便于上色,下面给出特征点提取的具体颜色模型:
假设图像中像素i的值为(Ri,Gi,Bi),i取正整数,那么识别图中红色像素的模型为:
R i > G i + δ g R i > B i + δ b R i > δ
其中δg,δb,δ为颜色阀值,表示像素中R值必须超过不等式右边的值才是标记点,上述不等式表示标志点的R值比G,B值要大。
4.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,所述步骤S3包括:在步骤S2中得到红色标记点在左右图像中的位置,为了重建出标记点的三维坐标,采用双目重建原理进行三维重建,
双目定位深度计算:
T + x r - x l Z - f = T Z
令:d=xl-xr得:
Z = f T d
其中P为测量点,T为宽线,f为焦距,Z为测量点到宽线的距离,Ql为左摄像机的光心,Qr为右摄像机的中心,Pl为测量点在左摄像机上的投影,Pr为测量点在右摄像机上的投影,x1为左图像中心到左投影点Pl的向量,xr为右图像中心到右投影点Pr的向量。
5.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,步骤S4包括:包括以下步骤:
S41、通过人手控制机器人的位置变化;
S42、通过人手控制机器人的姿态变化;
S43、人手姿态与机器人末端姿态进行映射。
6.根据权利要求5所述的基于视觉的机器人控制方法,其特征在于,步骤S41包括:
首先在初始化机械臂后,通过正解算法可以得到手抓末端的初始位置(xp,yp,zp),接下来在摄像机拍摄范围内规定一个工作空间,人手只能在该工作空间运动,否则指令失效,然后再定义一个方向空间,方向空间与工作空间形成一个空隙,该空隙用于改变机械臂的位置:
xp=xp+Δx*σ
yp=zp+Δy*σ
zp=zp+Δz*σ
Δx、Δy和Δz分别为人手在三个方向轴上的位移,而σ是一个可调的参数,则控制端位置是一个无限的空间,通过修改σ的值来进行粗控制与微控制。
7.根据权利要求5所述的基于视觉的机器人控制方法,其特征在于,步骤S42包括:
手抓末端的姿态与人手中拇指端、食指端和拇指根部与食指根部之间的凹槽点三点组成的姿态是一致的。
8.根据权利要求5所述的基于视觉的机器人控制方法,其特征在于,步骤S43包括:
假设人手坐标系与控制台坐标系的原点重合;变换矩阵为一个3×3的矩阵M,则在人手坐标系中的一个点A,变换到控制台基坐标系中为A′,有A′=MA,
其中:
M = m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33
在人手定位中,人手坐标系中x轴单位向量P1[1,0,0],y轴单位向量P2[0,1,0],z轴单位向量P3[0,0,1]在摄像机坐标系下为:[x1,x2,x3],[y1,y2,y3],[z1,z2,z3],那么有:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 1 0 0 = x 1 x 2 x 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 1 0 = y 1 y 2 y 3
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 0 0 1 = z 1 z 2 z 3
由上式得:
m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 m 33 = x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3
由于人手相对于控制台坐标系的姿态变换矩阵与手抓末端相对于基坐标系的姿态变换矩阵是一致的,而手抓末端相对于基坐标系的平移关系在定位模型已经给出,所以最后得到位姿的变换矩阵为:
M ′ = x 1 y 1 z 1 p 1 x 2 y 2 z 2 p 2 x 3 y 3 z 3 p 3 0 0 0 1
其中[p1,p2,p3]为手抓末端相对于基坐标系的平移矩阵。
9.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,步骤S5包括:包括以下步骤:
在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换阵,i取正整数,有:
A i = cos θ i - sin θ i cos α i sin θ i sin α i l i cos θ i sin θ i cos θ i cos α i - cos θ i sin α i l i sin θ i 0 sin α i cos α i r i 0 0 0 1
对于一个具有n关节的机器人,n≥6,从机座坐标架到最后一个坐标架的齐次变换阵定义为:
T 6 = A 1 A 2 . . . A n = n n 0 s n 0 a n 0 p n 0 0 0 0 1
式中为手爪的法向矢量,为滑动矢量,
Figure FDA0000092226130000038
为接近矢量,
Figure FDA0000092226130000039
为位置矢量;
利用上面两式有:
Tn=M
通过求解上式得到n个关节运动角度值:(θ1,θ2,…,θn)。
10.根据权利要求1所述的基于视觉的机器人控制方法,其特征在于,步骤S6包括利用步骤S5计算得到n个关节角角度驱动机器人运动,从而使得机器人末端达到期望位置。
CN2011102772065A 2011-09-19 2011-09-19 一种基于视觉的机器人控制方法 Pending CN102350700A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011102772065A CN102350700A (zh) 2011-09-19 2011-09-19 一种基于视觉的机器人控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011102772065A CN102350700A (zh) 2011-09-19 2011-09-19 一种基于视觉的机器人控制方法

Publications (1)

Publication Number Publication Date
CN102350700A true CN102350700A (zh) 2012-02-15

Family

ID=45574400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011102772065A Pending CN102350700A (zh) 2011-09-19 2011-09-19 一种基于视觉的机器人控制方法

Country Status (1)

Country Link
CN (1) CN102350700A (zh)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102650906A (zh) * 2012-04-06 2012-08-29 深圳创维数字技术股份有限公司 一种用户界面的控制方法及装置
CN102692927A (zh) * 2012-06-13 2012-09-26 南京工业职业技术学院 手势控制小车
CN102773863A (zh) * 2012-07-31 2012-11-14 华南理工大学 一种机器人精细遥操作方法
CN102800126A (zh) * 2012-07-04 2012-11-28 浙江大学 基于多模态融合的实时人体三维姿态恢复的方法
CN103955207A (zh) * 2014-04-24 2014-07-30 哈尔滨工业大学 一种三爪式空间末端执行器在微重力环境下的捕获容差能力测试系统及方法
CN104227724A (zh) * 2014-08-28 2014-12-24 北京易拓智谱科技有限公司 一种基于视觉识别的通用机器人末端位置的操控方法
AT514528A1 (de) * 2013-06-21 2015-01-15 Engel Austria Gmbh Formgebungsanlage mit Gestensteuerung
CN104602869A (zh) * 2012-09-05 2015-05-06 高通股份有限公司 基于具有摄像机的远程移动装置的视觉追踪的机器人控制
CN104827474A (zh) * 2015-05-04 2015-08-12 南京理工大学 学习人的虚拟示教机器人智能编程方法及辅助装置
CN104936748A (zh) * 2012-12-14 2015-09-23 Abb技术有限公司 徒手机器人路径教导
CN105068649A (zh) * 2015-08-12 2015-11-18 深圳市埃微信息技术有限公司 基于虚拟现实头盔的双目手势识别装置及方法
CN105082159A (zh) * 2015-08-21 2015-11-25 天津超众机器人科技有限公司 一种基于脑电信号控制的工业机器人系统及示教方法
CN105094373A (zh) * 2015-07-30 2015-11-25 深圳汇达高科科技有限公司 操作工业机器人的手势采集装置和相应手势采集方法
CN105204441A (zh) * 2015-09-24 2015-12-30 苏州安柯那智能科技有限公司 手推示教式五轴抛光打磨机器人
CN105960623A (zh) * 2014-04-04 2016-09-21 Abb瑞士股份有限公司 用于控制机器人的便携式装置及其方法
CN106020494A (zh) * 2016-06-20 2016-10-12 华南理工大学 基于移动跟踪的三维手势识别方法
CN106295464A (zh) * 2015-05-15 2017-01-04 济南大学 基于形状上下文的手势识别方法
CN106456145A (zh) * 2014-05-05 2017-02-22 维卡瑞斯外科手术股份有限公司 虚拟现实手术装置
WO2017084319A1 (zh) * 2015-11-18 2017-05-26 乐视控股(北京)有限公司 手势识别方法及虚拟现实显示输出设备
CN106863295A (zh) * 2015-12-10 2017-06-20 发那科株式会社 机器人系统
CN106971050A (zh) * 2017-04-18 2017-07-21 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法
CN107049496A (zh) * 2017-05-22 2017-08-18 清华大学 一种多任务手术机器人的视觉伺服控制方法
CN107093195A (zh) * 2017-03-10 2017-08-25 西北工业大学 一种激光测距与双目相机结合的标记点定位方法
CN107107338A (zh) * 2014-12-17 2017-08-29 库卡罗伯特有限公司 用于安全地联接和断开输入设备的方法
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN107813310A (zh) * 2017-11-22 2018-03-20 浙江优迈德智能装备有限公司 一种基于双目视觉多手势机器人控制方法
CN109579766A (zh) * 2018-12-24 2019-04-05 苏州瀚华智造智能技术有限公司 一种产品外形自动检测方法及系统
CN109693235A (zh) * 2017-10-23 2019-04-30 中国科学院沈阳自动化研究所 一种仿人眼视觉跟踪装置及其控制方法
CN109940626A (zh) * 2019-01-23 2019-06-28 浙江大学城市学院 一种基于机器人视觉的画眉机器人系统及其控制方法
CN110390898A (zh) * 2019-06-27 2019-10-29 安徽国耀通信科技有限公司 一种室内、外全彩屏显示控制系统
CN110480634A (zh) * 2019-08-08 2019-11-22 北京科技大学 一种针对机械臂运动控制的手臂引导运动控制方法
CN111202583A (zh) * 2020-01-20 2020-05-29 上海奥朋医疗科技有限公司 跟踪手术床运动的方法、系统及介质
CN113070877A (zh) * 2021-03-24 2021-07-06 浙江大学 一种面向七轴机械臂视觉示教的可变姿态映射方法
CN113384291A (zh) * 2021-06-11 2021-09-14 北京华医共享医疗科技有限公司 一种医用超声检测方法及系统
CN113829357A (zh) * 2021-10-25 2021-12-24 香港中文大学(深圳) 机器人手臂遥操作方法、装置、系统及介质
CN116061164A (zh) * 2021-11-01 2023-05-05 美智纵横科技有限责任公司 终端的控制方法、机器人的控制方法、终端和机器人
CN117021117A (zh) * 2023-10-08 2023-11-10 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287191A (ja) * 2000-04-10 2001-10-16 Kawasaki Heavy Ind Ltd マスタアームのリンク位置検出方法
JP3742879B2 (ja) * 2003-07-30 2006-02-08 独立行政法人情報通信研究機構 ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
CN102073377A (zh) * 2010-12-31 2011-05-25 西安交通大学 基于人眼扫视信号的人机交互式二维定位方法
WO2011065035A1 (ja) * 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの教示データを作成する方法およびロボット教示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287191A (ja) * 2000-04-10 2001-10-16 Kawasaki Heavy Ind Ltd マスタアームのリンク位置検出方法
JP3742879B2 (ja) * 2003-07-30 2006-02-08 独立行政法人情報通信研究機構 ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
WO2011065035A1 (ja) * 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの教示データを作成する方法およびロボット教示システム
CN102073377A (zh) * 2010-12-31 2011-05-25 西安交通大学 基于人眼扫视信号的人机交互式二维定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张纪元: "《机构分析与综合的解 机械工程专业》", 31 August 2007, article "坐标变化及坐标变换矩阵", pages: 5-6 *
王晓华: "基于双目视觉的三维重建技术研究", 《中国优秀硕士学位论文》, 31 December 2004 (2004-12-31) *

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013149475A1 (zh) * 2012-04-06 2013-10-10 深圳创维数字技术股份有限公司 一种用户界面的控制方法及装置
CN102650906B (zh) * 2012-04-06 2015-11-04 深圳创维数字技术有限公司 一种用户界面的控制方法及装置
CN102650906A (zh) * 2012-04-06 2012-08-29 深圳创维数字技术股份有限公司 一种用户界面的控制方法及装置
CN102692927A (zh) * 2012-06-13 2012-09-26 南京工业职业技术学院 手势控制小车
CN102800126A (zh) * 2012-07-04 2012-11-28 浙江大学 基于多模态融合的实时人体三维姿态恢复的方法
CN102773863A (zh) * 2012-07-31 2012-11-14 华南理工大学 一种机器人精细遥操作方法
CN104602869A (zh) * 2012-09-05 2015-05-06 高通股份有限公司 基于具有摄像机的远程移动装置的视觉追踪的机器人控制
CN104602869B (zh) * 2012-09-05 2016-08-24 高通股份有限公司 基于具有摄像机的远程移动装置的视觉追踪的机器人控制方法、系统和设备
CN104936748A (zh) * 2012-12-14 2015-09-23 Abb技术有限公司 徒手机器人路径教导
AT514528A1 (de) * 2013-06-21 2015-01-15 Engel Austria Gmbh Formgebungsanlage mit Gestensteuerung
CN105960623B (zh) * 2014-04-04 2019-02-05 Abb瑞士股份有限公司 用于控制机器人的便携式装置及其方法
US10166673B2 (en) 2014-04-04 2019-01-01 Abb Schweiz Ag Portable apparatus for controlling robot and method thereof
CN105960623A (zh) * 2014-04-04 2016-09-21 Abb瑞士股份有限公司 用于控制机器人的便携式装置及其方法
CN103955207B (zh) * 2014-04-24 2016-06-22 哈尔滨工业大学 一种三爪式空间末端执行器在微重力环境下的捕获容差能力测试系统及方法
CN103955207A (zh) * 2014-04-24 2014-07-30 哈尔滨工业大学 一种三爪式空间末端执行器在微重力环境下的捕获容差能力测试系统及方法
CN106456145A (zh) * 2014-05-05 2017-02-22 维卡瑞斯外科手术股份有限公司 虚拟现实手术装置
CN104227724A (zh) * 2014-08-28 2014-12-24 北京易拓智谱科技有限公司 一种基于视觉识别的通用机器人末端位置的操控方法
CN104227724B (zh) * 2014-08-28 2017-01-18 北京易拓智谱科技有限公司 一种基于视觉识别的通用机器人末端位置的操控方法
CN107107338A (zh) * 2014-12-17 2017-08-29 库卡罗伯特有限公司 用于安全地联接和断开输入设备的方法
US10518415B2 (en) 2014-12-17 2019-12-31 Kuka Deutschland Gmbh Method for safe coupling and decoupling of an input device
CN104827474A (zh) * 2015-05-04 2015-08-12 南京理工大学 学习人的虚拟示教机器人智能编程方法及辅助装置
CN106295464A (zh) * 2015-05-15 2017-01-04 济南大学 基于形状上下文的手势识别方法
CN105094373A (zh) * 2015-07-30 2015-11-25 深圳汇达高科科技有限公司 操作工业机器人的手势采集装置和相应手势采集方法
CN105068649A (zh) * 2015-08-12 2015-11-18 深圳市埃微信息技术有限公司 基于虚拟现实头盔的双目手势识别装置及方法
CN105082159A (zh) * 2015-08-21 2015-11-25 天津超众机器人科技有限公司 一种基于脑电信号控制的工业机器人系统及示教方法
CN105204441B (zh) * 2015-09-24 2018-06-29 苏州安柯那智能科技有限公司 手推示教式五轴抛光打磨机器人
CN105204441A (zh) * 2015-09-24 2015-12-30 苏州安柯那智能科技有限公司 手推示教式五轴抛光打磨机器人
WO2017084319A1 (zh) * 2015-11-18 2017-05-26 乐视控股(北京)有限公司 手势识别方法及虚拟现实显示输出设备
CN106863295A (zh) * 2015-12-10 2017-06-20 发那科株式会社 机器人系统
US10543599B2 (en) 2015-12-10 2020-01-28 Fanuc Corporation Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US11345042B2 (en) 2015-12-10 2022-05-31 Fanuc Corporation Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
CN106863295B (zh) * 2015-12-10 2019-09-10 发那科株式会社 机器人系统
CN106020494B (zh) * 2016-06-20 2019-10-18 华南理工大学 基于移动跟踪的三维手势识别方法
CN106020494A (zh) * 2016-06-20 2016-10-12 华南理工大学 基于移动跟踪的三维手势识别方法
CN107093195A (zh) * 2017-03-10 2017-08-25 西北工业大学 一种激光测距与双目相机结合的标记点定位方法
CN107093195B (zh) * 2017-03-10 2019-11-05 西北工业大学 一种激光测距与双目相机结合的标记点定位方法
CN106971050A (zh) * 2017-04-18 2017-07-21 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法
CN106971050B (zh) * 2017-04-18 2020-04-28 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法
CN107049496B (zh) * 2017-05-22 2019-07-26 清华大学 一种多任务手术机器人的视觉伺服控制方法
CN107049496A (zh) * 2017-05-22 2017-08-18 清华大学 一种多任务手术机器人的视觉伺服控制方法
CN107564065B (zh) * 2017-09-22 2019-10-22 东南大学 一种协作环境下人机最小距离的测算方法
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN109693235A (zh) * 2017-10-23 2019-04-30 中国科学院沈阳自动化研究所 一种仿人眼视觉跟踪装置及其控制方法
CN107813310A (zh) * 2017-11-22 2018-03-20 浙江优迈德智能装备有限公司 一种基于双目视觉多手势机器人控制方法
CN109579766A (zh) * 2018-12-24 2019-04-05 苏州瀚华智造智能技术有限公司 一种产品外形自动检测方法及系统
CN109579766B (zh) * 2018-12-24 2020-08-11 苏州瀚华智造智能技术有限公司 一种产品外形自动检测方法及系统
CN109940626A (zh) * 2019-01-23 2019-06-28 浙江大学城市学院 一种基于机器人视觉的画眉机器人系统及其控制方法
CN110390898A (zh) * 2019-06-27 2019-10-29 安徽国耀通信科技有限公司 一种室内、外全彩屏显示控制系统
CN110480634A (zh) * 2019-08-08 2019-11-22 北京科技大学 一种针对机械臂运动控制的手臂引导运动控制方法
CN111202583A (zh) * 2020-01-20 2020-05-29 上海奥朋医疗科技有限公司 跟踪手术床运动的方法、系统及介质
CN113070877A (zh) * 2021-03-24 2021-07-06 浙江大学 一种面向七轴机械臂视觉示教的可变姿态映射方法
CN113070877B (zh) * 2021-03-24 2022-04-15 浙江大学 一种面向七轴机械臂视觉示教的可变姿态映射方法
CN113384291A (zh) * 2021-06-11 2021-09-14 北京华医共享医疗科技有限公司 一种医用超声检测方法及系统
CN113829357A (zh) * 2021-10-25 2021-12-24 香港中文大学(深圳) 机器人手臂遥操作方法、装置、系统及介质
CN113829357B (zh) * 2021-10-25 2023-10-03 香港中文大学(深圳) 机器人手臂遥操作方法、装置、系统及介质
CN116061164A (zh) * 2021-11-01 2023-05-05 美智纵横科技有限责任公司 终端的控制方法、机器人的控制方法、终端和机器人
CN117021117A (zh) * 2023-10-08 2023-11-10 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法
CN117021117B (zh) * 2023-10-08 2023-12-15 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法

Similar Documents

Publication Publication Date Title
CN102350700A (zh) 一种基于视觉的机器人控制方法
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
Klamt et al. Remote mobile manipulation with the centauro robot: Full‐body telepresence and autonomous operator assistance
Krupke et al. Comparison of multimodal heading and pointing gestures for co-located mixed reality human-robot interaction
CN106346485B (zh) 基于人手运动姿态学习的仿生机械手的非接触式控制方法
CN103112007B (zh) 基于混合传感器的人机交互方法
CN105137973B (zh) 一种人机协作场景下的机器人智能躲避人类方法
CN115469576B (zh) 一种基于人-机械臂异构运动空间混合映射的遥操作系统
CN105291138B (zh) 一种增强虚拟现实浸入感的视觉反馈平台
US9043030B2 (en) Manipulator and path generation method thereof
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
CN106737668A (zh) 一种基于虚拟现实的带电作业机器人遥操作方法
CN106313049A (zh) 一种仿人机械臂体感控制系统及控制方法
CN113829343B (zh) 基于环境感知的实时多任务多人人机交互系统
CN110815189A (zh) 基于混合现实的机器人快速示教系统及方法
CN114954723B (zh) 仿人机器人
CN110039561A (zh) 基于点云的带电作业机器人遥操作人员培训系统及方法
CN104656676A (zh) 一种仿人机器人手腿眼伺服控制的装置与方法
Hang et al. Dexfuncgrasp: A robotic dexterous functional grasp dataset constructed from a cost-effective real-simulation annotation system
Bian et al. Interface design of a human-robot interaction system for dual-manipulators teleoperation based on virtual reality
Lathuiliere et al. Visual hand posture tracking in a gripper guiding application
Chen et al. Application of haptic virtual fixtures on hot-line work robot-assisted manipulation
Infantino et al. Visual control of a robotic hand
Chen et al. Real time vision-based human hand motion tracking and grasping for a robotic manipulator with soft hand
Sharma et al. Vision-driven tele-operation for robot arm manipulation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120215