CN102317977A - 用于姿势识别的方法和系统 - Google Patents
用于姿势识别的方法和系统 Download PDFInfo
- Publication number
- CN102317977A CN102317977A CN201080007962XA CN201080007962A CN102317977A CN 102317977 A CN102317977 A CN 102317977A CN 201080007962X A CN201080007962X A CN 201080007962XA CN 201080007962 A CN201080007962 A CN 201080007962A CN 102317977 A CN102317977 A CN 102317977A
- Authority
- CN
- China
- Prior art keywords
- posture
- main body
- data
- feature locations
- interested
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 230000009471 action Effects 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 12
- 230000001144 postural effect Effects 0.000 claims description 8
- 238000009825 accumulation Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 7
- 244000188472 Ilex paraguariensis Species 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 2
- 239000004744 fabric Substances 0.000 claims 3
- 238000005070 sampling Methods 0.000 abstract description 3
- 230000036544 posture Effects 0.000 description 81
- 230000008569 process Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 17
- 230000002452 interceptive effect Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 6
- 210000001503 joint Anatomy 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
图像采集与数据预处理方法包括获得来自传感器的在做出动作的主体的图像。该传感器可以是深度摄像头。该方法还包括从图像中选出多个感兴趣的特征,采样出对应于所述多个感兴趣的特征的多个深度值,用所述多个深度值来将所述多个感兴趣的特征投射到模型上,以及用限制系统来限制投射所述多个感兴趣的特征到所述模型上。该限制系统可以上包括反向动力学求解器。
Description
关联申请的交叉引用
本申请要求于2009年2月17日提交的,申请号为61/153,229,题为“用于姿势识别的方法和系统”的美国临时申请的优先权,该美国临时申请的整体通过引用并入本申请。
背景信息
有很多种用于解释计算机系统的玩家或用户的动作的技术,于是玩家或用户得以通过自然而直观的界面来和计算机系统沟通。近来,这些界面在家庭娱乐及游戏市场上的应用引起人们极大的兴趣。其中比较值得注意的例如任天堂Wii的控制器以及Wii Fit的平衡板。任天堂控制器依赖于加速计并用三角测量来计算控制器的位置。作为一种替代方式,很多人机界面技术依赖于不同类型的摄像头。基于摄像头的界面系统的一个较早的例子是索尼的Eyetoy系统,其中使用常见的彩色摄像头来检测大致的动作并将其归类为用户完成的姿势。
在计算机电子游戏背景下,有几个在设计姿势识别系统时需要考虑的重要因素,且其相对重要性取决于姿势识别系统在游戏中是如何使用的。对该姿势识别系统的一种应用是允许用户反馈,例如,一旦具体的姿势被识别出来,可以播放预先存储的动画序列来向用户展现系统认为他所做的是怎样的。该姿势识别系统的另一种应用是作为游戏设定机制来记分,例如,增加记分,以及允许玩家进入不同等级。因此,姿势识别系统在游戏中的使用方式构成了对该系统设计的不同限制。作为一个例子,如果该系统用来向用户提供关于他所做动作的反馈,那么将用户作出姿势与系统识别出同一姿势之间的延迟最小化就很重要。如果该姿势识别系统被用来计算玩家的得分,那么对系统延迟的敏感度就没有这么重要。
编号7,340,077的美国专利介绍了一种姿势识别系统,该系统获得表示人的身体部分上的多个离散区域的深度的位置信息,然后使用这一信息来将姿势归类。根据该专利,有一个确切的起始时间,其指定了何时开始存储离散区域,还有一个确切的结束时间,其表示用户已经完成该姿势。在确切地确定了起始与结束时间后,进行与姿势库的比对。因此,该方法就引入了一个固有的延迟。另外,数据采集直接在深度数据上完成。也即,只能从对应于二元掩模上的值“1”的深度数据对数据点进行采样。从深度数据来对数据点进行采样带来了一些限制。首先,深度数据本身一般是多噪的,这可能会给采样值的质量造成不利影响。其次,从深度数据来对数据点进行采样必然限于摄像头的视野的领域。
概要本发明涉及对玩家在深度摄像头前作出的姿势和动作的识别,以及,在一个实施例中,使用这些姿势来驱动计算机电子游戏中的游戏设定。在本发明的接下来的概要中先定义若干术语如下。
姿势识别系统姿势识别系统是,例如,识别和确定使用者在输入设备前作出的预先确定的动作的系统。例子包括对来自摄像头的数据进行解读以识别出用户攥起了手,或是解读该数据以识别出一记左手直拳。
深度摄像头本发明可以使用来自生成3D数据的深度摄像头的数据来进行姿势识别。有若干种不同类型的深度摄像头。其中有依赖飞行时间原理的摄像头,或依赖结构光技术的摄像头,以及立体摄像头。这些摄像头可以生成具有固定像素分辨率的图像,其中每个像素具有整数值,这些值对应于摄像头投射到该图像的这一区域上的对象的距离。除此深度数据外,该深度摄像头还可以以常见彩色摄像头同样的方式来生成色彩数据,该数据可以与深度数据合并以用于处理。
二元掩模使用该深度数据,可以容易地创建二元掩模。二元掩模是有着和原始图像相同分辨率的图像,但是二元掩模的所有像素均具有对应于0或1的整数值。一般,所有像素都有阈值,在像素值低于阈值时在该二元掩模中接收0值,并在像素值高于阈值时在该二元掩模中接收1值。例如,在玩家站在深度摄像头前面的情形下,二元掩模被生成(并因此计算出阈值),使得对应于该玩家身体的像素为1,所有其它像素为0。于是该二元掩模有效地成为该用户的如摄像头所捕捉到的剪影。
关节图关节图是彼此间以某种固定方式连接并被限制以某些方式运动的关节的集合,例如,人体骨骼。
反向动力学求解器反向动力学(IK)求解器可以用于本发明。已知所需的关节图的配置(例如,某些关节的位置),反向动力学求解器计算图中已知关节与其它关节之间的角度,这些角度决定所选关节的已知位置。例如,已知手腕与肩的位置,IK求解器可以计算肩关节与肘关节的角度来得到已知的腕、肩的位置,由此也有效地计算出了肘关节的位置。
申请号为11/866,280,题为“用于姿势分类的方法和系统”的美国专利申请中介绍了使用姿势识别来驱动游戏中的游戏设定的方法与系统,其整体通过引用并入本申请。如下所述,该方法和系统可以用于本发明。在一个实施例中,美国专利申请11/866,280可用于IK求解器模型所生成的数据。
在某一误差界限内,人体的各部分可以由深度摄像头所产生的数据来识别。在人体的各部分的位置在深度图像上被识别出来以后,可以从该图像中采样出深度值,从而获得每个身体部分的三维(3D)位置。(这一步骤称为跟踪模块。)然后,姿势识别系统可以被训练并用于这些与用户身体上的点相对应的那些3D位置。
在本发明中,对应于身体上的各部分的3D位置可以映射到一个模型上。在实施例中,反向动力学(IK)求解器用来将从深度图像上获得的数据点投射到人体关节能够采取的可能配置上。IK求解器模型要作为限制来过滤数据,从而使数据匹配于自然的人类动作的模型框架之内。
使用IK求解器来过滤来自跟踪模块的数据有几个重要的好处。首先,IK求解器模型有效地平滑了数据,由此将摄像头噪声的影响降到最低。其次,取自跟踪模块的数据点需对应于二元掩模上的值“1”的像素(也即,他们落在用户的剪影上)。对于由IK求解器获得的数据则没有附加这样的限制。举一个具体的例子,玩家可能站得靠近摄像头的视野边缘。在这种情况下,当他把手伸向旁边时,手臂末端就在摄像头的视野之外了。尽管如此,IK求解器会计算出玩家的胳膊伸到了视野之外,并将他的手的位置复原。显然,仅适用来自跟踪模块的数据是无法做到这点的。使用IK求解器的第三个好处在于应对阻挡。例如,玩家的手经常会挡住摄像头视野而使摄像头无法看到他的肘部。因此,不会从深度图像中采样出对应于肘的数据(因此其位置未知)。但是,如果已知手和肩的位置,IK求解器模型还可以计算出肘的大致位置。
本发明的另外一个部分就是姿势分类方法。美国专利申请11/866,280中介绍的方法是关于姿势是否作出的二元分类法。也即,这个方法产生关于姿势是否作出的二元标记,“是”或“否”。美国专利申请11/866,280中介绍的方法的特点是它必须等到姿势完成才能决定姿势库中的任意姿势是否被作出。一种作为替代方式的姿势分类方法包括在本发明中。本发明中介绍的方法不再二元地确定姿势是否已经作出(“是”或“否”),而是逐帧地跟踪正在作出的姿势,并在每一帧后指出正在作出的姿势与姿势库中的已知姿势的接近程度。
附图说明
图中示出了姿势识别系统与方法的例子。这些例子和图是示例性的,而非限定性的。
图1示出了该姿势识别系统的一个实施例的总体架构的框图100A。
图2描绘了根据本发明公开的一个实施例的用于从摄像头获取数据并处理该数据来获得特征位置的示例过程200A的流程图。
图3A描绘了示出根据本发明公开的一个实施例的用于构建姿势库的示例性过程300A的流程图。
图3B描绘了示出根据本发明公开的一个实施例的使用动作捕捉设备来创建姿势库的示例性过程300B的流程图。
图3C描绘了示出根据本发明公开的一个实施例的使用彩色和深度图像来创建姿势库的示例性过程300C的流程图。
图4A描绘了示出根据本发明公开的一个实施例的用二元姿势识别技术来确定所搜索的姿势是否被作出的示例性过程400A的流程图。
图4B为示出根据本发明公开的一个实施例的从一系列图像所捕捉到的动作中识别出姿势的方法的过程400B的流程图。
图5描绘了示出根据本发明公开的一个实施例的示例性过程500A的流程图,该过程确认玩家是否在一段时间内(也即,一系列帧)作出特定姿势,并确定玩家作出提示动作的精确程度。
图6为根据本发明公开的一个实施例的并入交互式程序中的姿势分类系统的实施例的框图600。
图7为根据本发明公开的一个实施例的并入到由多个玩家通过网络访问的互动式程序中的姿势分类系统的实施例的框图700。
详细说明
图1示出了姿势识别系统的一个实施例的整体架构的框图100A。图像采集与数据预处理模块200获得来自摄像头的数据,并对其进行处理,而后将经处理的数据供给三个其它模块,姿势训练模块300、二元姿势识别模块400和实时姿势识别模块500。在一个实施计算例中,姿势训练模块300根据供给到该模块的数据来计算出最有效地描绘特定姿势的特性的方式,以此来训练姿势识别算法。在一个实施例中,姿势训练模块300作为离线任务运行。以该数据为根据的由姿势训练模块300生成的姿势的特性描述被发送到二元姿势识别模块400和实时姿势识别模块500。此外,来自图像采集与数据预处理模块200的数据也被发送到二元姿势识别模块400和实时姿势识别模块500。
图2描绘了根据本发明公开的实施例的用于从摄像头获取数据并处理该数据来获得特征位置的示例过程200A的流程图。该系统的图像采集与数据预处理模块200执行过程200A。在一个实施例中,这些特征位置为关节位置。所获得的特征位置被发送到模块300、400和500。
在框210,模块200获得来自摄像头的二维图像数据。该数据既可以只是深度数据,也可以是深度数据和色彩数据。
在框220,模块200处理来自摄像头的数据。其可以只是深度图像,或者其可以是深度图像与色彩图像相结合。图像处理算法用于尽可能准确地确定取自摄像头的二维(2D)图像上的与被跟踪的物体的各特征相对应的点。如果对玩家的身体进行跟踪,这些特征可以包括玩家的头、左右肩关节、左右肘关节、左右手、躯干、骨盆、左右膝关节。在感兴趣的特征的位置在2D图像上确定下来后,可以从该深度图像中采样出深度值来获得每个特征的三维(3D)位置。在一个实施例中,这对应于获得每个感兴趣的关节的3D位置(包括来自深度图像的深度)。
在框220中获得的关节的3D位置在框330中投射到被跟踪的物体的模型上。可以将数据映射到其上的模型有几种不同类型。在一个实施例中,该模型可以为几何形状。例如,该模型可以是人的手的简单的几何再现,有手掌和五根手指。在一个实施例中,该模型是人的骨骼的再现,通过使用反向动力学(IK)求解器或其它限制系统,其被限于仅显示那些与自然的人体运动相一致的配置。在一个实施例中,IK求解器求解等式系统,该系统对人体骨骼的关节的可能配置进行建模,并作为对每个关节的运动自由度的限制。
在框230中限制框220中获得的关节位置限制到该模型有几个重要的功能。第一,滤除了来自摄像头的噪声,且有效地对结果进行了平滑处理。第二,确信玩家的四肢可能会在摄像头的视野之外。在这种情况下,框230的模型能够计算出不在摄像头视野中的关节的大致位置。第三,其填补了那些不能从摄像头数据中获得的关节的位置。已知“附近”其它关节,IK求解器可以计算出一些关节的位置。例如,如果玩家的手直对着摄像头向外伸展,他的肘关节甚至肩关节很有可能在视野中被挡住。在这种情况下,不可能在框220中获得这些关节的3D位置。但是,在框230中,这些关节的3D位置将从人体骨骼的模型来获得,已知其它关节的位置,该模型能够计算出这些关节的位置。
一些实施例包括可选的框240,其中特征(或关节)的位置数据被缩放到标准骨架或标准模型。这通常称作“动画重定位”。尽管并非必要,但这个框是有作用的,因为虽然训练数据采自的用户的身体比例与测试数据采自的用户有着不同的身体比例,训练数据和测试数据必须参照同一坐标系。为了更好地将经训练的姿势适用于训练数据中未包含的用户身体,该跟踪数据可以被适当缩放。
在框250,从用作动画重定位的标准模型采集数据。在一个实施例中,这对应于从骨骼模型获得关节的3D位置。在框260,从该模型检索出的数据被发送到姿势训练模块300来训练姿势分类算法,另外还被发送到姿势识别模块400和500。
图3A描绘了示出根据本发明公开的实施例的用于构建姿势库的示例性过程300A的流程图。该系统的姿势训练模块300执行过程300A。在框310,模块300接收由图像采集与数据预处理模块200生成的特征数据。接着在框320,模块300根据该特征数据来描述这些姿势的特性。根据本发明公开的实施例,在框330,模块300将这些姿势与特定的预先确定的姿势关联。作为过程300A的输出,在框330,构建姿势库,其中每个姿势具有依照图像采集与数据预处理模块200生成的数据的特定的特性描述。
图3A中的框320和330可以包含图3B各框,其在下文中有详述并见于美国专利申请11/866,280的图1。作为替代方式,图3A中的框310可以包含图3C中的各框,其在下文中有详述并见于美国专利申请11/866,280的图2。在一个实施例中,框320和330作为离线任务执行。
为了将用户的姿势归类为特定姿势,将用户的动作与收编并存储在姿势库中的已知姿势集合进行比对。对于库中的每个姿势,首先在预处理步骤中为每个姿势生成基线或“地面真值”数据。“地面真值”数据接着用作基线,用户的动作与之比对,来将该动作归类为特定姿势。在成一系列的若干图像中描述感兴趣的特征点的相对位置的数据被用于上述比对。图3B示出了一种为姿势库获得“地面真值”数据的方法300B。
在步骤110A中,至少一个多次作出感兴趣的姿势的主体被记录。在该主体身体的每个感兴趣的特征点上放置传感器,而动作捕捉设备则用于将该主体的动作记录在一些里的图像中。感兴趣的特征点可以包括对应于,例如,该主体的左手、左肘、左肩、或头的关节和位置。对于本领域技术人员而言,很明显主体身上的很多其它位置也可以作为感兴趣的特征点。步骤110A的输出是三维点的集合,其中每个点对应于系列中每张图片中的一个特征点。
在步骤120A,通过使用处理动作捕捉数据的标准技术手动清理和平滑所述数据来对来自该动作捕捉过程的数据进行后处理。对本领域技术人员而言,很明显也可以执行其它后处理步骤。接着,在步骤125中,将所述数据在所述姿势被作出的多次上取平均,以消除偏置。在优选实施例中,很多不同作出该姿势的主体被记录,这些不同主体的姿势被取平均以防止地面真值数据过度适合一个人。
相似点测量是一种将两个姿势集合的相似点定量地相比较的功能。相似点测量值越高,一个人的动作与该动作所比对的已知姿势越相似。在步骤130A中,计算出该姿势的阈值,当把所述姿势与人的动作比对的相似点测量大于该特定姿势的阈值,很可能这个人的动作已被确定为该姿势。
步骤140A询问是否要将另一姿势加入到该姿势库中。如果是,上述步骤将从步骤110A开始重复,伴随着对至少一个作出该新姿势的主体的记录。如果没有进一步的姿势要加入到该库中,那么该姿势库就完成了。
图3C示出了作为替代方式的方法300C,可以由该方法来为姿势库获得姿势的“地面真值”数据及其对应的姿势阈值。在步骤210A中,能够记录色彩与深度图像的摄像机被用于记录至少一个几次作出感兴趣姿势的主体。在步骤220A中,感兴趣的特征点的位置被手动标记在一系列色彩与深度图像上。在其它实施例中,标记这些感兴趣的点可以是自动的或半自动的。例如,可以在来自摄像机的深度图像上运行自动跟踪来确定感兴趣的点,在一些实施例中,这些被自动确定的感兴趣的点可以被手动修正。在阶段230A中,为捕捉该姿势的图像系列中的每个色彩-深度图像对计算出每个感兴趣的特征点的三维坐标。数据的后处理出现在步骤240A中。可以进行的后处理步骤包括在时间和空间上对数据进行平滑处理。对于本领域技术人员而言,很明显也可以执行其它后处理步骤。
接着,在步骤250A中,将所述数据在所述姿势被作出的多次上取平均以消除偏置。在优选实施例中,很多不同作出该姿势的主体被记录,这些不同主体的姿势被取平均以防止地面真值数据过度适合一个人。
在步骤260A中,计算出该姿势的阈值,当把所述姿势与人的动作比对的相似点测量大于该特定姿势的阈值,很可能这个人的动作已被确定为该姿势。
步骤270A询问是否要将另一姿势加入到该姿势库中。如果是,上述步骤将从步骤210A开始重复,伴随着对至少一个作出该新姿势的主体的记录。如果没有进一步的姿势要加入到该库中,那么该姿势库就完成了。
可以使用任何用于自动分类数据的技术,包括有监督和无监督的机器学习技术。数据分类技术包括但不限于,支撑矢量机(SVM)、隐马尔可夫模型(HMM)、以及逐步聚类分析(k-means clustering)。例如,SVM可以用来找出两类数据点(“所需的姿势”和“不需要的姿势”)之间的“最佳分割”,推导出的判决函数可以用于备选姿势来确定该备选姿势落入哪个分类。
图4A描绘了示出根据本发明公开的实施例的用二元姿势识别技术来确定所搜索的姿势是否被作出的示例性过程400A的流程图。在一个实施例中,二元姿势识别技术等待到从图像采集与数据预处理模块200接收到全部的时间相关序列,才计算姿势库中的姿势是否被作出,由此在游戏中引入了延时。
在框410,二元姿势识别模块400接收来自该图像采集与数据预处理模块200的描述这些特征的特征数据。然后,在框420,玩家的对应于姿势库中的姿势被模块400检测出来。框420的输出为检测到的姿势。在一个实施例中,框420可以包含美国专利申请11/866,280图3中的各框,如图4B所示。
在框430,该系统的游戏引擎模块基于框420中检测出的姿势来为该玩家生成反馈。所述游戏引擎模块必须控制与玩家互动的游戏应用。在框440,该系统在显示器上为玩家显示所生成的反馈,例如,根据玩家的表现调整该玩家的分数。
图5描绘了示出根据本发明公开的实施例的示例性过程500A的流程图,该过程确认玩家是否在一段时间内(也即,一系列帧)作出特定姿势,并确定玩家作出提示动作的精确程度。
在框510,实时姿势识别模块500接收来自图像采集与数据预处理模块200的特征数据。该实时姿势识别模块在作出该姿势的过程中实时地更新该玩家的进展,例如,在每帧之后。在框520,该系统的所述游戏引擎模块选择感兴趣的姿势并提示用户来作出该姿势。
在框530,累积跟踪分数(CTS)置0。在一个实施例中,CTS在每一帧被更新。但是,CTS可以以其它间隔来更新,例如,每两帧。接着,在框510中接收到的特征数据被与在框520中选出的感兴趣的姿势进行比对,并计算出对应于该玩家的动作匹配所述感兴趣的姿势的程度的数值。一种将来自框510的数据与来自框520的感兴趣的数据进行比对的方式是使用相似点测量。
以下为一种示例性的相似点测量:例如,视x(i,j)为根据感兴趣的姿势预先确定的关节i在时间j上的位置,且y(i,j)为从框510获得的关节i在时间j的值,即,所述感兴趣的姿势中关节i在时间j上的位置。令w(i)为每个关节的权重,且u(j)为每次的权重。那么,一种示例性的相似点测量为:
在一个实施例中,权重u(j)和w(i)可以在点对点的基础上分配。在框540,每帧计算该相似点测量(在上例中,Su,w(x,y)),在框545,该累积跟踪分数增加Su,w(x,y)的值。0054在判决框550,该系统确定累积跟踪分数是否保持在已知阈值内。如果CTS保持在已知阈值内(框550-是),这表示该玩家的动作足够接近由感兴趣的姿势所描述特征的那些动作,该过程进入框555,其中该玩家正在做出感兴趣的动作这一信息被发送给游戏引擎模块。在框570,游戏引擎模块给予被提供的信息来通过显示器向玩家提供反馈。
在判决框550,该系统确定累积跟踪分数是否保持在已知阈值内。如果CTS保持在已知阈值内(框550-是),这表示该玩家的动作足够接近由感兴趣的姿势所描述特征的那些动作,该过程进入框555,其中该玩家正在做出感兴趣的动作这一信息被发送给游戏引擎模块。在框570,游戏引擎模块给予被提供的信息来通过显示器向玩家提供反馈。
然后,在判决框575,该系统确定是否存在需要根据在框510中从模块200接收到的特征数据来分析的另一个帧。如果有另一个帧(框575-是),该过程回到框540中计算下一帧得相似点测量。如果没有要分析的其它帧(框575-否),该过程回到框510来从模块200接收更多的特征数据。
如果CTS没有保持在已知阈值以内(框550-否),在框560,CTS被置0。接着在框565,该玩家没有在做出感兴趣的姿势这一信息被发送给游戏引擎模块,该过程进入如上所述的框570。
图6为并入互动程序的姿势分类系统的一个实施例的框图600。摄像机设备610捕捉用户的动作。摄像机设备610同时摄下该用户的色彩与深度图像,这些图像被发送给处理器620用于处理。
处理器620在色彩与深度图像中定位感兴趣的特征点,计算一同获得的色彩与深度图像中的每个特征点的三维坐标系,把这些坐标系存储在存储器630中用于处理,保证最小数量的图像已经被获得,通过将所述动作与数据库640中的每个姿势进行比对来计算相似点测量,确定具有高于这些动作比对过的数据库姿势的阈值的相似点测量的姿势,确定获得的最高的相似点测量,提示摄像机设备610获得额外的图像,控制存储器630以删除经处理的图像,并将确定的姿势输出给显示器650,于是向该用户提供反馈。处理器620还运行由所述用户通过显示器650虚拟地感受的互动程序。
显示器650呈现出处理器620确定的正在做出该姿势的玩家的图像。该玩家的图像并入到所述互动程序的虚拟环境中,该虚拟环境也被显示器650呈现给用户。
图7为并入到由多个玩家通过网络访问的互动式程序中的姿势分类系统的实施例的框图700。
多个玩家可以从不同位置来访问同一互动程序。图7示出了三个分离的场所740、750和760,用户从这些场所来访问同一虚拟环境,但是,任意数量的用户可以从任意数量的场所来参与到该互动程序中。场所740、750和760中的每个具有摄像机742、752和762,这些摄像机将在该位置上的用户的色彩与深度图像同时摄下,这些图像被发送到处理器720用于处理。如果有多于一个用户在同一场所,应有可专用于该场所的每个用户的摄像机。在同一场所的所有用户可以共用一个显示器,或拥有他们各自的独立显示器744、754和764。但是,所有显示器能够显示参与同一虚拟环境的在不同场所的所有用户。
由摄像机742、752和762从不同场所740、750和760获得的图像被通过网络770发送给处理器720。处理器720、存储器730、和姿势数据库710以与上图6中所介绍的同样的方式工作。但是,在有多个用户参与到同一互动程序中时,处理器720必须处理为每个用户捕捉到的图像。作为替代方式,处理器720可以具有专用于各个单独用户的子处理器,且每个子处理器可以访问存储器730中的独立存储器。对于本领域技术人员而言,很明显不同的硬件结构可以实现处理器720和存储器730的功能来优化响应时间。
处理器720还运行用户通过744、754和764虚拟地感受的互动程序。所有用户的图像并入到互动程序的虚拟环境中,该虚拟环境由每台显示器744、754和764呈现。处理器720经由网络770将信号发送给显示器744、754和764。
Claims (22)
1.一种识别感兴趣的姿势的方法,包括:
提示主体做出所述感兴趣的姿势;
从传感器获得在做出动作的所述主体的多幅图像;
在获得所述多幅图像中的每幅图像后,将所述多幅图像中的每一幅与所述感兴趣的姿势进行比对;
基于所述比对确定跟踪分数;以及
如果跟踪分数保持在已知阈值之内,确定所述主体在做出所述感兴趣的姿势。
2.如权利要求1所述的方法,进一步包括在所述比对中使用反向动力学求解器来将所述多幅图像中的每一幅限制到模型。
3.如权利要求1所述的方法,进一步包括从姿势库中选择所述感兴趣的姿势。
4.如权利要求1所述的方法,其中所述比对包括计算相似点测量。
5.如权利要求1所述的方法,其中所述传感器包括深度摄像头。
6.一种图像采集与数据预处理方法,包括:
从传感器获得在做出动作的主体的图像;
从所述图像中选出多个感兴趣的特征;
对对应于所述多个感兴趣的特征的多个深度值进行采样;
用所述多个深度值来将所述多个感兴趣的特征投射到模型上;
用限制系统对投射所述多个特征到所述模型进行限制。
7.如权利要求6所述的方法,其中所述限制系统包括反向动力学求解器。
8.如权利要求6所述的方法,其中所述传感器包括深度摄像头。
9.如权利要求6所述的方法,进一步包括用于将所述模型缩放到标准模型的动画重定位。
10.一种识别姿势的系统,包括:
摄像头,用于采集得多个图像深度数据帧;
图像采集模块,配置为接收来自所述摄像头的所述多个图像深度数据帧,并处理所述图像深度数据来确定主体的特征位置;
姿势训练模块,配置为接收来自所述图像采集模块的所述主体的特征位置,并将所述特征位置与预先确定的姿势相关联;
二元姿势识别模块,配置为接收来自所述图像采集模块的所述主体的特征位置,并确定所述特征位置是否匹配特定的姿势;
实时姿势识别模块,配置为接收来自所述图像采集模块的所述主体的特征位置,并确定所述特定姿势是否正在多于一个图像深度数据帧中被做出。
11.如权利要求10所述的系统,进一步包括:
游戏引擎模块,配置为选择所述特定姿势并提示所述主体来做出所述特定姿势。
12.如权利要求10所述的系统,进一步包括:
姿势数据库,其中包含所述预先确定的姿势。
13.如权利要求10所述的系统,进一步包括:
显示器,用于向所述主体提供关于由所述主体做出的姿势的反馈。
14.如如权利要求10所述的系统,其中所述摄像头进一步获得色彩图像数据。
15.如权利要求10所属的系统,其中所述实时姿势识别模块进一步配置为计算相似点测量和累积跟踪分数,其中为每一帧更新所述相似点测量和所述累积跟踪分数,进一步地,其中所述对所述特定姿势是否正在被做出的确定是基于为每一帧将所述累积跟踪分数与所述特定姿势的阈值进行比对。
16.如权利要求10所述的系统,其中所述图像采集模块将所述图像深度数据映射到模型上。
17.如权利要求16所述的系统,其中所述图像采集模块为在所述多个帧中的至少一个帧中不可见的特征位置来使用反向动力学求解器来限制所述模型的动作。
18.如权利要求10所述的系统,其中所述图像采集模块将所述特征位置缩放到标准模型。
19.如权利要求10所述的系统,其中所述姿势训练模块使用机器学习技术来确定所述特征位置是否匹配特定姿势。
20.一种识别姿势的系统,包括:
用于采集多个图像深度数据帧的装置;
用于接收来自所述摄像头的所述多个图像深度数据帧,并处理所述图像深度数据来确定主体的特征位置的装置;
用于接收来自所述图像采集模块的所述主体的特征位置,并将所述特征位置与预先确定的姿势相关联的装置;
用于接收来自所述图像采集模块的所述主体的特征位置,并确定所述特征位置是否匹配特定的姿势的装置;
用于接收来自所述图像采集模块的所述主体的特征位置,并确定所述特定姿势是否正在多于一个图像深度数据帧中被做出的装置;
用于向所述主体提供关于所述主体做出的姿势的反馈的装置。
21.如权利要求1所述的方法,其中确定所述跟踪分数包括在所述感兴趣的姿势上应用支撑矢量机。
22.如权利要求1所述的方法,其中确定所述跟踪分数包括应用相似点测量。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15322909P | 2009-02-17 | 2009-02-17 | |
US61/153,229 | 2009-02-17 | ||
PCT/US2010/023179 WO2010096279A2 (en) | 2009-02-17 | 2010-02-04 | Method and system for gesture recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102317977A true CN102317977A (zh) | 2012-01-11 |
Family
ID=42559532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080007962XA Pending CN102317977A (zh) | 2009-02-17 | 2010-02-04 | 用于姿势识别的方法和系统 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8824802B2 (zh) |
EP (1) | EP2399243A4 (zh) |
JP (1) | JP2012518236A (zh) |
KR (1) | KR101738569B1 (zh) |
CN (1) | CN102317977A (zh) |
CA (1) | CA2748037C (zh) |
WO (1) | WO2010096279A2 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218124A (zh) * | 2013-04-12 | 2013-07-24 | 北京国铁华晨通信信息技术有限公司 | 基于深度摄像头的菜单控制方法及系统 |
CN103577827A (zh) * | 2012-07-20 | 2014-02-12 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
CN103735268A (zh) * | 2013-09-29 | 2014-04-23 | 沈阳东软医疗系统有限公司 | 一种体位检测方法及系统 |
CN104952058A (zh) * | 2014-03-28 | 2015-09-30 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN104978583A (zh) * | 2014-04-11 | 2015-10-14 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN106326643A (zh) * | 2016-08-16 | 2017-01-11 | 完美世界(北京)数字科技有限公司 | 一种应用于类人形骨架的反向动力学解算方法及装置 |
WO2017107086A1 (en) * | 2015-12-23 | 2017-06-29 | Intel Corporation | Touch gesture detection assessment |
CN108230429A (zh) * | 2016-12-14 | 2018-06-29 | 上海交通大学 | 基于头部和双手位置及姿态的实时全身姿态重建方法 |
CN109702768A (zh) * | 2018-10-10 | 2019-05-03 | 李强 | 学习型机器人动作数据采集方法 |
Families Citing this family (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
KR101238608B1 (ko) | 2004-07-30 | 2013-02-28 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 |
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
US20070285554A1 (en) * | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
EP2342642A1 (en) * | 2008-09-04 | 2011-07-13 | Extreme Reality Ltd. | Method system and software for providing image sensor based human machine interfacing |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
JP2013505493A (ja) | 2009-09-21 | 2013-02-14 | エクストリーム リアリティー エルティーディー. | 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US20110289455A1 (en) * | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
KR20120024247A (ko) | 2010-09-06 | 2012-03-14 | 삼성전자주식회사 | 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치 |
KR20120051208A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치 |
WO2012098534A1 (en) | 2011-01-23 | 2012-07-26 | Extreme Reality Ltd. | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
KR101804848B1 (ko) * | 2011-04-22 | 2017-12-06 | 삼성전자주식회사 | 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법 |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
WO2012157793A1 (en) * | 2011-05-17 | 2012-11-22 | Lg Electronics Inc. | Gesture recognition method and apparatus |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
WO2013012335A1 (en) | 2011-07-21 | 2013-01-24 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
CN103827891B (zh) * | 2011-07-28 | 2018-01-09 | Arb实验室公司 | 使用全球生成的多维姿势数据检测身体运动的系统和方法 |
JP2013037454A (ja) * | 2011-08-05 | 2013-02-21 | Ikutoku Gakuen | 姿勢判定方法、プログラム、装置、システム |
US8953889B1 (en) * | 2011-09-14 | 2015-02-10 | Rawles Llc | Object datastore in an augmented reality environment |
US8958631B2 (en) * | 2011-12-02 | 2015-02-17 | Intel Corporation | System and method for automatically defining and identifying a gesture |
US9250713B2 (en) * | 2011-12-05 | 2016-02-02 | Microsoft Technology Licensing, Llc | Control exposure |
US9389681B2 (en) * | 2011-12-19 | 2016-07-12 | Microsoft Technology Licensing, Llc | Sensor fusion interface for multiple sensor input |
US9339691B2 (en) | 2012-01-05 | 2016-05-17 | Icon Health & Fitness, Inc. | System and method for controlling an exercise device |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
EP2831706B1 (en) * | 2012-03-26 | 2018-12-26 | Tata Consultancy Services Limited | A multimodal system and method facilitating gesture creation through scalar and vector data |
CN103365404B (zh) * | 2012-04-01 | 2016-07-06 | 联想(北京)有限公司 | 一种人机交互的方法和装置 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US20150294189A1 (en) * | 2012-07-23 | 2015-10-15 | Selim BenHimane | Method of providing image feature descriptors |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US20140104394A1 (en) * | 2012-10-15 | 2014-04-17 | Intel Corporation | System and method for combining data from multiple depth cameras |
US9501140B2 (en) | 2012-11-05 | 2016-11-22 | Onysus Software Ltd | Method and apparatus for developing and playing natural user interface applications |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9448634B1 (en) | 2013-03-12 | 2016-09-20 | Kabam, Inc. | System and method for providing rewards to a user in a virtual space based on user performance of gestures |
EP2969058B1 (en) | 2013-03-14 | 2020-05-13 | Icon Health & Fitness, Inc. | Strength training apparatus with flywheel and related methods |
US20140267611A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Runtime engine for analyzing user motion in 3d images |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9563955B1 (en) | 2013-05-15 | 2017-02-07 | Amazon Technologies, Inc. | Object tracking techniques |
US10533850B2 (en) | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
WO2015006784A2 (en) | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US10079970B2 (en) | 2013-07-16 | 2018-09-18 | Texas Instruments Incorporated | Controlling image focus in real-time using gestures and depth sensor data |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
WO2015100429A1 (en) | 2013-12-26 | 2015-07-02 | Icon Health & Fitness, Inc. | Magnetic resistance mechanism in a cable machine |
IN2013MU04097A (zh) * | 2013-12-27 | 2015-08-07 | Tata Consultancy Services Ltd | |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
US9911351B2 (en) * | 2014-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Tracking objects during processes |
US10433612B2 (en) | 2014-03-10 | 2019-10-08 | Icon Health & Fitness, Inc. | Pressure sensor to quantify work |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10466657B2 (en) | 2014-04-03 | 2019-11-05 | Honda Motor Co., Ltd. | Systems and methods for global adaptation of an implicit gesture control system |
US9342797B2 (en) | 2014-04-03 | 2016-05-17 | Honda Motor Co., Ltd. | Systems and methods for the detection of implicit gestures |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
US10426989B2 (en) | 2014-06-09 | 2019-10-01 | Icon Health & Fitness, Inc. | Cable system incorporated into a treadmill |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2015195965A1 (en) | 2014-06-20 | 2015-12-23 | Icon Health & Fitness, Inc. | Post workout massage device |
CN106232010B (zh) * | 2014-07-02 | 2020-03-31 | 柯惠有限合伙公司 | 用于检测气管的系统和方法 |
JP6814146B2 (ja) | 2014-09-25 | 2021-01-13 | サンハウス・テクノロジーズ・インコーポレーテッド | オーディオをキャプチャーし、解釈するシステムと方法 |
US11308928B2 (en) | 2014-09-25 | 2022-04-19 | Sunhouse Technologies, Inc. | Systems and methods for capturing and interpreting audio |
CN104346816B (zh) * | 2014-10-11 | 2017-04-19 | 京东方科技集团股份有限公司 | 一种深度确定方法、装置及电子设备 |
EP3243120A4 (en) * | 2015-01-09 | 2018-08-22 | Razer (Asia-Pacific) Pte Ltd. | Gesture recognition devices and gesture recognition methods |
US10391361B2 (en) | 2015-02-27 | 2019-08-27 | Icon Health & Fitness, Inc. | Simulating real-world terrain on an exercise device |
WO2016167331A1 (ja) | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置 |
US10269136B2 (en) * | 2015-04-29 | 2019-04-23 | Hewlett-Packard Development Company, L.P. | System and method for processing depth images which capture an interaction of an object relative to an interaction plane |
JP6575400B2 (ja) * | 2016-03-02 | 2019-09-18 | 富士通株式会社 | 指先位置推定装置、操作判定装置、指先位置推定システム、指先位置推定プログラム及び指先位置推定方法 |
US10493349B2 (en) | 2016-03-18 | 2019-12-03 | Icon Health & Fitness, Inc. | Display on exercise device |
US10625137B2 (en) | 2016-03-18 | 2020-04-21 | Icon Health & Fitness, Inc. | Coordinated displays in an exercise device |
US10272317B2 (en) | 2016-03-18 | 2019-04-30 | Icon Health & Fitness, Inc. | Lighted pace feature in a treadmill |
US9965689B2 (en) * | 2016-06-09 | 2018-05-08 | Qualcomm Incorporated | Geometric matching in visual navigation systems |
US10032276B1 (en) | 2016-08-29 | 2018-07-24 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10366508B1 (en) | 2016-08-29 | 2019-07-30 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10571926B1 (en) | 2016-08-29 | 2020-02-25 | Trifo, Inc. | Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance |
US10162362B2 (en) | 2016-08-29 | 2018-12-25 | PerceptIn, Inc. | Fault tolerance to provide robust tracking for autonomous positional awareness |
US10043076B1 (en) | 2016-08-29 | 2018-08-07 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10402663B1 (en) | 2016-08-29 | 2019-09-03 | Trifo, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous mapping |
US10390003B1 (en) | 2016-08-29 | 2019-08-20 | Perceptln Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10571925B1 (en) | 2016-08-29 | 2020-02-25 | Trifo, Inc. | Autonomous platform guidance systems with auxiliary sensors and task planning |
US10410328B1 (en) | 2016-08-29 | 2019-09-10 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10453213B2 (en) * | 2016-08-29 | 2019-10-22 | Trifo, Inc. | Mapping optimization in autonomous and non-autonomous platforms |
US11314262B2 (en) | 2016-08-29 | 2022-04-26 | Trifo, Inc. | Autonomous platform guidance systems with task planning and obstacle avoidance |
US10395117B1 (en) | 2016-08-29 | 2019-08-27 | Trifo, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10671705B2 (en) | 2016-09-28 | 2020-06-02 | Icon Health & Fitness, Inc. | Customizing recipe recommendations |
KR101937823B1 (ko) * | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US10099368B2 (en) | 2016-10-25 | 2018-10-16 | Brandon DelSpina | System for controlling light and for tracking tools in a three-dimensional space |
US10444761B2 (en) | 2017-06-14 | 2019-10-15 | Trifo, Inc. | Monocular modes for autonomous platform guidance systems with auxiliary sensors |
US10496104B1 (en) | 2017-07-05 | 2019-12-03 | Perceptin Shenzhen Limited | Positional awareness with quadocular sensor in autonomous platforms |
US11014242B2 (en) | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US10732725B2 (en) * | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
US11774983B1 (en) | 2019-01-02 | 2023-10-03 | Trifo, Inc. | Autonomous platform guidance systems with unknown environment mapping |
JP7409819B2 (ja) * | 2019-10-04 | 2024-01-09 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 算出装置、算出方法、算出プログラム |
JP7413836B2 (ja) * | 2020-02-28 | 2024-01-16 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
WO2021186223A1 (en) * | 2020-03-20 | 2021-09-23 | Wrnch Inc. | Joint rotation inferences based on inverse kinematics |
US11803247B2 (en) | 2021-10-25 | 2023-10-31 | Kyndryl, Inc. | Gesture-based control of plural devices in an environment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
CN1656503A (zh) * | 2002-04-05 | 2005-08-17 | 伊登蒂克斯公司 | 基于视觉的操作方法和系统 |
JP2007316882A (ja) * | 2006-05-25 | 2007-12-06 | Mitsubishi Electric Corp | 遠隔操作装置及び方法 |
US20080244465A1 (en) * | 2006-09-28 | 2008-10-02 | Wang Kongqiao | Command input by hand gestures captured from camera |
CN101305401A (zh) * | 2005-11-14 | 2008-11-12 | 微软公司 | 用于游戏的立体视频 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4900033A (en) | 1988-09-12 | 1990-02-13 | Samuel Campos | Spelling game apparatus |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
DE69736622T2 (de) | 1996-07-03 | 2007-09-13 | Hitachi, Ltd. | System zur Bewegungserkennung |
WO1998040126A1 (en) | 1997-03-12 | 1998-09-17 | Neurocom International, Inc. | System and method for monitoring training programs |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6336891B1 (en) | 1997-12-08 | 2002-01-08 | Real Vision Corporation | Interactive exercise pad system |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6270414B2 (en) | 1997-12-31 | 2001-08-07 | U.S. Philips Corporation | Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment |
US7628730B1 (en) | 1999-07-08 | 2009-12-08 | Icon Ip, Inc. | Methods and systems for controlling an exercise apparatus using a USB compatible portable remote device |
US8956228B2 (en) | 1999-12-03 | 2015-02-17 | Nike, Inc. | Game pod |
EP1860642A3 (en) | 2000-01-11 | 2008-06-11 | Yamaha Corporation | Apparatus and method for detecting performer´s motion to interactively control performance of music or the like |
JP3496874B2 (ja) | 2000-02-23 | 2004-02-16 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法、情報記憶媒体、ゲーム配信装置及びゲーム配信方法 |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
JP2003126291A (ja) | 2001-10-19 | 2003-05-07 | Konami Co Ltd | 運動支援制御方法及び運動支援装置 |
JP3694267B2 (ja) | 2002-01-11 | 2005-09-14 | コナミスポーツライフ株式会社 | 運動支援装置 |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US20040001113A1 (en) | 2002-06-28 | 2004-01-01 | John Zipperer | Method and apparatus for spline-based trajectory classification, gesture detection and localization |
US20070155589A1 (en) | 2002-12-04 | 2007-07-05 | Philip Feldman | Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
WO2005104010A2 (en) | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US20060018516A1 (en) | 2004-07-22 | 2006-01-26 | Masoud Osama T | Monitoring activity using video information |
GB2419433A (en) * | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
KR20060070280A (ko) * | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
EP1874414A4 (en) | 2004-12-28 | 2010-08-25 | Ssd Co Ltd | SIMULATED EXPERIMENT APPARATUS, ENERGY CONSUMPTION CALCULATION METHOD, INCREASE MOTION DETECTION APPARATUS, EXERCISE ASSIST APPARATUS, ANIMATION METHOD, EXERCISE QUANTITY MANAGEMENT APPARATUS, MEASURING APPARATUS ATHLETIC ABILITY, CAPACITANCE MEASURING APPARATUS |
EP1877897B1 (en) | 2005-04-26 | 2010-02-24 | Alterface S.A. | Interactive multimedia applications device |
JP5028751B2 (ja) | 2005-06-09 | 2012-09-19 | ソニー株式会社 | 行動認識装置 |
TWI348639B (en) | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
US8467904B2 (en) * | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
US9910497B2 (en) | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8249334B2 (en) | 2006-05-11 | 2012-08-21 | Primesense Ltd. | Modeling of humanoid forms from depth maps |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US8023726B2 (en) | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US8144148B2 (en) | 2007-02-08 | 2012-03-27 | Edge 3 Technologies Llc | Method and system for vision-based interaction in a virtual environment |
US7753861B1 (en) | 2007-04-04 | 2010-07-13 | Dp Technologies, Inc. | Chest strap having human activity monitoring device |
US9028430B2 (en) | 2007-04-19 | 2015-05-12 | Nike, Inc. | Footwork training system and method |
WO2008133921A1 (en) | 2007-04-23 | 2008-11-06 | Dp Technologies, Inc. | Eyewear having human activity monitoring device |
WO2008134313A1 (en) | 2007-04-26 | 2008-11-06 | Heather Raymond | A method and system for developing or tracking a program for medical treatment |
CA2691992C (en) | 2007-06-04 | 2016-07-05 | Shimane Prefectural Government | Information inputting device, information outputting device and method |
US8221290B2 (en) | 2007-08-17 | 2012-07-17 | Adidas International Marketing B.V. | Sports electronic training system with electronic gaming features, and applications thereof |
US7970176B2 (en) | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US9098766B2 (en) * | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US20090262986A1 (en) | 2008-04-22 | 2009-10-22 | International Business Machines Corporation | Gesture recognition from co-ordinate data |
US8113991B2 (en) | 2008-06-02 | 2012-02-14 | Omek Interactive, Ltd. | Method and system for interactive fitness training program |
US9189886B2 (en) * | 2008-08-15 | 2015-11-17 | Brown University | Method and apparatus for estimating body shape |
US8112719B2 (en) | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
CN102656543A (zh) | 2009-09-22 | 2012-09-05 | 泊布欧斯技术有限公司 | 计算机装置的远程控制 |
US8593576B2 (en) | 2009-10-15 | 2013-11-26 | At&T Intellectual Property I, L.P. | Gesture-based remote control |
CN101853568A (zh) | 2010-04-13 | 2010-10-06 | 鸿富锦精密工业(深圳)有限公司 | 手势遥控装置 |
-
2010
- 2010-02-04 JP JP2011551107A patent/JP2012518236A/ja not_active Withdrawn
- 2010-02-04 EP EP10744130.5A patent/EP2399243A4/en not_active Withdrawn
- 2010-02-04 CA CA2748037A patent/CA2748037C/en not_active Expired - Fee Related
- 2010-02-04 KR KR1020117021864A patent/KR101738569B1/ko active Active
- 2010-02-04 CN CN201080007962XA patent/CN102317977A/zh active Pending
- 2010-02-04 WO PCT/US2010/023179 patent/WO2010096279A2/en active Application Filing
- 2010-02-17 US US12/707,340 patent/US8824802B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
CN1656503A (zh) * | 2002-04-05 | 2005-08-17 | 伊登蒂克斯公司 | 基于视觉的操作方法和系统 |
CN101305401A (zh) * | 2005-11-14 | 2008-11-12 | 微软公司 | 用于游戏的立体视频 |
JP2007316882A (ja) * | 2006-05-25 | 2007-12-06 | Mitsubishi Electric Corp | 遠隔操作装置及び方法 |
US20080244465A1 (en) * | 2006-09-28 | 2008-10-02 | Wang Kongqiao | Command input by hand gestures captured from camera |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103577827A (zh) * | 2012-07-20 | 2014-02-12 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
CN103577827B (zh) * | 2012-07-20 | 2016-12-28 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
CN103218124B (zh) * | 2013-04-12 | 2015-12-09 | 通号通信信息集团有限公司 | 基于深度摄像头的菜单控制方法及系统 |
CN103218124A (zh) * | 2013-04-12 | 2013-07-24 | 北京国铁华晨通信信息技术有限公司 | 基于深度摄像头的菜单控制方法及系统 |
CN103735268A (zh) * | 2013-09-29 | 2014-04-23 | 沈阳东软医疗系统有限公司 | 一种体位检测方法及系统 |
CN103735268B (zh) * | 2013-09-29 | 2015-11-25 | 沈阳东软医疗系统有限公司 | 一种体位检测方法及系统 |
CN104952058A (zh) * | 2014-03-28 | 2015-09-30 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN104978583B (zh) * | 2014-04-11 | 2018-07-03 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN104978583A (zh) * | 2014-04-11 | 2015-10-14 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
WO2017107086A1 (en) * | 2015-12-23 | 2017-06-29 | Intel Corporation | Touch gesture detection assessment |
US10488975B2 (en) | 2015-12-23 | 2019-11-26 | Intel Corporation | Touch gesture detection assessment |
CN106326643A (zh) * | 2016-08-16 | 2017-01-11 | 完美世界(北京)数字科技有限公司 | 一种应用于类人形骨架的反向动力学解算方法及装置 |
CN106326643B (zh) * | 2016-08-16 | 2020-01-14 | 完美鲲鹏(北京)动漫科技有限公司 | 一种应用于类人形骨架的反向动力学解算方法及装置 |
CN108230429A (zh) * | 2016-12-14 | 2018-06-29 | 上海交通大学 | 基于头部和双手位置及姿态的实时全身姿态重建方法 |
CN109702768A (zh) * | 2018-10-10 | 2019-05-03 | 李强 | 学习型机器人动作数据采集方法 |
CN109702768B (zh) * | 2018-10-10 | 2024-08-13 | 李强 | 学习型机器人动作数据采集方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2012518236A (ja) | 2012-08-09 |
EP2399243A2 (en) | 2011-12-28 |
KR101738569B1 (ko) | 2017-05-22 |
CA2748037C (en) | 2016-09-20 |
US20100208038A1 (en) | 2010-08-19 |
KR20110139694A (ko) | 2011-12-29 |
CA2748037A1 (en) | 2010-08-26 |
WO2010096279A2 (en) | 2010-08-26 |
WO2010096279A3 (en) | 2010-11-18 |
US8824802B2 (en) | 2014-09-02 |
EP2399243A4 (en) | 2013-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102317977A (zh) | 用于姿势识别的方法和系统 | |
CN102609954B (zh) | 对人类目标跟踪的确认分析 | |
CN108369643B (zh) | 用于3d手部骨架跟踪的方法和系统 | |
US8639020B1 (en) | Method and system for modeling subjects from a depth map | |
CN102184020B (zh) | 用于操纵用户界面的姿势和姿势修改 | |
Zhang et al. | Leveraging depth cameras and wearable pressure sensors for full-body kinematics and dynamics capture | |
AU2012231931B2 (en) | Virtual golf simulation apparatus and sensing device and method used for same | |
KR101616926B1 (ko) | 영상 처리 장치 및 방법 | |
GB2589938A (en) | Real-time system for generating 4D spatio-temporal model of a sporting enviroment for determining compliance with an offside rule | |
CN104380338A (zh) | 信息处理器以及信息处理方法 | |
CN103608844A (zh) | 全自动动态关节连接的模型校准 | |
CN102576466A (zh) | 用于跟踪模型的系统和方法 | |
Elaoud et al. | Skeleton-based comparison of throwing motion for handball players | |
Demirdjian et al. | Avoiding the" streetlight effect": tracking by exploring likelihood modes | |
EP0847201B1 (fr) | Système de suivi de mobiles en temps réel sur un terrain de sports | |
Migniot et al. | 3D human tracking from depth cue in a buying behavior analysis context | |
Perales | Human motion analysis and synthesis using computer vision and graphics techniques. State of art and applications | |
Kondori et al. | Direct hand pose estimation for immersive gestural interaction | |
CN102591456B (zh) | 对身体和道具的检测 | |
Xu | Single-view and multi-view methods in marker-less 3d human motion capture | |
CN116485953A (zh) | 数据处理方法、装置、设备和可读存储介质 | |
CN115205744A (zh) | 一种针对花样滑冰运动的智能运动辅助方法及装置 | |
Wang et al. | Dance motion detection algorithm based on computer vision | |
Muhlbauer et al. | A model-based algorithm to estimate body poses using stereo vision | |
KR102715450B1 (ko) | 사람의 동작분석시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1165065 Country of ref document: HK |
|
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120111 |
|
REG | Reference to a national code |
Ref country code: HK Ref legal event code: WD Ref document number: 1165065 Country of ref document: HK |