CN102413886B - 示出身体位置 - Google Patents
示出身体位置 Download PDFInfo
- Publication number
- CN102413886B CN102413886B CN201080020007.XA CN201080020007A CN102413886B CN 102413886 B CN102413886 B CN 102413886B CN 201080020007 A CN201080020007 A CN 201080020007A CN 102413886 B CN102413886 B CN 102413886B
- Authority
- CN
- China
- Prior art keywords
- posture
- user
- data
- feedback
- visual representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
捕捉设备可以捕捉用户的运动并且显示设备可以显示映射到用户的运动(包括适用于控制的姿势)的模型。用户可能不熟悉映射用户的运动的系统或不知道什么姿势适用于正在执行的应用程序。用户可能不了解或不知道如何执行适用于正在执行的应用程序的姿势。向用户提供表示指导性姿势数据的视觉反馈可教导该用户如何正确地作出姿势。视觉反馈可以用任何数量的合适方式来提供。例如,视觉反馈可以经由重影图像、玩家化身、或骨架表示来提供。该系统可以处理预记录内容或实况内容以显示表示指导性姿势数据的视觉反馈。该反馈可以描绘用户的实际位置与理想姿势位置之间的增量。
Description
背景技术
诸如计算机游戏、多媒体应用、办公应用等许多计算应用使用控制来允许用户操纵游戏角色或应用的其他方面。通常使用,例如,控制器、遥控器、键盘、鼠标等等,来输入这样的控制。不幸的是,这些控制可能是难以学习的,由此造成了用户和这些游戏及应用之间的障碍。此外,这些控制可能与这些控制所用于的实际游戏动作或其他应用动作不同。例如,使得游戏角色挥动棒球拍的游戏控制可能不与挥动棒球拍的实际运动相对应。
发明内容
在某些系统中,显示设备可显示映射到已由系统捕捉的用户运动的模型。例如,该模型可被显示为屏幕上的化身,其中该化身的运动可通过将该化身在应用程序空间中的运动映射到用户在物理空间中的运动来得到控制。用户可能不熟悉对用户的运动进行映射的系统。例如,用户可能不知道什么姿势适用于正在执行的应用程序。在一些情况下,用户不了解或不知道如何执行适用于正在执行的应用程序的姿势。手册中的动词描述可能不足以教导用户如何正确地作出姿势。
本文公开了用于示范与各种姿势相对应的运动的系统和方法。向用户提供表示指导性姿势数据的视觉反馈可教导该用户如何正确地作出用于控制应用程序的姿势。视觉反馈可以用任何数量的合适方式来提供。例如,视觉反馈可以经由重影图像、玩家化身、或骨架表示来提供。在一示例实施例中,该系统处理预记录内容来显示视觉反馈。在另一示例实施例中,该系统处理实况馈源或处理实况内容来显示视觉反馈。指导性姿势数据可具有对用户的运动的经校正的或突出显示的反馈的形式,以示出正确姿势或与特定姿势相对应的用户运动中的错误。该反馈可以描绘用户的实际位置与理想姿势位置之间的增量。
提供本发明内容以便以简化的形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任何部分中提及的任何或所有缺点的实现。
附图说明
参考附图来进一步描述根据本说明书的用于经由视觉反馈示出正确身体位置的系统、方法和计算机可读介质,在附图中:
图1A和1B示出其中用户正在玩游戏的目标识别、分析及跟踪系统的示例实施例。
图2示出了可在目标识别、分析及跟踪系统中使用且结合了用于对姿势进行示范的视觉反馈的显示的捕捉设备的示例实施例。
图3示出其中可实现本文描述的用于提供对姿势进行示范的视觉反馈的技术的计算环境的另一示例实施例。
图4示出其中可实现本文描述的用于提供对姿势进行示范的视觉反馈的技术的计算环境的又一示例实施例。
图5A示出了从深度图像生成的用户的骨架映射。
图5B示出了图2所示的姿势识别器体系结构的进一步细节。
图6A-6D示出其中用户正在玩拳击游戏的目标识别、分析及跟踪的另一示例实施例。
图7A-7D示出与用户的姿势的视觉表示并排的视觉反馈的示例显示。
图8A示出叠加在用户的姿势的视觉表示之上的视觉反馈的示例显示。
图8B示出包括姿势的示范的视觉反馈的示例显示。
图9示出用于进入训练模式以接收视觉反馈的选项的示例显示。
图10示出通过网络连接进行交互的远程用户,其中一个用户的运动的视觉反馈被提供给第二用户。
图11描绘呈现视觉反馈和用户的姿势的视觉表示的方法的示例流程图。
图12描绘确定是否要提供视觉反馈的方法的示例流程图。
具体实施方式
如本文中将描述的,用户可通过执行一个或多个姿势来控制在诸如游戏控制台、计算机等计算环境上执行的应用。本文公开了用于向用户示范所需姿势的运动的系统和方法。例如,该计算环境可提供用于训练用户如何作出适用于正在执行的应用程序的适当运动的视觉反馈。
为了生成表示物理空间中的目标或物体的模型,捕捉设备可以捕捉该物理空间的深度图像并扫描该场景中的各个目标。目标可包括该场景中的人类或其他物体。在一个实施例中,捕捉设备可以确定场景中的一个或多个目标是否对应于诸如用户等人类目标。为了确定场景中的目标是否对应于人类目标,可对每个目标进行泛色填充并将其与人体模型的图案作比较。可扫描被标识为人类的目标来生成与其相关联的骨架模型。然后可将该骨架模型提供给计算环境来跟踪该骨架模型并呈现与该骨架模型相关联的化身。该计算环境可将用户在物理空间中的运动映射到显示设备上的诸如化身等视觉表示。该计算环境可基于例如识别出并被映射到骨架模型的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控制命令。因此,可以显示用户反馈,如经由屏幕上的化身,并且用户可控制该化身的运动并执行操作系统或正在执行的应用程序的各个控制,例如通过在物理空间中执行各个姿势。
在一些情况下,提供用于教导用户如何正确地作出姿势来控制正在执行的应用程序的视觉反馈是合乎需要的。例如,用户可能不知道与适用于正在执行的应用程序的特定姿势相对应的运动或不知道如何执行该运动。该系统可以检测用户的姿势中的错误,从而指示该用户需要训练来正确地作出姿势。
本说明书中描述的功能单元中的一些被标记为模块以更具体地强调它们的实现独立性。例如,模块可被实现为硬件电路,该硬件电路包括自定义VLSI电路或门阵列,诸如逻辑芯片、晶体管等现货半导体,或其他分立组件。模块还可用可编程硬件器件来实现,如现场可编程门阵列、可编程阵列逻辑、可编程逻辑器件等。
模块也可以用由各种类型的处理器来执行的软件来实现。所标识的可执行代码的模块例如包括计算机指令的一个或多个物理或逻辑块,该计算机指令例如可被组织成目标、过程、或函数。然而,所标识的模块的可执行代码不必在物理上位于一处,而是可包括存储在不同位置的不同指令,当这些指令在逻辑上联合在一起时组成该模块并实现该模块的规定目的。
本文描述的提供视觉训练反馈的系统、方法和组件可在诸如游戏控制台之类的多媒体控制台中实施,或可在需要提供视觉反馈的任何其他计算设备中实施,作为示例但非限制,这些其他计算设备包括卫星接收机、机顶盒、电子游戏机、个人计算机(PC)、便携式电话、个人数字助理(PDA)、以及其他手持式设备。
图1A和1B示出其中用户18正在玩拳击游戏的目标识别、分析及跟踪系统10的配置的示例实施例。在一示例实施例中,系统10可识别、分析和/或跟踪诸如用户18之类的人类目标。系统10可以收集与用户在物理空间中的姿势相关的信息。
系统10可以向用户提供示范所需姿势的视觉反馈。可以用多种方式来触发对视觉反馈的提供。例如,该系统可检测到用户运动中的错误或与预期运动的偏差。检测到这样的错误或偏差可触发示范所需姿势的视觉反馈。在另一示例中,正在执行的应用程序可以提供用于训练目的的、示范适当控制运动的视觉反馈。反馈可以采取各种形式,如触觉、听觉、以及视觉。在一实施例中,反馈包括音频反馈、视觉反馈、改变显示元素的色彩、显示元素的衬里、显示元素的褪色、显示元素的闪光、这些形式的反馈的某种组合的追踪模式。
如图1A所示,目标识别、分析及跟踪系统10可包括计算环境12。计算环境12可以是计算机、游戏系统或控制台等等。根据一示例实施例,计算环境12可包括硬件组件和/或软件组件,使得计算环境12可用于执行诸如游戏应用、非游戏应用等应用。
如图1A所示,目标识别、分析及跟踪系统10还可包括捕捉设备20。捕捉设备20可以是例如相机,该相机可用于在视觉上监视诸如用户18等一个或多个用户,以使得可以捕捉、分析并跟踪一个或多个用户所执行的姿势以执行应用中的一个或多个控制或动作,如将在下面更详细地描述的。
根据一个实施例,目标识别、分析及跟踪系统10可连接到可向诸如用户18等用户提供游戏或应用视觉和/或音频的视听设备16,如电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从计算环境12接收视听信号,然后可向用户18输出与该视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境12。
如图1A和1B所示,目标识别、分析及跟踪系统10可用于识别、分析和/或跟踪诸如用户18等人类目标。例如,可使用捕捉设备20来跟踪用户18,以使得可将用户18的移动解释为可用于影响由计算机环境12执行的应用的控制。因而,根据一个实施例,用户18可移动他或她的身体来控制应用。
如图1A和1B所示,在一示例实施例中,在计算环境12上执行的应用程序可以是用户18可能正在玩的拳击游戏。例如,计算环境12可使用视听设备16来向用户18提供拳击对手38的视觉表示。计算环境12还可使用视听设备16来提供用户18可通过他的或她的移动来控制的玩家化身40的视觉表示。例如,如图1B所示,用户18可在物理空间中挥拳来使得玩家化身40在游戏空间中挥拳。因此,根据一示例实施例,目标识别、分析及跟踪系统10的计算环境12和捕捉设备20可用于识别和分析用户18在物理空间中的出拳,从而使得该出拳可被解释为对游戏空间中的玩家化身40的游戏控制。
用户18的其他移动也可被解释为其他控制或动作,诸如上下快速摆动、闪避、滑步、格挡、直拳或挥出各种不同力度的拳等控制。此外,某些移动可被解释为可对应于除控制玩家化身40之外的动作的控制。例如,玩家可以使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。
如下文更详细地描述的,系统10可以向用户18提供用于示范适用于正在执行的应用程序的姿势的视觉反馈。在一示例实施例中,视觉反馈是骨架表示、重影图像、或玩家化身等形式的预记录内容。在另一示例实施例中,可向用户呈现实况内容。
在各示例实施例中,诸如用户18等人类目标可持有一物体。在这些实施例中,电子游戏的用户可手持物体从而可以使用玩家和物体的运动来调整和/或控制游戏的参数。例如,可以跟踪并利用玩家手持球拍的运动来控制电子运动游戏中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上武器。系统10可以提供用于示范与用户相对于该玩家所持物体的在物理空间中和/或在应用程序空间中的运动相关的姿势的视觉反馈。
根据其他示例实施例,目标识别、分析及跟踪系统10还可用于将目标移动解释为游戏领域之外的操作系统和/或应用控制。例如,事实上操作系统和/或应用的任何可控方面可由诸如用户18等目标的移动来控制。并且系统10可以提供用于示范与操作系统和/或应用程序的任何可控制方面相关的姿势的视觉反馈。
图2示出可在目标识别、分析及跟踪系统10中使用的捕捉设备20的示例实施例。根据一示例实施例,捕捉设备20可被配置成经由任何合适的技术,包括例如飞行时间、结构化光、立体图像等来捕捉包括深度图像的带有深度信息的视频,该深度信息可包括深度值。根据一实施例,捕捉设备20可将所计算的深度信息组织为“Z层”,即与从深度相机沿其视线延伸的Z轴垂直的层。
如图2所示,捕捉设备20可包括图像相机组件22。根据一示例实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机或可捕捉来自该场景的色彩的RGB相机28。深度图像可包括被捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一个像素都可以(例如以厘米、毫米等等为单位)表示来自相机的被捕捉的场景中的物体的长度。
如图2所示,根据一示例实施例,图像相机组件22可包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26、和RGB相机28。+例如,在飞行时间分析中,捕捉设备20的IR光组件24可以将红外光发射到场景上,然后,可以使用传感器(未示出),用例如3-D相机26和/或RGB相机28,来检测从场景中的一个或多个目标和物体的表面反向散射的光。在某些实施例中,可以使用脉冲式红外光从而可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从捕捉设备20到场景中的目标或物体上的特定位置的物理距离。另外,在其他示例性实施例中,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一示例实施例,可使用飞行时间分析,通过经由包括例如快门式光脉冲成像的各种技术来分析反射光束随时间的强度变化以间接地确定从捕捉设备20到目标或物体上的特定位置的物理距离。
在另一示例实施例中,捕捉设备20可使用结构化光来捕捉深度信息。在该分析中,图案化光(即,被显示为诸如网格图案或条纹图案等已知图案的光)可经由例如IR光组件24被投影到场景上。在落到场景中的一个或多个目标或物体的表面上时,作为响应,图案可变形。图案的这种变形可由例如3-D相机26和/或RGB相机28来捕捉,然后可被分析来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备20可包括两个或更多个物理上分开的相机,这些相机可从不同角度查看场景来获得可被解析以生成深度信息的视觉立体数据。
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的换能器或传感器。根据一个实施例,话筒30可以被用来减少目标识别、分析及跟踪系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等应用。
在一示例实施例中,捕捉设备20还可以包括可与图像相机组件22进行可操作的通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可被包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
捕捉设备20还可以包括存储器组件34,该存储器组件34可以存储可以由处理器32执行的指令,由3-D相机或RGB相机捕捉到的图像或图像的帧,或任何其他合适的信息、图像等等。根据一个示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
如图2所示,捕捉设备20可经由通信链路36与计算环境12进行通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等无线连接。根据一个实施例,计算环境12可以向捕捉设备20提供时钟,可以使用该时钟来通过通信链路36确定何时捕捉,例如,场景。
另外,捕捉设备20可以通过通信链路36向计算环境12提供深度信息和由例如3-D相机26和/或RGB相机28捕捉到的图像,以及可以由捕捉设备20生成的骨架模型。计算环境12然后可使用该骨架模型、深度信息和捕捉的图像来例如识别用户姿势以及作为响应来控制诸如游戏或文字处理程序等应用。例如,如图所示,在图2中,计算环境12可包括姿势识别引擎192和包含一个或多个姿势过滤器191的姿势库190。
每一过滤器191可包括定义姿势以及该姿势的参数或元数据的信息。可以将由相机26、28和设备20以骨架模型及与之相关联的移动的形式捕捉的数据与姿势库190中的姿势过滤器进行比较,以标识(如由骨架模型所表示的)用户何时执行了一个或多个姿势。对诸如过滤器191等过滤器的输入可包括诸如关于用户的关节位置的关节数据,像在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。
例如,包括一只手从身体背后到身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背后到身体前方的移动的信息的姿势过滤器,该移动将由深度相机来捕捉。来自该场景的图像数据也可以从RGB相机来捕捉。如所提到的,可为姿势设置参数。在姿势是投掷的情况下,参数可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生了该姿势的置信评级。用于姿势的这些参数可以随时间在各应用之间、在单个应用的各上下文之间、或在一个应用的一个上下文内变化。
来自过滤器191的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。这些姿势可与应用的各种控制相关联。因此,计算环境12可使用姿势识别器引擎192来解释骨架模型的移动并基于该移动来控制应用。
计算环境12可包括处理器195,处理器196可处理深度图像来确定场景中有什么目标,如房间中的用户18或物体。这可例如通过将深度图像中共享相似距离值的像素分组在一起来实现。该图像也可被解析来产生用户的骨架表示,其中标识诸如关节和关节之间的组织等特征。存在骨架映射技术,其使用深度相机来捕捉个人,并从中确定该用户骨架上的多个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括将图像转换为人的人体模型表示以及将图像转换为人的网格模型表示。
在一个实施例中,处理是在捕捉设备20本身上执行的,且深度和色彩(其中捕捉设备20包括3-D相机)值的原始图像数据经由链路36被发送到计算环境12。在另一实施例中,处理由耦合到相机402的处理器32来执行,然后经解析的图像数据被发送到计算环境12。在又一实施例中,原始图像数据和经解析的图像数据两者被发送到计算环境12。计算环境12可接收经解析的图像,但是它仍可接收原始数据来执行当前过程或应用。例如,如果场景的图像通过计算机网络发送到另一用户,则计算环境12可发送供另一计算环境处理的原始数据。
计算环境12可使用姿势库190来解释骨架模型的移动并基于该移动来控制应用。计算环境12可对用户的表示进行建模和显示,例如采用诸如显示设备194之类的显示器上的化身或指针的形式。显示设备194可包括计算机监视器、电视机屏幕、或任何合适的显示设备。例如,相机控制的计算机系统可捕捉用户图像数据,并在电视机屏幕上显示映射到用户的姿势的用户反馈。用户反馈可被显示为屏幕上的化身,如图1A和1B中所示。
视觉反馈库193可包括与一组姿势的视觉反馈相关的信息。视觉反馈库193可以向显示设备194提供用以显示指导性姿势数据的视觉表示的信息。例如,显示设备可以显示可示范姿势的骨架表示、重影图像、或玩家化身。如在下文更详细地描述的,图7A-7D示出用户反馈和包括指导性姿势数据的视觉反馈两者,这两者是并排示出的。图8A示出叠加在用户的姿势的视觉表示之上的视觉反馈的示例显示。图8B示出包括姿势的示范的视觉反馈的示例显示。图9示出用于进入训练模式以接收视觉反馈的选项的示例显示。图10示出通过网络连接进行交互的远程用户,其中一个用户向第二用户提供实况视觉反馈。
各种事件都可以触发用于姿势示范的视觉反馈的显示。该系统可以检测用户运动中的错误,用户运动可能不与已识别的姿势相对应,用户可以请求训练来学习特定姿势等。对用户运动的分析可以触发应用程序向用户提供视觉反馈,或提供查看视觉反馈的选项,以教导例如用于该应用程序所识别的投掷姿势的正确运动。如上所述,视觉反馈可以是示范例如正确的举手过肩投掷姿势的骨架表示的形式。用于该姿势的这些参数和错误标识符可以随时间在各应用之间、在单个应用的各上下文之间、或在一个应用的一个上下文内变化。
可以提供视觉反馈信息来用于训练、校正、修改、或教导用户在物理空间中正确地移动以触发特定运动,或正确地移动来在应用程序中成功。例如,用户可能正在玩拳击游戏。计算环境12可以标识适用于正在执行的应用程序的姿势,如上勾拳,并指导显示设备194来提供包括如何执行该上勾拳的指示的视觉反馈。视觉反馈可以是屏幕上的示范该上勾拳的正确运动的化身。
姿势库190中的可识别、跟踪、或标识姿势的姿势过滤器191还可标识何时应当提供视觉反馈。例如,当姿势是举手过肩投掷时,相机26、28和设备20以骨架模型为形式来捕捉的数据以及与它相关联的移动可以与姿势库190中的姿势过滤器进行比较。过滤器的输出可以是标识出用户(如由骨架模型所表示的)正在执行举手过肩投掷姿势。包括一只手从身体背后到身体前方的运动的举手过肩投掷可被实现为包括表示用户的一只手从身体背后到身体前方的移动的信息的姿势过滤器,该移动将由深度相机来捕捉。
用户的姿势与过滤器中为举手过肩投掷姿势所设置的参数之间的差异可以指示用户姿势中的失败,并触发进入训练模式来教导用户正确的运动。基于过滤器参数检测到所标识的姿势中的错误或变化可触发视觉反馈的显示。可为举手过肩投掷设置帮助标识用户姿势中的错误的各参数。例如,该系统可以是正在执行棒球游戏的应用程序。举手过肩投掷姿势可以将用户手臂应当在其中移动的空间体作为参数。如果姿势过滤器191在所标识的举手过肩投掷运动中标识出用户的手臂移出该空间体之外,则这可指示用户运动中的错误而非转变到不同姿势。该应用程序可能在期待举手过肩投掷姿势,因为该游戏正处于用户向击球手投球的时刻。未能将用户的姿势识别为预期举手过肩投掷姿势可触发视觉反馈的显示。姿势过滤器可能不再能将该姿势识别为举手过肩投掷姿势,因为该运动不再满足举手过肩投掷的参数,而是改为满足不同姿势的过滤器参数,如手不过肩投掷运动。不同姿势之间的非预期转变可触发视觉反馈的显示。
如所提到的,可为姿势设置参数。例如,在姿势是投掷的情况下,参数可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生了该姿势的置信评级。可为指示用户注释中的错误的各参数设置各种阈值和范围。例如,取决于用户的技能水平,用户手臂应当通过的空间体的大小可以变化。
与每一姿势相对应的参数可以基于用户的表现、正在执行的应用程序、上下文、技能水平等而变化。例如,“新手”技能水平的举手过肩橄榄球投掷的参数可包括手可通过的较大空间体,使得该系统将举手过肩投掷与该姿势进行关联并相应地处理它。通过改变与一姿势相关联的特定参数,该系统可以适应具有较少经验的玩家。
若干可能的姿势可以对应于该用户的姿势。例如,在物理空间中测量到的用户姿势可以满足若干过滤器的准则,每一过滤器包括可能姿势的参数。表示测量到的姿势的数据与可能姿势的过滤器参数之间的差异可以指示测量到的姿势的执行中的失败。
如果表示用户姿势的数据不与可能姿势的任何过滤器参数相对应,则用户可能没有正确地执行该姿势,因为它与正在执行的应用程序相关。如果用户的姿势未被注册为各可能姿势之一,则为该用户触发训练会话是合乎需要的。
如果用户的姿势不与任何过滤器数据相对应,则该系统可以预测该用户姿势的意图。该系统可以基于在当时什么姿势将适用于正在执行的应用程序来预测预期姿势。该预测可以基于表示测量到的姿势的数据与过滤器参数之间的比较并标识带有最接近地匹配测量到的姿势数据的姿势。
表示测量到的姿势的数据与可能姿势的过滤器参数之间的差异可以指示测量到的姿势的执行中的失败。该差异可以与阈值接受水平进行比较,其中低于该阈值的差异量可以触发带有指导性姿势数据的视觉反馈。阈值接受水平可以与置信度评级相关。如上所述,来自过滤器的输出可包括诸如正在作出给定姿势的置信度等事物。低置信度评级可以是用户没有正确地作出姿势的指示。阈值接受水平可以基于置信度评级来设置。例如,如果姿势被姿势识别器引擎标识为举手过肩投掷,而置信度评级是低的,则该系统可以触发具有指导性姿势数据的视觉反馈的显示。或者,该系统可能需要高置信度评级以使得存在用户正在尝试特定姿势的较高置信度。在表示测量到的姿势的数据与过滤器参数之间的差异低于阈值接受水平时,视觉反馈可以触发。
阈值接受水平可以是为特定过滤器参数设置的值。表示一姿势的过滤器的每一参数可具有阈值接受水平。阈值接受水平可以是单个阈值或可接受的值范围。如果对用户的测量到的姿势的测量不满足阈值水平或未落在可接受范围内,则显示包括指导性姿势数据的视觉反馈是合乎需要的。例如,举手过肩投掷的阈值接受水平(在它适用于棒球游戏中的投球运动时)可被设为速度等于25mph。因此,如果用户的姿势被标识为举手过肩投掷,则举手过肩投掷的过滤器的速度参数可以与用户的测量到的姿势的速度进行比较。如果用户的测量到的速度不满足25mph,则这可触发视觉反馈的显示,以教导用户如何正确地作运动来达到正确速度。
取决于上下文、用户、基于姿势的系统、用户的历史数据、应用程序的历史数据、改进的身份等,阈值接受水平可被设置、修改、或改变。阈值水平可以是与优选参数的或与关联于可能姿势的参数值范围的可接受的差异量。阈值接受水平的值可以基于用户的表现、正在执行的应用程序、上下文、技能水平等。阈值接受水平可以基于特定姿势的单个过滤器参数或多个过滤器参数。类似地,该系统可以适应一姿势的阈值接受水平。例如,阈值水平可以随时间被修改,例如由用户、该系统或应用程序改变。
过滤器参数和阈值接受水平可被设置成使得视觉反馈的触发不会过度或根据用户偏好。例如,一些用户可能不想要任何训练帮助或用户可能不想要因训练会话而中断正在执行的应用程序,而是改为选择用于指导目的的训练模式。并非在每次存在与姿势的过滤器数据的差异时都触发视觉反馈,该系统可以基于各种触发来确定是否显示指导性姿势数据。
过滤器参数和用于错误标识的阈值接受水平可被修改,使得视觉反馈只在有用的时刻触发。例如,在提供反馈之前,举手过肩投掷的姿势可能需要被识别X次。因此,该系统可以监视用户的运动,并且不给出反馈直至不正确或有变化的运动做了特定次数为止。这样,如果作出了一次失误的投掷,它不触发。但是,如果该程序标识出用户可以改变的一些事物,则即使用户成功执行了该姿势,该系统也可提供用于训练的选项。例如,在标识出了用户的举手过肩投掷的情况下,该系统可以标识对用户的较低身体的改变可以产生更大速度,或用户的击球完成运动中的改变会产生曲线球运动。
在没有经验的用户或新手用户在玩投掷游戏的情况下,定义空间体的过滤器参数可以较大,从而在触发该姿势的视觉反馈之前允许较大的错误余量。在用户没有满足特定技能水平时,该用户还可请求提供视觉反馈。用户可以请求视觉反馈来帮助达到更高的技能水平。取决于用户的技能水平,参数的阈值可以改变。例如,对于新手玩家而言,出拳或举手过肩投掷的空间体可具有更大的可接受错误余量。因此,取决于应用程序的参数、用户所选择的设置、该应用程序可用的训练类型等,进入训练模式的触发或提供视觉反馈的触发会改变。
视觉反馈库193可包括提供对存储的访问权并处理用于对姿势进行示范的视觉反馈信息的各模块。视觉反馈可以专用于应用程序、用户、或特定姿势。一些姿势适用于特定应用程序,其中另一应用程序中的同一姿势造成不同的控制。例如,在一个应用程序中,挥手可以是表示飞翔的姿势;在另一应用程序中,抬起双臂并缓慢地来回摆动可以是表示飞翔的姿势。
与视觉反馈库193中的视觉反馈相关的信息可以采取任何合适的形式。在一示例实施例中,视觉反馈是预记录内容的形式,即这一内容是在使用该内容之前的一阶段期间记录的内容。预记录内容模块196可以记录或存储支持显示姿势的示范的预记录内容,如与一姿势相关的预记录音频或视频。预记录内容模块196可以提供用于连接到网络并从远程服务器或经由联网用户的计算环境来接收预记录姿势信息的技术。预记录内容模块196可以处理预记录内容来提供该姿势的视觉反馈,如通过显示示范该姿势的骨架表示、重影图像、或玩家化身。
预记录内容可以专用于应用程序、用户、姿势,或预记录内容可以适用于各应用程序或适用于各用户的组合。预记录内容可以是打包在特定应用程序的视觉反馈库193中的姿势信息。例如,如果应用程序是网球游戏应用程序,则该应用程序可包括具有用于显示网球相关姿势的预记录姿势信息的视觉反馈库。
预记录内容可包括用户记录的内容,其中用户选择记录他或她自己的姿势以用于审阅或稍后使用。例如,用户可能在网球游戏中成功作出特定运动并记录它,使得该用户稍后可以访问该预记录内容以查看该预记录姿势。用户随后可以查看他或她自己的用于用户已经在过去成功了的姿势的示范的预记录姿势。用户可以记录该系统可用于向没有经验的用户示范姿势的姿势内容。例如,父母可以记录他或她自己的成功的姿势以供孩子回顾。该孩子稍后可以查看并使用该预记录姿势练习,以学习要在物理空间中作出的正确运动。
在另一示例实施例中,视觉反馈是实况内容的形式,即与提供一姿势的实时视觉反馈相关的任何信息。实时显示指的是姿势的视觉表示的显示或视觉反馈的显示,其中该显示与该姿势在物理空间中的执行同时或几乎同时显示。对实时的引用包括执行,其中无关紧要的处理延迟造成最小的显示延迟或者对用户而言根本不可见。因此,实时包括与被自动数据处理所需的时间延迟了的数据的及时性有关的任何无关紧要的延迟。
实况内容模块197可以提供用于接收、处理、以及传送实况内容的技术。例如,实况内容模块197可以提供用于连接到网络并从远程服务器或从联网用户的计算环境来接收包含姿势信息的实况馈源的技术。实况内容模块197可以处理包含姿势信息的实况馈源,以实时显示姿势的示范。例如,远程用户可以示范一姿势,其中与该远程用户的姿势相关的信息通过网络传送并由本地用户的计算环境接收。本地计算环境可以处理该实况馈源,如经由实况内容模块,并且向本地用户实时地显示视觉反馈。视觉反馈可以是用户的姿势的重放或实况表示,经由该用户的视觉表示来表示。实况内容模块197可以用任何合适的方式来显示视觉反馈,如通过显示示范该姿势的骨架表示、重影图像、或玩家化身。
实况内容可以专用于应用程序或用户,或实况内容可以适用于各应用程序或适用于各用户的组合。例如,对于特定应用程序,可以从远程计算环境访问实况顾客支持,其中实况顾客支持提供姿势信息的实况馈源。实况内容模块197可以接收实况馈源并在用户作出姿势时向用户实时地提供表示该姿势的视觉反馈。
在实况反馈的另一示例中,用户可以远程地连接或联网,使得多个用户可以经由他们各自的计算环境来进行交互。第一用户可以识别出位于第一用户的远处的第二用户正在不正确地执行姿势。第一用户可以经由网络连接向该用户提供该姿势的示范。第二用户的计算环境例如经由实况内容模块197接收与所示范的姿势相关的信息并向第二用户提供视觉反馈。因此,第一用户可以向第二用户提供实况姿势信息以帮助第二用户学习要在物理空间中作出的正确运动。
姿势识别引擎192、姿势库190、以及视觉反馈库193可以用硬件、软件或两者的组合来实现。例如,姿势识别引擎192、姿势库190以及视觉反馈库193可被实现为在计算环境的诸如处理器195等处理器上、捕捉设备20的处理器32上、图3的处理单元101上、或图4的处理单元259上执行的软件。
要强调的是,图2-4中描绘的框图是示例性的,且不旨在暗示一具体实现。由此,图1的处理器195或32、图3的处理单元101和图4的处理单元259可被实现为单个处理器或多个处理器。多个处理器可以分布式或集中式地定位。例如,姿势识别引擎192可被实现为在捕捉设备的处理器32上执行的软件,而姿势库和视觉反馈库193可被实现为在计算环境中的处理器195上执行的软件。构想了适用于执行此处公开的技术的处理器的任意组合。多个处理器可无线地、经由硬连线、或以其组合来通信。
图2分开描绘了捕捉设备20和计算环境12,但构想了包括任何数量的设备的系统可以执行图2所示的功能。例如,该计算环境可以合并到捕捉设备20中,使得捕捉设备可以担当具有一个或多个处理器的单个单元。因此,尽管在本文中计算环境12和捕捉设备20被分开描述,但这是出于说明的目的。可以使用能执行所公开的技术的任何合适的设备、系统、或设备和系统的组合。
图3示出可用于实现图2的计算环境12来解释目标识别、分析及跟踪系统中的一个或多个姿势的计算环境的示例实施例。如图3所示,该计算环境可以是诸如游戏控制台等多媒体控制台100。还如图3所示,多媒体控制台100具有含有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 101可以设置成具有一个以上的内核,以及由此的附加的一级和二级高速缓存102和104。闪存ROM 106可存储在当多媒体控制台100通电时的引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。数据经由总线从图形处理单元108输送到视频编码器/视频编解码器114。视频处理流水线向A/V(音频/视频)端口140输出数据,以便传输到电视机或其他显示器。存储器控制器110连接到GPU 108以方便处理器访问各种类型的存储器112,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台100包括较佳地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、和外置存储器设备146(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供了媒体驱动器144,其可以包括DVD/CD驱动器、硬盘驱动器,或其他可移动媒体驱动器等等。媒体驱动器144可以在多媒体控制台100的内部或外部。应用数据可经由媒体驱动器144访问,以由多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器120。
系统管理控制器122提供涉及确保多媒体控制台100的可用性的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、和多媒体控制台100内的各个其他组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中并在CPU 101上执行。应用可呈现在导航到多媒体控制台100上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以向多媒体控制台100提供附加功能。
多媒体控制台100可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口124或无线适配器148可用的宽带连接的集成,多媒体控制台100还可作为较大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源对于应用视角而言是不存在的。
具体而言,存储器保留较佳地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留较佳地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图较佳地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率并引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,就执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源中执行的一组系统应用中。操作系统内核标识了是系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便为应用提供一致的系统资源视图。进行调度是为了把对于控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,则由于时间敏感性而异步调度音频处理给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是所保留的资源,但却在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机26、28和捕捉设备20可以为控制台100定义额外的输入设备。
图4示出了计算环境220的另一示例实施例,该计算环境可被用于实现图1A-2中所示的用于解释目标识别、分析及跟踪系统中的一个或多个姿势的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对所公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本公开的各具体方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在其中电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。因此,对于硬件实现还是软件实现的选择是设计选择并留给实现者。
在图4中,计算环境220包括计算机241,计算机241通常包括各种计算机可读介质。计算机可读介质可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。基本输入/输出系统224(BIOS)包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程,它通常储存储在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或目前正在操作的数据和/或程序模块。作为示例而非限制,图4示出了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图4示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器238,从可移动、非易失性磁盘254中读取或向其写入的磁盘驱动器239,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘253中读取或向其写入的光盘驱动器240。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常由例如接口234等不可移动存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235等可移动存储器接口连接至系统总线221。
以上讨论并在图4中示出的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图4中,例如,硬盘驱动器238被示为存储操作系统258、应用程序257、其他程序模块256和程序数据255。注意,这些组件可以与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可以与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些和其他输入设备通常通过耦合至系统总线的用户输入接口236连接至处理单元259,但也可以由其他接口和总线结构,例如并行端口、游戏端口或通用串行总线(USB)来连接。相机26、28和捕捉设备20可为控制台100定义额外的输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可以使用到一个或多个远程计算机(如远程计算机246)的逻辑连接,以在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上关于计算机241所描述的元件,但在图4中仅示出了存储器存储设备247。图2中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但还可包括其他网络。这些联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。
当用于LAN网络环境中时,计算机241通过网络接口或适配器237连接到LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过例如因特网等WAN 249建立通信的其他手段。调制解调器250,可以是内置的或外置的,可以经由用户输入接口236或其他适当的机制,连接到系统总线221。在联网环境中,相对于计算机241所描述的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图4示出了远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
上述计算机可读存储介质上可存储有用于扫描所捕捉场景中的人的指令。该计算机可执行指令可包括用于接收物理空间的深度图像以及呈现表示一姿势的指导性姿势数据的视觉反馈的指令,其中该深度图像包括表示该姿势的数据。上述计算机可读存储介质上可存储有用于确定是否提供指导性数据的指令。这些指令可包括接收一场景的图像数据(其中该图像数据包括该姿势的表示),将表示该姿势的数据与姿势过滤器的至少一个输出进行比较,检测表示该姿势的数据与姿势过滤器的该至少一个输出之间的差异(其中该差异指示该姿势的执行中的失败),以及基于该差异来确定是否提供指导性姿势数据。
图5A描绘了可从捕捉设备20生成的用户的示例骨架映射。在该实施例中,标识出各个关节和骨骼:每一手502、每一前臂504、每一肘506、每一二头肌508、每一肩510、每一髋512、每一大腿514、每一膝516、每一小腿518、每一足520、头522、躯干524、脊椎的顶部526和底部528,以及腰530。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或脸部的各个特征,如鼻和眼。
用户可通过移动他的身体创建姿势。姿势包括用户的运动或姿态,其可被捕捉为图像数据并解析其意义。姿势可以是动态的,包括运动,如模仿投球。姿势可以是静态姿态,如在一个人的躯干524前面交叉握住他的前臂504。姿势可以是单个移动(例如,跳跃)或连续的姿势(例如,驾驶),并且在持续时间上可短可长(例如,驾驶20分钟)。姿势也可结合道具,如通过挥动仿制的剑。姿势可包括多于一个身体部位,如拍双手502,或是较微小的运动,如撅起一个人的嘴唇。
用户的姿势可用作一般计算上下文中的输入。例如,手502或其他身体部位的各种运动可对应于常见的系统级任务,如在分层列表中向上或向下导航、打开文件、关闭文件和保存文件。例如,用户能以手指向上指且掌心面向捕捉设备20来使他的手保持不动。他然后可以将手指朝向手掌收拢来形成拳头,并且这可以是指示基于窗口的用户界面计算环境中的焦点窗口应被关闭的姿势。姿势也可在视频游戏专用上下文中取决于游戏来使用。例如,对于驾驶游戏,手502和脚520的各种运动可对应于在一方向上操控车辆、换挡、加速和刹车。由此,姿势可指示映射到所显示的用户表示的、在诸如视频游戏、文本编辑器、文字处理、数据管理等各种各样应用中的各种各样的运动。
用户可通过自己在原地行走或奔跑来生成对应于行走或奔跑的姿势。例如,用户可另选地提起并放下每一腿512-520来在不移动的情况下模拟行走。系统可通过分析每一髋512和每一大腿514来解析该姿势。当一个髋部-大腿角(如相对于垂直线测量的,其中站立的腿具有0°的髋部-大腿角,而向前水平伸展的腿具有90°的髋部-大腿角)超过相对于另一大腿的特定阈值时,可识别一步。行走或奔跑可在交替腿的某一数量的连续步之后被识别。两个最近的步之间的时间可被认为是一周期。在不满足阈值角度达某一数量的周期之后,系统可确定行走或奔跑姿势已停止。
给定“行走或奔跑”姿势,应用可为与该姿势相关联的参数设定值。这些参数可包括上述阈值角度、发起行走或奔跑姿势所需的步数、结束姿势的没有发生步的周期数、以及确定姿势是行走还是奔跑的阈值周期。快周期可对应于奔跑,因为用户将快速地移动他的腿,而较慢的周期可对应于行走。
姿势最初可以与一组默认参数相关联,应用可用其自己的参数来覆盖该组默认参数。在这一场景中,不迫使应用提供参数,而是应用可改为使用一组允许在没有应用定义的参数的情况下识别姿势的默认参数。与姿势有关的信息可被存储用于预录制的姿势动画的目的。
有各种可以与姿势相关联的输出。可以有关于姿势是否正在发生的基线“是或否”。还可以有置信度水平,其对应于用户跟踪的移动对应于姿势的可能性。这可以是范围为0和1之间(包括端点)的浮点数的线性标度。在接收该姿势信息的应用不能接受假肯定作为输入的应用中,它可仅使用具有高置信度水平,如至少0.95的已识别的姿势。在应用必须识别姿势的每一实例的情况下,即使以假肯定为代价,它可使用至少具有低得多的置信度水平的姿势,如仅仅大于0.2的那些姿势。姿势可具有在两个最近步之间的时间的输出,并且在仅注册了第一步的情况下,这可被设为保留值,如-1(因为任何两步之间的时间必须为正)。姿势也可具有关于在最近一步期间达到的最高大腿角的输出。
另一示例性姿势是“脚跟提起跳”。在该姿势中,用户可通过将他的脚跟提离地面,但保持他的脚趾着地来创建该姿势。另选地,用户可跳向空中,其中他的脚520完全离开地面。该系统可通过分析肩510、髋512和膝516的角度关系来解析该姿势的骨架,以查看它们是否是等于直立的对齐位置。然后,可监视这些点和较高526和较低528脊椎点来发现任何向上加速。足够的加速组合可触发跳跃姿势。加速度与某一姿势的足够的组合可满足转变点的参数。
给定该“脚跟提起跳”姿势,应用可为与该姿势相关联的参数设定值。参数可包括上述加速阈值,其确定用户的肩510、髋512和膝516的某种组合必须向上移动多快来触发该姿势;以及肩510、髋512和膝516之间仍可触发跳跃的最大对齐角。输出可包括置信度水平,以及用户在跳跃时的身体角度。
基于将接收姿势的应用的细节来为姿势设定参数对于准确地标识姿势而言是重要的。正确地标识姿势以及用户的意图极大地有助于创建积极的用户体验。
应用可以为与各种转变点相关联的参数设置值来标识使用预录制的动画的点。转变点可由各种参数来定义,如某一姿势的标识、速度、目标或物体的角度、或其任何组合。如果转变点至少部分地由某一姿势的标识来定义,则正确地标识姿势有助于提高转变点的参数已被满足的置信水平。
对于姿势的另一参数可以是移动的距离。在用户的姿势控制虚拟环境中的化身的动作的情况下,该化身可以是手臂离球的长度。如果用户希望与该球交互并抓住它,则这可要求用户伸展他的手臂502-510到全长同时作出抓握姿势。在这一情形中,用户仅部分地伸展他的手臂502-510的类似的抓握姿势可能无法达到与球交互的结果。类似地,转变点的参数可以是对抓握姿势的标识,其中如果用户仅部分地伸展他的手臂502-510,从而没有实现与球交互的结果,则用户的姿势将不满足转变点的参数。
姿势或其一部分可将它必须在其中发生的空间体作为参数。在姿势包括身体移动的情况下,该空间体通常可相对于身体来表达。例如,对于惯用右手的用户的美式足球投掷姿势可仅在不低于右肩510a、且与投掷手臂502a-310a在头522的相同侧的空间体中识别。可能不必要定义空间体的所有边界,如对于该投掷姿势,其中从身体向外的边界留着不被定义,并且该空间体无限地向外延伸,或者延伸到正被监视的场景的边缘。
图5B提供了图2的姿势识别器引擎192的一个示例性实施例的进一步细节。如图所示,姿势识别器引擎192可包括用于确定一个或多个姿势的至少一个过滤器519。过滤器519包括定义姿势526(以下称为“姿势”)的信息,并可包括用于该姿势的至少一个参数528或元数据。例如,包括一只手从身体背后越过身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背后越过身体前方的移动的信息的姿势526,该移动将由深度相机来捕捉。然后可为该姿势528设定参数526。在姿势526是投掷的情况下,参数528可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生姿势的置信度评级。姿势528的这些参数526可以在各应用之间、在单个应用的各上下文之间、或在一个应用的一个上下文内随着时间而变化。
过滤器可以是模块化的或是可互换的。在一个实施例中,过滤器具有多个输入和多个输出,这些输入中的每一个具有一类型,这些输出中的每一个具有一类型。在这一情形中,第一过滤器可用具有与第一过滤器相同数量和类型的输入和输出的第二过滤器来替换而不更改识别器引擎体系结构的其他方面。例如,可能具有用于驾驶的第一过滤器,该第一过滤器将骨架数据作为输入并输出与该过滤器相关联的姿势正在发生的置信度和转向角。在希望用第二驾驶过滤器来替换该第一驾驶过滤器的情况下(这可能是因为第二驾驶过滤器更高效且需要更少的处理资源),可以通过简单地用第二过滤器替换第一过滤器来这样做,只要第二过滤器具有同样的输入和输出——骨架数据类型的一个输入、以及置信度类型和角度类型的两个输出。
过滤器不需要具有参数。例如,返回用户的高度的“用户高度”过滤器可能不允许可被调节的任何参数。备选的“用户高度”过滤器可具有可调节参数,比如在确定用户的高度时是否考虑用户的鞋、发型、头饰以及体态。
对过滤器的输入可包括诸如关于用户的关节位置的关节数据,像在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。来自过滤器的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。
上下文可以是文化上下文,并且可以是环境上下文。文化上下文指的是使用系统的用户的文化。不同的文化可使用相似的姿势来赋予显著不同的含义。例如,希望叫另一个用户“看”或“使用他的眼睛”的美国用户可将他的食指放在他头上靠近他的眼睛的远端处。然而,对意大利用户而言,该姿势可被解释为对黑手党的引用。
类似地,在单个应用的不同环境之中可能有不同的上下文。以涉及操作摩托车的第一人称射击游戏为例。当用户在走路时,将手指朝向地面握拳并向前且从身体向外伸出拳头可表示出拳姿势。当用户在驾驶上下文中时,相同的运动可表示“换挡”姿势。可能还有一个或多个菜单环境,其中用户可保存他的游戏、在他的人物装备之间选择或执行类似的不包括直接玩游戏的动作。在该环境中,该游戏姿势可具有第三个含义,如选择某样东西或前进到另一屏幕。
过滤器可以并排运行,并且多个过滤器可寻找相同的事物但不同的执行。因而,取决于可定义姿势的运动的排列,过滤器的数量可以增加。例如,曲线球可以是举手过肩姿势,但随后玩家更喜欢手不过肩地投球(当他们这样做很成功的情况下)。
姿势识别器引擎192可具有向姿势过滤器519提供功能的基础识别器引擎517。在一实施例中,识别器引擎517实现的功能包括跟踪已识别的姿势和其他输入的随时间输入(input-over-time)存档、隐马尔可夫模型实现(其中模型化系统被假定为具有未知参数的马尔可夫过程—其中当前状态封装了确定将来状态所需的任何过去状态信息,因此不必为此目的而维护任何其它过去状态信息的过程,并且隐藏参数从可观察数据来确定)、以及求解姿势识别的特定实例所需的其他功能。
过滤器519在基础识别器引擎517之上加载并实现,并且可利用引擎517提供给所有过滤器519的服务。在一实施例中,基础识别器引擎517处理所接收到的数据来确定它是否满足任何过滤器519的要求。由于这些诸如解析输入等所提供的服务是由基础识别器引擎517一次性提供而非由每一过滤器519提供的,因此这一服务在一段时间内只需被处理一次而不是对该时间段对每一过滤器519处理一次,由此减少了确定姿势所需的处理。
应用可使用姿势识别器引擎192所提供的过滤器519,或者它可提供其自己的过滤器519,该过滤器被插入到基础识别器引擎517中。在一实施例中,所有过滤器519具有启用该插入特性的通用接口。此外,所有过滤器519可利用参数528,因此可使用如下所述的单个姿势工具来诊断并调节整个过滤器系统519。
这些参数528可由姿势工具521为应用或应用的上下文来调节。在一实施例中,姿势工具521包括多个滑块523以及身体523的图表示,每一滑块524对应于一参数528。当用相应的滑块523来调整参数528时,身体524可展示将用这些参数528被识别为姿势的动作以及使用这些参数528将不被识别为姿势的动作,如所标识的。姿势的参数528的这一可视化提供了调试并细化调节姿势的有效手段。
在图6A-6D中所示的计算环境上执行的应用程序的示例是用户正在玩的拳击游戏。图6A-6D表示用户在物理空间中的出拳姿势62a、62b、62c,其中用户的视觉表示64a、64b、64c映射到用户的物理空间中的运动。图6A-6C中的每一个示出在用户作出出拳姿势期间用户在三个离散的时间点在物理空间中的位置62a、62b、62c以及用户的被显示在应用程序空间中的视觉表示的示例64a、64b、64c。捕捉并显示图像数据帧的速率确定视觉表示的所显示的运动的连续性水平。虽然可以捕捉并显示附加图像数据帧,但图6A-6D中描绘的帧是出于示例性的目的来选择的。
捕捉设备20可以捕捉、分析、并跟踪用户在物理空间中作出的运动,如用户的挥拳姿势62a、62b、62c。根据一示例实施例,捕捉设备20可被配置成捕捉带有深度信息的视频,包括场景的深度图像。捕捉设备20可以提供所捕捉的深度信息和图像以及可由捕捉设备20生成的骨架模型以供视听组件16显示。用户可以在诸如图6D中示出的电视机屏幕等视听设备16上查看该图像或用户的视觉表示64a。
视听设备16可以提供用户可使用他或她的移动来控制的玩家化身的视觉表示64a、64b、64c。用户的运动可映射到应用程序空间中的视觉表示,以在应用程序内执行一个或多个控制或动作。例如,可使用捕捉设备20来跟踪用户18,以使得可将用户18的姿势解释为可影响由该计算环境执行的应用程序的控制。在拳击游戏应用程序中,用户在物理空间中的挥拳运动形式的姿势62a、62b、62c控制视觉表示64a、64b、64c所作出的姿势,使得在游戏空间中发生出拳。因此,根据一示例实施例,目标识别、分析及跟踪系统10的计算环境和捕捉设备20可用于识别和分析用户18在物理空间中的出拳,从而使得该出拳可被解释为对游戏空间中的玩家化身40的游戏控制。视觉表示可被映射到用户的姿势并相对于该姿势在物理空间中的执行来实时地显示。
在一些情况下,提供表示用于教导用户如何正确地作出姿势的指导性姿势数据的视觉反馈是合乎需要的。指导性姿势数据可以教导用户如何正确地作出姿势来控制正在执行的应用程序。在一示例实施例中,计算环境或正在执行的应用程序可以标识用户的姿势中的错误并提供指导性姿势数据来突出显示这些错误。在另一示例实施例中,用户选择训练会话或进入训练模式来学习如何正确地作出姿势。
图7A-C描绘用于作为化身来重放用户的姿势并与该化身并排显示指导性姿势数据的示例分屏屏幕截图。每一分屏700的左侧呈现在用户挥拳姿势期间在三个离散的时间点的用户的姿势的视觉表示64a、64b、64c,如图6A-6C所示。每一分屏702的右侧呈现表示指导性姿势数据的与化身64a、64b、64c的图像数据的左帧和右帧700、702中的每一个相对应的视觉反馈74a、74b、74c的示例实施例。图7D描绘来自图1A和1B的系统10的显示器部分,其示出用于显示分屏的示例实施例。在该示例中,图7A-7C中的每一个的左侧700对应于由深度相机、并行RGB相机捕捉到的快照或图像数据帧或对应于从这两种相机中组合的图像。在分屏的右侧702,该系统显示突出显示用户的姿势中的错误的视觉反馈。
视觉反馈可以是正确运动的示范。例如,用户可以选择用于出拳的训练会话并且该系统可以启动教导该用户特定出拳的正确运动的交互式训练会话。该系统可以与视觉反馈一起显示用户的运动(实况或重放),从而突出显示用户的运动中的任何错误。各种显示技术突出显示用户的姿势中的错误。该反馈可以描绘用户的实际位置与理想位置之间的增量。例如,图7B和7C中的箭头指向化身的身体64a、64b、64c的表示用户在物理空间中的定位的一部分,从而示出在该时刻用户的定位与理想姿势位置74a、74b、74c之间的差异。
该系统可以提供用于训练目的的视觉反馈,以示范用于控制该系统或正在执行的应用程序的适当运动。训练可以是用户主动选择进入的训练模式的一部分。用户也可以请求训练,如在用户首次执行应用程序时。各种事件都可以触发用于姿势示范的视觉反馈的显示。该系统可检测到用户运动中的错误或与预期运动的偏差。该系统可以标识该姿势中的可以被改进以在正在执行的应用程序中达到更高成功的用户定位区域。用户的姿势可不是与已识别姿势相对应的姿势,从而指示该用户不熟悉适用的姿势。该系统可预测用户的预期姿势,并提供用于训练该用户来正确地作出该姿势的选项。该系统可以识别没有经验的用户并提供训练。这些事件中的任一个可以触发包括指导性姿势数据的视觉反馈的显示。
该系统或应用程序可包括训练模式和执行模式。作为诸如上述触发等触发的结果,可自动进入训练模式。例如,如果用户18在物理空间中挥出不与已识别姿势相对应的出拳,则系统10可以中断该应用程序、进入训练模式、并向用户提供示范适当姿势的视觉反馈。
该系统可通过评估用户在单个所捕捉的数据帧中或在一系列帧中的位置来标识用户运动中的错误。例如,该系统可将用户的姿势识别为上勾拳运动,由相对于用户的特定空间体内的移动来标识。该系统还可标识在模型图像数据帧中,用户没有在物理空间中正确地移动他们的手臂或对用户运动的改变可在拳击游戏中给出更大成功。
该系统可以基于用户的测量到的姿势的某些参数来标识错误,如与理想速度范围的偏差或用户的测量到的姿势是否落在预期空间体之外。例如,棒球应用程序可以指令用户作出举手过肩投掷运动来向击球手投球。深度相机或RGB相机可以标识用户在物理空间中的运动的各方面,并且姿势过滤器191可以将该运动标识为处于投掷姿势类中。基于所监视的在用户的头部周围的空间体,各类投掷姿势的参数可以不同。举手过肩投掷可以是用户头部前方和后方但在用户的投掷肩之上的空间体。手不过肩投掷可以由用户腰部前方和后方的空间体来定义,该空间体在肩和用户的腰之间。姿势过滤器可以基于用户在物理空间中的运动的各参数来标识举手过肩投掷。由于在应用程序中执行的时间点(例如,用户处于棒球应用程序中的该用户被指令向击球手投球的时间点),姿势过滤器可能期望举手过肩投掷(或尝试的举手过肩投掷)。与过滤器参数的偏差或未能满足阈值接受水平可触发视觉反馈的显示。
包括指导性姿势数据的视觉反馈的显示可采取任何合适的形式。在该实施例中,指导性姿势数据74a、74b、74c被显示为线条画表示,但构想了视觉表示可以采取任何合适的表示。例如,箭头或用户的视觉表示的突出显示的部分可以指示正确的姿势,如图7A-7D所示。同样如图7A-7D所示,该显示可以是用户的姿势与理想姿势的并排表示。视觉反馈可以是重放的运动的形式(以捕捉速率、减缓速率、快速速率等)或被实时地显示。如图8A所示,表示指导性姿势数据804的图像可以重影或叠加在视觉表示802之上。
图7A-7C中的每一个的左侧700可直接对应于深度相机和/或RGB相机捕捉到的快照或图像数据帧。所选择的各图像数据帧能以任何速度重放,并且能以运动的连续重放被查看或作为分开的屏幕捕捉来一次一帧地查看。图像数据帧能以与捕捉的每秒帧率相对应的速度来重放。诸如在图7A-7C中的每一个的右手侧702上示出的指导性姿势数据等指导性姿势数据可以与在左侧700上示出的图像数据帧相对应。对于任何给定姿势,可以捕捉任何数量的图像数据帧并且可以生成任何数量的对应的指导性姿势数据帧。因而,附加图像数据帧和对应的指导性姿势数据可能是可用的。用户可以对视觉反馈的显示进行暂停、滚动、查看、缩放等。
图7B的左侧700上的图像数据的快照描绘在第二时间点处的用户的姿势64b。在分屏的右侧702,该系统显示突出显示用户的姿势中的错误的视觉反馈。与突出显示用户的姿势中的错误的指导性姿势数据并排地显示用户的姿势的视觉表示可以帮助用户校正他或她在物理空间中的运动。例如,图7B通过使用箭头指向用户手臂的位置来突出显示用户姿势中的错误。在该示例中,视觉反馈指向在该姿势中的该点处用户手臂的更好位置以教导用户如何正确地做出上勾拳运动或在拳击游戏中更成功。类似地,图7C描绘用户的图像数据的快照,指出在上勾拳姿势的此点处,如果用户在使他的手臂处于更高的位置的情况下来完成该运动,则他或她将达到更好的成功。并排描绘可以示范用户的实际位置与理想位置之间的增量。
该系统可以与实况或实时视觉反馈一起显示用户的运动来突出显示用户的运动中的错误。因而,图7A-7C中的图像数据的快照并非用户姿势的重放,该用户可以在物理空间中作出姿势并查看每一分屏的右侧702上的实况视觉反馈。例如,可以在交互式训练会话中提供指导性姿势数据。训练会话可以示范在上勾拳姿势中各离散时间点处的正确定位。在每一离散的点处,用户可以在物理空间中作出姿势,并且在该用户的姿势与示出正确的姿势位置的视觉反馈相比较时实时地观察该姿势。用户可以在各时间点间循环,从而学习并执行每一点处的正确姿势并且接收关于用户在此时应当处于的理想位置的实时视觉反馈。用户可以逐帧校正他或她的运动。
尽管图7A-7C描绘用户的视觉表示与指导性姿势数据的分屏显示,但构想了指导性姿势数据可以用任何合适的形式来提供。例如,并非分屏,可只显示图7A-7C中的分屏的左侧700以突出显示用户姿势中的错误。在该示例中,错误被突出显示成指向用户姿势的偏差的箭头。在另一示例中,或与另一形式的指导性姿势数据相组合,诸如画外音等听觉反馈可为该用户用言语表现错误或可能的校正。
指导性姿势数据可以指示用户在物理空间中的正确对准,以通知用户如何移动到捕捉设备的捕捉视野的正确视野中。例如,如果特定姿势过滤器因为捕捉设备捕捉到的肢体的运动移出捕捉设备的捕捉视野的视野之外而未能对于一姿势提供一致的结果,则指导性姿势数据可包括通知用户他们需要在物理空间中移动才能更好地与捕捉设备对准的一组训练数据或反馈。例如,画外音可以说“请向左移”,或用户在屏幕上的视觉表示(诸如64a、64b、64c所示的视觉表示)可以只示出屏幕上表示的一部分,从而指示用户需要在物理空间中重新对准他或她自己。
图8A和8B描绘向用户提供指导性姿势数据的附加示例。在图8A中,经校正的姿势动画的表示804(如线条画表示所示)叠加或覆盖在用户的视觉表示802之上。因此,正确运动的指示覆盖在用户的图像数据之上。用户可以重放他或她的运动并查看覆盖在用户的姿势的视觉表示802之上的指导性姿势数据804。用户随后可以观察用户的实际位置与理想位置之间的增量。箭头只是用于提供用户的手臂位置与视觉反馈之间的增量的视觉表示的一个示例。突出显示该增量允许用户确定物理空间中的什么修改可以改进该姿势。
在应用程序(诸如正在进行的游戏)的执行期间,训练数据可以作为覆盖来显示,如图8A所示。因此,中断该游戏以进入单独的训练模式可能是不必要的。指导性姿势数据可包括对用户运动的提示或小建议,并且该提示可以在游戏中作为覆盖来表达,使得在提供指导性姿势数据时游戏继续而不中断。
图8B中的视觉反馈的示例显示是包括通过姿势的线条画表示806作出的示范的指导性姿势数据的视觉表示。该示范可被分解成各阶段或者是连续的视频剪辑。指导性姿势数据的视觉表示可以是任何合适的形式,如骨架表示、重影图像、或玩家化身的形式。
作为用户选择训练模式、检测到用户姿势错误、启动应用程序等的结果,该应用程序可以触发进入训练模式。例如,在检测到用户姿势中的错误时,可向用户提供到训练模式的可任选入口。该系统可能识别不出用户作出的姿势,并基于对用户的预期运动的预测来提供训练建议。该系统可识别出该姿势并提供关于在此时适用于该应用程序的更好姿势的建议,或提供用于训练来更好地作出该由用户作出的姿势的建议以在该应用程序中更成功。
图9描绘该系统可在拳击游戏中显示给用户的选项902a、902b、902c、902d的示例。显示设备16可以显示预测姿势的选项,并且用户可以选择选项来接受训练以正确地执行该姿势或改进该姿势的执行。可能姿势可以是适用于基于姿势的系统、正在执行的应用程序、具有补充姿势的插件等的任何姿势。图9中示出的选项902a、902b、902c、902d适用于该正在执行的应用程序——拳击游戏。
在该示例中,用户在物理空间中的姿势被标识为出拳姿势。如上所述,姿势识别引擎192可包括姿势过滤器191的集合。每一过滤器191可包括定义姿势以及该姿势的参数或元数据的信息。可以将由相机26、28和设备20以骨架模型及与之相关联的移动的形式捕捉的数据与姿势库190中的姿势过滤器进行比较,以标识用户何时执行了一个或多个姿势。
在一示例实施例中,该系统收集并存储特定用户的历史数据,如将历史数据存储在用户简档中。该系统可以基于这一历史数据来适应过滤器参数和该用户的阈值水平。例如,根据研究或仿真数据,被用来标识该姿势是举手过肩投掷的空间体的过滤器参数可被设为默认值。然而,与一般相比,用户的手可能往往距用户的头更远,并且因此超出为举手过肩投掷设置的空间体的边界之外。一开始,该差异可以指示该姿势的执行中的失败,从而触发用于进入训练模式以学习如何执行该姿势的显示或选项。该系统可随时间收集关于该用户的数据并修改过滤器参数以适应该用户的倾向。例如,定义空间体的参数可被修改以将空间体移动得与用户的身体位置更紧密地对准。阈值接受水平也可相应地改变。
训练会话可以是交互式的,以便诸如以在图7A-7C中描述的方式来对用户的实际运动继续评估、突出显示、校正。视觉反馈可以是适用于应用程序的用户可以在物理空间中实施的正确姿势的示范,而不带有用户运动的视觉表示。图8B经由分开的各运动帧来描绘正确姿势的示范的示例。该示范可以突出显示用户应当放置他或她的身体来正确地执行该姿势的位置。该示范可以不管用户的姿势。或者,视觉反馈可以是对用户的姿势的评估的结果,其中视觉反馈指出用于该用户所专用的改进的特定区域。
用于显示视觉反馈的其他技术是可能的。例如,指导性姿势数据的视觉表示可以在显示空间的一部分上,其中该部分小于总显示空间。提供指导性姿势数据的视觉反馈可包括教练,如用户创建的教练、人类教练、预记录教练等。教练可以作为视频馈源弹出。教练可以提供与所示范的姿势相对应的语音指令。用户可以通过访问训练程序来学习一姿势,诸如如何投棒球。基本上,教练可以使用户排练组成投掷的各姿势。用户可以选择特定教练,如从表示真实或虚拟人物的化身的集合中选择。可以使用不同人物,如著名棒球运动员。教练的表示可以是与所示范的姿势一起显示的预记录数据。或者,视觉反馈可以是与另一用户实时地实况显示的人类教练。视觉反馈可以是画外音的形式或经由网络提供姿势示范的实况教练。
图10描绘远程连接并通过拳击游戏应用程序进行交互的两个用户(用户#1和用户#2)的示例。远程连接例如可通过网络。该网络可由主机管理并且可以是基于订阅的系统。这样的连接允许用户远程连接或联网,以便多个用户可以经由他们各自的计算环境来进行交互。
例如,考虑第一和第二远程用户正在执行游戏应用程序,通过远程连接作为团队对抗其他用户。第一用户认识到第二用户正在不正确地执行某一运动并且因而造成该团队在游戏中失败。第一用户可以实时提供姿势的示范1002a,使得第二用户可以在第二用户的计算环境中的显示器上观察该视觉反馈1002b。第二用户的计算环境可以接收与所示范的姿势相关的信息并向第二用户提供视觉反馈。视觉反馈可以实况地提供给第二用户,只延迟了从第一用户传送所花费的时间,并且处理并向第二用户显示该信息。可以实现合适的技术,以使得传输和处理时间是快速的,从而基于第一用户的实况姿势示范来最小化视觉反馈到第二用户的延迟。
将用户#1的视觉表示实时地显示给用户#2可以是多个触发的结果。例如,用户#1可以从用户#2请求指示,用户#2可以识别出用户#1的姿势中的错误,这两个用户可以出于彼此学习战术的目的来交互等。用户可以暂停应用程序并进行交互式训练会话。用户#1的计算环境可以显示用户#2的视觉表示,从而模拟在场训练会话。用户#2可以与用户#2类似地交流、显示运动等。
图11是表示所公开的技术的示例实施例的流程图。诸如图3中所示的系统等系统可以执行该流程图中的操作。在1102,例如,诸如相机等捕捉设备可以接收包括姿势数据的深度图像。姿势数据可以是表示用户在物理空间中的姿势的数据。在1104,该系统可诸如经由捕捉设备或计算环境来扫描物理空间以确定是否存在人类目标。如果是,则在1106该系统可以生成表示该用户的人类目标的模型。例如,该模型可以是具有该用户的臀、关节、以及骨骼结构的并且是基于深度图像来生成的骨架表示。该数据可被转换成适用于显示的格式,以及在1108,显示设备可以呈现该模型的映射到该姿势的视觉表示。
在1110,该系统还可根据姿势数据来标识预期控制。例如,如果用户正在玩拳击游戏并且作出挥拳运动,则该系统可以经由姿势识别器引擎将该姿势标识为出拳。该系统可以分析用户手臂在该出拳期间的位置以确定用户正在作出什么类型的重拳(例如,直拳、上勾拳、勾拳等)。该姿势转换成对应用程序的控制,使得人类目标的模型根据该人类目标的姿势来作出姿势。该系统可以呈现表示用于预期控制的指导性姿势数据的视觉反馈。例如,如果用户作出上钩拳运动但用户手臂位置的变异指示该用户向上挥拳挥得不够快而不能成功对抗对手,则该系统可进入训练模式或提供进入训练会话的选项。训练会话可专用于应用程序、用户、该系统等,并且它可帮助用户在物理空间中尝试各技巧以改进用户的上钩拳姿势。
图12是表示所公开的技术的示例实施例的另一流程图。在该流程图中描绘的操作表示一种用于确定是否呈现视觉反馈的方法。在某些应用程序中或在某些时刻,触发训练不是合乎需要的。一些用户可能更喜欢不进行训练会话。是否呈现视觉反馈的确定可以基于多个因素,以向用户防止不必要的中断。
诸如图3中所示的系统等系统可以执行该流程图中的操作。在1202,例如,诸如相机等捕捉设备可以接收包括姿势数据的深度图像。姿势数据可以是表示用户在物理空间中的姿势的数据。在1204,该系统可诸如经由捕捉设备或计算环境来将该姿势数据与过滤器中的参数比较,其中过滤器包括可能姿势的数据。该系统可以将该姿势标识为特定类型,但在1206,该系统还可以标识该姿势数据与在用于该姿势的过滤器中设置的参数之间的差异。例如,该系统可以将用户在物理空间中的举手过肩投掷运动检测为举手过肩投掷。然而,考虑过滤器中设置的参数,该系统还可以检测到速度低。类似地,该系统可因用户的姿势是错误的而不将该姿势对应于可能姿势中的任一个。该姿势可以比较各姿势的置信度评级以预测用户预期的姿势是什么,并提供对该预期姿势的训练。
可以特别地设置过滤器参数来用于改进的目的。例如,在举手过肩投掷的过滤器中,可不同地设置新手、中等、以及高级技能水平中的每一个的参数。可通过教导用户如何正确地作出姿势,如在手臂运动中增加更多速度或教导用户保持该用户手臂更直,来向“新手”用户给出将运动水平提高到中等的训练。
在1208,该系统可以确定是否提供指导性姿势数据。该确定可以基于若干因素,如用户偏好、与可能过滤器数据的差异量、用户选择的选项等。如果确定要提供指导性姿势数据,则在1210,该系统可以呈现表示指导性姿势数据的视觉反馈。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不被认为是限制性的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或更多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行等等。同样,可以改变上述过程的次序。
此外,尽管已经结合某些方面按各附图所示描述了本发明,但要理解,可使用其它相似方面或者可对所述方面进行修改或添加来执行本发明的相同功能而不脱离本发明。本公开的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合、和此处所公开的其它特征、功能、动作、和/或特性、以及其任何和全部等效物。因此,所公开的各实施例的方法和装置或其某些方面或部分可采用包含在诸如软盘、CD-ROM、硬盘驱动器或任何其他机器可读存储介质等有形介质中的程序代码(即,指令)的形式。当程序代码被加载到诸如计算机等机器并由其执行时,该机器变为被配置成实施所公开的各实施例的装置。
除了此处明确阐述的具体实现之外,考虑此处所公开的说明书,其它方面和实现将对本领域的技术人员是显而易见的。因此,本发明不应该仅限于任何单个方面,而是应该在根据所附权利要求书的广度和范围内解释。例如,本文描述的各种过程可用硬件或软件、或两者的组合来实现。
Claims (15)
1.一种用于提供反馈的方法,所述方法包括:
接收对用于至少一个姿势的指导的请求;以及
呈现表示所述至少一个姿势的指导性姿势数据(804)的反馈(1112),其中所述反馈是通过呈现以下各项中的至少一个来呈现的:
被所述姿势的视觉表示(802)叠加的、所述指导性姿势数据(804)的视觉表示,
所述姿势的视觉表示(700)和所述指导性姿势数据的视觉表示的并排图像,
所述姿势的视觉表示(700)和指示所述姿势的实际位置与理想位置之间的增量的校正反馈或突出显示反馈,或者
在显示空间的一部分上的所述指导性姿势数据的视觉表示,其中所述部分小于总显示空间。
2.如权利要求1所述的方法,其特征在于,还包括:
接收物理空间的深度图像(1102),其中所述深度图像包括表示一姿势的数据;
确定所述深度图像是否包括人类目标;
基于所述确定,如果所述深度图像包括人类目标,则扫描所述人类目标(1104);
基于所述扫描生成所述人类目标的模型(1106);以及
呈现映射到所述人类目标的姿势的所述模型的视觉表示(1108)。
3.如权利要求1所述的方法,其特征在于,所述指导性姿势数据包括预记录内容或实况内容中的至少一个。
4.如权利要求1所述的方法,其特征在于,还包括根据表示所述姿势的数据来预测预期控制(1110),其中所呈现的反馈包括适用于所述预测的指导性姿势数据。
5.如权利要求1所述的方法,其特征在于,所述反馈包括:
(a)听觉反馈;
(b)具有骨架表示、重影图像、或玩家化身的形式的、所述指导性姿势数 据的视觉表示。
6.如权利要求1所述的方法,其特征在于,还包括标识启动所述反馈的呈现的触发,其中所述触发是所述姿势的执行中的失败的标识、应用程序的启动、或对所述姿势的训练的请求中的一个。
7.如权利要求1所述的方法,其特征在于,还包括基于所述姿势来确定要在应用程序中执行的控制,其中所述姿势是用户在物理空间中的姿势并且被映射到骨架模型(522)。
8.一种用于提供视觉反馈的系统,所述系统包括:
捕捉设备(20),其中所述捕捉设备(20)接收物理空间的、具有表示测量到的姿势的数据的深度图像;
显示设备(194),所述显示设备用于呈现表示指导性姿势数据的视觉反馈,其中所述反馈是通过呈现以下各项中的至少一个来呈现的:
被所述测量到的姿势的视觉表示(802)叠加的、所述指导性姿势数据(804)的视觉表示,
所述测量到的姿势的视觉表示(700)和所述指导性姿势数据的视觉表示的并排图像,
所述测量到的姿势的视觉表示(700)和指示所述测量到的姿势的实际位置与理想位置之间的增量的校正反馈或突出显示反馈,或者
在显示空间的一部分上的所述指导性姿势数据的视觉表示,其中所述部分小于总显示空间;以及
处理器(32、195),其中所述处理器(32、195)执行计算机可执行指令。
9.如权利要求8所述的系统,其特征在于,还包括适用于通过网络接收指导性姿势数据的联网组件(237)。
10.如权利要求8所述的系统,其特征在于:
所述计算机可执行指令包括用于确定所述深度图像是否包括人类目标(1104)的指令,并且
所述捕捉设备(20)基于所述深度图像包括人类目标的确定来扫描所述人类目标(1104),跟踪骨架模型,以及呈现映射到所述骨架模型的视觉表示(1108)。
11.如权利要求8所述的系统,其特征在于,所述计算机可执行指令包 括用于从通过网络接收到的预记录内容或实况内容中的至少一个中选择用于呈现的视觉反馈(1112)的指令。
12.如权利要求8所述的系统,其特征在于,所述计算机可执行指令包括用于根据表示所述测量到的姿势的数据来预测预期控制(1110)的指令,其中所呈现的视觉反馈包括适用于所述预测的指导性姿势数据。
13.如权利要求8所述的系统,其特征在于,所述显示设备(194)实时地或以慢动作来呈现所述视觉反馈(1112)。
14.如权利要求8所述的系统,其特征在于,所述显示设备(194)呈现映射到所述测量到的姿势的视觉表示(1108),其中所述视觉表示基于骨架表示。
15.一种用于确定是否要提供指导性姿势数据的方法,所述方法包括:
接收一场景的图像数据(1202),其中所述图像数据包括表示一姿势的数据;
将表示所述姿势的数据与姿势过滤器的至少一个输出进行比较(1204);
检测表示所述姿势的数据与所述姿势过滤器的所述至少一个输出之间的差异(1206),其中所述差异指示所述姿势的执行中的失败;以及
基于所检测到的差异来确定是否要提供指导性姿势数据。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/434,545 | 2009-05-01 | ||
US12/434,545 US9377857B2 (en) | 2009-05-01 | 2009-05-01 | Show body position |
PCT/US2010/031040 WO2010126714A2 (en) | 2009-05-01 | 2010-04-14 | Show body position |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102413886A CN102413886A (zh) | 2012-04-11 |
CN102413886B true CN102413886B (zh) | 2014-10-29 |
Family
ID=43031359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080020007.XA Active CN102413886B (zh) | 2009-05-01 | 2010-04-14 | 示出身体位置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9377857B2 (zh) |
CN (1) | CN102413886B (zh) |
WO (1) | WO2010126714A2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11595617B2 (en) | 2012-04-09 | 2023-02-28 | Intel Corporation | Communication using interactive avatars |
Families Citing this family (190)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7975243B2 (en) * | 2008-02-25 | 2011-07-05 | Samsung Electronics Co., Ltd. | System and method for television control using hand gestures |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9952673B2 (en) * | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US8418085B2 (en) * | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
KR101623007B1 (ko) * | 2009-11-11 | 2016-05-20 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
KR20110076458A (ko) * | 2009-12-29 | 2011-07-06 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
US9019201B2 (en) * | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
JP5413673B2 (ja) * | 2010-03-08 | 2014-02-12 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2011204019A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US20110273380A1 (en) * | 2010-05-07 | 2011-11-10 | Research In Motion Limited | Portable electronic device and method of controlling same |
US9710154B2 (en) * | 2010-09-03 | 2017-07-18 | Microsoft Technology Licensing, Llc | Dynamic gesture parameters |
US9477302B2 (en) | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
CN103140862B (zh) * | 2010-09-30 | 2016-11-02 | 法国电信公司 | 用户界面系统及其操作方法 |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US8385596B2 (en) * | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
EP2474950B1 (en) | 2011-01-05 | 2013-08-21 | Softkinetic Software | Natural gesture based user interface methods and systems |
KR101858531B1 (ko) | 2011-01-06 | 2018-05-17 | 삼성전자주식회사 | 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법 |
KR101795574B1 (ko) | 2011-01-06 | 2017-11-13 | 삼성전자주식회사 | 모션에 의해 제어되는 전자기기 및 그 제어 방법 |
US8589423B2 (en) | 2011-01-18 | 2013-11-19 | Red 5 Studios, Inc. | Systems and methods for generating enhanced screenshots |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8570320B2 (en) | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US8873807B2 (en) | 2011-03-08 | 2014-10-28 | Bank Of America Corporation | Vehicle recognition |
US9317860B2 (en) | 2011-03-08 | 2016-04-19 | Bank Of America Corporation | Collective network of augmented reality users |
US9317835B2 (en) | 2011-03-08 | 2016-04-19 | Bank Of America Corporation | Populating budgets and/or wish lists using real-time video image analysis |
US9224166B2 (en) | 2011-03-08 | 2015-12-29 | Bank Of America Corporation | Retrieving product information from embedded sensors via mobile device video analysis |
US9773285B2 (en) | 2011-03-08 | 2017-09-26 | Bank Of America Corporation | Providing data associated with relationships between individuals and images |
US8721337B2 (en) | 2011-03-08 | 2014-05-13 | Bank Of America Corporation | Real-time video image analysis for providing virtual landscaping |
US8718612B2 (en) | 2011-03-08 | 2014-05-06 | Bank Of American Corporation | Real-time analysis involving real estate listings |
US8922657B2 (en) | 2011-03-08 | 2014-12-30 | Bank Of America Corporation | Real-time video image analysis for providing security |
US20120231840A1 (en) * | 2011-03-08 | 2012-09-13 | Bank Of America Corporation | Providing information regarding sports movements |
ES2693060T3 (es) * | 2011-03-17 | 2018-12-07 | Ssi Schäfer Automation Gmbh | Control y supervisión de una instalación de almacén y preparación de pedidos mediante movimiento y voz |
CA2831618A1 (en) * | 2011-03-28 | 2012-10-04 | Gestsure Technologies Inc. | Gesture operated control for medical information systems |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US10007330B2 (en) | 2011-06-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Region of interest segmentation |
US9207767B2 (en) * | 2011-06-29 | 2015-12-08 | International Business Machines Corporation | Guide mode for gesture spaces |
US9417754B2 (en) * | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US8660847B2 (en) * | 2011-09-02 | 2014-02-25 | Microsoft Corporation | Integrated local and cloud based speech recognition |
US8793313B2 (en) | 2011-09-08 | 2014-07-29 | Red 5 Studios, Inc. | Systems, methods and media for distributing peer-to-peer communications |
US20130077820A1 (en) * | 2011-09-26 | 2013-03-28 | Microsoft Corporation | Machine learning gesture detection |
US9262603B2 (en) * | 2011-10-21 | 2016-02-16 | International Business Machines Corporation | Advanced authentication technology for computing devices |
KR101457116B1 (ko) * | 2011-11-07 | 2014-11-04 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용한 전자 장치 및 그의 제어 방법 |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
JP5900161B2 (ja) * | 2012-05-29 | 2016-04-06 | ソニー株式会社 | 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体 |
US9092394B2 (en) | 2012-06-15 | 2015-07-28 | Honda Motor Co., Ltd. | Depth based context identification |
US8632411B1 (en) | 2012-06-28 | 2014-01-21 | Red 5 Studios, Inc. | Exchanging virtual rewards for computing resources |
US8628424B1 (en) | 2012-06-28 | 2014-01-14 | Red 5 Studios, Inc. | Interactive spectator features for gaming environments |
EP2680532B1 (en) * | 2012-06-29 | 2019-07-31 | Orange | Method, device and computer program product for providing electronic technical support to a user using a remote desktop |
US8834268B2 (en) | 2012-07-13 | 2014-09-16 | Red 5 Studios, Inc. | Peripheral device control and usage in a broadcaster mode for gaming environments |
US8795086B2 (en) | 2012-07-20 | 2014-08-05 | Red 5 Studios, Inc. | Referee mode within gaming environments |
US8970390B2 (en) * | 2012-08-29 | 2015-03-03 | 3M Innovative Properties Company | Method and apparatus of aiding viewing position adjustment with autostereoscopic displays |
JP6109943B2 (ja) * | 2012-09-13 | 2017-04-05 | エムビーディーエー・ユーケー・リミテッド | 部屋の占有を感知する装置および方法 |
US11083344B2 (en) | 2012-10-11 | 2021-08-10 | Roman Tsibulevskiy | Partition technologies |
US9658695B2 (en) * | 2012-11-08 | 2017-05-23 | Cuesta Technology Holdings, Llc | Systems and methods for alternative control of touch-based devices |
US9671874B2 (en) | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US20140204115A1 (en) * | 2013-01-23 | 2014-07-24 | Honeywell International Inc. | System and method for automatically and dynamically varying the feedback to any operator by an automated system |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9159140B2 (en) * | 2013-03-14 | 2015-10-13 | Microsoft Technology Licensing, Llc | Signal analysis for repetition detection and analysis |
US10620709B2 (en) * | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9304594B2 (en) | 2013-04-12 | 2016-04-05 | Microsoft Technology Licensing, Llc | Near-plane segmentation using pulsed light source |
JP6212918B2 (ja) * | 2013-04-18 | 2017-10-18 | オムロン株式会社 | 遊技機 |
CN105307737A (zh) | 2013-06-14 | 2016-02-03 | 洲际大品牌有限责任公司 | 互动视频游戏 |
TWI537767B (zh) * | 2013-10-04 | 2016-06-11 | 財團法人工業技術研究院 | 可調體感範圍之多人指引系統與其方法 |
US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
US9996797B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
WO2015070416A1 (en) * | 2013-11-14 | 2015-05-21 | Intel Corporation | Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices |
US20150147734A1 (en) * | 2013-11-25 | 2015-05-28 | International Business Machines Corporation | Movement assessor |
US11226686B2 (en) | 2014-01-20 | 2022-01-18 | Lenovo (Singapore) Pte. Ltd. | Interactive user gesture inputs |
DE102014001183B4 (de) | 2014-01-30 | 2022-09-22 | Audi Ag | Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens |
US9911351B2 (en) * | 2014-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Tracking objects during processes |
GB2524473A (en) * | 2014-02-28 | 2015-09-30 | Microsoft Technology Licensing Llc | Controlling a computing-based device using gestures |
EP3114545B1 (de) * | 2014-03-07 | 2020-09-02 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zur bedienung einer anwenderschnittstelle mittels frei im raum ausgeführter gesten |
JP6550643B2 (ja) * | 2014-03-14 | 2019-07-31 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
EP2924541B1 (en) * | 2014-03-28 | 2019-05-29 | Wipro Limited | System and method for guided continuous body tracking for complex interaction |
US9727778B2 (en) * | 2014-03-28 | 2017-08-08 | Wipro Limited | System and method for guided continuous body tracking for complex interaction |
US9526964B2 (en) * | 2014-05-05 | 2016-12-27 | Sony Corporation | Using pressure signal from racket to advise player |
US9710612B2 (en) | 2014-05-05 | 2017-07-18 | Sony Corporation | Combining signal information from shoes and sports racket |
DE102015002811A1 (de) | 2014-05-30 | 2015-12-03 | Elmos Semiconductor Aktiengesellschaft | Verfahren zur verbesserten Gestensteuerung mittels optischer, nicht Kamera basierter Gestenerkennungssysteme |
US10368784B2 (en) * | 2014-06-23 | 2019-08-06 | Microsoft Technology Licensing, Llc | Sensor data damping |
MA41117A (fr) * | 2014-12-05 | 2017-10-10 | Myfiziq Ltd | Imagerie d'un corps |
WO2016101131A1 (en) | 2014-12-23 | 2016-06-30 | Intel Corporation | Augmented facial animation |
DE102015202459A1 (de) * | 2015-02-11 | 2016-08-11 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bedienen einer Nutzerschnittstelle in einem Fahrzeug |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
CN107533359B (zh) * | 2015-05-20 | 2019-04-23 | 三菱电机株式会社 | 信息处理装置和联锁控制方法 |
US11194398B2 (en) * | 2015-09-26 | 2021-12-07 | Intel Corporation | Technologies for adaptive rendering using 3D sensors |
US20170103672A1 (en) * | 2015-10-09 | 2017-04-13 | The Regents Of The University Of California | System and method for gesture capture and real-time cloud based avatar training |
WO2017101094A1 (en) | 2015-12-18 | 2017-06-22 | Intel Corporation | Avatar animation system |
US10218882B2 (en) * | 2015-12-31 | 2019-02-26 | Microsoft Technology Licensing, Llc | Feedback for object pose tracker |
US10257505B2 (en) * | 2016-02-08 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optimized object scanning using sensor fusion |
KR20170104819A (ko) * | 2016-03-08 | 2017-09-18 | 삼성전자주식회사 | 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법 |
US11511156B2 (en) | 2016-03-12 | 2022-11-29 | Arie Shavit | Training system and methods for designing, monitoring and providing feedback of training |
CN105847987A (zh) * | 2016-03-24 | 2016-08-10 | 乐视控股(北京)有限公司 | 通过电视和体感配件矫正人体动作及系统 |
EP3465631B1 (en) * | 2016-06-07 | 2020-07-08 | Koninklijke KPN N.V. | Capturing and rendering information involving a virtual environment |
US10291487B2 (en) | 2016-06-08 | 2019-05-14 | Bank Of America Corporation | System for predictive acquisition and use of resources |
US10581988B2 (en) | 2016-06-08 | 2020-03-03 | Bank Of America Corporation | System for predictive use of resources |
US10129126B2 (en) | 2016-06-08 | 2018-11-13 | Bank Of America Corporation | System for predictive usage of resources |
US10178101B2 (en) | 2016-06-08 | 2019-01-08 | Bank Of America Corporation | System for creation of alternative path to resource acquisition |
US10433196B2 (en) | 2016-06-08 | 2019-10-01 | Bank Of America Corporation | System for tracking resource allocation/usage |
US9854156B1 (en) | 2016-06-12 | 2017-12-26 | Apple Inc. | User interface for camera effects |
EP3267291B1 (en) * | 2016-07-07 | 2019-11-06 | David Franklin | Gesture-based user interface |
US11262850B2 (en) * | 2016-07-20 | 2022-03-01 | Autodesk, Inc. | No-handed smartwatch interaction techniques |
WO2018057272A1 (en) | 2016-09-23 | 2018-03-29 | Apple Inc. | Avatar creation and editing |
US10565441B2 (en) * | 2016-12-19 | 2020-02-18 | Rohde & Schwarz Gmbh & Co. Kg | Positioning device and method for positioning persons to be scanned |
US20180204481A1 (en) * | 2017-01-18 | 2018-07-19 | Behzad Nejat | Method of creating and distributing digital data sets to improve performance of physical activities |
US10685466B2 (en) * | 2017-05-23 | 2020-06-16 | Dell Products L.P. | System and method of utilizing video systems with available bandwidth |
SE541650C2 (en) * | 2017-05-30 | 2019-11-19 | Crunchfish Ab | Improved activation of a virtual object |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
DE102017218718A1 (de) * | 2017-10-19 | 2019-04-25 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, Vorrichtung und Fortbewegungsmittel zur Unterstützung einer Gestensteuerung für ein virtuelles Display |
US10996763B2 (en) * | 2017-11-08 | 2021-05-04 | Jpmorgan Chase Bank, N.A. | System for and method of managing gestures in virtual reality |
US10916059B2 (en) | 2017-12-06 | 2021-02-09 | Universal City Studios Llc | Interactive video game system having an augmented virtual representation |
US10653957B2 (en) | 2017-12-06 | 2020-05-19 | Universal City Studios Llc | Interactive video game system |
CA2995242A1 (en) * | 2018-02-15 | 2019-08-15 | Wrnch Inc. | Method and system for activity classification |
US10558857B2 (en) * | 2018-03-05 | 2020-02-11 | A9.Com, Inc. | Visual feedback of process state |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
KR102438715B1 (ko) * | 2018-05-07 | 2022-08-31 | 애플 인크. | 크리에이티브 카메라 |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
DK180078B1 (en) | 2018-05-07 | 2020-03-31 | Apple Inc. | USER INTERFACE FOR AVATAR CREATION |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
JP6961845B2 (ja) | 2018-05-29 | 2021-11-05 | キュリアサー プロダクツ インコーポレイテッド | 対話型トレーニング及びデモンストレーション用の反射ビデオディスプレイ機器及びその使用方法 |
CN110624232A (zh) * | 2018-06-22 | 2019-12-31 | 赵非 | 计算机实现的向远程用户提供实况和/或存档对抗性运动课程的方法 |
WO2020033548A2 (en) * | 2018-08-07 | 2020-02-13 | Interactive Strength, Inc. | Interactive exercise machine data architecture |
EP3617852A1 (en) * | 2018-08-29 | 2020-03-04 | Tata Consultancy Services Limited | Method and system for creating aesthetic design at scale |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US11386604B2 (en) * | 2018-09-27 | 2022-07-12 | Apple Inc. | Moving an avatar based on real-world data |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
JP6559871B1 (ja) * | 2018-11-30 | 2019-08-14 | 株式会社ドワンゴ | 動画合成装置、動画合成方法及び動画合成プログラム |
JP6559870B1 (ja) * | 2018-11-30 | 2019-08-14 | 株式会社ドワンゴ | 動画合成装置、動画合成方法及び動画合成プログラム |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
US10984575B2 (en) * | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
DE112019007085T5 (de) | 2019-03-27 | 2022-01-20 | Intel Corporation | Intelligente Anzeigetafeleinrichtung und verwandte Verfahren |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
DE102019210008A1 (de) * | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Bediensystems und Bediensystem |
US11543873B2 (en) | 2019-09-27 | 2023-01-03 | Intel Corporation | Wake-on-touch display screen devices and related methods |
US11395965B1 (en) * | 2019-10-16 | 2022-07-26 | Dark Burn Creative LLC | System and method for capturing, replaying, and modifying data inputs and methods of use thereof |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
DE102019218741A1 (de) * | 2019-12-03 | 2021-06-10 | Volkswagen Aktiengesellschaft | Kontrollsystem zur Anzeige von Interaktionen einer Fahrzeuggestensteuereinheit mit einem Anwender |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
US11450192B2 (en) | 2020-01-06 | 2022-09-20 | National Cheng Kung University | Fall detection system |
WO2021145878A1 (en) * | 2020-01-16 | 2021-07-22 | Von Clausewitz Systems Llc | Mobile application platform projected on a secondary display with intelligent gesture interactions |
US11298578B2 (en) | 2020-01-31 | 2022-04-12 | Interactive Strength, Inc. | Positionable arm with quick release for an interactive exercise machine |
CA3176608A1 (en) | 2020-04-30 | 2021-11-04 | Curiouser Products Inc. | Reflective video display apparatus for interactive training and demonstration and methods of using same |
DK181103B1 (en) | 2020-05-11 | 2022-12-15 | Apple Inc | User interfaces related to time |
US11921998B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Editing features of an avatar |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
JP2022187952A (ja) * | 2021-06-08 | 2022-12-20 | 三菱ケミカルグループ株式会社 | プログラム、方法、情報処理装置 |
WO2022034771A1 (ja) * | 2020-08-11 | 2022-02-17 | 株式会社三菱ケミカルホールディングス | プログラム、方法、情報処理装置 |
US11167172B1 (en) | 2020-09-04 | 2021-11-09 | Curiouser Products Inc. | Video rebroadcasting with multiplexed communications and display via smart mirrors |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US12189452B2 (en) | 2020-12-21 | 2025-01-07 | Intel Corporation | Methods and apparatus to improve user experience on computing devices |
US12179064B2 (en) * | 2021-04-11 | 2024-12-31 | Vikas Khurana | System, apparatus and method for training a subject |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US12112024B2 (en) | 2021-06-01 | 2024-10-08 | Apple Inc. | User interfaces for managing media styles |
US11776190B2 (en) | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
US12076616B2 (en) * | 2021-08-10 | 2024-09-03 | Glen Yarbrough | Sports swing tracking system |
US12223672B2 (en) | 2021-12-21 | 2025-02-11 | Snap Inc. | Real-time garment exchange |
US12198398B2 (en) | 2021-12-21 | 2025-01-14 | Snap Inc. | Real-time motion and appearance transfer |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
CN114782945A (zh) * | 2022-04-19 | 2022-07-22 | 西安医学院 | 一种智能交互型运动员投篮姿态矫正系统 |
US12194388B2 (en) * | 2022-06-30 | 2025-01-14 | King.Com Ltd. | Method and apparatus for providing a computer implemented game |
GB2627930A (en) * | 2023-03-07 | 2024-09-11 | Sony Interactive Entertainment Inc | Dynamically updating input system and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1764931A (zh) * | 2003-02-11 | 2006-04-26 | 索尼电脑娱乐公司 | 实时运动捕捉的方法和设备 |
CN1866566A (zh) * | 2005-05-17 | 2006-11-22 | 日立环球储存科技荷兰有限公司 | 具有端子连接的基于自旋累积效应的磁致电阻传感器 |
Family Cites Families (219)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
DE69229474T2 (de) | 1991-12-03 | 2000-03-02 | French Sportech Corp., Bay Village | Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) * | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
DE69635891T2 (de) | 1995-06-22 | 2006-12-14 | 3Dv Systems Ltd. | Verbesserte optische kamera zur entfernungsmessung |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
WO1999044698A2 (en) | 1998-03-03 | 1999-09-10 | Arena, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
AU3283497A (en) | 1996-05-08 | 1997-11-26 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
WO1998007129A1 (fr) | 1996-08-14 | 1998-02-19 | Latypov Nurakhmed Nurislamovic | Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europe Ltd., Maidenhead | Verfahren und System zur Erkennung von Handgesten |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
JP2001517782A (ja) | 1997-09-24 | 2001-10-09 | スリーディーヴィー システムズ リミテッド | 音響画像形成システム |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
AU9808298A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
DE69840608D1 (de) | 1998-12-16 | 2009-04-09 | 3Dv Systems Ltd | Selbsttastende photoempfindliche oberfläche |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6931384B1 (en) | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
AU5646299A (en) | 1999-09-08 | 2001-04-10 | 3Dv Systems Ltd. | 3d imaging system |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US7050177B2 (en) | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US20030132950A1 (en) | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US6690618B2 (en) | 2001-04-03 | 2004-02-10 | Canesta, Inc. | Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device |
DE19960180B4 (de) | 1999-12-14 | 2006-03-09 | Rheinmetall W & M Gmbh | Verfahren zur Herstellung eines Sprenggeschosses |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) * | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3725460B2 (ja) | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
AU2002315456A1 (en) | 2001-06-22 | 2003-01-08 | Canesta, Inc. | Method and system to display a virtual input device |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US20030165048A1 (en) | 2001-12-07 | 2003-09-04 | Cyrus Bamji | Enhanced light-generated interface for use with electronic devices |
AU2003217587A1 (en) | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
AU2003219926A1 (en) | 2002-02-26 | 2003-09-09 | Canesta, Inc. | Method and apparatus for recognizing objects |
US6981876B2 (en) | 2002-03-01 | 2006-01-03 | Accelerized Golf, Llc | Ergonomic motion and athletic activity monitoring and training system and method |
US7310431B2 (en) | 2002-04-10 | 2007-12-18 | Canesta, Inc. | Optical methods for remotely measuring objects |
AU2003212211A1 (en) | 2002-04-19 | 2003-11-03 | Iee International Electronics And Engineering S.A. | Safety device for a vehicle |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7918733B2 (en) | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
GB2398691B (en) | 2003-02-21 | 2006-05-31 | Sony Comp Entertainment Europe | Control of data processing |
US7886236B2 (en) * | 2003-03-28 | 2011-02-08 | Microsoft Corporation | Dynamic feedback for gestures |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
JP4546956B2 (ja) | 2003-06-12 | 2010-09-22 | 本田技研工業株式会社 | 奥行き検出を用いた対象の向きの推定 |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7755608B2 (en) * | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
JP3847753B2 (ja) | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US20050255434A1 (en) | 2004-02-27 | 2005-11-17 | University Of Florida Research Foundation, Inc. | Interactive virtual characters for training including medical diagnosis training |
WO2005104010A2 (en) | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
US7991220B2 (en) | 2004-09-01 | 2011-08-02 | Sony Computer Entertainment Inc. | Augmented reality game system using identification information to display a virtual object in association with a position of a real object |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
JP4449723B2 (ja) | 2004-12-08 | 2010-04-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
US7379566B2 (en) | 2005-01-07 | 2008-05-27 | Gesturetek, Inc. | Optical flow based tilt sensor |
ES2791718T3 (es) | 2005-01-07 | 2020-11-05 | Qualcomm Inc | Detección y seguimiento de objetos en imágenes |
CN101198964A (zh) | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
EP1851750A4 (en) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
KR100688743B1 (ko) | 2005-03-11 | 2007-03-02 | 삼성전기주식회사 | 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법 |
JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
US20080191864A1 (en) | 2005-03-31 | 2008-08-14 | Ronen Wolfson | Interactive Surface and Display System |
JP5038296B2 (ja) | 2005-05-17 | 2012-10-03 | クアルコム,インコーポレイテッド | 方位感受性信号出力 |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
GB2431717A (en) | 2005-10-31 | 2007-05-02 | Sony Uk Ltd | Scene analysis |
WO2007096893A2 (en) | 2006-02-27 | 2007-08-30 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
WO2007130691A2 (en) | 2006-05-07 | 2007-11-15 | Sony Computer Entertainment Inc. | Method for providing affective characteristics to computer generated avatar during gameplay |
US7721207B2 (en) | 2006-05-31 | 2010-05-18 | Sony Ericsson Mobile Communications Ab | Camera based control |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
KR101304461B1 (ko) * | 2006-12-04 | 2013-09-04 | 삼성전자주식회사 | 제스처 기반 사용자 인터페이스 방법 및 장치 |
US20080134102A1 (en) | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US7770136B2 (en) | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
WO2008134745A1 (en) | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US7970176B2 (en) * | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
EP2203893A4 (en) | 2007-10-30 | 2014-05-07 | Hewlett Packard Development Co | INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US8149210B2 (en) | 2007-12-31 | 2012-04-03 | Microsoft International Holdings B.V. | Pointing device and method |
US8944824B2 (en) * | 2008-04-03 | 2015-02-03 | Livescribe, Inc. | Multi-modal learning system |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
US8566717B2 (en) * | 2008-06-24 | 2013-10-22 | Microsoft Corporation | Rendering teaching animations on a user-interface display |
US8057290B2 (en) * | 2008-12-15 | 2011-11-15 | Disney Enterprises, Inc. | Dance ring video game |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
-
2009
- 2009-05-01 US US12/434,545 patent/US9377857B2/en active Active
-
2010
- 2010-04-14 CN CN201080020007.XA patent/CN102413886B/zh active Active
- 2010-04-14 WO PCT/US2010/031040 patent/WO2010126714A2/en active Application Filing
- 2010-10-27 US US12/913,345 patent/US9298263B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1764931A (zh) * | 2003-02-11 | 2006-04-26 | 索尼电脑娱乐公司 | 实时运动捕捉的方法和设备 |
CN1866566A (zh) * | 2005-05-17 | 2006-11-22 | 日立环球储存科技荷兰有限公司 | 具有端子连接的基于自旋累积效应的磁致电阻传感器 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11595617B2 (en) | 2012-04-09 | 2023-02-28 | Intel Corporation | Communication using interactive avatars |
Also Published As
Publication number | Publication date |
---|---|
WO2010126714A3 (en) | 2011-01-20 |
US20100281432A1 (en) | 2010-11-04 |
WO2010126714A2 (en) | 2010-11-04 |
CN102413886A (zh) | 2012-04-11 |
US9377857B2 (en) | 2016-06-28 |
US9298263B2 (en) | 2016-03-29 |
US20110035666A1 (en) | 2011-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102413886B (zh) | 示出身体位置 | |
CN102448561B (zh) | 姿势教练 | |
CN102449576B (zh) | 姿势快捷方式 | |
CN102473320B (zh) | 通过学习到的来自用户的输入使视觉表示生动化的方法 | |
US9824480B2 (en) | Chaining animations | |
CN102301315B (zh) | 姿势识别器系统架构 | |
CN102356373B (zh) | 虚拟对象操纵 | |
CN102301311B (zh) | 标准姿势 | |
US20100306716A1 (en) | Extending standard gestures | |
CN102331840B (zh) | 基于回环运动的用户选择和导航 | |
CN102207771A (zh) | 推断参与运动捕捉系统的用户意图 | |
CN102947777A (zh) | 用户跟踪反馈 | |
CN102918489A (zh) | 限制化身姿势显示 | |
CN102129293A (zh) | 在运动捕捉系统中跟踪用户组 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150424 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150424 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |