JP2011170856A - 複数の検出ストリームを用いたモーション認識用システム及び方法 - Google Patents
複数の検出ストリームを用いたモーション認識用システム及び方法 Download PDFInfo
- Publication number
- JP2011170856A JP2011170856A JP2011032474A JP2011032474A JP2011170856A JP 2011170856 A JP2011170856 A JP 2011170856A JP 2011032474 A JP2011032474 A JP 2011032474A JP 2011032474 A JP2011032474 A JP 2011032474A JP 2011170856 A JP2011170856 A JP 2011170856A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- recognizer
- recognition
- signal
- recognizers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 652
- 238000000034 method Methods 0.000 title claims description 121
- 238000001514 detection method Methods 0.000 claims abstract description 85
- 238000012549 training Methods 0.000 claims abstract description 67
- 230000001133 acceleration Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 14
- 230000003068 static effect Effects 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 27
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 67
- 230000008901 benefit Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 27
- 238000010276 construction Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 9
- 238000001914 filtration Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001627 detrimental effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 241000544061 Cuculus canorus Species 0.000 description 1
- 241000282575 Gorilla Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】複数のデータストリームを用いたモーション認識のための技術が開示される。慣性センサー及び非慣性センサーからの複数のデータストリームが取り込まれて、モーションレコグナイザーからのモーション認識信号が導かれる。これらのモーションレコグナイザーは、初めは、モーション信号のトレーニングセットから構築され、複数の検出信号を取り込んでアップデート可能である。一観点では、複数のデータストリームが、デバイスに依存しないモーション信号に変換され、汎用モーション認識機能を提供するモーションレコグナイザーに適用される。
【選択図】図2
Description
クラスの予め定義された集合に特有の特性は、アルゴリズム及び対応するパラメーター中にコードすることが難しい。大雑把に言うと、数の予め定義されたクラスに対して分類を行う能力は、アドホックモーション認識を行う能力とはほとんど又は全く関係がない。我々の知識では、アドホックモーションレコグナイザーをエンドユーザーが作成することを教示する従来技術は全くない。
[1]. E. Keogh and M. Pazzani、 Derivative Dynamic Time Warping、 in First SIAM International Conference on Data Mining、 (Chicago、 IL、 2001);
[2]. Lawrence R. Rabiner、 A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition. Proceedings of the IEEE、 77 (2)、 p. 257-286、 February 1989;
[3]. R. Kjeldson and J. Kender、 Towards the Use of Gesture in Traditional User Interfaces、 Proceedings of the 2nd International Conference on Automatic Face and Gesture Recognition) 1996; and
[4]. D. Kwon and M. Gross、 Combining Body Sensors and Visual Sensors for Motion Training、 ACM SIGCHI ACE 2005.
許されたモーションの予め定義された集合を参照することなくエンドユーザーによって作成されたモーション信号のトレーニングセットを受け取り、前記トレーニングセットは、経時的に実行された少なくとも一つのタイプのモーション(at least one type of motion executed over some period of time)を特徴づけるモーション信号の第1集合を含み、
モーションレコグナイザーの少なくとも一つを、前記トレーニングセットから自動的に構築し、
(1) アドホックであり且つモーション認識を行うモーションレコグナイザーの作成に必要とされる実質的に全てのパラメーターは、自動的に決定され、
(2) どのムーブが認識可能であるかに影響を与える手段は、モーションの新たな例を追加するか又はモーション信号のいくつかをトレーニングセットから取り除くことであり、
モーション信号の第2集合を分類することによって、モーションレコグナイザーの少なくとも一つを用いてモーション認識行い、一方、モーション信号の第2集合のいくつか又は全ては、モーションレコグナイザーをアップデートするか又は追加のモーションレコグナイザーを作成するために使用される。
モーション信号の第1集合を生成する少なくとも一つの手持ち式モーション検出デバイスと、
アドホックである少なくとも一つのモーションレコグナイザーと、許されたモーションの予め定義された集合を参照することなくエンドユーザーによって作成された少なくとも一つのトレーニングセットを記憶するためのメモリースペースとを備え、このトレーニングセットは、経時的に実行された少なくとも一つのモーションを特徴づけるモーション信号の第2集合を含み、
少なくとも一つのトレーニングセットから、少なくとも一つのモーションレコグナイザーを自動的に生成するように構成されているレコグナイザーメーカー(a recognizer maker)を有する第1の処理ユニットと、
少なくとも一つの手持ち式モーション検出デバイスからモーション信号を受け取り、少なくとも一つのモーションレコグナイザーに応答する認識ランタイムライブラリを実行し、そのモーション信号に対するモーションラベルを計算する第2の処理ユニットを備える。
経時的に実行された少なくとも一つのタイプのモーションを特徴づけるモーション信号の第1集合のトレーニングセットを受け取り、
このトレーニングセットから少なくとも一つのモーションレコグナイザーを自動的に構築し、このモーションレコグナイザーは、認識ランタイムライブラリによって使用されたときに、モーション信号の第2集合についてのモーション認識をサポートし、
以下に示すものの少なくとも一つをトレーニングセットから自動的に計算することを含む。
(1) (i)全体の分類率、(ii)クラス毎の分類率(per-class classification rates)における差異、又は(iii)所望の「未決定」分類率、の関数として、トレーニングセットからモーション信号を追加又は削除することなくモーションレコグナイザーのクラス毎の分類許容値(per-class classification tolerances)を制御するために使用されるスラックパラメーター(slack parameters)の集合、
(2) (i)モーションレコグナイザーのクラス数、(ii)各クラスの必要な分類率、又は(iii)所望の「未決定」分類率の関数として、モーションレコグナイザーの認識キャパシティを制御するために使用されるキャパシティパラメーター、
トレーニングセット中のどのモーションクラスが新たなモーション信号でアップデートするか完全に再デザインする必要があるのかを示すことによって、レコグナイザーメーカーをインタラクティブに使用するように導くために使用される混同マトリックス(a confusion matrix)。
モーション信号の第1集合を生成する少なくとも一つのモーション検出デバイスと、
少なくとも一つのモーションレコグナイザー、及び経時的に実行された少なくとも一つのモーションを特徴づけるモーション信号の第2集合を含む少なくとも一つのトレーニングセットを記憶するためのメモリースペースと、
少なくとも一つのモーション検出デバイスからのモーション信号の第1集合を受け取り、少なくとも一つのモーションレコグナイザーに応答する認識ランタイムライブラリを実行し、モーション信号の第1集合に対するモーションラベルを計算する第1の処理ユニットと、
少なくとも一つのトレーニングセットから少なくとも一つのモーションレコグナイザーを自動的に作成し、さらに、以下に示すものの少なくとも一つをトレーニングセットから自動的に計算するように構成されているレコグナイザーメーカーを有する第2の処理ユニット。
(1) (i)全体の分類率、(ii)クラス毎の分類率における差異、又は(iii)所望の「未決定」分類率、の関数として、トレーニングセットからモーション信号の第1集合の何れも追加又は削除することなくモーションレコグナイザーのクラス毎の分類許容値を制御するために使用されるスラックパラメーターの集合、
(2) (i)モーションレコグナイザーのクラス数、(ii)各クラスの必要な分類率、又は(iii)所望の「未決定」分類率、の関数として、モーションレコグナイザーの認識キャパシティを制御するために使用されるキャパシティパラメーター、
トレーニングセット中のどのモーションクラスが新たなモーション信号でアップデートするか完全に再デザインする必要があるのかを示すことによって、レコグナイザーメーカーをインタラクティブに使用するように導くために使用される混同マトリックス。
1又は複数のモーション検出デバイスからのデータのトレーニングセットとしてモーション信号を受け取り、モーション信号のそれぞれは、経時的に実行された少なくとも一つのタイプのモーションを特徴づけ、
モーション信号のそれぞれにおいて特徴付けられる、モーションのスタートの前又はエンドの後のデータを含むモーション信号のそれぞれについてのデータのエンベロープ(an envelope of data)を記録及び保持し、
トレーニングセット中のモーション信号のそれぞれのスタートの前、間及び後のモーション信号アクティビティ中の差異を含む特徴に基づいて、モーションのスタートを予測するモーションスタートクラシファイアー(classifier)を作成するためにモーション信号のそれぞれを解析し、
モーションが開始されたことをモーションスタートクラシファイアーを示した場合には受信モーション信号ストリームを自動的にモーションスタートとラベルづけする。
モーション検出デバイスを用いて経時的に実行された少なくとも一つのタイプのモーションを特徴づけるモーション信号の第1集合で構成されるトレーニングセットから作成されたモーションレコグナイザーを受け取り、このモーション信号は、モーション検出デバイスの経時的な位置及び方向を計算するのに十分な情報を含み、
第2モーション検出デバイスの経時的な位置及び方向を計算するのに十分な情報を提供する、第2モーション検出デバイスからのモーション信号の第2集合を受け取り、
モーション認識を行って、モーション信号の第2集合中の第2の例に最も応答する、トレーニングセット中の第1の例モーション信号を決定し、
第1の例モーション信号の第1の3D追跡、及び第2の例モーション信号の第2の3D追跡をいつでも計算し、
2つのモーションの間の少なくとも最初の主要な相違点を強調して第1及び第2の3D追跡を並べて描画する。
1 定義
2 実施形態の詳細な説明
3 エンドユーザー用アドホックパーソナライズ化レコグナイザーメーカー
3.1 アドホックモーションレコグナイザーを作成することに対するエンドユーザー制御
3.1.1 エンドユーザームーブデザイン問題検出及びフィードバック
3.1.2 高速近似クラシファイアー構築
3.1.3 レコグナイザーパラメーターのデータ-主導型決定
3.1.4 例
3.2 モーション検出アプリケーションに対して即座のフィードバックを提供すること
3.2.1 いつでも最良推測モーション認識
3.2.2 曖昧性除去ツリー
3.2.3 ロックインベースの採点
3.2.4 例
3.3 汎用認識
3.3.1 様々な入力タイプ及びデバイス
3.3.2 認識出力様式
3.3.3 デバイスに依存しない認識(Device-independent recognition)
LX = accX;
LY = accY;
LZ = accZ;
//質量中心を中心とした加速度計の回転の接戦効果を引く
LZ -= aaX*yOffset;
LY += aaX*zOffset;
LX -= aaY*zOffset;
LZ += aaY*xOffset;
LY -= aaZ*xOffset;
LX += aaZ*yOffset;
// 求心加速度、質量中心での加速度に戻る
LX += xOffset*( avY*avY + avZ*avZ);
LY += yOffset*(avX*avX + avZ*avZ);
LZ += zOffset*(avX*avX + avY*avY );
// ジャイロ作用を補償する
LX -= avX*( avY*yOffset + avZ*zOffset);
LY -= avY*(avX*xOffset + avZ*zOffset);
LZ -= avZ*(avX*xOffset + avY*yOffset );
キー : accX, accY, accZ - センサー位置でそれぞれの軸に沿って測定された直線加速度
avX, avY, avZ - それぞれの軸の周りで測定された角速度
aaX, aaY, aaZ - それぞれの軸の周りで計算された角加速度
xOffset, yOffset, zOffset -加速度計と質量中心の間の物理的分離
LX, LY, LZ - 質量中心についての計算された直線加速度
センサーノイズを考慮した改良
1)実際には、センサーデータの複数の期間に渡って角加速度を測定することにより、計算された直線加速度についてノイズの影響が減少したスムーズな推定値が得られる。使用した測定値の数は、特定のジャイロスコープのサンプリングレート及びノイズ特性に従って変化させた。
dt = history[endIndex].time ? history[startIndex].time;
aaX = (history[endIndex].avX ? history[startIndex].avX)/dt;
aaY = (history[endIndex].avY ? history[startIndex].avY)/dt;
aaZ = (history[endIndex].avZ ? history[startIndex].avZ)/dt;
2)対応する角速度が小さいとき、角加速度を減少させた(大部分の加速度は、この場合、ノイズの結果であると分かる。)
//角速度が小さい場合、角加速度は、主に、複数の値の間をジャンプするジャイロの測定に依っており、約5 rad/sec^2までのジャンプが生じる
if ( reduceAA )
{
real const aaReduction = 5.0f; //ゼロ角速度(rad/sec/sec)では、aaをこれくらい減少させる。
real const smallAngularVelocity = 0.5f; //角速度がこの値(rad/sec)よりも大きければ加速度を調節しない。
moveTowardsZero( aaX, asReduction*(smallAngularVelocity - fabsf(
avX ))/smallAngularVelocity );
moveTowardsZero( aaY, aaReduction*(smallAngularVelocity - fabsf(
avY ))/smallAngularVelocity );
moveTowardsZero( aaZ, aaReduction*(smallAngularVelocity - fabsf(
avZ ))/smallAngularVelocity );
}
3.3.4 例
Claims (20)
- 複数のデータストリームからのモーション認識のための方法であって、この方法は、
処理ユニットにおいて、慣性センサー及び非慣性センサーを含むセンサーの集合と関連した少なくとも一つのモーション検出デバイスからの少なくとも二成分出力を有するモーション信号を受け取り、
前記成分出力をデバイスに依存しないモーション信号に変換し、
モーションレコグナイザーの少なくとも一つを用いてモーション信号を分類することによってモーション認識を行うことを備え、
モーションレコグナイザーの少なくとも一つは、許されたモーションの予め定義された集合を参照することなくエンドユーザーによって作成されたモーション信号のトレーニングセットによって構築され、
モーション信号の前記トレーニングセットは、経時的に実行された少なくとも一つのタイプのモーションを特徴づけるモーション信号の第1集合を含み、
アドホックであるモーションレコグナイザーの少なくとも一つの作成に必要とされる実質的に全てのパラメーターは、自動的に決定され、
モーションレコグナイザーをデバイスに依存しないモーション信号に適用して、汎用モーション認識機能を提供する、方法。 - 請求項1に記載の方法であって、
前記非慣性センサーは、(i)モーション検出デバイス上のボタン、dパッド、スティック又はトリガー、(ii)モーション検出デバイス上の1又は複数のタッチスクリーンセンサー、(iii)ユーザーの前又は近くに配置され且つユーザーの身体部分の位置及び方向を追跡する1又は複数のビデオカメラ及び(iv)1又は複数のマイクロフォン、を含む、方法。 - 請求項1に記載の方法であって、
プロトタイプの集合を含むモーションレコグナイザーの一つに応答してモーション信号に対する連続的な認識信号を生成することを含み、
連続的な認識信号の前記生成は、モーションレコグナイザーの一つにあるプロトタイプの1又は複数を十分に利用することなく進行する、方法。 - 請求項1に記載の方法であって、
タイムワープ距離に基づいてプロトタイプを選択することをさらに含み、
前記プロトタイプは、1又は複数の新たなモーションレコグナイザーの作成ために利用され、
モーションレコグナイザーの少なくとも一つを用いてモーション信号を分類することによってモーション認識を行うことは、モーション検出デバイスに応答する1又は複数の新たなモーションレコグナイザー中のプロトタイプに対するタイムワープ距離を計算することによって、プロトタイプを分類することを含む、方法。 - 請求項1に記載の方法であって、
前記処理ユニットは、弾性パラメーターを前記成分出力のそれぞれに関連付ける認識ランタイムライブラリを含むように構成されており、
その後のタイムワープ関連スコアは、弾性パラメーターに応じて決まる、方法。 - 請求項5に記載の方法であって、
前記ランタイムライブラリは、モーション検出デバイスの同時の独立モーション、同時の従属モーション、及び静止ポーズを認識するように構成されている、方法。 - 請求項1に記載の方法であって、
前記モーションレコグナイザーをモーション信号に適用して、別のモーション検出デバイスに応答する汎用モーションレコグナイザーを作成することをさらに備える、方法。 - 複数のデータストリームからのモーション認識のための方法であって、この方法は、
処理ユニットにおいて、センサーの第1集合が組み込まれた少なくとも一つの第1モーション検出デバイスを用いて前もって作成されたモーションレコグナイザーの集合をロードし、
前記処理ユニットにおいて、センサーの第2集合が組み込まれた少なくとも一つの第2モーション検出デバイスからの少なくとも二成分出力を有するモーション信号を受け取り、
センサーの第2集合のいくつかは、センサーの第1集合のいくつかとは異なっており、
前記成分出力をデバイスに依存しないモーション信号に変換し、
モーションレコグナイザーをデバイスに依存しないモーション信号に適用して、汎用モーション認識機能を提供する、方法。 - 請求項8に記載の方法であって、
汎用モーション認識機能を使用して、前記モーション信号から最終モーション認識信号を決定することを含む、方法。 - 請求項8に記載の方法であって、
前記汎用モーション認識機能は、プロトタイプの集合を含むモーションレコグナイザーの一つに応答してモーション信号に対する連続的な認識信号を生成し、
連続的な認識信号の前記生成は、モーションレコグナイザーの一つにあるプロトタイプの1又は複数を十分に利用することなく進行する、方法。 - 請求項9に記載の方法であって、
タイムワープ距離に基づいてプロトタイプを選択することをさらに含み、
前記プロトタイプは、1又は複数の新たなモーションレコグナイザーの作成ために利用され、
モーションレコグナイザーをデバイスに依存しないモーション信号に適用して、汎用モーション認識機能を提供することは、少なくとも一つの第2モーション検出デバイスに応答する1又は複数の新たなモーションレコグナイザー中のプロトタイプに対するタイムワープ距離を計算することによって、プロトタイプを分類することを含む、方法。 - 請求項9に記載の方法であって、
第1モーション検出デバイスは、種々のヒューマンモーションを十分に表現する能力の点で、第2モーション検出デバイスと異なる、方法。 - 請求項12に記載の方法であって、
前記処理ユニットは、新たなモーション検出デバイスの登録を容易にして、汎用モーション認識機能と共に使用される新たなモーション検出デバイスの十分な統計を前記処理ユニットに知らせるインターフェースを含む、方法。 - 請求項8に記載の方法であって、
第3モーション検出デバイスがあり、
第2及び3モーション検出デバイスは、2ユーザーによってそれぞれ保持され、
第2及び3モーション検出デバイスからのモーション信号は、この2ユーザーが近いタイミングで相補的に対となるモーションを実行するように関連付けられる、方法。 - 複数のデータストリームからのモーション認識のためのシステムであって、このシステムは、
少なくとも一つの第1モーション検出デバイスを用いて前もって作成されたモーションレコグナイザーの集合がロードされた処理ユニットを備え、
前記処理ユニットは、ユーザーが行った種々のモーションを表す慣性センサ信号及び他のセンサー信号を生成する第2モーション検出デバイスからのモーション信号を受け取り、
第2モーション検出デバイスからのモーション信号は、慣性センサ及び他のセンサー信号を含み、
前記処理ユニットは、慣性センサ及び他のセンサー信号をデバイスに依存しないモーション信号に変換し、前記モーションレコグナイザーを前記モーション信号に適用して、第2モーション検出デバイスに応答する汎用モーション認識サービスを提供するように構成されている、システム。 - 請求項15に記載のシステムであって、
前記処理ユニットは、汎用モーション認識サービスを使用して、前記モーション信号から最終モーション認識信号を決定するように構成されている、システム。 - 請求項16に記載のシステムであって、
前記処理ユニットは、慣性センサ及び他のセンサー信号のそれぞれを擬似-直線加速度、擬似-角速度、又は擬似-ボタン信号の1又は複数に変換するように構成されている、システム。 - 請求項15に記載のシステムであって、
第1モーション検出デバイスは、検出能力の点で、第2モーション検出デバイスと異なっている、システム。 - 請求項15に記載のシステムであって、前記処理ユニットは、モーション検出デバイスの登録を容易にして、汎用モーション認識サービスと共に使用される新たなモーション検出デバイスの十分な統計を前記処理ユニットに知らせるインターフェースを含む、システム。
- 請求項15に記載のシステムであって、前記汎用モーション認識サービスは、プロトタイプの集合を含むモーションレコグナイザーの一つに応答してモーション信号に対する連続的な認識信号を生成し、
連続的な認識信号の前記生成は、モーションレコグナイザーの一つにあるプロトタイプの1又は複数を十分に利用することなく進行する、システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/709,520 | 2010-02-22 | ||
US12/709,520 US20110044501A1 (en) | 2006-07-14 | 2010-02-22 | Systems and methods for personalized motion control |
US12/885,301 US8041659B2 (en) | 2006-07-14 | 2010-09-17 | Systems and methods for motion recognition using multiple sensing streams |
US12/885,301 | 2010-09-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011170856A true JP2011170856A (ja) | 2011-09-01 |
JP2011170856A5 JP2011170856A5 (ja) | 2014-04-03 |
Family
ID=44099511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011032474A Withdrawn JP2011170856A (ja) | 2010-02-22 | 2011-02-17 | 複数の検出ストリームを用いたモーション認識用システム及び方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP2362325A2 (ja) |
JP (1) | JP2011170856A (ja) |
CN (1) | CN102087712B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10292107B2 (en) | 2016-02-11 | 2019-05-14 | Samsung Entertainment Co., Ltd | Electronic device and method for providing route information |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008360A (ja) * | 2011-06-23 | 2013-01-10 | Ailive Inc | 制御機器として用いられる運動制御子 |
WO2013122586A2 (en) * | 2012-02-15 | 2013-08-22 | Intel Corporation | Automated perceptual quality assessment of touch screen devices |
WO2013159282A1 (zh) * | 2012-04-24 | 2013-10-31 | 北京英福生科技有限公司 | 个性化自学习识别系统及方法 |
CN203252647U (zh) * | 2012-09-29 | 2013-10-30 | 艾利佛公司 | 用于判定生理特征的可佩带的设备 |
US10133329B2 (en) * | 2012-11-19 | 2018-11-20 | Qualcomm Incorporated | Sequential feature computation for power efficient classification |
US9691382B2 (en) * | 2013-03-01 | 2017-06-27 | Mediatek Inc. | Voice control device and method for deciding response of voice control according to recognized speech command and detection output derived from processing sensor data |
GB2520069A (en) * | 2013-11-08 | 2015-05-13 | Univ Newcastle | Identifying a user applying a touch or proximity input |
KR102223296B1 (ko) * | 2016-03-11 | 2021-03-04 | 매직 립, 인코포레이티드 | 콘볼루셔널 신경 네트워크들에서의 구조 학습 |
CN105787468A (zh) * | 2016-03-24 | 2016-07-20 | 深圳市阿尔法通讯技术有限公司 | 一种捻珠动作的识别方法及其系统 |
CN106067001B (zh) * | 2016-05-27 | 2019-06-11 | 快快乐动(北京)网络科技有限公司 | 一种动作识别方法 |
NZ749318A (en) * | 2016-06-08 | 2023-03-31 | Commw Scient Ind Res Org | System for monitoring pasture intake |
WO2018069981A1 (ja) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | 運動認識装置、運動認識プログラムおよび運動認識方法 |
CN106548503B (zh) * | 2016-10-19 | 2019-07-05 | 华东师范大学 | 一种基于命令流三维角色的动画合成方法 |
DE112017005377T5 (de) * | 2016-10-25 | 2019-08-01 | Sony Corporation | Vorrichtung, verfahren und programm zur informationsverarbeitung |
EP3321844B1 (en) * | 2016-11-14 | 2021-04-14 | Axis AB | Action recognition in a video sequence |
CN106648120B (zh) * | 2017-02-21 | 2020-04-03 | 戴雨霖 | 基于虚拟现实和体感技术的火灾逃生训练系统 |
DE102017205458A1 (de) * | 2017-03-30 | 2018-10-04 | Robert Bosch Gmbh | System und ein Verfahren zur Erkennung von Augen und Händen, insbesondere für ein Kraftfahrzeug |
CN107157488A (zh) * | 2017-06-28 | 2017-09-15 | 重庆金康特智能穿戴技术研究院有限公司 | 一种基于智能穿戴设备的监控和矫正儿童多动症系统 |
CN111376910B (zh) * | 2018-12-29 | 2022-04-15 | 北京嘀嘀无限科技发展有限公司 | 用户行为的识别方法、识别系统及计算机设备 |
CN110689041A (zh) * | 2019-08-20 | 2020-01-14 | 陈羽旻 | 一种多目标行为动作识别预测方法、电子设备及存储介质 |
CN114510981B (zh) * | 2020-11-16 | 2025-05-13 | 中国移动通信有限公司研究院 | 动作识别的预测方法、装置、服务器及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8280169B2 (en) * | 2005-12-21 | 2012-10-02 | Michael Linderman | Recordation of handwriting and hand movement using electromyography |
US7606411B2 (en) * | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
US7970176B2 (en) * | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
-
2011
- 2011-02-17 JP JP2011032474A patent/JP2011170856A/ja not_active Withdrawn
- 2011-02-22 EP EP11155276A patent/EP2362325A2/en not_active Withdrawn
- 2011-02-22 CN CN2011100427130A patent/CN102087712B/zh not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10292107B2 (en) | 2016-02-11 | 2019-05-14 | Samsung Entertainment Co., Ltd | Electronic device and method for providing route information |
Also Published As
Publication number | Publication date |
---|---|
EP2362325A2 (en) | 2011-08-31 |
CN102087712A (zh) | 2011-06-08 |
CN102087712B (zh) | 2013-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8156067B1 (en) | Systems and methods for performing anytime motion recognition | |
JP2011170856A (ja) | 複数の検出ストリームを用いたモーション認識用システム及び方法 | |
US8041659B2 (en) | Systems and methods for motion recognition using multiple sensing streams | |
US9050528B2 (en) | Systems and methods for utilizing personalized motion control in virtual environment | |
US8660303B2 (en) | Detection of body and props | |
KR101700468B1 (ko) | 사용자로부터 학습된 입력을 통해 비주얼 표현을 활성화하는 방법 | |
US9377857B2 (en) | Show body position | |
US11995754B2 (en) | Enhanced animation generation based on motion matching using local bone phases | |
US8487938B2 (en) | Standard Gestures | |
KR101643020B1 (ko) | 애니메이션을 체이닝하는 방법 및 애니메이션 블렌딩 장치 | |
US20090066641A1 (en) | Methods and Systems for Interpretation and Processing of Data Streams | |
US20120162065A1 (en) | Skeletal joint recognition and tracking system | |
Vu et al. | Smartwatch-based early gesture detection 8 trajectory tracking for interactive gesture-driven applications | |
US20110151974A1 (en) | Gesture style recognition and reward | |
JP2011170857A (ja) | 最小のディレイでモーション認識を行うシステム及び方法 | |
Arsenault et al. | Gesture recognition using Markov Systems and wearable wireless inertial sensors | |
CN113476833A (zh) | 游戏动作识别方法、装置、电子设备和存储介质 | |
US20250021166A1 (en) | Controller use by hand-tracked communicator and gesture predictor | |
Rashmika et al. | Gesture-based control of ping-pong: developing an interactive game interface | |
Khazaei | Real-Time Gesture-Based Sound Control System | |
CN116637360A (zh) | 基于函数拟合的体感乒乓球游戏方法 | |
Piyadigamage | Automatic recognition of whole-of-body gestures distilled via a user-centric design approach | |
Головко | Activity Recognition Based on Artificial Neural Network Approach using PIQ Robot | |
HK1171531B (en) | Detection of body and props | |
HK1171531A1 (zh) | 對身體和道具的檢測 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110301 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140214 |
|
A072 | Dismissal of procedure [no reply to invitation to correct request for examination] |
Free format text: JAPANESE INTERMEDIATE CODE: A073 Effective date: 20140603 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |