[go: up one dir, main page]

JP3733587B2 - 表示画像上のオブジェクトの平行移動及び回転運動に作用する信号を供給する入力装置及び方法 - Google Patents

表示画像上のオブジェクトの平行移動及び回転運動に作用する信号を供給する入力装置及び方法 Download PDF

Info

Publication number
JP3733587B2
JP3733587B2 JP2001265151A JP2001265151A JP3733587B2 JP 3733587 B2 JP3733587 B2 JP 3733587B2 JP 2001265151 A JP2001265151 A JP 2001265151A JP 2001265151 A JP2001265151 A JP 2001265151A JP 3733587 B2 JP3733587 B2 JP 3733587B2
Authority
JP
Japan
Prior art keywords
human
arm
image
image processor
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001265151A
Other languages
English (en)
Other versions
JP2002189545A (ja
Inventor
マークス リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2002189545A publication Critical patent/JP2002189545A/ja
Application granted granted Critical
Publication of JP3733587B2 publication Critical patent/JP3733587B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は一般に、表示画像上でオブジェクトを動かすユーザー入力装置及び方法に関し、さらに具体的には、ユーザーのビデオ画像がキャプチャされ、処理されて、ディスプレイ上のオブジェクトの平行移動及び/又は回転運動を起こす信号を出力する入力装置及び方法に関する。特に、本発明はビデオ・ゲームのようなグラフィック・エンタテインメント・システムに適用可能である。
【0002】
【従来の技術】
ビデオ・モニター等の画像表示装置上でオブジェクトを動かすために、ビデオ画像を用いるシステム、方法、入出力装置が利用される。しばしば、このようなビデオ入力装置は、ビデオ・キャプチャ装置の視野内のユーザーの動きまたは位置に応答する。最近では、一連のビデオ画像としてキャプチャされたユーザーの動きをゲーム制御用信号に変換するために、ビデオ画像処理を利用している。従来技術の入力システムには、システム・ユーザーが存在する視野を走査するビデオ・キャプチャ装置が含まれる。このキャプチャされたビデオ画像はビデオ・ディジタイザに供給され、ビデオ・ディジタイザは、該ディジタイザから受信したデジタル情報を分析し処理するプロセッサへデジタル出力を行う。次いで、視野内の参加者の位置または動きに基づいて、プロセッサは、ディスプレイ上のオブジェクトを動かすために画像作成システムによって用いられる信号を生成する。参加者の位置または動きによって装置または画像表示の操作または出力を行うことができるとはいえ、必要なコンピュータ処理時間はしばしば非常に長く、処理は複雑であることが多く、高能力のコンピュータ・リソース及び/又はタイム・リソースを必要とする傾向がある。
【0003】
さらに、画像表示装置上でオブジェクトを動かすために利用されるユーザービデオ画像データを用いる公知の装置と方法は、一般に、ビデオカメラの視野の範囲内の参加者に対するかなりの負担によって特徴づけられる。このようなシステムには、一体化された腕カバーやグローブ、さらに容易に検出可能な部分や色、及び/又は発光ダイオード等の可視光源等の、参加者が着用を求められる追加装置が含まれる場合もある。しかし、このようなシステムは、ビデオゲーム用コントローラに求められるような消費者用アイテムの市場要件を満たすための、使い易さ、迅速なレスポンス、単純さ等を備えたユーザー入力装置の供給を考慮するものではない。
【0004】
さらに、公知のシステムには、すでに存在しているマークとの比較などのような、生じている動きを理解したり認識したりするためのビデオ画像の追加的分析が含まれる。この分析によってシステムの複雑さと応答時間とが加わるため、公知のシステムは広く利用するには実際的なものではなくなっている。
【0005】
さらに、公知のシステムは、画像表示を制御する目的で出力信号を生成するためにかなり多数のセグメント、境界及び/又はボックスを認識し決定するように入力ビデオ画像プロセッサに要求することができるとはいえ、これらのシステムは、限られたセグメント/モーメントの最低限の初期測定値に基づいて制御信号の配列計算を行うものではなく、入力ビデオ解像度が低い場合とシステムとに適した単純でスムーズな方法で出力信号を生成するものでもない。
【0006】
したがって、表示画像上でのオブジェクトとのインタラクション用としてユーザービデオ画像入力を用いる現在のシステムは、出力画像表示で効率的な制御レベルを保ちながら、単純さと、応答性の良さと、求められる多くの市場性を有する性能とを一般に提供することができない。
【0007】
【発明が解決しようとする課題】
グラフィック画像とのインタラクション用にビデオ画像を用いるユーザー入力の現状の技術に関する上述の欠点を考慮して、単純な設計と方法論とを与え、しかも確固で効率的なインタラクションを提供するユーザー入力システム及び方法を提供することが本発明の目的である。
【0008】
いくつかのセグメント/モーメントだけの初期測定値から制御信号の配列計算を行うユーザー入力システムを提供することが本発明の実施例のさらなる目的である。
【0009】
消費者用エンタテインメント・システムと互換性のあるコンピュータ処理能力を必要とするユーザー入力システムを提供することが本発明の実施例のさらなる目的である。
【0010】
ビデオカメラの視野の範囲内のユーザーに負担をかけないユーザー入力システムを提供することが本発明の実施例のさらなる目的である。
【0011】
【課題を解決するための手段】
本発明は、ユーザー入力に応じて、表示画像(または、グラフィック画像)上でオブジェクトを動かす装置及び方法に関する。入力装置は、ビデオ画像をキャプチャする構成要素と、キャプチャされたビデオ画像を処理し、このビデオ画像から得られるモーションに応じて出力信号を生成する入力画像プロセッサと、入力画像プロセッサから受信された信号に応じて表示画像上でオブジェクトを動かすようにプログラムされた出力画像プロセッサとを有する。様々なアルゴリズムが入力画像プロセッサに用いられ、表示画像上でオブジェクトを動かすための初期データ及び派生データが決定される。好適な実施例では、背景から人間の形(姿)を分離するためにビデオ画像がキャプチャされ、処理され、その人間の形から腕等の位置と動きのデータが計算され、このデータに応じて、画像表示装置上で鳥等のオブジェクトの動きを制御するための信号が入力画像プロセッサで生成される。表示画像上で制御される動きは、動くオブジェクトの形態や、このようなオブジェクトが眺める(経験する)眺望や視界(例えば鳥の眼から見た視界)の変化という形態をとることができる。
【0012】
本発明の他の特徴と利点とは添付図面と以下の詳細な記述とから明らかとなる。
【0013】
【発明の実施の形態】
本発明の実施の形態は、添付図の図面の中で例として示されるものにすぎず、これらの例は本発明を限定するものではない。同様の参照符号は同様のエレメントを示す。
【0014】
以下、ユーザー入力に応じて、グラフィック画像上でオブジェクトを動かす(影響または作用を与える)装置及び方法を開示する。以下の説明では、説明を行う目的で、多数の具体的な細部が本発明の完全な理解を与えるために記述される。しかし、これらの具体的な細部がなくても本発明の実施が可能であることは、一般の当業者には明らかであろう。他の例では、説明を容易にするためにブロック図の形で周知の構造と装置とが示される。好適な実施例についての説明は、本明細書に添付の請求項の範囲の限定を意図するものではない。
【0015】
[ハードウェアの概観]
本発明の態様は、基本ビデオ画像処理の実行が可能で画像表示が可能な装置によって実現可能である。図1は、本発明の実施例を実現するために使用できる、表示画像上のオブジェクトとのインタラクション用の例示的ユーザー入力システムを示すブロック図である。図1に図示のように、ユーザー入力システム100は、ビデオ・キャプチャ装置102と、入力画像プロセッサ104と、出力画像プロセッサ106と、ビデオ表示装置108とから構成される。
【0016】
ビデオ・キャプチャ装置102は、一連のビデオ画像をキャプチャすることが可能なものであればいずれの装置であってもよく、本好適な実施例では、“ウェブ・カム(web-cam)”等のデジタルビデオカメラや、類似のキャプチャ装置である。入力画像プロセッサ104は、人間の腕のモーションがキャプチャされたビデオ画像を信号に変換し、この信号を出力画像プロセッサへ供給する。1つの実施例では、入力画像プロセッサ104は、キャプチャされたビデオ画像内の背景から人間の形を分離し、人間のトルソ(胴部分)から腕部分を分離し、人間の腕の位置と動きとを決定(測定または検出)し、人間の腕の位置及び/又は動きに応じて出力信号を生成するようにプログラムされる。出力画像プロセッサ106は、入力画像プロセッサ104から受信される信号に応じて、ビデオ表示装置108上のオブジェクトの平行移動及び/又は回転運動を起こすようにプログラムされる。
【0017】
本発明の上記の態様と追加の態様はソフトウェアの命令を実行する1以上のプロセッサによって実行することができる。本発明の1つの実施例に従って、単一プロセッサが入力画像処理と出力画像処理の双方を実行する。しかし、図に示されているように、また、説明の容易さのために、これらの処理操作は入力画像プロセッサ104と出力画像プロセッサ106との間で分けられるものとして示されている。本発明は、2つ以上のプロセッサのような、いずれかの特別のプロセッサ構成に限定されるものと解釈されるものでは決してないことに留意されたい。図1およびその他の図に示す多重処理ブロックは説明の便宜上示されているものにすぎない。
【0018】
図2は、本発明の実施例に従う、ディスプレイに表示されたグラフィック画像上のオブジェクトとのユーザー対話(相互作用:interaction)処理用入力システムを例示する。入力システム環境200には、ユーザー202と、ビデオ・キャプチャ装置204と、ビデオ表示装置206と、ビデオ・ゲーム・マシーン等のプロセッサ機能を含むコンソール208とが含まれる。入力システム環境200内のユーザー202は、ビデオ・キャプチャ装置204の視野210の範囲内に位置する。処理システム208は、Sony(登録商標)・プレイステーションTMIIまたはSony・プレイステーションTMIタイプ等の、処理システム及びコンピュータ・エンタテインメント・システムによって実現が可能である。このような実現例について、以下の好適な実施例のセクションでより詳細に説明する。しかし、処理システム208は、パーソナル・コンピュータ、ワークステーション、ラップトップ・コンピュータ、無線計算機、または他のタイプの計算機(グラフィック画像データを受信し、処理することができるもの)などからなる、他のタイプのコンピュータ・システムによっても実現可能であることに留意されたい。
【0019】
[画像処理方法]
図1及び図2のシステムは、ビデオ装置によってキャプチャされた人間の腕の位置・運動データを利用して、表示画像(モニタやスクリーン等に表示されたまたは表示するための画像)上でオブジェクトの平行移動及び/又は回転運動を起こす信号を生成する方法によって実現される。ユーザー202が動いたり、カメラ204の視野210の範囲内に自分の位置を定めたりするにつれて、表示装置206上の単数または複数のオブジェクトが対応して動いたり、位置が決められたりする。例えば、表示された背景場面に対して相対的に、カーソルまたはアニメーション・キャラクタを動かすためにユーザーの動きを利用することができる。好適な実施例では、このビデオ処理の方法論のステップは、(1)視野の範囲内の背景の差引き、(2)視野オブジェクトの決定、(3)腕/付属体(アペンデージ)の角度または位置の決定、(4)フライト・パラメータの決定の、各ステップとなる。
【0020】
[ステップ1:バックグラウンド差引き]
表示画像の動きを制御するために利用される人物や他のオブジェクトが視野210の中にあるとき、人物の画像がデジタルカメラ204によってキャプチャされ、プロセッサ・ユニット208における処理のためのピクセル・データが生成される。本発明の1つの実施例では、バックグラウンド差引きを利用して、人物(前景)または非人物(背景)のいずれかとしてピクセルごとに画像のラベリングを行う(ラベルが作成される)。このラベリングは、場面が人物を含まない場合には、ビデオ・シーケンスからフレームを格納することにより行われる。この格納されたフレームはライブのビデオ・シーケンスから差引きされ、差引きフィルタリング処理を用いて前景画像が作成される。この差引きを行う方法に関していくつかのバリエーションが存在する。1つの実施例では、重み付けされた輝度の合計(weighted sum)と色差に対する単純な閾値処理方式を用いてピクセルが前景にあるか背景にあるかが判定される。基本処理は以下のようになる。すなわち、第1に、静止背景のフレームY0,U0,V0を取得し;第2に、5×5マトリクスのガウスコンボリューション(Gaussian convolution)を用いてY0,U0,V0を平滑化し;第3に、現在のビデオ・フレームY,U,Vを取得し;第4に、5×5マトリクスのガウスコンボリューションを用いてY,U,Vを平滑化し;第5に、Y内の各ピクセルについて、Ydif=abs(Y−Y0)を計算し;第6に、U内の各ピクセルについて、Udif=abs(U−U0)を計算し;第7に、V内の各ピクセルについて、Vdif=abs(V−V0)を計算し;第8に、Ydif,Udif,Vdif内の各ピクセルについて、Sum=Ydif+Udif*8+Vdif*8を計算し;第9に、Sumの各ピクセルについて、Sum>Threshold(閾値)ならばForeground(前景)=1、そうでない場合にはForeground=0と計算し;第10に、標準収縮モルフォロジー・フィルタ(standard erosion morphological filter)を用いてForegroundを収縮する(この収縮処理は、白黒(salt-and-pepper)ノイズによって生じるような単一ピクセル・エラー測定値を取り除くために行う)。一般に、上述の第3から第10のステップだけがビデオ・フレーム毎に反復される。上述の処理では、Yはピクセルの輝度を表し、UとVはピクセルの色差を表す。なお、式[abs(数値)]からは、数値の絶対値が得られる。
【0021】
[ステップ2:視野内人物の決定]
次のステップは、人物がビデオ・キャプチャ装置の視野内に存在するか否かを判定するステップである。このステップによって、画像表示アプリケーションを駆動するためにユーザーのビデオ画像処理を利用するか否かが判定される。このステップは、前景画像内のノンゼロ・ピクセル(ゼロでない値を有する画素)の総数をカウントするステップと、その総計が最小閾値と最大閾値の間に在ることを確認するステップとから構成される。最小閾値は、静止背景と現在のビデオ・フレーム間に何らかの違いが存在することの確認に用いられる。最大閾値はこの違いが大きすぎないことの確認に用いられる。この大きすぎる違いは、例えば、人物がカメラ画像を完全にブロックしている場合や、格納された背景フレームの初期化を忘れた場合に生じることもある。
【0022】
[ステップ3:腕の角度の決定]
本発明の1つの実施例では、表示装置上に表示された画像オブジェクトの動きまたは位置は、視野内の人物の腕及び/又は脚(すなわち、身体の一部)の動きまたは位置によって作用される。この処理は一般に、分離された前景画像の領域統計値(area statistics)の計算によって行われる。図3は、本発明の1つの実施例に従う、腕の角度を決定するための左右の腕のサブイメージへの分割処理を示す、前景(人物)画像の例示図である。前景画像302は、人物のトルソ(胴体)部分300と、左腕のサブイメージ306と、右腕のサブイメージ304を含む。まず、図3でわかるように、胴体部分の水平方向への大きさである、トルソの水平範囲“W”は、前景画像内のノンゼロ・ピクセルの重心(中心:Centroid)と二次水平モーメント(SecondMoment)との計算により決定される。
1.TorsoStartX=CentroidX−sqrt(SecondMomentX)
2.TorsoEndX=CentroidX+sqrt(SecondMomentX)
但し、TorsoStartXはトルソ部分300の左側を通って下りるラインとして示され、TorsoEndXはトルソ部分300の右側を通って下りるラインとして示される。式[sqrt(数値)]からは、数値の平方根が得られる。
【0023】
次に、左腕の角度を決定するためにTorsoStartXの左側のサブイメージ306が処理される。このサブイメージ内のノンゼロ・ピクセルの主モーメントの角度が計算される。この角度は0〜180度の範囲をとることができ、この範囲は左腕の動きの範囲として考慮されるものである。TorsoEndXの右側のサブイメージ304も同様に処理される。主軸モーメントの角度は、ピクセルに最も適合するラインの勾配として求めたものと考えることができる。主軸モーメントの角度を求める技術は、画像処理および動的モデリングを行う際の標準技術である。このような技術は、例えば、テキストブック「材料力学(Mechanics of Materials)」(ティモシェンコ(Timoshenko)、ギア(Gere)共著、1997年)中の記載から知ることができるであろう。
【0024】
[ステップ4:フライト・パラメータ決定]
ユーザーの位置と、ユーザーの腕の動きの速度及びタイプに関する特性が、画像表示装置上に表示される図画要素を動かすために利用される。例えば、風景の上空を飛行するゲーム・キャラクタが現れるフライト・ゲーム(フライト・シミュレーション・ゲーム)中において、そのキャラクタのモーションを制御するためにユーザーの動きを利用することができる。
【0025】
フライト・ゲームに付随するパラメータに関しては、フライト・シミュレーション・プログラムにおいて利用される対気速度の加速度(Accel)、旋回の際の機体の左右の傾きを表すバンク角(横傾斜角:BankAngle)、及び機首の上下の程度を表すピッチ角(縦傾斜角:PitchAngle)を計算するために、各ユーザー(人物)の、胴部分に対する腕の角度が処理される。バンク角は2つの腕の角度(左腕の角度(LeftAngle)及び右腕の角度(RightAngle))の有符号差分値から計算される。ピッチ角は、2つの腕の角度の平均値から90度を減算することによって計算される。したがって、まっすぐ伸ばした腕はゼロ・ピッチ角を表す。次いで、このピッチ角は、「0.1」でスケール・ダウンされる(−90°から90°のピッチでは大きすぎる)。対気速加速度は、腕の角度の平均値の時間変化率として計算される(適切な値となるように定められる)。この時間変化率は、さらに平滑な信号を生成するために数フレームにわたって計算される。
【0026】
一般に、計算されるパラメータの全ては、グラフィック表示画像の生成に用いられる前に平滑化される。この平滑化によって、若干のタイムラグが加わるがしかし、途切れ途切れになる(時間遅延になる)ことの少ないビデオ表示が得られる。この平滑化は、ビデオ・キャプチャ装置または処理システムが低解像度処理しかできない場合に特に望ましい。
【0027】
1つの実施例では、フライト・シミュレータまたは類似のフライト・プログラムで利用されるグラフィック処理用変数を生成するための様々なパラメータの計算は、以下のように行われる。
1.BankAngle=LeftAngle−RightAngle
2.PitchAngle=(((LeftAngle+RightAngle)/2.0)−90)*0.1
3.Accel=abs((LeftAngle+RightAngle)−(LeftAnglePrev+RightAnglePrev))*K
4.以下のように平滑化計算が行われる:
BankAngleSmooth=k1*BankAngle+(1−k1)*BankAngleSmooth
PitchAngleSmooth=k2*PitchAngle+(1−k2)*PitchAngleSmooth
AccelSmooth=k3*Accel+(1−k3)*AccelSmooth
なお、添字Prevは、その値が先の(過去の)値であることを示しており、実際には、例えば過去の(または直前の)フレームから得られた値を示している。また、添字Smoothは、その値が平滑化後の値であることを示している。前記4式は、プログラム的に記載されているが、この式の内容をより明確にするために、右辺の「BankAngleSmooth」、「PitchAngleSmooth」及び「AccelSmooth」を、それぞれ過去の平滑化値を表す「BankAngleSmoothPrev」、「PitchAngleSmoothPrev」及び「AccelSmoothPrev」と記載するようにしてもよい。
【0028】
これらの平滑化された量がシミュレーション用に使用される。前記3式中の「K」は、定数を表す。この定数Kは、ユーザーに与えられる実際の加速度に基づいて変更される。また、定数k1、k2、k3は、表示オブジェクトのレスポンス(応答)特性を規定する。このことは、ユーザーの動きと表示オブジェクトの動きとの相関性をカスタマイズすることで、様々な経験(例えば、ゲームの体験)を得ること可能とする。例えば、フライト・シミュレータ・プログラムにおいて、様々なタイプの飛行機や飛行物体に関連する様々な特性を選択しまたは決定するように前記定数をプログラムすることができ、これによって様々なシミュレーションを経験することが可能になる。例えば、これらの定数の設定のし方によって、ジェット機の感覚をシミュレートすることや、ハンググライダーの感覚をシミュレートすることができる。
【0029】
図4は、本発明の1つの実施例における、上述の方法論に従う、ユーザーの腕の動きに応じて表示装置上のオブジェクトを動かすステップを例示するフローチャートである。図4のフローチャート400の最初の2つのステップは、バックグラウンド差引きのステップを有する。ステップ404で、キャプチャされた人物を含まないビデオ画像が格納され、ステップ406で、この格納されたビデオ画像がライブ(生または現在)のビデオ・シーケンスから差引きされる。次に、人物がデジタルカメラの視野の範囲内にいるかどうかが判定される(ステップ408)。ステップ410は、アーム角度決定ステップの第1の部分である、トルソの水平範囲を決定するステップで構成される。ステップ412では、各アーム角度が決定される。この角度の決定は、各腕のサブイメージの主モーメントの角度を計算することにより行われる。
【0030】
この好適な実施例では、フライト・パラメータ決定ステップは、図4の最後の3つのステップで構成される。第1に、ステップ414で、上記列挙したものと同じ数式を用いて腕の角度を処理してフライト・パラメータの計算を行う。第2に、ステップ416で、特定のフライト経験(例えばジェット機、グライダーなど)用として選択される定数を含む関数を用いてこれらの量が平滑化される。最後に、ステップ418で、これらの平滑化されたパラメータは、表示画像上でオブジェクトの平行移動及び/又は回転運動を起こすためにフライト・シミュレーションで使用される。
【0031】
本発明の代替実施例によれば、単に表示画像上のオブジェクトの動きに影響を与えるためだけでなく、公知の電気通信システム内で利用するために信号が生成される。本実施例は、人間の腕の位置及び/又は運動データに応じて信号を生成する方法として記述することができる。すなわち、該方法は、イメージ・プロセッサとビデオ画像をキャプチャする装置とを提供するステップと、該装置を用いてビデオ画像をキャプチャし、且つ、該イメージ・プロセッサを利用してそれらの画像を処理することにより背景から人体部分(人間の形の部分)を分離するステップと、該イメージ・プロセッサを用いて、キャプチャされたビデオ画像(または、分離された人体の画像)から人体の腕の部分を分離するステップと、該イメージ・プロセッサを用いて腕の位置と運動のデータを計算するステップと、該イメージ・プロセッサを用いて、腕の位置と運動のデータに応じて信号を生成するステップとを有する。
【0032】
[グラフィック入力および処理機能]
本好適な実施例では、ユーザーの腕のアクションがビデオ・キャプチャ装置によってキャプチャされ、それに対応するアクションが、表示画像上に現れる鳥(飛行生物)のキャラクタのモーションに変換される。代表的な腕のアクションと、それらと鳥の動きとの相関関係が図5〜図9に例示されている。図5は、本発明の1つの実施例に従う、ユーザーの腕の羽ばたき動作と、表示画像上における鳥の上昇動作との相関関係を例示する。図5に図示のように、相関システム500には、左腕504と右腕506とを有し、これらの腕を図中の2方向の矢印508で示すように羽ばたかせているユーザー502が図示されている。このアクションは、対応する表示画像510上における景観516との関係において、矢印514で示すように上昇する鳥512の動作と相関する。
【0033】
図6は、本発明の1つの実施例に従う、自分の腕をまっすぐ伸ばした状態に保つユーザーの動作と、表示画像上で滑空(ソアリング)する鳥の動作との相関関係を例示する。図6に図示のように、相関システム600には、左腕604と右腕606とを有し、これらの腕を水平の矢印608で示すようにまっすぐに伸ばした状態に保つユーザー602が例示されている。このアクションは、対応する表示画像610上における景観616との関係において、水平な飛翔針路で例示されているような鳥612の滑翔動作と相関する。
【0034】
図7は、本発明の1つの実施例に従う、自分の腕を左へ傾けるユーザーと、表示画像上で左へ傾いて飛んでいる鳥との相関関係を例示する。図7に図示のように、相関システム700には、左腕704と右腕706とを有し、下向きの矢印708と上向きの矢印710によって例示されているように、左腕704が右腕706より低くなるように位置させているユーザー702の動作が図示されている。このアクションは、対応する表示画像714上における景観716との関係において、正の勾配を有する鳥の体の軸線によって例示されているように左へ傾いて飛んでいる鳥712の動作と相関する。
【0035】
図8は、本発明の1つの実施例に従う、自分の腕を右側へ傾けるユーザーの動作と、表示画像上で右へ傾いて飛んでいる鳥の動作との相関関係を例示する。図8に図示のように、相関システム800には、左腕804と右腕806とを有し、上向きの矢印808と下向きの矢印810とによって例示されているように、左腕804の方を右腕806より高くなるように位置させているユーザー802の動作が図示されている。このアクションは、対応する表示画像812上における景観818との関係において、負の勾配を持つ鳥の体の軸線によって例示されているように右へ傾いて飛んでいる鳥814の動作と相関する。
【0036】
図9は、本発明の1つの実施例に従う、自分の腕を後へしまい込む(タックする)ユーザーの動作と、表示画像上で下降している鳥の動作との相関関係を例示する。図9に図示のように、相関システム900には、左腕904と右腕906とを有し、これらの腕を、下向き矢印908によって例示されているように後へタックするように位置させている、ユーザー902の動作が示されている。このアクションは、対応する表示画像910上における景観916との関係において、矢印914によって例示されているように下降する鳥912の動作と相関する。
【0037】
上記好適な実施例では、本発明のユーザー入力装置及び方法は、図10のブロック図によって例示されているコンピュータ処理システムによって実現される。この処理システムは、メイン・メモリ1002とグラフィック処理ユニット(GPU)1006とに接続される中央演算処理装置(CPU)1004を含むコンピュータベースのエンタテインメント・システムの実施例を表している。CPU1004は入出力用プロセッサ(IOP)バス1008とも接続される。1つの実施例では、GPU1006はピクセルベースのグラフィック・データの高速処理用内部バッファを含む。さらに、GPUは、エンタテインメント・システム1000あるいはそのエレメントの外部に接続されたテレビ・モニタ1007へ送信するために、処理された画像データを規格テレビ信号(NTSCやPALなど)に変換する出力処理部または機能を含むことができる。上記とは別に、コンピュータ用モニターや、LCD(液晶表示)装置、あるいは、その他のタイプの表示装置のような、テレビ・モニタ以外の表示装置に対してデータ出力信号を出力することができる。
【0038】
IOPバス1008は、CPU1004を様々な入力/出力装置および他のバスや装置と接続する。IOPバス1008は、入出力用プロセッサ(IOP)・メモリ1010、コントローラ1012、メモリー・カード1014、ユニバーサル・シリアル・バス(USB)ポート1016、IEEE1394(Firewireインターフェースとしても知られている)ポート1018、バス1030と接続される。バス1030は、オペレーティング・システム(OS)ROM1020、フラッシュ・メモリ1022、音声処理ユニット(SPU)1024、光ディスク制御ユニット1026、ハードディスク・ドライブ(HDD)1028を含むいくつかの他のシステム構成要素をCPU1004と接続する。この実施例の1つの態様では、ビデオ・キャプチャ装置は、CPU1004への送信用として使用されるIOPバス1008と直接接続されてもよい。このIOPバスの中で、ビデオ・キャプチャ装置から得られるデータを用いてGPU1006内にグラフィック画像の生成用として使用される値を変更または更新することが可能である。さらに、本発明の実施例は、「アウトライン生成データ、生成方法及び装置」という表題の米国特許出願09/573,105(2000年5月17日出願)に記載のような種々の画像処理構成と技術とを利用することができる。該特許出願はその全体が本明細書に参考文献として取り入れられている。
【0039】
いくつかの異なる方法によって、本発明の態様を具現化するプログラムまたはコンピュータ命令を与えることができる。例えば、グラフィック画像との相互作用を与えるためのユーザー入力方法は、HDD1028、フラッシュ・メモリ1022、OSROM1020またはメモリー・カード1012に格納されたプログラムの形で提供することが可能である。上記とは別に、CPU1004と接続された1以上の入力ポートを通じて処理ユニット1000へプログラムをダウンロードすることができる。入力方法を定義するプログラム・モジュールを、CPU1004に実行され、表示装置1007上に表示されるゲームまたはアプリケーション・プログラムに設けることができる。あるいは、ローカルなメイン・メモリ1002から実行する場合のように、これらのプログラム・モジュールをアプリケーション・プログラムとは別に供給してもよい。
【0040】
本発明の実施例はまた、分散型画像処理構成についても考慮するものである。例えば、本発明は、キャプチャされた画像や表示画像の処理が、CPU内、または、CPUと他の1つのエレメント内で行われる場合のような、1つまたは2つの場所で行われる形態に限定されるものではない。例えば、入力画像処理は、処理の実行が可能な関連するCPU、プロセッサまたは装置内で容易に行うことが可能である。ほぼ全ての画像処理を相互接続システムを通じて分散することができる。したがって、本発明は、いずれの特定の画像処理用ハードウェア回路構成及び/又はソフトウェアにも限定されるものではない。本発明はまた、一般的ハードウェア回路構成及び/又はソフトウェアのいずれかの特定の組合せに限定されるものではなく、また、処理用構成要素によって実行される命令のいずれかの特定のソースに限定されるものでもない。
【0041】
[その他の実施例]
1つの実施例では、フライト・シミュレータのデモンストレーションに対して羽ばたき音を追加することが可能である。腕の角度の平均値の符号付き時間変化率がある特定の閾値を上回った場合、この羽ばたき音はトリガーされる。このトリガーは、ユーザーが自分の両腕を一緒に下ろしたときにのみ羽ばたき音につながる。羽ばたき音の音量はその振舞いによっても同様にスケールされる。したがって、羽ばたきモーションが誇張されればされるほど(すなわち、モーションが大きくなればなるほど)、大きな羽ばたき音が生成される。
【0042】
さらなる実施例にはデモンストレーションへの追加があり、この中では、腕の角度を利用して、鳥の羽ばたきを示す予め生成されたアニメーションへ変換する指標が与えられる。これらの腕の角度は、このアニメーションに変換する指標として用いられる。この実施例では、デモンストレーションは1人称の人物から見たもの、すなわち、飛行物体等のオブジェクトの視点に基づくものであってもよく、この場合、鳥のアニメーションは見えない。もっとも、風景上に日光によって投影されるような鳥の影を見ることはできる。
【0043】
ネットワーク・デモンストレーションでは、実際の鳥のアニメーションはプレイしている一方の人物のモーションに対応する。竜、鷲、鷹等のような、鳥の変形例のいくつかのアニメーションが存在してもよい。これらのアニメーションの各々に対してわずかに異なるフライト経験を与えるために上述の平滑化パラメータが提供される。例えば竜は大きくて動きが遅いのでグライダーのパラメータが用いられるが、鷹は小さくて素早いのでジェット戦闘機用パラメータが用いられる。
【0044】
当業者ならば理解できるように、本明細書に記載のグラフィック入力および処理方法のアプリケーションは、フライト・ゲームやシミュレータ以外の他のタイプのシミュレーションまたはプログラムに拡張可能である。例えば、ユーザーのモーションは、ドライブ用オブジェクトや走行(競争、滑走)用オブジェクトを含むビデオゲームや教育用プログラムの中で、あるいは、スキー、自転車競技、格闘、および類似のアクション等のユーザーのモーションを含む様々なスポーツゲームの中で、オブジェクトを制御するために利用することが可能である。
【0045】
さらに、本発明の実施例を、表示オブジェクトを動かすために利用されるユーザーの腕の動きに関して例示し、説明してきたが、ユーザーの脚や頭部あるいはユーザーが把持する物体の動きに基づいてグラフィック制御を行う類似の処理技術の利用も可能であることに留意されたい。
【0046】
本発明の実施例では、様々な後処理フィルタリングや、シャドウ効果、歪み、モーフィング効果等のような表示オブジェクトに対する特殊効果の、好適でかつ便利な手段を考慮することもできる。このような後処理フィルタリングや特殊効果は好適な追加であり、これらを用いて基本システムの単純さと効率性を活用することができる。
【0047】
以上、表示画像上でオブジェクトを動かすユーザー入力システムについて説明した。特定の例示実施例と関連して本発明を説明したとはいえ、請求項に記載のような本発明のさらに広い精神と範囲から逸脱することなくこれらの実施例に対して様々な改変や変更を行うことが可能であることは明らである。例えば、フライトと関連する出力を有するシステムまたはフライト・ゲーム以外のアプリケーションに本発明の実施例を拡張することが可能である。一般に、表示オブジェクトの動きまたは位置決めがユーザーの動きまたは位置決めによって制御される任意のグラフィック・ベースのアプリケーションを本明細書に記載の処理方法と関連して利用することが可能である。したがって、本明細書と図面とは限定的な意味ではなく例示的な意味で考慮されるべきものである。
【発明の効果】
本発明によれば、グラフィック画像とのインタラクション用にビデオ画像を用いるユーザー入力に関し、単純な設計と方法論とを与え、しかも確固で効率的なインタラクションを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施例を実現するために使用可能な、表示画像上でオブジェクトとインタラクションを行うための、例示的ユーザー入力システムを示すブロック図である。
【図2】本発明の1つの実施例に従う、表示画像上でオブジェクトとのインタラクションを行うためのユーザー入力システムを例示する。
【図3】本発明の1つの実施例に従う、腕の角度を決定するための、左右の腕のサブ画像への分割を示す人間の画像を例示する図である。
【図4】本発明の1つの実施例に従う、ユーザーの腕の動きに応じて、表示画像上でオブジェクトを動かすステップを例示するフローチャートである。
【図5】本発明の1つの実施例に従う、第1例のユーザー位置における、ユーザーの腕と表示画像上でのオブジェクトとの間の相関関係を例示する。
【図6】本発明の1つの実施例に従う、第2例のユーザー位置における、ユーザーの腕と表示画像上でのオブジェクトとの間の相関関係を例示する。
【図7】本発明の1つの実施例に従う、第3例のユーザー位置における、ユーザーの腕と表示画像上でのオブジェクトとの間の相関関係を例示する。
【図8】本発明の1つの実施例に従う、第4例のユーザー位置における、ユーザーの腕と表示画像上でのオブジェクトとの間の相関関係を例示する。
【図9】本発明の1つの実施例に従う、第5例のユーザー位置における、ユーザーの腕と表示画像上でのオブジェクトとの間の相関関係を例示する。
【図10】本発明の実施例に従うユーザー入力装置及び方法を実現する例示的処理システムのブロック図である。
【符号の説明】
100:ユーザー入力システム、102:ビデオ・キャプチャ装置、104:入力画像プロセッサ、106:出力画像プロセッサ、108:ビデオ表示装置、1000:エンタテインメント・システム(処理ユニット)、1002:メイン・メモリ、1004:CPU、1006:GPU、1007:テレビ・モニタ、1008:IOP、1010:IOPメモリ、1012:コントローラ、1014:メモリー・カード、1016:USBポート、1018:IEEE1394ポート、1020:OSROM、1022:フラッシュ・メモリ、1024:SPU、1026:光ディスク制御ユニット、1028:HDD、1030:バス

Claims (21)

  1. 表示画像上のオブジェクトの平行移動及び/又は回転運動に作用する信号を供給する入力装置において、
    ビデオ画像をキャプチャする装置と、
    キャプチャされた人間の腕等のモーションのビデオ画像を出力画像プロセッサに供給される出力信号に変換する入力画像プロセッサであって、
    (a)前記キャプチャされたビデオ画像内の背景から人間の形を分離し、
    (b)前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定し、
    (c)前記人間の形の胴部分の前記決定した水平方向の大きさを用いて、前記人間の形の腕等の部分の位置及びモーメントを決定し、
    (d)前記人間の形の腕等の部分の位置及び/又は動きに応じて出力信号を生成する、
    ようにプログラムされる入力画像プロセッサとを備え、
    前記出力画像プロセッサが、前記入力画像プロセッサから受信した前記出力信号に応じて、表示画像上のオブジェクトの平行移動及び/又は回転運動に作用を与えるようにプログラムされる、入力装置。
  2. 請求項1に記載の入力装置において、
    前記出力画像プロセッサが、飛行物体から見た視点に基づいて前記表示画像を変化させる、入力装置。
  3. 請求項1に記載の入力装置において、
    前記出力画像プロセッサが、前記入力画像プロセッサから出力される前記信号に応じた位置とモーションを持つ飛行物体の表示画像を生成する、入力装置。
  4. 人間の腕等の位置及び/又は運動データを用いて、表示画像上のオブジェクトの平行移動及び/又は回転運動に作用する信号を生成する方法において、
    イメージ・プロセッサと、ビデオ画像をキャプチャする装置とを提供するステップと、
    ビデオ画像をキャプチャし、それらのビデオ画像を処理することによって背景から人間の形を分離するステップと、
    前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定するステップと、
    前記人間の形の胴部分の前記決定した水平方向の大きさを用いて、前記人間の形の腕等の部分を分離するステップと、
    前記腕等の位置及び/又は運動データを計算するステップと、
    表示画像上のオブジェクトの平行移動及び/又は回転運動に作用させるための信号を、前記腕等の位置及び/又は運動データに応じて生成するステップと、を有する方法。
  5. 人間の腕等の位置及び/又は運動データを用いて信号を生成する方法において、
    イメージ・プロセッサと、ビデオ画像をキャプチャする装置とを提供するステップと、
    前記装置を用いてビデオ画像をキャプチャし、前記イメージ・プロセッサを用いてそれらのビデオ画像を処理して背景から人間の形を分離するステップと、
    前記イメージ・プロセッサを操作して前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定するステップと、
    前記イメージ・プロセッサを操作して前記人間の形の胴部分の前記決定した水平方向の大きさを用いて前記人間の形における腕等の部分を分離するステップと、
    前記イメージ・プロセッサを用いて、前記分離した前記腕等の位置及び/又は運動データを計算するステップと、
    前記イメージ・プロセッサを用いて、前記腕等の位置及び/又は運動データに応じた信号を生成するステップと、を有する方法。
  6. 人間の腕等の位置及び/又は運動データを用いて、表示画像上のオブジェクトの平行移動及び/又は回転運動に作用する信号を生成する方法において、
    イメージ・プロセッサと、ビデオ・シーケンスをキャプチャする装置とを提供するステップと、
    前記ビデオ・シーケンスから、人間の画像を含まない背景フレームをキャプチャするステップと、
    前記ビデオ・シーケンスと前記背景フレームとに対してアルゴリズムを実行することにより、前景画像を分離するステップと、
    前記分離された画像が人間の形の画像を含むかどうかを判定するステップと、
    前記キャプチャされた各ビデオ・フレームにおいて前記人間の形の腕等の部分を分離するために、前記人間の形の胴部分の水平方向の大きさを決定するステップであって、前記人間の形の胴部分の水平方向の大きさの決定が、前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって実行されるステップと、
    前記人間の形の腕等の部分を画定するノンゼロ・ピクセルの主軸モーメントの角度を計算することにより前記腕等の部分の角度を計算するステップと、
    表示画像上のオブジェクトの平行移動及び/又は回転運動に作用させるために前記腕等の角度に応じて前記腕等の位置データ信号を生成するステップと、を有する方法。
  7. 請求項6に記載の方法において、
    前記分離された画像が人間の形の画像を含むかどうかを判定するステップが、
    前記前景画像内のノンゼロ・ピクセルの総数をカウントするステップと、
    前記ノンゼロ・ピクセルの総数が、ピクセルの最小及び最大の閾値で規定される範囲内に入ることを保証するステップと、を有する方法。
  8. 請求項6に記載の方法において、
    前記前景画像を分離するステップで用いる前記アルゴリズムが、前記ビデオ・シーケンス内の個々のフレームから、前記背景フレームを差引きするステップを含む、方法。
  9. 請求項6に記載の方法において、
    前記前景画像を分離するステップで用いられるアルゴリズムでは、
    (a)静止背景フレームY0,U0,V0を取得し、
    (b)5×5マトリクスのガウスコンボリューションを用いてY0,U0,V0を平滑化し、
    (c)現在のビデオ・フレームY,U,Vを取得し、
    (d)5×5マトリクスのガウスコンボリューションを用いてY,U,Vを平滑化し、
    (e)ピクセルについて、Ydif=abs(Y−Y0)を計算し、
    (f)ピクセルについて、Udif=abs(U−U0)を計算し、
    (g)ピクセルについて、Vdif=abs(V−V0)を計算し、
    (h)Ydif,Udif,Vdifに関する各ピクセルについて、Sum=Ydif+Udif*8+Vdif*8を計算し、
    (i)Sumの各ピクセルについて、Sum>所定の閾値ならば前景=1、そうでない場合には前景=0と計算し、
    (j)標準的収縮モルフォロジー・フィルタを用いて前景を収縮させ、これによって白黒ノイズによって生じるような任意の単一ピクセル・エラー測定値を除去し、
    ここで、Yが輝度を表し、U及びVが色差を表す、方法。
  10. 請求項6に記載の方法において、
    前記生成ステップで生成される前記腕等の位置及び/又は運動データ信号が、オブジェクトの対気速度の加速度、バンク角、および、ピッチ角と関連する信号から成るグループの中から選択される、方法。
  11. 請求項6に記載の方法において、
    前記生成ステップで生成される前記腕等の位置及び/又は運動データ信号が、平滑化のための所定の定数を用いて求められる、方法。
  12. 平行移動及び/又は回転運動に作用する人間の腕等の位置データを用いてフライト・シミュレータ表示画像で使用する信号を生成する方法において、
    ビデオ画像をキャプチャする装置とイメージ・プロセッサとを提供するステップと、
    前記装置を用いてビデオ画像をキャプチャし、前記イメージ・プロセッサを利用して該ビデオ画像を処理して背景から人間の形を分離するステップと、
    前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定するステップと、
    前記イメージ・プロセッサを用いて、前記人間の形の胴部分の前記決定した水平方向の大きさを用いて、前記キャプチャされたビデオ画像から前記人間の形における腕等の部分を分離するステップと、
    前記イメージ・プロセッサを用いて、前記腕等の位置及び/又は運動データを計算するステップと、
    フライト・シミュレータ表示画像の状態を生成する際に用いる前記イメージ・プロセッサを用いて、前記腕等の位置及び/又は運動データに応じた信号を生成するステップと、を有する方法。
  13. 請求項12に記載の方法において、
    前記フライト・シミュレータ表示画像が、オブジェクトとして、羽を動かす飛行生物を含む、方法。
  14. 請求項12に記載の方法において、
    前記フライト・シミュレータ表示画像に、飛行生物の視点から見たときの変化が描かれる、方法。
  15. 請求項13に記載の方法において、
    前記飛行生物の羽の動きに対応して羽ばたき音を生成するステップを含む、方法。
  16. 請求項15に記載の方法において、
    キャプチャされた前記腕等のモーションが大きくなるのに伴って、前記羽ばたき音の音量が増える、方法。
  17. 請求項15に記載の方法において、
    前記腕等の角度の平均値の時間的変化率が所定の閾値を上回った場合に、前記羽ばたき音がトリガーされる、方法。
  18. 計算機によって実行可能な命令プログラムが記録された記録媒体であって、前記命令プログラムが、
    ビデオ画像をキャプチャし、それらのビデオ画像を処理することによって背景から人間の形を分離する命令と、
    前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定する命令と、
    前記人間の形の胴部分の前記決定した水平方向の大きさを用いて前記人間の形における腕等の部分を分離する命令と、
    前記腕等の位置及び/又は運動データを計算する命令と、
    表示画像上のオブジェクトの平行移動及び/又は回転運動に作用を与えるための、前記腕等の位置及び/又は運動データに応じた信号を生成する命令とを含む記録媒体
  19. 請求項18に記載の記録媒体において、
    前記命令プログラムによって生成された前記信号を用いて、フライト・シミュレータ表示画像の状態を生成する、記録媒体
  20. 計算機によって実行可能な命令プログラムが記録された記録媒体であって、前記命令プログラムが、
    装置を用いてビデオ画像をキャプチャし、イメージ・プロセッサを用いてそれらのビデオ画像を処理して背景から人間の形を分離する命令と、
    前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって前記人間の形の胴部分の水平方向の大きさを決定する命令と、
    前記人間の形の胴部分の前記決定した水平方向の大きさを用いて前記人間の形における腕等の部分を分離する命令と、
    前記イメージ・プロセッサを用いて、前記腕等の位置及び/又は運動データを計算する命令と、
    前記イメージ・プロセッサを用いて、前記腕等の位置及び/又は運動データに応じた信号を生成する命令とを含む記録媒体
  21. 計算機によって実行可能な命令プログラムが記録された記録媒体であって、前記命令プログラムが、
    ビデオ・シーケンスから、人間の画像を含まない背景フレームをキャプチャする命令と、
    前記ビデオ・シーケンスと前記背景フレームとに対してアルゴリズムを実行することにより、前景画像を分離する命令と、
    前記分離された前景画像が人間の形の画像を含むかどうかを判定する命令と、
    キャプチャされたビデオ・シーケンスのフレームにおいて前記人間の形の腕等の部分を分離するために、前記人間の形の胴部分の水平方向の大きさを決定する命令であって、前記人間の形の胴部分の水平方向の大きさの決定が、前記人間の形を画定するノンゼロ・ピクセルの重心及び二次水平モーメントを計算することによって実行される命令と、
    前記人間の形の前記分離された腕等の部分におけるノンゼロ・ピクセルの主軸モーメントの角度を計算することにより前記腕等の角度を計算する命令と、
    表示画像上のオブジェクトの平行移動及び/又は回転運動に作用させるために前記腕等の角度に応じて前記腕等の位置及び/又は運動データ信号を生成する命令とを含む記録媒体
JP2001265151A 2000-09-01 2001-08-31 表示画像上のオブジェクトの平行移動及び回転運動に作用する信号を供給する入力装置及び方法 Expired - Fee Related JP3733587B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/654,141 US7071914B1 (en) 2000-09-01 2000-09-01 User input device and method for interaction with graphic images
US09/654141 2000-09-01

Publications (2)

Publication Number Publication Date
JP2002189545A JP2002189545A (ja) 2002-07-05
JP3733587B2 true JP3733587B2 (ja) 2006-01-11

Family

ID=24623598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001265151A Expired - Fee Related JP3733587B2 (ja) 2000-09-01 2001-08-31 表示画像上のオブジェクトの平行移動及び回転運動に作用する信号を供給する入力装置及び方法

Country Status (6)

Country Link
US (1) US7071914B1 (ja)
EP (2) EP2405419A2 (ja)
JP (1) JP3733587B2 (ja)
KR (1) KR100678373B1 (ja)
CN (1) CN1244087C (ja)
WO (1) WO2002019310A1 (ja)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6358235B1 (en) * 1998-07-29 2002-03-19 The Procter & Gamble Company Soft conformable hollow bag tampon
JP2008023359A (ja) * 2002-05-08 2008-02-07 Konami Digital Entertainment:Kk ゲーム装置
WO2003095048A1 (fr) * 2002-05-08 2003-11-20 Konami Corporation Dispositif de jeu
US20030218537A1 (en) * 2002-05-21 2003-11-27 Lightspace Corporation Interactive modular system
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7809145B2 (en) * 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
KR100580174B1 (ko) * 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
WO2005084209A2 (en) * 2004-02-27 2005-09-15 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4433948B2 (ja) * 2004-09-02 2010-03-17 株式会社セガ 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US8842186B2 (en) * 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
JP4244919B2 (ja) * 2004-12-14 2009-03-25 ソニー株式会社 情報処理装置および方法、プログラム、並びに情報処理システム
US7620266B2 (en) * 2005-01-20 2009-11-17 International Business Machines Corporation Robust and efficient foreground analysis for real-time video surveillance
KR100678900B1 (ko) * 2005-01-26 2007-02-05 삼성전자주식회사 그래픽 객체를 동시에 디스플레이 하는 장치 및 방법
US20090191967A1 (en) * 2005-02-17 2009-07-30 Ssd Company Limited Game apparatus and controller
US20080191864A1 (en) * 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
TWI258682B (en) * 2005-05-06 2006-07-21 Sunplus Technology Co Ltd Interactive video game system
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US8549442B2 (en) 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
JP4795087B2 (ja) * 2006-04-14 2011-10-19 任天堂株式会社 ゲーム装置およびゲームプログラム
US7570250B2 (en) * 2006-05-04 2009-08-04 Yi-Ming Tseng Control device including a ball that stores data
JP2007301039A (ja) * 2006-05-09 2007-11-22 Nintendo Co Ltd ゲームプログラム及びゲーム装置
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8519979B1 (en) * 2006-12-29 2013-08-27 The Mathworks, Inc. Multi-point interface for a graphical modeling environment
EP2126778A4 (en) * 2007-01-22 2013-01-09 Bell Helicopter Textron Inc SYSTEM AND METHOD FOR CONTROLLING A VIRTUAL ENVIRONMENT BY A PERSON ACTING IN THIS VIRTUAL ENVIRONMENT
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
WO2008157477A2 (en) 2007-06-14 2008-12-24 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
CN101399897B (zh) * 2007-09-30 2010-12-29 宏达国际电子股份有限公司 图像处理方法
US8122356B2 (en) * 2007-10-03 2012-02-21 Eastman Kodak Company Method for image animation using image value rules
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US8840470B2 (en) 2008-02-27 2014-09-23 Sony Computer Entertainment America Llc Methods for capturing depth data of a scene and applying computer actions
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
WO2010006054A1 (en) 2008-07-08 2010-01-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock and band experience
US8447421B2 (en) * 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8290604B2 (en) * 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
JP5247389B2 (ja) * 2008-12-01 2013-07-24 富士通テン株式会社 ディスプレイ装置
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
KR101021356B1 (ko) * 2009-08-05 2011-03-14 주식회사 엔씨소프트 게임 캐릭터의 움직임 제어장치 및 그 방법
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US8702485B2 (en) 2010-06-11 2014-04-22 Harmonix Music Systems, Inc. Dance game and tutorial
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
JP5307060B2 (ja) * 2010-03-12 2013-10-02 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法、ならびに、プログラム
US8636572B2 (en) 2010-03-16 2014-01-28 Harmonix Music Systems, Inc. Simulating musical instruments
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
EP2593847A4 (en) * 2010-07-15 2017-03-15 Hewlett-Packard Development Company, L.P. First response and second response
US9075434B2 (en) * 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
JP2012068713A (ja) 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US8504487B2 (en) 2010-09-21 2013-08-06 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
WO2012058782A1 (en) * 2010-11-01 2012-05-10 Technicolor(China) Technology Co., Ltd Method and device for detecting gesture inputs
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US20130100015A1 (en) * 2011-10-25 2013-04-25 Kenneth Edward Salsman Optical input devices
US9033795B2 (en) * 2012-02-07 2015-05-19 Krew Game Studios LLC Interactive music game
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
JP5579293B2 (ja) * 2013-03-07 2014-08-27 富士通テン株式会社 ディスプレイ装置
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US10168873B1 (en) 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
US9751019B2 (en) * 2013-12-18 2017-09-05 Activision Publishing, Inc. Input methods and devices for music-based video games
US10441876B2 (en) * 2013-12-20 2019-10-15 Activision Publishing, Inc. Video game integrating recorded video
US9118888B1 (en) * 2014-03-14 2015-08-25 Tribune Broadcasting Company, Llc News production system with integrated display
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
JP7140465B2 (ja) * 2016-06-10 2022-09-21 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、ゲーム処理方法
US11467572B2 (en) 2016-07-29 2022-10-11 NEC Solution Innovations, Ltd. Moving object operation system, operation signal transmission system, moving object operation method, program, and recording medium
CN109564428B (zh) * 2016-07-29 2022-05-31 日本电气方案创新株式会社 移动物体操作系统、操作信号发送系统、移动物体操作方法、程序和记录介质
CN106569602B (zh) * 2016-10-27 2020-05-19 腾讯科技(深圳)有限公司 行为数据的交互方法和装置
US10653957B2 (en) 2017-12-06 2020-05-19 Universal City Studios Llc Interactive video game system
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN111986070B (zh) * 2020-07-10 2021-04-06 中国人民解放军战略支援部队航天工程大学 基于gpu的vdif格式数据异构并行编帧方法
US11726553B2 (en) 2021-07-20 2023-08-15 Sony Interactive Entertainment LLC Movement-based navigation
US11786816B2 (en) 2021-07-30 2023-10-17 Sony Interactive Entertainment LLC Sharing movement data
US20230051703A1 (en) * 2021-08-16 2023-02-16 Sony Interactive Entertainment LLC Gesture-Based Skill Search

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3943277A (en) 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
US4133004A (en) 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
US4448200A (en) 1978-03-27 1984-05-15 University Of Southern California System and method for dynamic background subtraction
IL69327A (en) 1983-07-26 1986-11-30 Elscint Ltd Automatic misregistration correction
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US5034986A (en) 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
JPH04123122A (ja) 1990-09-13 1992-04-23 Sony Corp 入力装置
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5680487A (en) 1991-12-23 1997-10-21 Texas Instruments Incorporated System and method for determining optical flow
US5450504A (en) 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
FR2714502A1 (fr) 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
US5611000A (en) 1994-02-22 1997-03-11 Digital Equipment Corporation Spline-based image registration
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
GB2295936B (en) 1994-12-05 1997-02-05 Microsoft Corp Progressive image transmission using discrete wavelet transforms
US5704836A (en) * 1995-03-23 1998-01-06 Perception Systems, Inc. Motion-based command generation technology
JP3777650B2 (ja) 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5805745A (en) 1995-06-26 1998-09-08 Lucent Technologies Inc. Method for locating a subject's lips in a facial image
US5784175A (en) 1995-10-05 1998-07-21 Microsoft Corporation Pixel block correlation process
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US5963209A (en) 1996-01-11 1999-10-05 Microsoft Corporation Encoding and progressive transmission of progressive meshes
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5805170A (en) 1996-05-07 1998-09-08 Microsoft Corporation Systems and methods for wrapping a closed polygon around an object
US6104412A (en) * 1996-08-21 2000-08-15 Nippon Telegraph And Telephone Corporation Method for generating animations of a multi-articulated structure, recording medium having recorded thereon the same and animation generating apparatus using the same
US6121953A (en) 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US5990901A (en) 1997-06-27 1999-11-23 Microsoft Corporation Model based image editing and correction
US6049636A (en) 1997-06-27 2000-04-11 Microsoft Corporation Determining a rectangular box encompassing a digital picture within a digital image
US6018349A (en) 1997-08-01 2000-01-25 Microsoft Corporation Patch-based alignment method and apparatus for construction of image mosaics
US6009190A (en) 1997-08-01 1999-12-28 Microsoft Corporation Texture map construction method and apparatus for displaying panoramic image mosaics
US6044181A (en) 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
US5987164A (en) 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US5986668A (en) 1997-08-01 1999-11-16 Microsoft Corporation Deghosting method and apparatus for construction of image mosaics
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6031934A (en) 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US5905894A (en) 1997-10-29 1999-05-18 Microsoft Corporation Meta-programming methods and apparatus
JP2000033184A (ja) * 1998-05-14 2000-02-02 Masanobu Kujirada 全身動作入力型のゲ―ム及びイベント装置
JP4282112B2 (ja) 1998-06-29 2009-06-17 株式会社東芝 仮想物体制御方法および仮想物体制御装置および記録媒体
US20030137486A1 (en) * 1998-12-11 2003-07-24 Alexis Wilke Method and apparatus for locating a pointing elements within a digital image

Also Published As

Publication number Publication date
KR20020064789A (ko) 2002-08-09
US7071914B1 (en) 2006-07-04
KR100678373B1 (ko) 2007-02-05
WO2002019310A1 (en) 2002-03-07
EP1314150A4 (en) 2010-10-20
CN1394325A (zh) 2003-01-29
JP2002189545A (ja) 2002-07-05
CN1244087C (zh) 2006-03-01
EP2405419A2 (en) 2012-01-11
EP1314150A1 (en) 2003-05-28

Similar Documents

Publication Publication Date Title
JP3733587B2 (ja) 表示画像上のオブジェクトの平行移動及び回転運動に作用する信号を供給する入力装置及び方法
CN107154069B (zh) 一种基于虚拟角色的数据处理方法及系统
TWI469813B (zh) 在動作擷取系統中追踪使用者群組
CN105654537B (zh) 一种实现与虚拟角色实时互动的表情克隆方法及装置
JP5782440B2 (ja) 視覚表示の自動生成方法及びシステム
US20080215974A1 (en) Interactive user controlled avatar animations
US20090202114A1 (en) Live-Action Image Capture
KR20110139223A (ko) 애니메이션을 체이닝하는 방법 및 애니메이션 블렌딩 장치
EP2118840A1 (en) Interactive user controlled avatar animations
KR20130080442A (ko) 표정의 실시간 애니메이션화
CN105144240B (zh) 使用深度图像的用户质心和质量分布提取
TWI854208B (zh) 用於擷取臉部表情且產生網格資料之人工智慧
WO2008106197A1 (en) Interactive user controlled avatar animations
CN103207667A (zh) 一种人机互动的控制方法及其运用
US20070257921A1 (en) Inertial Field Generator: A Method For Controllably Coupling Kinematic Character Motions to Dynamically Simulated Elements
CN117475068A (zh) 模型数据的处理方法和装置、存储介质及电子设备
JP4161613B2 (ja) 画像処理方法
TWI814318B (zh) 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法
CN115586832A (zh) 一种基于脑机接口的虚拟现实重量感知方法
US11443471B2 (en) Animation production method
CN110097644B (zh) 一种基于混合现实的表情迁移方法、装置、系统和处理器
US8896607B1 (en) Inverse kinematics for rigged deformable characters
Jain Attention-guided algorithms to retarget and augment animations, stills, and videos
EP2494523A1 (en) Motion detection method, program, and gaming system
Huynh et al. 3D Avatar Interactive System on Hologram Fan Projector Using Motion Recognition Control by Mediapipe Holistic

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050328

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050628

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051009

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131028

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees