[go: up one dir, main page]

JP2001246161A - ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体 - Google Patents

ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体

Info

Publication number
JP2001246161A
JP2001246161A JP2000398372A JP2000398372A JP2001246161A JP 2001246161 A JP2001246161 A JP 2001246161A JP 2000398372 A JP2000398372 A JP 2000398372A JP 2000398372 A JP2000398372 A JP 2000398372A JP 2001246161 A JP2001246161 A JP 2001246161A
Authority
JP
Japan
Prior art keywords
input
shape
command
orientation
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000398372A
Other languages
English (en)
Inventor
Shiro Kawai
史朗 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Co Ltd filed Critical Square Co Ltd
Priority to JP2000398372A priority Critical patent/JP2001246161A/ja
Publication of JP2001246161A publication Critical patent/JP2001246161A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 ジェスチャー入力であっても入力操作デバイ
スでコマンド入力した場合と同等のリアルタイム性でゲ
ームを進行させる。 【解決手段】 人体の一部(たとえば手)の動きを撮像
し、そのジェスチャーから二値画像データを得て、その
二値画像データに対するハフ・トランスフォーメーショ
ン(Hough Transformation)205で手のオリエンテー
ション情報を検出し、同様の二値画像データからセント
ロイダル・プロファイル抽出(CentroidalProfile Extr
action)206で手の指の本数および角度を示すシェイ
プ情報を検出し、これらオリエンテーション情報とシェ
イプ情報との組み合わせに対応する入力コマンドを、あ
らかじめ用意されたコマンドの中から決定(パラメータ
補正(Parameter Adjustment)208)する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、たとえばリアルタ
イム・インタラクティブ・エンターテインメント(Real-
time Interactive Entertainment)の分野で利用される
コンピュータ−ヒューマン・インタフェース(Computer-
Human Interface)技術に関し、詳細には、ビデオゲーム
システムのためのジェスチャー認識に関する。
【0002】
【従来の技術】パーソナルコンピュータや家庭用のビデ
オゲーム機においては、キーパッド等の入力操作デバイ
スを用いてモニタ上のキャラクタ動作やコマンド入力等
を操作することが一般的である。
【0003】ゲームの種類には、ロールプレイングゲー
ム(RPG)、シューティングゲーム、バトルゲームな
どがある。各ゲームには、操作上、ゲームを進行させる
ための各種コマンドが用意されている。入力操作デバイ
スの各キーには、コマンドが割り当てられている。ただ
し、複数のキーを組み合わせてそのキー操作でコマンド
を発生させる場合もある。
【0004】シューティングゲームやバトルゲームのよ
うに戦闘を主とするゲームにおいては、たとえば攻撃技
とコマンドとの対応付けなどがなされている。RPGの
ように主人公となるキャラクタがプレイヤに代わって冒
険するようなゲームにおいては、たとえばキャラクタの
様々な行動を指示するためのコマンドが各行動に対応付
けて用意されている。
【0005】このように、各コマンドとキーとの対応付
けがなされているので、ゲーム中、プレイヤのキー操作
により所望のコマンドを発令することが可能となる。
【0006】
【発明が解決しようとする課題】ところが、近年、プレ
イヤの人体あるいは手のように人体の一部をCCDカメ
ラで撮像してジェスチャー認識を行うシステムが開発さ
れている。特に、手の形状の変化やその動きからジェス
チャー入力するためのハンドジェスチャー認識は、入力
操作デバイスを必要としないことから、将来ゲーム分野
で期待される技術である。
【0007】ビデオゲームには、コマンド入力にリアル
タイム性が要求される。このため、入力操作デバイスに
代わってハンドジェスチャー入力を行う場合、入力操作
デバイスを用いてコマンド入力した場合と同等のリアル
タイム性を備えたインタラクティブゲームを進行させる
ことが可能なハンドジェスチャー認識技術が要求されて
いる。
【0008】すなわち、ゲームはスピーディーに展開さ
れ、ゲーム中のコマンド入力はそのときに発令されなけ
れば意味をなさない。このため、ジェスチャーによるコ
マンド入力の場合には、許容できる範囲内の誤認やジェ
スチャーの制約は認めざるを得ない。
【0009】さて、ハンドジェスチャー認識の分野にお
いては、たとえば米国特許第5,454,043号公報
のように、CCDカメラで手の形状や動きを動的に撮像
し、パターンマッチング処理でハンドジェスチャー認識
を行う手法が開示されている。
【0010】また、特開平10−31551号公報に
は、人工網膜チップを利用してハンドジェスチャー認識
を行う手法が開示されている。
【0011】本発明の目的は、ジェスチャー入力であっ
ても、入力操作デバイスを用いてコマンド入力した場合
と同等のリアルタイム性を備えたインタラクティブゲー
ムを進行させることが可能な、ジェスチャー認識技術を
用いたゲーム装置およびその方法、ならびにその方法を
実現するプログラムを記憶した記録媒体を提供すること
にある。
【0012】
【課題を解決するための手段】上述した課題を解決する
ため、本発明の第1の態様によれば、入力コマンドに応
答してゲームを進行させるゲーム装置は以下の構成を備
える。すなわち、人体の少なくとも一部の形状が入力対
象であり、当該入力対象の動的なジェスチャーによる入
力ビデオ信号から二値画像データを取得する画像入力手
段と、前記画像入力手段で取得された二値画像データに
基づいて前記入力対象のオリエンテーション情報を検出
するオリエンテーション検出手段と、前記画像入力手段
で取得された二値画像データに基づいて前記入力対象の
シェイプ情報を検出するシェイプ検出手段と、前記オリ
エンテーション検出手段で検出されたオリエンテーショ
ン情報と前記シェイプ検出手段で検出されたシェイプ情
報との組み合わせに応じて、ゲームを進行させるための
入力コマンドを生成するコマンド生成手段と、を備え
る。
【0013】また、上記第1の態様によれば、前記コマ
ンド生成手段は、入力対象のオリエンテーション情報と
同入力対象のシェイプ情報との組み合わせとゲームを進
行させるためのコマンドとの対応関係を示す情報をあら
かじめ用意しておき、前記あらかじめ用意された情報を
参照して、前記オリエンテーション検出手段で検出され
たオリエンテーション情報と前記シェイプ検出手段で検
出されたシェイプ情報との組み合わせに対応付けられた
コマンドを前記入力コマンドとして決定するようにして
もよい。
【0014】また、上記第1の態様によれば、入力対象
の動的なジェスチャーを撮像して前記入力ビデオ信号を
得る撮像手段をさらに備えるようにしてもよい。
【0015】また、上記第1の態様によれば、前記撮像
手段は、あらかじめ用意された、二値画像データ取得の
ためのシートに対向配置され、前記シート上に配置され
る入力対象のジェスチャーを撮像するようにしてもよ
い。
【0016】また、上記第1の態様によれば、前記コマ
ンド生成手段は、あらかじめ用意した人間特有の動きを
参照して前記組み合わせを補正する処理を含むようにし
てもよい。
【0017】また、上記第1の態様によれば、前記画像
入力手段は、前記二値画像に対して加重平均を施し、そ
の加重平均から前記オリエンテーション検出手段、前記
シェイプ検出手段でそれぞれ処理するための二値画像デ
ータを得るようにしてもよい。
【0018】また、上記第1の態様によれば、前記シェ
イプ判定手段は、前記画像入力手段で取得された二値画
像データに基づいてセントロイダル・プロファイル(Ce
ntroidal Profile)を抽出し、当該抽出されたセントロ
イダル・プロファイルのピークから前記入力対象のシェ
イプ情報を検出するようにしてもよい。
【0019】また、上記第1の態様によれば、前記シェ
イプ検出手段は、前記入力対象が手の場合、指の本数と
指の角度をシェイプ情報として検出するようにしてもよ
い。
【0020】また、上記第1の態様によれば、前記オリ
エンテーション検出手段は、前記画像入力手段で取得さ
れた二値画像データに対するハフ・トランスフォーメー
ション(Hough Transformation)から前記入力対象のオ
リエンテーション情報を検出するようにしてもよい。
【0021】本発明の第2の態様によれば、入力コマン
ドに応答してゲームを進行させるジェスチャー認識方法
は以下の構成を備える。すなわち、人体の少なくとも一
部の形状が入力対象であり、当該入力対象の動的なジェ
スチャーによる入力ビデオ信号から二値画像データを取
得する画像入力ステップと、前記画像入力ステップで取
得された二値画像データに基づいて前記入力対象のオリ
エンテーション情報を検出するオリエンテーション検出
ステップと、前記画像入力ステップで取得された二値画
像データに基づいて前記入力対象のシェイプ情報を検出
するシェイプ検出ステップと、前記オリエンテーション
検出ステップで検出されたオリエンテーション情報と前
記シェイプ検出ステップで検出されたシェイプ情報との
組み合わせに応じて、ゲームを進行させるための入力コ
マンドを生成するコマンド生成ステップと、を含む。
【0022】また、上記第2の態様によれば、前記コマ
ンド生成ステップは、入力対象のオリエンテーション情
報と同入力対象のシェイプ情報との組み合わせとゲーム
を進行させるためのコマンドとの対応関係を示す情報を
あらかじめ用意しておき、前記あらかじめ用意された情
報を参照して、前記オリエンテーション検出ステップで
検出されたオリエンテーション情報と前記シェイプ検出
ステップで検出されたシェイプ情報との組み合わせに対
応付けられたコマンドを前記入力コマンドとして決定す
るようにしてもよい。
【0023】また、上記第2の態様によれば、入力対象
の動的なジェスチャーを撮像して前記入力ビデオ信号を
得る撮像ステップをさらに備えるようにしてもよい。
【0024】また、上記第2の態様によれば、前記コマ
ンド生成ステップは、あらかじめ用意した人間特有の動
きを参照して前記組み合わせを補正する処理を含むよう
にしてもよい。
【0025】また、上記第2の態様によれば、前記画像
入力ステップは、前記二値画像に対して加重平均を施
し、その加重平均から前記オリエンテーション検出ステ
ップ、前記シェイプ検出ステップでそれぞれ処理するた
めの二値画像データを得るようにしてもよい。
【0026】また、上記第2の態様によれば、前記シェ
イプ判定ステップは、前記画像入力ステップで取得され
た二値画像データに基づいてセントロイダル・プロファ
イル(Centroidal Profile)を抽出し、当該抽出された
セントロイダル・プロファイルのピークから前記入力対
象のシェイプ情報を検出するようにしてもよい。
【0027】また、上記第2の態様によれば、前記シェ
イプ検出ステップは、前記入力対象が手の場合、指の本
数と指の角度をシェイプ情報として検出するようにして
もよい。
【0028】また、上記第2の態様によれば、前記オリ
エンテーション検出ステップは、前記画像入力ステップ
で取得された二値画像データに対するハフ・トランスフ
ォーメーション(Hough Transformation)から前記入力
対象のオリエンテーション情報を検出するようにしても
よい。
【0029】本発明の第3の態様によれば、入力コマン
ドに応答してゲームを進行させる方法をコンピュータに
実行させるプログラムを記録した記録媒体は以下の構成
を備える。すなわち、コンピュータに、人体の少なくと
も一部の形状が入力対象であり、当該入力対象の動的な
ジェスチャーによる入力ビデオ信号から二値画像データ
を取得する画像入力ステップと、前記画像入力ステップ
で取得された二値画像データに基づいて前記入力対象の
オリエンテーション情報を検出するオリエンテーション
検出ステップと、前記画像入力ステップで取得された二
値画像データに基づいて前記入力対象のシェイプ情報を
検出するシェイプ検出ステップと、前記オリエンテーシ
ョン検出ステップで検出されたオリエンテーション情報
と前記シェイプ検出ステップで検出されたシェイプ情報
との組み合わせに応じて、ゲームを進行させるための入
力コマンドを生成するコマンド生成ステップと、を実行
させるものである。
【0030】また、上記第3の態様によれば、前記コマ
ンド生成ステップは、入力対象のオリエンテーション情
報と同入力対象のシェイプ情報との組み合わせとゲーム
を進行させるためのコマンドとの対応関係を示す情報を
あらかじめ用意しておき、前記あらかじめ用意された情
報を参照して、前記オリエンテーション検出ステップで
検出されたオリエンテーション情報と前記シェイプ検出
ステップで検出されたシェイプ情報との組み合わせに対
応付けられたコマンドを前記入力コマンドとして決定す
るようにしてもよい。
【0031】また、上記第3の態様によれば、入力対象
の動的なジェスチャーを撮像して前記入力ビデオ信号を
得る撮像ステップをさらに備えるようにしてもよい。
【0032】また、上記第3の態様によれば、前記コマ
ンド生成ステップは、あらかじめ用意した人間特有の動
きを参照して前記組み合わせを補正する処理を含むよう
にしてもよい。
【0033】また、上記第3の態様によれば、前記画像
入力ステップは、前記二値画像に対して加重平均を施
し、その加重平均から前記オリエンテーション検出ステ
ップ、前記シェイプ検出ステップでそれぞれ処理するた
めの二値画像データを得るようにしてもよい。
【0034】また、上記第3の態様によれば、前記シェ
イプ判定ステップは、前記画像入力ステップで取得され
た二値画像データに基づいてセントロイダル・プロファ
イル(Centroidal Profile)を抽出し、当該抽出された
セントロイダル・プロファイルのピークから前記入力対
象のシェイプ情報を検出するようにしてもよい。
【0035】また、上記第3の態様によれば、前記シェ
イプ検出ステップは、前記入力対象が手の場合、指の本
数と指の角度をシェイプ情報として検出するようにして
もよい。
【0036】また、上記第3の態様によれば、前記オリ
エンテーション検出ステップは、前記画像入力ステップ
で取得された二値画像データに対するハフ・トランスフ
ォーメーション(Hough Transformation)から前記入力
対象のオリエンテーション情報を検出するようにしても
よい。
【0037】
【発明の実施の形態】以下、添付図面を参照して本発明
に係る一実施の形態を詳細に説明する。なお、以下に説
明する実施例は、キーパッド、キーボードなどの入力操
作デバイスを用いずに、ハンドジェスチャーによりコマ
ンドを入力してゲームを進行させるゲーム装置およびそ
の方法、ならびにその方法を実現するためのプログラム
を記録した記録媒体に関するものである。
【0038】まず、構成について説明する。図1は、本
発明の一実施の形態によるシステム構成図であり、図2
は、ゲームプログラムの記録場所を説明する図である。
【0039】本発明のゲーム装置を備えるゲームシステ
ムは、たとえば図1に示したように、パーソナルコンピ
ュータ1とCCDカメラ6とをケーブル9で接続し、ス
タンド7に取付けられたCCDカメラ6によりマット5
上で行われるハンドジェスチャーを撮像できるようにし
た構成である。
【0040】パーソナルコンピュータ1は、たとえばラ
ップトップタイプのノートブックであり、液晶のディス
プレイ2とキーボード3とを備えている。パーソナルコ
ンピュータ1本体は、CD−ROM4を着脱自在に構成
される。なお、本実施例では、コンピュータをラップト
ップタイプとしたが、本発明はこれに限定されず、デス
クトップタイプのコンピュータ、ビデオゲーム専用機な
どにも適用可能である。
【0041】なお、マット5の配置については、ハンド
ジェスチャーを行う際に、ディスプレイ2に対するプレ
イヤの視野を遮らない場所とすることが好ましい。
【0042】マット5は、たとえば50×50cmサイ
ズを有し、CCDカメラ6で撮像されたビデオ信号から
クロマキーイングするためにブルーバックグラウンドと
なっている。なお、マット5のサイズは、50×50c
mに限定されず、ハンドジェスチャーの種類や動作範囲
に応じて種々変形可能である。
【0043】スタンド7の所要の高さに取付けられたC
CDカメラ6はその撮像面をマット5に対して対向配置
される。これにより、所要の高さから手8のハンドジェ
スチャーを捉えることができる。なお、このCCDカメ
ラ6の撮像範囲もハンドジェスチャーの種類や動作範囲
に応じて種々変形可能であり、これに追随してスタンド
7に取付ける位置を調整するとよい。
【0044】なお、スタンド7の配置について、CCD
カメラ6の位置を調整する際に、ディスプレイ2に対す
るプレイヤの視野を遮らない場所とすることが好まし
い。
【0045】CD−ROM4には、図2に示したよう
に、ゲームアルゴリズム(Game Algorithm)がプログラ
ムの形態で記録されている。本実施例では、CD−RO
M4からゲームプログラムを読み出してゲームを実行さ
せることができる。なお、ゲームプログラムはすべてを
メモリにロードしてもよく、メモリ容量の関係から適宜
読み出す形態としてもよい。
【0046】図3は、本発明のゲーム装置の内部構成例
を示すブロック図である。本発明のゲーム装置は、たと
えば図3に示したように、内部バス100に、CPU1
02、画像処理(Image Processing)103、メモリ1
06、ディスクドライバ(Disk Driver)109、およ
び、各種インタフェース(I/F)101,104,1
05,110を接続させている。
【0047】CPU102は、ゲームプログラムなどを
実行する制御ユニットであり、図示せぬROM、RAM
を備え、これらと協働して処理全体の制御を司る。この
CPU102は、後述するゲームアルゴリズムに従って
ハンドジェスチャー認識を利用したゲームなどの処理を
制御する。画像処理103は、CPU102により実行
されるゲームの進行で、画像処理部分(ジェスチャー認
識、グラフィック処理など)を支援するユニットであ
る。
【0048】メモリ106は、メイン処理107、ジェ
スチャー認識108などの処理を含むゲームアルゴリズ
ムなどを記憶可能な媒体である。このメモリ106は、
たとえばハードディスクであり、CD−ROM4から読
み出されたプログラムの一部もしくは全部をロードして
利用される。
【0049】ディスクドライバ109は、CPU102
の制御に従ってCD−ROM4を駆動させる。たとえば
ゲームプログラムの一部をメモリ106へロードしてゲ
ームを実行する場合には、ゲーム実行時に、ディスクド
ライバ109はインタラクティブにCD−ROMをアク
セスする。一方、ゲームプログラムをすべてメモリ10
6へロードしてゲームを実行する場合には、CPU10
2はメモリ106にロードされたゲームアルゴリズムに
従ってゲームを制御するため、ディスクドライバ109
でCD−ROM4を駆動させる必要はなくなる。
【0050】なお、本実施例では、記録媒体の一例とし
てCD−ROM4を例に挙げたが、DVD(デジタルビ
デオディスク)などの他の媒体でもよいことはいうまで
もない。ディスクドライバ109についても、扱われる
記録媒体に応じて構造を替えればよい。
【0051】I/F101には、ケーブル9を介してC
CDカメラ6が接続されている。CCDカメラ(CCD Ca
mera)6の撮像で得られたビデオ信号は、ケーブル9を
通じてI/F101から取込まれる。この入力ビデオ信
号は、ゲームアルゴリズムに従って画像処理され、ジェ
スチャー認識に利用される。
【0052】I/F104には、キーボード(Keyboar
d)3が接続されている。通常のキーボード3から入力
されるキー検出信号がI/F104を介してCPU10
2へ送られる。なお、本発明では、キーボード3に代わ
ってハンドジェスチャー認識によりゲームを進行させる
ためのコマンドが入力される。
【0053】I/F105には、ディスプレイ(Displa
y)2が接続されている。ゲームの進行に応じて変化す
るゲーム画像がI/F105を介してディスプレイ2へ
送られ、ゲーム画面が形成される。
【0054】I/F110には、通信回線111が着脱
自在に接続される。本実施例では、CD−ROM4から
ゲームプログラムを供給するシステムを例に挙げたが、
本発明はこれに限定されず、通信回線111を介してゲ
ームプログラムの供給を受けるようにしてもよい。もち
ろん、通信回線111に限らず、無線回線を介してゲー
ムプログラムの供給を受けることも可能である。なお、
無線回線を適用する場合には、I/F110に通信機能
を付加すればよい。
【0055】また、上述のように、通信回線111や無
線回線を利用する場合には、ゲームプログラムの配信以
外に、オンラインでゲームを実現することが可能であ
る。この場合、クライアント−サーバによるゲームシス
テムを構築することが可能である。本パーソナルコンピ
ュータ1がクライアントになれば、クライアント側でジ
ェスチャー認識された結果を図示せぬサーバへ送り、そ
こでコマンドを生成してクライアントへ送り返すように
すればよい。
【0056】つぎに全体の動作について説明する。図4
は、本発明の動作手順の一例を説明するフローチャート
である。図4に示したフローチャートはゲームアルゴリ
ズムのメイン処理107に相当する部分である。このメ
イン処理107は、CPU102により全体の制御が行
われ、個々の処理は図3に示した他のユニットと協働し
て実行される。
【0057】まず、図1に示したゲームシステムのセッ
ティングが完了すると、所定の手順に従ってゲームアル
ゴリズムの実行が開始され(ステップS11)。つづい
てジェスチャー認識108が開始される(ステップS1
2)。ジェスチャー認識108では、CCDカメラ6に
よる撮像で得られたビデオ信号が画像処理103でクロ
マキーイングおよびその量子化を通じて二値画像データ
に変換される。この二値画像データに基づいてジェスチ
ャー認識が行われる。
【0058】キーボード、ビデオゲーム機のキーパッド
などの入力操作デバイスの場合には、キー操作からキー
信号が得られ、そのキー信号に基づいて入力コマンドが
判定される。本発明においては、ハンドジェスチャーの
認識結果をキー信号に変換して、通常の入力操作デバイ
スと同様のキー入力を得るものである。
【0059】したがって、ステップS13では、ステッ
プS12のジェスチャー認識結果からあらかじめ用意さ
れたキー信号が検出されたか否かの判定がなされる。そ
の結果、ステップS13においてキー信号が検出された
場合には(Yesルート)、その検出キー信号からあら
かじめ対応付けられたコマンドが入力コマンドとして決
定され、その決定コマンドが生成される(ステップS1
4)。つづいてその生成された入力コマンドに基づく処
理が実行される(ステップS15)。
【0060】一方、ステップS13においてキー信号が
検出されなかった場合には(Noルート)、プレイヤの
操作がなかったか、あるいは、あらかじめ決められたハ
ンドジェスチャー外のジェスチャーが認識されたことに
なる。その結果、コマンド入力がなかったものとしてス
テップS12のジェスチャー認識が再度実施される。
【0061】ステップS15のコマンド処理が終了を指
示した場合には(ステップS16:Yesルート)、ゲ
ームは終了し、さらにゲームが続行される場合には処理
はステップS12に戻る(ステップS16:Noルー
ト)。
【0062】本発明のジェスチャー認識についてさらに
詳述する。この処理はジェスチャー認識108(図3参
照)に相当し、フローでは図4のステップS12に相当
する。
【0063】図5は、本発明のジェスチャー認識手順の
一例を説明するフローチャートである。図5において、
実線の矢印は画像データ(Image Data)の流れを示し、
破線の矢印はパラメータ(Parameter)を示し、一点鎖
線の矢印はサンプル画像(Example Image)を示す。
【0064】ジェスチャー認識108は、たとえば図5
に示したように、クロマキー取得および量子化(Chr
oma−Keying and Quantizati
on)201、ハンドポジション検出(Hand Po
sition Detection)202、クリップ
(Clip)203、中間フィルタ(MedianFi
lter)204、ハフ・トランスフォーメーション
(Hough Transformation)20
5、セントロイダル・プロファイル抽出(Centro
idal Profile Extraction)2
06、ピーク検出(Peak Detection)2
07、パラメータ調整(Parameter Adju
stment)208、状態遷移管理(State T
ransition Management)209な
どにより構成される。
【0065】クロマキー取得および量子化201は、C
CDカメラ6の撮像で得られたビデオ信号(Video Sign
al)をクロマキーイングおよび量子化することにより二
値画像データ301を得る。このとき、手の背景はブル
ーバックグラウンドであり、手の二値画像データ301
が得られる。
【0066】ハンドポジション検出202は、クロマキ
ー取得および量子化201により得られた二値画像デー
タ301に基づいてハンドポジションを得て、そのハン
ドポジションをパラメータとして出力する。このとき、
二値画像データ301はあらかじめ決められた手順でス
キャンされる。すなわち、プレイヤとCCDカメラ6の
配置から、手は所定の方向から伸びてくることをあらか
じめルール決めしておく。
【0067】したがって、上記のルールに従えば、矢印
Sで示す方向に手が伸びてくることになる。302は二
値画像301に基づいてハンドポジションを検出する工
程を説明する二値画像データを示し、二値画像データ3
01と同様のデータである。この二値画像データ302
は矢印Sに向かって下端から順次水平スキャンされ、ピ
クセルの重量中心から手の位置が検出される。人間の手
の大きさが人により極端に相違しないことに着目すると
ともに、本実施例において手首よりも下側(腕側)のジ
ェスチャーすなわち二値画像データが不要なことから、
CCDカメラ6で取込まれた画像に対してスキャンすべ
き範囲をスキャンに応じて絞り込む処理が含まれてい
る。
【0068】たとえば、ハンドスポット画像302aが
検出され、つづいてハンドスポット画像302bが検出
され、最後にハンドスポット画像302cが検出され
る。このハンドスポット画像302cのハンドポジショ
ンはパラメータとしてパラメータ補正208に供給され
る。
【0069】クリップ203は、ハンドポジション検出
202で最終的に得られたハンドスポット画像302c
の二値画像データをクリッピングする。中間フィルタ2
04は、クリップ203でクリッピングされたハンドポ
ジション画像302cの二値画像データをノイズ除去
し、ハフ・トランスフォーメーション205、セントロ
イダル・プロファイル抽出206へそれぞれ供給する。
【0070】ハフ・トランスフォーメーション205
は、ノイズ除去された二値画像データ(たとえばハンド
スポット画像302c)から直線成分を抽出する。この
場合、CCDカメラ6によって捕捉された手の直線成分
が抽出され、ハンドオリエンテーション(Hand O
rientation)を示すパラメータがパラメータ
補正208へ供給される。たとえば401で示した直線
成分が取得される。
【0071】セントロイダル・プロファイル抽出206
は、ノイズ除去された二値画像データ(たとえばハンド
スポット302c)からセントロイダル・プロファイル
を抽出する。ハンドスポット画像302cに対応するセ
ントロイダル・プロファイルは303のようになる。上
記セントロイダル・プロファイル抽出206は、高速検
出アルゴリズムである。
【0072】このアルゴリズムは、エッジ検出が不要で
あるとともに、特定のジェスチャによるローカルな重心
座標の変動に対してジェスチャ認識結果からフィードバ
ックをかけることになる。なお、重心座標の変動とは、
たとえば、シューティングアクション時、一瞬手がプレ
イヤのボディ側に動いたり、急速なターン時に重心座標
の動きがスムーズな動きとは異なる動きを示すことを指
す。
【0073】ピーク検出207は、セントロイダル・プ
ロファイル抽出206で抽出されたセントロイダル・プ
ロファイルの平均値から指の数および指の角度を示す部
分(手のシェイプ(Shape))を検出し、そのシェ
イプをパラメータとしてパラメータ補正208へ供給す
る。
【0074】パラメータ補正208は、状態遷移管理2
09のルールに従ってハンドポジション、ハンドオリエ
ンテーション、シェイプの各パラメータに基づく制御パ
ラメータ(control parameter)を生
成する。この制御パラメータは、入力操作デバイスで入
力されるキー信号と同様の情報である。
【0075】状態遷移管理209は、CCDカメラ6の
撮像画面に対してあらかじめ人為的に決められたハンド
ジェスチャーのパターンを登録しており、パラメータ補
正208に入力されたハンドポジション、ハンドオリエ
ンテーション、シェイプの各パラメータの組み合わせが
どれに該当するかを支援する。
【0076】つづいて上述したジェスチャー認識の個々
の動作をさらに詳細に説明する。
【0077】まず、図6(A),(B),(C)および
(D)を参照して、ハンドスポッティングの手順を説明
する。図6(A)〜(D)には、ハンドスポッティング
されたフレーム画像の状態遷移が示されている。プレイ
ヤは、右手の親指側を上方に向けた状態から(図6
(A))、右手の甲を反らし(同図(B))、右下方へ
徐々に移行させ(同図(C)および(D))ている。
【0078】ハンドポジションを得る際には、図6
(A)から(D)のように手のポジションやシェイプの
遷移に対して、手の動きにリアルタイムに追従できるこ
とが必要である。これは、手の重量中心を得ることによ
り実現可能となる。
【0079】もしこのリアルタイムの追従が遅れるとコ
マンド入力にも遅れが生じる。たとえばキャラクタ間の
戦闘時、敵キャラクタよりも先に攻撃すべき場面で一呼
吸コマンドの発令が遅れると、敵キャラクタに先手を打
たれることになる。あるいは、レースゲームなどでコマ
ンド入力が遅れると、キャラクタのジャンプ、車のハン
ドル操作などをリアルタイムに制御することができなく
なる。以上の意味でもリアルタイムのハンドスポッティ
ングは重要である。
【0080】つづいて図7(A)および(B)を参照し
て、セントロイダル・プロファイルの抽出方法を説明す
る。図7(A)には、一例として左手のオリジナルイメ
ージが示されている。rは、オリジナルイメージの中心
から手のエッジポイントまでの距離を示している。θ
(theta)は、手の中心から下方への垂線に対して
左周りで得られる中心とエッジポイントを結ぶ線に対す
るベクトルの角度を示している。
【0081】セントロイダル・プロファイルは、図7
(B)に示したように、(θ,r)プレーンにおいてエ
ッジの形状の各ポイントをプロットしたものである。こ
れにより、指の本数と各指の向き(指の角度)とを同時
に得ることができる。すなわち、このセントロイダル・
プロファイルでは、あらかじめ用意された指の形状など
をパターン化して記憶しておく必要がなく、直接指の本
数とその角度を検出することができるので、高速処理を
実現することができる。これはコマンド入力にリアルタ
イム性が必要なことから、ハンドジェスチャーを認識す
る上で有利に機能する。
【0082】さらにこのセントロイダル・プロファイル
では、すでに説明したハンドスポットのクリッピングで
重量中心が常に追従されていることから、CCDカメラ
6で捕捉可能な画像であればリアルタイムに指の本数と
その角度を取得することが可能である。すなわち、指の
本数とその角度の変化についてもリアルタイムかつ直接
的に検出することが可能である。
【0083】セントロイダル・プロファイルをそのまま
実行するためには、エッジ・トラッキングが必要とな
る。このエッジ・トラッキングのための所要計算時間
は、入力画像の形状、エッジのノイズ等により、大きく
変動する。また、アルゴリズムの結果は、余分なコード
処理を必要とする多値関数となることもある。そのため
入力画像によっては、エッジ・トラッキングに、かなり
の時間を要する場合がある。
【0084】ここで、リアルタイム処理を実行するた
め、同じθから複数のrが発生する場合には、より大き
な値を示すrの方を採用するという規定を設ける。これ
により、高速化アルゴリズムが可能となる。
【0085】なお、rのピーク値検出に関して、この規
定を設けることによる影響はない。従って、この規定を
設けることにより、エッジ・トラッキング処理の代わり
として、簡単な参照テーブルを用いることも可能とな
る。
【0086】以下に、この簡略化されたセントロイダル
・プロファイル・アルゴリズムを示す。ここで、変数を
それぞれ、 (X,Y): 入力イメージサイズ ix,y: 入力イメージ(2値) Rx,yx,y:(予備計算された表) r: 出力値 とする。
【0087】ここで、事前計算として、テーブルRにつ
いては、要素Rx,yが、点(X,Y)と、イメージの
中心(X/2,Y/2)との間の距離を保つように、規
定しておく。
【0088】一方、テーブルTについては、Tx,y
初期ベクトルとイメージの中心(X/2,Y/2)から
点(X,Y)までのベクトルとの間に角度を保持するよ
うに規定しておく。
【0089】そして、各フレームに対して以下に示す手
順に従い計算を実行することにより、高速化が可能とな
る。 1.全てのiに対してrをゼロにクリア 2.入力されたix,yの各画素(ピクセル)に対し
て:ix,yがゼロでない場合は、rx,yを最大値
(rTx,y、Rx,y)に置き換える。
【0090】さらに図8に示したように、ジェスチャー
(入力)に対応するプロファイル(profile)に
対してローパスフィルターがかけられ、ノイズが除去さ
れる。さらに、図8のフィルター処理には、後のピーク
検出を簡略化させる手法が盛り込まれている。すなわ
ち、セントロイダル・プロファイルには、手首のデータ
が含まれているが、このデータは不要である。
【0091】そこで、θのとる範囲に対してウインドウ
が設定される。このウィンドウは、θのとる範囲のう
ち、たとえば、π/4よりも小さく、かつ、7/4πよ
り大きい領域を除去するものである。この除去は、つぎ
のピーク検出に有効に機能する。
【0092】続いて、フィルターリングされたプロフィ
ールに対してピークが検出される。すなわち、ピーク検
出では、手の大きさによる変化の影響を排除する必要が
ある。そこで、まずrの平均値が求められ、その平均値
を基準にしてピークの検出が行われる。このピーク検出
により、手のシェイプすなわち、指の本数とその角度が
直接的に求められ、このシェイプはパラメータとして取
得される。
【0093】一方、手の動きに対してオリエンテーショ
ンの情報が必要となる。このハンドオリエンテーション
もまたシェイプと同様にパラメータとして取得される。
このハンドオリエンテーションには、ハフ・トランスフ
ォーメーションが適用される。このハフ・トランスフォ
ーメーションにより、クリッピングされ、中間フィルタ
ーリング処理された二値画像データに対して直線成分の
抽出が行われ、その直線成分に基づいてハンドオリエン
テーションのパラメータが取得される。
【0094】このようにして得られたハンドオリエンテ
ーションのパラメータはハンドジェスチャーによるオリ
エンテーションだけを得るために有用である。したがっ
て、どのようなハンドオリエンテーションのなかで、ど
のようなハンドシェイプの遷移があったのかを検出すれ
ば、リアルタイムかつ的確なハンドジェスチャーの認識
を実現することができる。
【0095】ただし、プレイヤがゲーム画面を見ながら
興奮状態でハンドジェスチャーによるコマンド入力を行
う場合、あらかじめ決められたハンドジェスチャーとは
異なる動きをする場合がある。すなわち、無意識のうち
に一連のハンドジェスチャーには含まれていない動きが
追加される。
【0096】たとえば、図9(A)に示したように、右
肘を軸にして右手を円弧を描くように中央位置から左方
向へ移動させるハンドジェスチャーのパターンをあらか
じめ決めたとする。ところが、実際には、図9(B)に
示したように、プレイヤは肘を軸にして回転させること
はなく、手前に引き付ける動作をとることが往々にして
起る。このように、プレイヤ、すなわち人間の反射的、
本能的な動きをデータとして盛り込む必要がある。
【0097】本実施例では、上述したような俊敏な動き
で起こり得る人間の反射的、本能的な動きは補正情報と
して状態遷移管理209に登録されている。パラメータ
補正208では、ハンドポジション、ハンドオリエンテ
ーションおよびシェイプの組み合わせに対して状態遷移
管理209が補正情報を与え、これにより制御パラメー
タ(キー信号)が生成される。
【0098】以上の補正をフィードバック処理として位
置付けることができる。図10には、ハンドポジション
に対するマッピング機能が示されている。プレイヤの体
により近いとき、プレーヤーは広く左右に手を動かすた
めに心地悪く感じる。図10によれば、X軸方向を向く
弧は同心円とはならず、手がプレーヤーの体により近づ
くにつれ、弧の半径がより大きくなる傾向に設定されて
いる。一方、Y軸方向を向く弧は、プレイヤーの体から
離れるにつれ、X軸の正、負の各方向は絶対値を大きく
とる傾向に設定されている。
【0099】マッピング機能を、キャラクタのヘッディ
ングスピードをコントロールするために使われるハンド
ポジション(xin、yin)のインプット座標とアウト
プット座標(xout、yout)より説明することが
できる。パラメータA,BとRは経験的に決定されるも
のである。入出力の関係は以下の式に示す通りである。 xout= xin /( A×yin+(1−A)) yout= yin+(1+ B×yin )(R−sqrt
( R−xin ))
【0100】ハンドジェスチャーのなかで「急なター
ン」,「射撃前の行動」などの動きは通常少数のフレー
ムの中で起こる。これらの動きに共通した特徴は、−y
方向に向けての速い手の動き方である。このような動き
を正確に認識するため、ハンドポジションのy座標があ
まりにも速く動くとき、マッピング機能を用いて機能を
落とすことで対処することができる。
【0101】以上説明したように、本実施の形態によれ
ば、セントロイダル・プロファイルの高速検出と指の本
数や角度のピーク検出だけによるジェスチャーの直接認
識を行い、とっさの人間特有の動き(反射神経など)を
フィードバックさせることで、ジェスチャー認識の精度
についてある程度の許容をもたせ、入力操作デバイスを
用いてコマンド入力した場合と同等のリアルタイム性を
簡単に確保することが可能である。このようにして、よ
り高いヒューマンインタフェースを実現することが可能
である。
【0102】つづいて、図11を参照して、コマンドと
ハンドジェスチャーとの関係について説明する。コマン
ドの種類には、たとえば図11に示したように、ゲーム
モード、メニューモード、そして、プレイヤセレクショ
ンモードがある。
【0103】ゲームモードは、実際のゲームのなかで使
用されるコマンドで構成される。ゲームモードには、一
例として、7つのコマンドが用意されている。7つのコマ
ンドとは、“チョコボスピード”(Chocobo S
peed)、“チョコボヘディング”(Chocobo
Heading)、“小弾発射”(Shoot Sm
all Bullet)、“大弾発射”(Shoot
Large Bullet)、“マジッククリスタル発
射”(Shoot Magic Crystal)、
“ジャンプ”(Junp) 、そして、“メニュー/ポ
ーズ”(Menu/Pause)である。
【0104】“チョコボスピード”コマンドとは、Y軸
(プレイヤから見て前後方向)に沿っての絶対位置(C
CDカメラ6の画面内)でのハンドポジションがスピー
ドをコントロールするコマンドである。ここでは、手を
素早く前方へ突き出し、中央で停止し、その手を後方へ
引き戻すハンドジェスチャーが必要となる。
【0105】“チョコボヘディング”コマンドとは、X
軸(プレイヤから見て左右方向)に沿っての絶対位置
(CCDカメラ6の画面内)でのハンドポジションがキ
ャラクタ(一例として、キャラクタ名をチョコボ(Ch
ocobo)と称する)の角速度をコントロールするコ
マンドである。オプションとして、ハンドオリエンテー
ションは同じく角速度に影響を与える。
【0106】“チョコボスピード”コマンド、“チョコ
ボヘディング”コマンドは、図12(A)に示したよう
に、前方、後方、左右へのハンドポジションの移動によ
りコマンドが発令される。図12(B)に示したよう
に、画面上では、キャラクタ“チョコボ”をあらかじめ
決められたA1,A2,A3,A4のいずれかの方向へ
移動させることができる。
【0107】“小弾発射”とは、一連の動作によって発
令され、小弾を打ち込むためのコマンドである。その一
連の動作とは、図13(A)に示した動作で、握りこぶ
しを作り(1)、次いで、画面に向かって一本の指(た
とえば人差し指)を突き出す(2)ようなハンドジェス
チャーが必要となる。ここでは、図13(B)に示した
ように、人差し指が“小弾発射”のコマンドを特定す
る。図13(E)に示したように、画面上では、キャラ
クタ“チョコボ”から小弾が撃ち放たれることになる。
【0108】“大弾発射”とは、一連の動作によって発
令され、大弾を打ち込むためのコマンドである。その一
連の動作とは、握りこぶしを作り、次いで、画面に向か
って二本の指を突き出すハンドジェスチャーが必要とな
る。ここでは、図13(C)に示したように、二本の指
が“大弾発射”のコマンドを特定する。
【0109】“マジッククリスタル発射”コマンドと
は、一連の動作によって発令され、「魔法のクリスタ
ル」と言う対象を発射するためのコマンドである。その
一連の動作とは、握りこぶしを作り、次いで、手から何
かを落とすように手のひらを広げるハンドジェスチャー
が必要となる。ここでは、図13(D)に示したよう
に、手のひらの開きが“マジッククリスタル発射”のコ
マンドを特定する。
【0110】“ジャンプ”コマンドとは、一連の動作に
よって発令され、キャラクタをジャンプさせるためのコ
マンドである。その一連の動作とは、図14(A)に示
したように親指が側面に突き出る状態で握りこぶしをつ
くり、次いで、矢印の方向へ素早く握りこぶしを引き戻
すハンドジェスチャーが必要である。
【0111】画面上では、図14(B)に示したよう
に、矢印B1の方向へ降りてきたキャラクタ“チョコ
ボ”はハンドジェスチャーのタイミングで矢印B1の方
向へジャンプする。
【0112】“メニュー/ポーズ”コマンドとは、ゲー
ムをポーズさせ、メニューモード(Menu mod
e)へ移行するためのコマンドである。親指、人差し
指、および、小指を突き出してハンドシェイプをつくる
ハンドジェスチャーが必要である。
【0113】つづいてメニューモードについて説明す
る。メニューモードには、一例として、2種類のコマン
ドが用意されている。2種類のコマンドとは、“メニュ
ー項目選択”(Select Menu Item)、
および、“キャンセル/ゲームへ戻る”(Cancel
/Return to Game)である。
【0114】“メニュー項目選択”コマンドとは、ゲー
ムに関する複数のアイテムから所要のアイテムを選択す
るためのコマンドである。たとえば第1から5番目まで
のメニュー項目を選択するために、プレーヤーが指の本
数を提示するハンドジェスチャーが必要である。
【0115】“キャンセル/ゲームへ戻る”コマンドと
は、ゲームのキャンセルまたはゲームに戻るためのコマ
ンドである。メニューモード時に、あたかも「いいえ、
私は中止する」と言う具合に、2度左右に手をスウィン
グするハンドジェスチャーが必要である。
【0116】つづいてプレイヤ選択モード(Playe
r selection mode)について説明す
る。プレイヤ選択モードには、一例として、2種類のコ
マンドが用意されている。2種類のコマンドとは、“プ
レイヤ交代”(ChangePlayer)、および、
“ゲーム開始”(Start Game)である。
【0117】“プレイヤ交代”とは、プレイヤをチェン
ジするためのコマンドである。プレイ時に、あたかも
「いいえ、私は中止する」と言う具合に、2度左右に手
を振るハンドジェスチャーが必要である。
【0118】“ゲーム開始”とは、ゲームの開始を指示
するためのコマンドである。ゲーム開始前に、親指、人
差し指、および、小指を突き出したハンドシェイプをつ
くるハンドジェスチャーが必要である。
【0119】なお、上述した実施例では、図11に示し
た種類のコマンドを例に挙げて説明したが、本発明はこ
れに限定されず、コマンドはゲームの種別に応じて種々
変形可能である。
【0120】また、本発明によるジェスチャー認識手法
は、ネットワークを介してマルチプレイヤで実施するオ
ンラインゲームにも適用可能であることは言うまでもな
い。
【0121】
【発明の効果】以上説明したように本発明によれば、ジ
ェスチャー認識の精度についてある程度の許容をもたせ
ることで、入力操作デバイスを用いてコマンド入力した
場合と同等のリアルタイム性が簡単に確保される。これ
により、インタラクティブゲームの進行に必要な高い応
答性を実現することが可能である。また、人間特有の動
き(反射神経など)を考慮することで、より高いヒュー
マンインタフェースを実現することが可能である。
【図面の簡単な説明】
【図1】本発明のゲーム装置の一実施の形態によるシス
テム構成図である。
【図2】ゲームプログラムの記録場所を説明する図であ
る。
【図3】本発明のゲーム装置の内部構成例を示すブロッ
ク図である。
【図4】本発明の動作手順の一例を説明するフローチャ
ートである。
【図5】本発明のジェスチャー認識手順の一例を説明す
るフローチャートである。
【図6】(A),(B),(C)および(D)は、ハン
ドスポッティングの手順を示す図である。
【図7】(A)および(B)は、セントロイダル・プロ
ファイルの抽出方法を説明する図である。
【図8】ジェスチャーとプロファイルとの関係を説明す
る図である。
【図9】(A)および(B)は、ハンドジェスチャーの
自然な動き、実際の動きとの違いを説明する図である。
【図10】マッピングファンクションを説明する図であ
る。
【図11】コマンドとジェスチャーとの関係を示すテー
ブルの一例を説明する図である。
【図12】(A)および(B)は、ハンドジェスチャー
とキャラクター動作との対応関係の一例を説明する図で
ある。
【図13】(A),(B)および(C)は、ハンドジェ
スチャーとキャラクター動作との対応関係の他の例を説
明する図である。
【図14】(A)および(B)は、ハンドジェスチャー
とキャラクター動作との対応関係のさらに他の例を説明
する図である。
【符号の説明】
1 パーソナルコンピュータ 2 ディスプレイ 3 キーボード 4 CD−ROM 5 マット 6 カメラ 103 画像処理 106 メモリ 107 メイン処理 108 ジェスチャー認識 109 ディスクドライバ 111 通信回線 201 クロマキーイング及び量子化 202 ハンドポジション検出 203 クリップ 204 中間フィルタ 205 ハフ・トランスフォーメーション 206 セントロイダル・プロファイル抽出 207 ピーク検出 208 パラメータ補正 209 状態遷移管理

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】 入力コマンドに応答してゲームを進行さ
    せるゲーム装置において、 人体の少なくとも一部の形状が入力対象であり、当該入
    力対象の動的なジェスチャーによる入力ビデオ信号から
    二値画像データを取得する画像入力手段と、 前記画像入力手段で取得された二値画像データに基づい
    て前記入力対象のオリエンテーション情報を検出するオ
    リエンテーション検出手段と、 前記画像入力手段で取得された二値画像データに基づい
    て前記入力対象のシェイプ情報を検出するシェイプ検出
    手段と、 前記オリエンテーション検出手段で検出されたオリエン
    テーション情報と前記シェイプ検出手段で検出されたシ
    ェイプ情報との組み合わせに応じて、ゲームを進行させ
    るための入力コマンドを生成するコマンド生成手段と、 を備えたゲーム装置。
  2. 【請求項2】 前記コマンド生成手段は、入力対象のオ
    リエンテーション情報と同入力対象のシェイプ情報との
    組み合わせとゲームを進行させるためのコマンドとの対
    応関係を示す情報をあらかじめ用意しておき、前記あら
    かじめ用意された情報を参照して、前記オリエンテーシ
    ョン検出手段で検出されたオリエンテーション情報と前
    記シェイプ検出手段で検出されたシェイプ情報との組み
    合わせに対応付けられたコマンドを前記入力コマンドと
    して決定することを特徴とする請求項1記載のゲーム装
    置。
  3. 【請求項3】 入力対象の動的なジェスチャーを撮像し
    て前記入力ビデオ信号を得る撮像手段をさらに備えるこ
    とを特徴とする請求項1または2に記載のゲーム装置。
  4. 【請求項4】 前記撮像手段は、あらかじめ用意され
    た、二値画像データ取得のためのシートに対向配置さ
    れ、前記シート上に配置される入力対象のジェスチャー
    を撮像することを特徴とする請求項3に記載のゲーム装
    置。
  5. 【請求項5】 前記コマンド生成手段は、あらかじめ用
    意した人間特有の動きを参照して前記組み合わせを補正
    する処理を含むことを特徴とする請求項1記載のゲーム
    装置。
  6. 【請求項6】 前記画像入力手段は、前記二値画像デー
    タに対して加重平均を施し、その加重平均から前記オリ
    エンテーション検出手段、前記シェイプ検出手段でそれ
    ぞれ処理するための二値画像データを得ることを特徴と
    する請求項1に記載のゲーム装置。
  7. 【請求項7】 前記シェイプ判定手段は、前記画像入力
    手段で取得された二値画像データに基づいてセントロイ
    ダル・プロファイル(Centroidal Profile)を抽出し、
    当該抽出されたセントロイダル・プロファイルのピーク
    から前記入力対象のシェイプ情報を検出することを特徴
    とする請求項1、5または6に記載のゲーム装置。
  8. 【請求項8】 前記シェイプ検出手段は、前記入力対象
    が手の場合、指の本数と指の角度をシェイプ情報として
    検出することを特徴とする請求項7に記載のゲーム装
    置。
  9. 【請求項9】 前記オリエンテーション検出手段は、前
    記画像入力手段で取得された二値画像データに対するハ
    フ・トランスフォーメーション(Hough Transformatio
    n)から前記入力対象のオリエンテーション情報を検出
    することを特徴とする請求項1、5または6に記載のゲ
    ーム装置。
  10. 【請求項10】 入力コマンドに応答してゲームを進行
    させるジェスチャー認識方法であって、 人体の少なくとも一部の形状が入力対象であり、当該入
    力対象の動的なジェスチャーによる入力ビデオ信号から
    二値画像データを取得する画像入力ステップと、 前記画像入力ステップで取得された二値画像データに基
    づいて前記入力対象のオリエンテーション情報を検出す
    るオリエンテーション検出ステップと、 前記画像入力ステップで取得された二値画像データに基
    づいて前記入力対象のシェイプ情報を検出するシェイプ
    検出ステップと、 前記オリエンテーション検出ステップで検出されたオリ
    エンテーション情報と前記シェイプ検出ステップで検出
    されたシェイプ情報との組み合わせに応じて、ゲームを
    進行させるための入力コマンドを生成するコマンド生成
    ステップと、 を含むことを特徴とするジェスチャー認識方法。
  11. 【請求項11】 前記コマンド生成ステップは、入力対
    象のオリエンテーション情報と同入力対象のシェイプ情
    報との組み合わせとゲームを進行させるためのコマンド
    との対応関係を示す情報をあらかじめ用意しておき、前
    記あらかじめ用意された情報を参照して、前記オリエン
    テーション検出ステップで検出されたオリエンテーショ
    ン情報と前記シェイプ検出ステップで検出されたシェイ
    プ情報との組み合わせに対応付けられたコマンドを前記
    入力コマンドとして決定することを特徴とする請求項1
    0に記載のジェスチャー認識方法。
  12. 【請求項12】 入力対象の動的なジェスチャーを撮像
    して前記入力ビデオ信号を得る撮像ステップをさらに備
    えることを特徴とする請求項10または11に記載のジ
    ェスチャー認識方法。
  13. 【請求項13】 前記コマンド生成ステップは、あらか
    じめ用意した人間特有の動きを参照して前記組み合わせ
    を補正する処理を含むことを特徴とする請求項10に記
    載のジェスチャー認識方法。
  14. 【請求項14】 前記画像入力ステップは、前記二値画
    像に対して加重平均を施し、その加重平均から前記オリ
    エンテーション検出ステップ、前記シェイプ検出ステッ
    プでそれぞれ処理するための二値画像データを得ること
    を特徴とする請求項10に記載のジェスチャー認識方
    法。
  15. 【請求項15】 前記シェイプ判定ステップは、前記画
    像入力ステップで取得された二値画像データに基づいて
    セントロイダル・プロファイル(CentroidalProfile)
    を抽出し、当該抽出されたセントロイダル・プロファイ
    ルのピークから前記入力対象のシェイプ情報を検出する
    ことを特徴とする請求項10、13または14に記載の
    ジェスチャー認識方法。
  16. 【請求項16】 前記シェイプ検出ステップは、前記入
    力対象が手の場合、指の本数と指の角度をシェイプ情報
    として検出することを特徴とする請求項15に記載のジ
    ェスチャー認識方法。
  17. 【請求項17】 前記オリエンテーション検出ステップ
    は、前記画像入力ステップで取得された二値画像データ
    に対するハフ・トランスフォーメーション(Hough Tran
    sformation)から前記入力対象のオリエンテーション情
    報を検出することを特徴とする請求項10、13または
    14に記載のジェスチャー認識方法。
  18. 【請求項18】 入力コマンドに応答してゲームを進行
    させる方法をコンピュータに実行させるプログラムを記
    録した記録媒体であって、 コンピュータに、 人体の少なくとも一部の形状が入力対象であり、当該入
    力対象の動的なジェスチャーによる入力ビデオ信号から
    二値画像データを取得する画像入力ステップと、 前記画像入力ステップで取得された二値画像データに基
    づいて前記入力対象のオリエンテーション情報を検出す
    るオリエンテーション検出ステップと、 前記画像入力ステップで取得された二値画像データに基
    づいて前記入力対象のシェイプ情報を検出するシェイプ
    検出ステップと、 前記オリエンテーション検出ステップで検出されたオリ
    エンテーション情報と前記シェイプ検出ステップで検出
    されたシェイプ情報との組み合わせに応じて、ゲームを
    進行させるための入力コマンドを生成するコマンド生成
    ステップと、 を実行させるプログラムを記録したコンピュータ読み取
    り可能な記録媒体。
  19. 【請求項19】 前記コマンド生成ステップは、入力対
    象のオリエンテーション情報と同入力対象のシェイプ情
    報との組み合わせとゲームを進行させるためのコマンド
    との対応関係を示す情報をあらかじめ用意しておき、前
    記あらかじめ用意された情報を参照して、前記オリエン
    テーション検出ステップで検出されたオリエンテーショ
    ン情報と前記シェイプ検出ステップで検出されたシェイ
    プ情報との組み合わせに対応付けられたコマンドを前記
    入力コマンドとして決定することを特徴とする請求項1
    8に記載の記録媒体。
  20. 【請求項20】 入力対象の動的なジェスチャーを撮像
    して前記入力ビデオ信号を得る撮像ステップをさらに備
    えることを特徴とする請求項18または19に記載の記
    録媒体。
  21. 【請求項21】 前記コマンド生成ステップは、あらか
    じめ用意した人間特有の動きを参照して前記組み合わせ
    を補正する処理を含むことを特徴とする請求項18に記
    載の記録媒体。
  22. 【請求項22】 前記画像入力ステップは、前記二値画
    像に対して加重平均を施し、その加重平均から前記オリ
    エンテーション検出ステップ、前記シェイプ検出ステッ
    プでそれぞれ処理するための二値画像データを得ること
    を特徴とする請求項18に記載の記録媒体。
  23. 【請求項23】 前記シェイプ判定ステップは、前記画
    像入力ステップで取得された二値画像データに基づいて
    セントロイダル・プロファイル(CentroidalProfile)
    を抽出し、当該抽出されたセントロイダル・プロファイ
    ルのピークから前記入力対象のシェイプ情報を検出する
    請求項18、21または22に記載の記録媒体。
  24. 【請求項24】 前記シェイプ検出ステップは、前記入
    力対象が手の場合、指の本数と指の角度をシェイプ情報
    として検出することを特徴とする請求項23に記載の記
    録媒体。
  25. 【請求項25】 前記オリエンテーション検出ステップ
    は、前記画像入力ステップで取得された二値画像データ
    に対するハフ・トランスフォーメーション(Hough Tran
    sformation)から前記入力対象のオリエンテーション情
    報を検出することを特徴とする請求項18、21または
    22に記載の記録媒体。
JP2000398372A 1999-12-31 2000-12-27 ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体 Pending JP2001246161A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000398372A JP2001246161A (ja) 1999-12-31 2000-12-27 ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-377234 1999-12-31
JP37723499 1999-12-31
JP2000398372A JP2001246161A (ja) 1999-12-31 2000-12-27 ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体

Publications (1)

Publication Number Publication Date
JP2001246161A true JP2001246161A (ja) 2001-09-11

Family

ID=26582825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000398372A Pending JP2001246161A (ja) 1999-12-31 2000-12-27 ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体

Country Status (1)

Country Link
JP (1) JP2001246161A (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005047331A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 制御装置
JP2005063090A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2006039917A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2009535172A (ja) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク 多入力ゲーム制御ミクサ
EP2204760A1 (en) * 2008-12-30 2010-07-07 Topseed Technology Corp. Method for recognizing and tracing gesture
WO2011093317A1 (ja) * 2010-01-29 2011-08-04 新世代株式会社 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、画像処理モジュール、及び、電子機器
JP2012502344A (ja) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
US8270670B2 (en) 2008-12-25 2012-09-18 Topseed Technology Corp. Method for recognizing and tracing gesture
JP2012531652A (ja) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クロマキーを用いたジェスチャ認識
JP2013500771A (ja) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション 視覚表示の自動生成方法及びシステム
WO2014002803A1 (ja) * 2012-06-25 2014-01-03 オムロン株式会社 モーションセンサ、物体動作検知方法及び遊技機
JP2014004154A (ja) * 2012-06-25 2014-01-16 Omron Corp 遊技機
JP2014006727A (ja) * 2012-06-25 2014-01-16 Omron Corp モーションセンサ及び物体動作検知方法
US8675915B2 (en) 2002-07-27 2014-03-18 Sony Computer Entertainment America Llc System for tracking user manipulations within an environment
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8823817B2 (en) 2010-09-17 2014-09-02 Hitachi, Ltd. Camera management device and network camera system
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8878896B2 (en) 2005-10-31 2014-11-04 Extreme Reality Ltd. Apparatus method and system for imaging
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US9177220B2 (en) 2004-07-30 2015-11-03 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US9682320B2 (en) 2002-07-22 2017-06-20 Sony Interactive Entertainment Inc. Inertially trackable hand-held controller
US10283120B2 (en) 2014-09-16 2019-05-07 The University Of Hull Method and apparatus for producing output indicative of the content of speech or mouthed speech from movement of speech articulators
WO2023071640A1 (zh) * 2021-10-29 2023-05-04 海信视像科技股份有限公司 一种显示设备及显示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59132079A (ja) * 1983-01-17 1984-07-30 Nippon Telegr & Teleph Corp <Ntt> 手操作入力装置
JPH06309463A (ja) * 1993-04-21 1994-11-04 A T R Tsushin Syst Kenkyusho:Kk 実時間形状認識装置
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH10171831A (ja) * 1996-12-11 1998-06-26 Toshiba Eng Co Ltd 画像ファイル検索装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59132079A (ja) * 1983-01-17 1984-07-30 Nippon Telegr & Teleph Corp <Ntt> 手操作入力装置
JPH06309463A (ja) * 1993-04-21 1994-11-04 A T R Tsushin Syst Kenkyusho:Kk 実時間形状認識装置
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH10171831A (ja) * 1996-12-11 1998-06-26 Toshiba Eng Co Ltd 画像ファイル検索装置

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9682320B2 (en) 2002-07-22 2017-06-20 Sony Interactive Entertainment Inc. Inertially trackable hand-held controller
US8675915B2 (en) 2002-07-27 2014-03-18 Sony Computer Entertainment America Llc System for tracking user manipulations within an environment
JP2005047331A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 制御装置
JP2005063090A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
JP2006039917A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US9177220B2 (en) 2004-07-30 2015-11-03 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US8878896B2 (en) 2005-10-31 2014-11-04 Extreme Reality Ltd. Apparatus method and system for imaging
US9131220B2 (en) 2005-10-31 2015-09-08 Extreme Reality Ltd. Apparatus method and system for imaging
JP2009535172A (ja) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク 多入力ゲーム制御ミクサ
JP2013084281A (ja) * 2006-05-04 2013-05-09 Sony Computer Entertainment America Llc ゲーム制御入力データを分析するためのシステム及び方法
JP2012166036A (ja) * 2006-05-04 2012-09-06 Sony Computer Entertainment America Llc ゲーム制御入力データを分析するためのシステム及び方法
KR101511819B1 (ko) 2008-09-04 2015-04-13 익스트림 리얼리티 엘티디. 영상 센서에 기반한 인간 기계장치 인터페이스를 제공하는 방법 시스템 및 소프트웨어
JP2012502344A (ja) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
US8270670B2 (en) 2008-12-25 2012-09-18 Topseed Technology Corp. Method for recognizing and tracing gesture
EP2204760A1 (en) * 2008-12-30 2010-07-07 Topseed Technology Corp. Method for recognizing and tracing gesture
JP2012531652A (ja) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クロマキーを用いたジェスチャ認識
JP2013500771A (ja) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション 視覚表示の自動生成方法及びシステム
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
WO2011093317A1 (ja) * 2010-01-29 2011-08-04 新世代株式会社 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、画像処理モジュール、及び、電子機器
US8823817B2 (en) 2010-09-17 2014-09-02 Hitachi, Ltd. Camera management device and network camera system
JP2014006727A (ja) * 2012-06-25 2014-01-16 Omron Corp モーションセンサ及び物体動作検知方法
JP2014004154A (ja) * 2012-06-25 2014-01-16 Omron Corp 遊技機
WO2014002803A1 (ja) * 2012-06-25 2014-01-03 オムロン株式会社 モーションセンサ、物体動作検知方法及び遊技機
US9789393B2 (en) 2012-06-25 2017-10-17 Omron Corporation Motion sensor, object-motion detection method, and game machine
US10283120B2 (en) 2014-09-16 2019-05-07 The University Of Hull Method and apparatus for producing output indicative of the content of speech or mouthed speech from movement of speech articulators
WO2023071640A1 (zh) * 2021-10-29 2023-05-04 海信视像科技股份有限公司 一种显示设备及显示方法

Similar Documents

Publication Publication Date Title
JP2001246161A (ja) ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体
KR101084030B1 (ko) 게임장치, 게임처리방법 및 정보기록매체
US10421013B2 (en) Gesture-based user interface
CN116600866B (zh) 选择锚定偏移瞄准位置
EP2701816B1 (en) Manual and camera-based avatar control
US11644893B2 (en) Application processing system, method of processing application, and storage medium storing program for processing application
EP1760571B1 (en) Input data processing program and information processing apparatus
JP5373876B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20110098111A1 (en) Game apparatus, storage medium storing a game program, and game controlling method
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
JP5509227B2 (ja) 移動制御装置、移動制御装置の制御方法、及びプログラム
CN109224437A (zh) 一种应用场景的交互方法和终端以及存储介质
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
US20070097116A1 (en) Information display apparatus
CN113260426A (zh) 游戏系统、处理方法以及信息存储介质
JP4433579B2 (ja) ゲームシステム及び情報記憶媒体
JP7248720B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US20220351446A1 (en) Animation production method
JP7052128B1 (ja) 情報処理システム、プログラム及び情報処理方法
JP5213913B2 (ja) プログラム及び画像生成システム
JP6957712B1 (ja) プログラムおよび視野制御方法
JP3768223B1 (ja) ゲームシステム、プログラム及び情報記憶媒体
JP6919050B1 (ja) ゲームシステム、プログラム及び情報処理方法
JP7154258B2 (ja) プログラム、端末及びゲーム制御方法
JP7105574B2 (ja) プログラム及びゲーム装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060320