[go: up one dir, main page]

JP5619775B2 - マルチメディアの表示から情報を制御及び要求する方法 - Google Patents

マルチメディアの表示から情報を制御及び要求する方法 Download PDF

Info

Publication number
JP5619775B2
JP5619775B2 JP2011547874A JP2011547874A JP5619775B2 JP 5619775 B2 JP5619775 B2 JP 5619775B2 JP 2011547874 A JP2011547874 A JP 2011547874A JP 2011547874 A JP2011547874 A JP 2011547874A JP 5619775 B2 JP5619775 B2 JP 5619775B2
Authority
JP
Japan
Prior art keywords
image
module
motion
face
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011547874A
Other languages
English (en)
Other versions
JP2012516497A (ja
Inventor
ヤン,ルイデュオ
ルオ,イン
ジャン,タオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2012516497A publication Critical patent/JP2012516497A/ja
Application granted granted Critical
Publication of JP5619775B2 publication Critical patent/JP5619775B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、メディアを制御する方法に関するものであり、特に、本発明は、マルチメディアの表示において認識された特徴に関連する有効な情報を要求するジェスチャーを認識することで、顔認識を使用して係る情報を取得する方法に関する。
電子装置を操作するユーザは、電子的な遠隔制御に益々依存している。電子的な遠隔制御により、ユーザは、ある距離からコマンドを発生し、赤外線(IR)及び無線信号を通して電子装置にコマンドを送出することができる。
典型的な家庭では、テレビジョン、ケーブルTV受信機、CDプレーヤ、ビデオレコーダ、DVDプレーヤ、オーディオレシーバ、コンピュータシステム及び更には照明のような1以上の電子装置は、遠隔制御を使用して制御することができる。実際に、多くの電子的なコンポーネントは、遠隔制御を通してコマンドに依存しており、この場合、遠隔制御は、電子装置のプリファレンスにのみアクセスすることができる。電子的な遠隔制御は、実際は非常に複雑になるが、それらの使用は、特に多くの遠隔制御はライブメディアに対する更なるアクセスのしやすさを作り上げているので更に普及している。多くの電子的な消費者は、全てのマルチメディアの形態、特にテレビジョンとの双方向性を高める強い望みを有している。
電子的な消費者は、長く望まれている増加されるマルチメディアとの双方向性及び参加を有している。電子的な遠隔制御を除くことも例外ではない。電子装置に指示する人間の身体のジェスチャーを使用することは、サイエンス・フィクション(SF)において長年にわたり議論されてきた。しかし、ジェスチャー認識の発展により、人間のジェスチャは、電子的な出力装置にコマンドを発することにおいて価値があることが分かっている。
ジェエスチャー認識技術により、ユーザは、電子的な遠隔制御のような他のメカニカルな装置を使用することなしに、電子装置と対話することができる。この技術は、人間の身体の動きを読み取り、収集されたデータをコンピュータに伝達するカメラを通常含む。次いで、コンピュータは、電子装置向けの意図されたコマンドとして選択されたジェスチャーを認識する。たとえば、実際に、ユーザは、カーソルを移動させ、アプリケーションコマンドを作動するため、テレビジョン又はコンピュータスクリーンを指し示すことができる。
インタラクティブメディアシステムは、米国特許第7283983号で開示されており、ビデオカメラに結合されるコンピュータであって、書籍、教育マテリアル、雑誌、ポスター、チャート、マップ、個人のページ、パッケージング、ゲームカード等のような印刷媒体の使用と共に、人間のユーザのための双方向性を増加するコンピュータを教示する。コンピュータシステムは、ビジョンに基づいたセンサを使用して、印刷媒体を識別し、そのビューに対応する情報を取得する。次いで、センサは、少なくともメディアの一部に関して第一のユーザのジェスチャーを識別する。次いで、コンピュータシステムは、ジェスチャーをコマンドとして解釈し、第一のジェスチャー及び取得された情報に基づいて、システムは、取得された情報の少なくとも一部を電子的に音声として出力する。
人間のジェスチャーは、上述された手の動きを含めて、身体の動き又は状態から生じることができる。顔の認識は、それらのジェスチャーが何処から生じているかを区別することで動き検出システムを更に支援し、関連のない動きをフィルタリングする。
人間は、顔を認識して区別する固有の能力を有するが、同じ固有の能力コンピュータソフトウェアに採用することは非常に困難である。しかし、過去数年において、システムが良好に開発されている。
コンピュータと共に使用される顔認識により、デジタル画像又はビデオソースから、ある人物の識別及び検証が可能である。人間の顔は、様々な区別可能な特徴を有するので、ある人物の識別のために、これらの特徴の比較が利用される。アルゴリズムを使用して、コンピュータソフトウェアは、目の間の距離、眼窩の深さ、頬骨の形状及び他の顔の特徴のような特性を比較し、それぞれの特徴を既存の顔データと比較することができる。
Agraham等による米国特許第6377995号は、マルチメディア通信の選択された部分が効果的に取得され且つ中継されるように、顔及び音声認識を使用したマルチメディア通信を索引付けする方法及び装置を提供する。本方法及び装置は、顔及び音声認識を結合して、データ又はメタデータを含む、マルチキャストのマルチメディア電話会議への参加者を識別する。サーバは、オーディオ及びビデオの顔パターンの両者が特定の参加者の音声及び顔モデルに整合するときに、特定の参加者の同一性を決定し、その参加者の音声及び顔パターンの同一性に基づいて参加者のインデックスを作成し、これによりインデックスは、マルチメディア通信を分割するために使用される。
Depth-awarenessカメラは、広く利用されており、メディアを制御するために使用される。Sony Eyetoy and Playstation Eyeのようなビデオパターン認識ソフトウェアは、専用カメラを利用して、短距離でカメラを通して見られているものの深度マップを生成し、ユーザは、動き、色検出を使用してメディアと対話することができ、更には内蔵のマイクロフォンを使用して音で対話することができる。
McCarty等による米国特許第6904408号は、ユーザのウェブブラウジング体験をカスタマイズするために使用されるウェブコンテンツマネージャを教示する。マネージャは、旧式のデータベースで収集されるユーザの心理的な好みに従って、少なくとも1つのリアルタイムの観察可能な行動信号に応答して、適切なオンラインメディアを選択する。皮膚の温度、脈拍数、心拍数、EMG、EEG、音声ストレス及びジェスチャー認識は、幾つかの行動の応答であり、心理的なインジケータが測定及び分析される。ジェスチャー認識は、ビデオ入力のコンピュータ分析により達成される。顔の位置は、明るい態度又は暗い態度を示し、この場合、毎分のカウント数は、心配を示すために使用される。
ジェスチャー認識は、多くの応用のために有効であることが分かっている。しかし、ジェスチャー認識は、ジェスチャー認識ソフトウェアのロバスト性及び正確性を含めて、多くの課題を有する。画像に基づいたジェスチャー認識について、機器に関連する制限及び視野で発見される雑音の量に関連する制限が存在する。意図されないジェスチャー及び背景の動きは、発せられたコマンドの十分な理解を妨げる。
特に、人間のジェスチャーを使用して、メディアコンテンツを制御することが必要とされている。しかし、従来のアプローチは、ロバストでないジェスチャー認識技術を採用している。
本発明は、ジェスチャーを使用してインタラクティブメディアを制御するロバストな方法を提供する。
マルチメディア発信装置からメタデータ情報を取得する方法は、以下のステップを含む。(1)顔検出を使用して現在捕捉された画像において画像のホットスポット領域を抽出すること、(2)ジェスチャー認識を使用して少なくとも1つの画像のホットスポット領域における人間のジェスチャーの指示を検出すること、(3)ジェスチャーの指示がリッチインタラクションモジュールに予め割り当てられたコマンドに整合するかを判定すること、(4)検出された予め割り当てられたコマンドに対応するリッチインタラクションモジュールに信号を送出するステップと、(5)マルチメディアから送出された電気信号からメディア画像のホットスポット領域を抽出すること、(6)ジェスチャー認識を使用して少なくとも1つの画像のホットスポット領域において検出された人間のジェスチャーを、スクリーンデバイスの特定の画素と整合させること、(7)スクリーンデバイスの画素の領域に割り当てられたメタデータから情報を取得すること。
本発明は、イメージセンサと、イメージセンサを通してピクチャ画像を受ける入力画像モジュールとを有するカメラを有するメディア制御装置を更に有する。入力画像モジュールは、メモリ、顔検出モジュール及びジェスチャー認識モジュールに更に接続する。メディア制御インタフェースは、入力画像モジュールからのコマンドを受け、電気信号をリッチインタラクションモジュールに発し、リッチインタラクションモジュールは、マルチメディア発信装置に取り付けられ、マルチメディア発信装置から電気信号を受けて、送出する。
本発明は、添付図面を参照して、実施の形態を参照して以下に更に詳細に説明される。
マルチメディア制御システムにより使用される代表的な機器のブロック図である。 マルチメディア制御システムの透視図である。 カメラにより捕捉される画像に適用される、顔検出モジュールのフローチャートである。 顔検出アルゴリズムを使用した現在の捕捉された画像を処理する顔検出モジュールを例示する図である。 ジェスチャー認識モジュールのフローダイアグラムである。 ジェスチャー認識アルゴリズムを使用して現在の捕捉された画像を処理するジェスチャー認識モジュールを例示する図である。 顔検出を使用してマルチメディアスクリーンで画像形成されるマルチメディアとのリッチユーザインタラクションを表すフローダイアグラムである。 リッチインタラクションを例示する図である。 マルチメディア装置により送出される画像信号に適用される、顔検出モジュールのフローダイアグラムである。
本発明は、以下に詳細に説明され、本発明の実施の形態は、添付図面を参照して例示される。
図1を参照して、本発明に係るマルチメディア制御システム1が例示される。マルチメディア制御システム1は、イメージセンサ2、メモリ5に接続される入力画像モジュール4、メディア制御インタフェース6、メモリ5に接続される顔検出モジュール10及びジェスチャー認識モジュール20、リッチインタラクションモジュール7及びマルチメディアアウトレット装置8を有する。
イメージセンサ2は、特に、光画像を電気信号に変換する装置である。電気信号は、入力画像モジュール4に入力され、処理の前にメモリ5に記憶される。
基本的に、イメージセンサ2は、図2に更に例示されるようにデジタルカメラ30と共に使用される。カメラ30は、イメージセンサ2上の光を捕捉及び焦点合わせするために使用される。イメージセンサ2は、マルチメディアユーザ3からの複数の静止画像を捕捉し、このユーザは、マルチメディアアウトレット装置8にコマンドを発する場合がある。イメージセンサ2は、捕捉された光を電気出力信号に変換し、電気出力信号は、入力画像モジュール4を通して処理される。顔検出及びジェスチャー認識モジュール10,20は、メモリ5を通して入力画像モジュール4に接続され、発せられたコマンドがユーザ3により実行されているかを判定することと共に、電気信号を処理する。
カメラ30は、角度θでカメラの視野を調節するズームレンズ(図示せず)を有する。これは、潜在的な雑音を制限するために第一且つ最も基本的なやり方である。マルチメディアユーザ3は、マルチメディアユーザ3にカメラが焦点合わせすることができるように、カメラ30を調節する。
実施の形態では、入力画像モジュール4は、マイクロプロセッサのようなプログラマブル装置である。入力画像モジュール4はデジタルカメラ30に統合して製造することができるが、更なる実施の形態は、カメラ30及びイメージセンサ2とは別に、配線により接続される入力画像モジュール4の単独の構成を可能にする。
入力画像モジュール4は、メモリコンポーネントを有し、このコンポーネントは、カメラ30により捕捉される到来する画像フレームを記憶し、イメージセンサ2によリ信号伝達される。記憶される画像は、収集され、顔検出モジュール10とジェスチャー認識モジュール20との間の処理のために記憶される。メディア制御インタフェース6は、入力画像モジュールの更に別のコンポーネントであり、好ましくは1つの構成で提供される。しかし、メディア制御インタフェース6は、入力画像モジュール4に外部コンポーネントとして提供されることも可能である。
入力画像モジュール4は、モジュール10,20を有し、それらの論理的な機能及び接続性は、顔検出及びジェスチャー認識に関連するアルゴリズムに従って予めプログラムされる。顔検出及びジェスチャー認識モジュール10,20の両者は、本発明の実施の形態において入力画像モジュール4に統合して構築される。
顔検出及びジェスチャー認識モジュール10,20のアルゴリズムにより決定される結果に依存して、入力画像モジュール4は、図1に例示されるように、メディア制御インタフェース6を通してマルチメディア発信装置8にコマンドを供給する。
実施の形態では、コマンドは、予め割り当てられたジェスチャーの指示により予めプログラムされる。ジェスチャー認識モジュール20は、マルチメディアアウトレット装置8により実行される特定のコマンドとして、多数の特定のジェスチャーの指示を認識する。たとえば、ユーザが彼の顔の右に彼の右手を振った場合、ジェスチャー認識モジュールは、そのジェスチャーを、マルチメディアアウトレット装置8をオフにするコマンドとして認識する。しかし、他の実施の形態では、システム1は、発生されたコマンドとしてそれら自身の特定のジェスチャーをユーザ3がプログラムするのを可能にする。たとえば、オフコマンドとしてユーザが彼の左の手を彼の顔の左に振ることでオフコマンドがトリガされるように、ユーザはシステム1をプログラムすることができる。
リッチインタラクションモジュール7は、マルチメディアアウトレット装置8で表示される画像の処理のために入力画像モジュール4にそれらの信号を送出するため、マルチメディアアウトレット装置8からの信号を受ける。さらに、リッチインタラクションモジュール7は、ユーザ3の指示とデバイススクリーン9上の特定のスポットとを整合させる。
本発明に係る図1に例示されるマルチメディア制御システム1は、ユーザ3に、メディアを制御する方法、特に顔認識を使用してマルチメディアにおける特徴に関連する有効な情報を索引付けし、次いで対応する特徴に関する情報を要求するジェスチャーを認識する。本発明の目的は、人間のジェスチャーのみを使用して、ロバストなやり方でマルチメディアアウトレット装置8で数字(figure)に関するメタデータをユーザ3が取得するのを可能にすることである。ジェスチャーは、カメラ30及びイメージセンサ2を通して捕捉される。しかし、顔検出モジュール10により実行されるアルゴリズムにより定義及び抽出される割り当てられた画像のホットスポット領域でジェスチャーが行われる場合、ジェスチャーが認識される。ジェスチャー認識モジュール20は、アルゴリズムを実行して、ユーザにより実行された動きが実際に発生されたコマンドであるかをロバストに判定する。動きが意図されたコマンドであるとジェスチャー認識モジュール20が判定した場合、どのコマンドがメモリ5において予め割り当てられたジェスチャの指示に基づいているかを更に判定する。
図2に更に例示されるように、ユーザ3は、電子的な遠隔制御を使用することなしに、オン/オフ、開始/停止、巻き戻し/早送り等のような人間のジェスチャーの指示14を使用して、マルチメディアアウトレット装置8に指示する。マルチメディアアウトレット装置8は、テレビジョン又はCPUモニタにような様々な電子装置である。しかし、実施の形態では、マルチメディアアウトレット装置8は、テレビジョンセットである。
図2に例示されるように、カメラ30は、視野31において画像を捕捉する。現在の捕捉された画像Ciは、顔検出モジュール10により処理されるため、イメージセンサ2を使用して入力画像モジュール4に電子的に信号伝達される。顔検出モジュール10は、f1から開始して、顔領域11を割り当て、視野31における顔を判定する。f1として割り当てられたこの顔領域11に基づいて、顔検出モジュールは、ジェスチャーの指示14の認識を改善するため、画像のホットスポット領域12a,12bを更に抽出及び割り当てる。また、唯一のホットスポット領域12aを顔検出モジュールに抽出及び割り当てさせることもできる。係る状況において、1つのホットスポット領域12aは、更に改善されたロバスト性により、望まれない動きをフィルタリングするために使用される。
図示される実施の形態では、それぞれの画像ホットスポット領域12a,12bは、顔領域f1により定義され、第一の画像ホットスポット領域12aは、顔領域f1のちょうど左の領域に割り当てられ、第二の画像ホットスポット領域12bは、顔領域f1のちょうど右の領域に割り当てられる。図示される実施の形態では、何れか画像ホットスポット領域12a,12bの大きさは、顔領域f1のサイズに依存する。顔領域f1は、頭部を実質的に超える領域と、検出された顔を実質的に下回る領域とにより定義される。図示される実施の形態では、顔領域f1と画像ホットスポット領域12a,12bのサイズは、人間のジェスチャーの指示14の認識を良好に改善するために小さなサイズ又は大きなサイズに較正することができる。
割り当てられたホットスポット領域12a,12bの位置は、検出された顔の領域f1の近くにあり、且つホットスポット領域12a,12bにおける捕捉された画像Ciが容易に識別することができる限りフレキシブルである。たとえば、頭部のちょうど下にある割り当てられたホットスポット領域12a,12bは、良好な候補ではない。これは、身体の画像がその領域における手の画像と干渉するためである。
図3は、顔検出を使用して画像ホットスポット抽出方法のフローダイアグラムであり、図4は、顔検出方法の視覚的な表現を例示する図である。はじめに、カメラ30は、現在の捕捉された画像Ciを捕捉し、この現在の捕捉された画像は、イメージセンサ2により電気信号に変換される。顔検出モジュール10により最初に処理されるように、信号はメモリ5にファイルとして記憶される。
顔検出モジュール10は、現在の画像Ciを使用して顔検出アルゴリズム13を実行する。顔検出アルゴリズム13は、現在の捕捉された画像ファイルCiを処理して、視野31における顔を検出する。顔検出アルゴリズム13は、上述されたように多数の顔を検出し、顔領域(f1,f2,…,fn)を割り当てる。
はじめに、顔検出領域13は、現在の画像Ciをメモリ5から入力ファイルとして取得する。認識された第一の顔は、顔領域f1として示される。視野31内の顔の数に依存して、アルゴリズムは、他の顔領域を識別して、第二の顔領域をf2,…,fnとして指定する。ここでnは、視野31における顔の数である。アルゴリズムが顔を検出しない場合、顔検出モジュール10は、メモリ5に戻り、新たに捕捉された画像Cnで顔検出アルゴリズム13を繰り返す。
顔が識別された後、顔検出モジュール10は、画像ホットスポット領域12a,12bのそれぞれとして顔の左の領域と右の領域を識別して指定する。画像のホットスポット領域12a,12bは、マスクとして利用され、ホットスポットでない領域における意図されないジェスチャーをフィルタリングする。ひとたび画像ホットスポット領域12a,12bが割り当てられると、モジュールは、出力ファイルを生成する。出力ファイルは、矩形のアレイから構成され、この矩形は、検出された顔領域f1の大きさによりスケーリングされる、顔領域f1及び画像ホットスポット領域12a,12bに対応する。出力ファイルは、ジェスチャー認識モジュール20により更に処理されるように、メモリ5に記憶される。
図5は、ジェスチャー認識を使用してメディアを制御するメディアの指示を表すフローダイアグラムであり、図6は、ジェスチャー認識とメディアにより制御される指示の視覚的な表現を例示する。
現在の捕捉された画像Ciのファイルが顔検出モジュール10からメモリ5に読み出された後、ジェスチャー認識モジュール20は、ジェスチャー認識アルゴリズム21を実行する。
メモリ5に記憶されている前に捕捉された画像Ci-1のファイルを使用して、ジェスチャー認識アルゴリズム21は、現在の捕捉された画像Ciと前に捕捉された画像Ci-1との間の差Diの絶対値をはじめに計算する。ジェスチャー認識アルゴリズム21は、エロージョン(erosion)動作を差Diに適用して、小さな領域をはじめに除き、人間のジェスチャーの指示14のより改善された認識を支援する。
図示される実施の形態では、差Diにエロージョンを実行するため、関数cvErodeが使用される。cvErode関数は、最小が取得される画素の近傍の形状を決定する指定された構造化エレメントを使用する。エロージョン関数は、図示される実施の形態で一度だけ適用されるが、他の実施の形態において、エロージョン関数は、差Diに対して数回適用することができる。
捕捉された画像Ci及びCi-1は顔検出モジュール10により以前に処理され、メモリ5に記憶されているので、それぞれの捕捉された画像Ci及びCi-1は、割り当てられ、抽出された画像のホットスポット領域12a,12bを含む。ジェスチャー認識アルゴリズム21は、抽出された画像ホットスポット領域12a,12bを使用して、ホットスポットでない領域における動きをマスク及びフィルタリングすることができる。結果として、ジェスチャー認識アルゴリズム21は、指定されていない画像ホットスポット領域における動きに関して差Diを変更し、動き履歴画像(MHI: Motion History Image)を構築する。動き履歴画像(MHI)は、動きの塊(blobs)を検出し、ジェスチャー認識アルゴリズム21の更なる動作は、これらのジェスチャーの塊が実際の人間のジェスチャーの指示14であるかを判定する。
動き履歴画像(MHI)は、時間を通した動きを定量化して特定し、画像の系列において動きがどのように生じるかを表す。本発明では、動きの塊は、特定の領域、特に画像ホットスポット領域12a,12bにおいてジェスチャー認識モジュール20により検討され、認識される。
それぞれの動き履歴画像(MHI)は、タイムスタンプの特定の画像座標x,yにより識別及び定義される画素を有する。画像の座標x,yは、その画素における最後の動きに関連する。動きは画像ホットスポット領域12a,12bにおいて検出されるので、ジェスチャー認識アルゴリズム21は、動き履歴画像(MHI)を修正して、結果として得られる動きの塊の階層化された履歴を作成する。
画像ホットスポット領域12a,12bで検出された全ての動きの塊について、ジェスチャ認識アルゴリズム21は、最大及び最小のx,y画素の座標を探し、最大の値をlx,ly、最小の値をSx,Syと示す。
動き履歴画像(MHI)の最大及び最小のx,y画素座標を使用して、ジェスチャー認識アルゴリズム21は、lyとSyとの間の差が第一の経験値T1よりも大きい(ly-Sy>T1)かがはじめに判定される。この判定について肯定(Yes)である場合、ジェスチャー認識アルゴリズム21は、認識されたジェスチャーの指示14を有するとして現在の捕捉された画像Ciを認識しない。第一の経験値T1は、統計的に又は実験により決定され、マルチメディア制御システム1がインストールされる前にアルゴリズムに実現される。認識されたジェスチャーの指示14が存在しない場合、ジェスチャー認識アルゴリズム21は、Ciを処理するのを停止し、顔検出モジュール10によりはじめに処理される新たに捕捉された画像Cnで開始される。
lyとSyとの間の差が第一の経験値T1よりも大きくない場合、ジェスチャー認識アルゴリズム21は、次のステップに移り、lxとSxとの間の差が第二の経験値T2よりも大きい(lx-Sx>T2)かを判定する。この判定について肯定的である場合、ジェスチャー認識アルゴリズム21は、新たに捕捉された画像Cnについて開始して、認識された人間のジェスチャーの指示14を有するとして現在の捕捉された画像Ciを認識しない。さもなければ、ジェスチャー認識アルゴリズム21は、x方向の動き(lx-Sx)がy方向の動き(ly-Sy)よりも小さいかを判定する。x方向の動きがy方向の動きよりも小さい場合、ジェスチャー認識アルゴリズム21は、現在の捕捉された画像Ciにおけるジェスチャー指示14を認識せず、アルゴリズム21は、新たに捕捉された画像Cnについて開始する。
デフォルトとして、ジェスチャー認識アルゴリズム21が現在の捕捉された画像Ciにおいてジェスチャーの指示14を識別及び認識する必要があるが、動き履歴画像(MHI)において「十分に大きい」成分が存在する場合、ジェスチャー認識アルゴリズム21は、「手の動き」が存在すると判定する。「十分に大きい」とは、システム1の実現の前に、統計的又は実験的に決定される経験的な閾値である。
「手の動きを有する」と認識した3つの連続する捕捉された画像が存在する場合、ジェスチャー認識モジュール10は、メディア制御インタフェース6を通して、メディアアウトレット装置に特定のコマンドを発生する。
「手の動きを有する」とは、マルチメディアアウトレット装置8に対する特性のコマンドを制御するジェスチャーの指示14であるべきである。「手の動きを有する」に関連する特定の制御コマンドは、左の画像ホットスポット領域12a又は右の画像ホットスポット領域12bの何れかとして、「手の動きを有する」が何処で認識されたかに関して決定される。先に記載されたように、特定の制御コマンドは、特定の画像ホットスポット領域12a,12bに予め割り当てられるか、ユーザ3により予めプログラムされる。
ジェスチャー認識モジュール20は、「手の動きを有する」が3つの連続する捕捉された画像にわたり認識される場合に、特定のコマンドを送出する。次いで、その特定のコマンドは、対応する電気的なコマンド信号をメディアアウトレット装置8に中継するメディア制御インタフェース6に送出される。
異なるジェスチャーの全てのジェスチャーの指示は、良好に定義され、予め割り当てられたコマンドは、マルチメディア制御システム1で記憶される。しかし、ユーザ3は使用前に彼自身のコマンドを定義することもできる。従って、右の画像ホットスポット領域12bにおける手の振りがマルチメディアアウトレット装置8をオンにするための定義されたジェスチャーであり、且つジェスチャー認識アルゴリズム21が右の画像ホットスポット領域12bにおけるジェスチャーの指示14として手の振りを認識した場合、マルチメディアアウトレット装置8は、オンになるように信号伝達される。逆に、左の画像ホットスポット領域12aにおける手の振りがマルチメディアアウトレット装置8をオフにするための定義されたジェスチャーであり、且つジェスチャー認識アルゴリズム21が左の画像ホットスポット領域12aにおけるジェスチャーの指示14として手の振りを認識した場合、マルチメディアアウトレット装置8は、オフになるように信号伝達される。
動き履歴画像(MHI)が構築されるとき、動き検出を行うため、2つの実現が存在する。1つの実現では、動き履歴画像(MHI)は、全体の捕捉された画像Ciを使用して構築される。しかし、別の実現では、動き履歴画像(MHI)は、ホットスポット領域12a,12bの画像のみを使用して構築される。ユーザ3が静止しているとき、すなわち頭の動きが僅かであるか又は動きがないとき、何れの実現も同じ結果につながる。しかし、ユーザ3が動いている場合、これらの実現は異なる。
図示される実施の形態では、割り当てられたホットスポット領域12a,12bは顔f1に関して相対的に位置しており、顔f1は、幾分動いている。動き検出はこれらの場合に正確であるが、頭部による動きは動き検出におけるエラーを引き起こす可能性がある。動き履歴画像(MHI)が全体の画像を使用して構築される場合、割り当てられたホットスポット領域12a,12bにおいて動きが存在する。しかし、動き履歴画像(MHI)が割り当てられたホットスポット領域12a,12bのみを使用して構築される場合、外部の動きがフィルタリングされるために、検出を改善することができる。
さらに、唯一のホットスポット領域12aが割り当てられる実施の形態では、割り当てられたホットスポット領域12a,12bから構築される動き履歴画像(MHI)を含めて、ホットスポットにおけるジェスチャーを認識して高い精度を達成するため、より強力なジェスチャー認識アルゴリズムが必要とされる。
先に記載された装置及び方法は、インタラクティブマルチメディアアウトレット装置8を制御するために使用することができ、動きの認識を画像ホットスポット領域12a,12bに制限する顔検出技術が画像ホットスポット領域12a,12bを定義及び抽出するのを助け、非常にロバストなやり方でアウトレット装置に人間のジェスチャーを通してコマンド制御を発生する。
マルチメディア制御システム1は、リッチインタラクション7をオンにするコマンドを含むように更に開発される。
図7は、顔検出を使用してデバイススクリーンで画像形成されるマルチメディアディスプレイとのリッチインタラクションを表すフローダイアグラムであり、図8は、リッチインタラクションの視覚的な表現を例示する。図9は、マルチメディア装置により送出される画像信号に適用される、顔検出モジュールのフローダイアグラムである。
ひとたびオンされると、ユーザ3はリッチインタラクションモジュール7を使用して、入力画像モジュール4における処理のためにマルチメディアアウトレット装置8から画像信号を受け、上述されたように、カメラ画像信号が処理される。しかし、マルチメディアアウトレット装置8から送出される画像信号は、メタデータを含み、このメタデータは、必要に応じてデバイススクリーン9に表示される。
ユーザ3は、ビデオ/画像信号と統合されたメタデータを使用して、スクリーン上である人物に関する情報を要求することができる。ユーザは、顔検出モジュール10を使用して検出された、スクリーン上のある顔を示すことで情報を要求することができる。
入力画像モジュール4は、顔検出モジュール10を通してメディア信号を供給し、顔検出モジュールは、顔検出アルゴリズム13を実行して、上述されたように、画像信号が処理されるやり方でデバイススクリーン9上の顔を認識する。顔検出モジュールは、スクリーン上のメディアの顔の領域40を検出し、メディアの顔の領域40の大きさに実質的に整合する1つの画像ホットスポット領域41を割り当てる。
顔検出モジュール10は画像ホットスポット領域12a,12bを現在の捕捉された画像Ciに割り当てるので、リッチインタラクションモジュール7は、画像ホットスポット領域12a,12bで検出された動きを、メディアスクリーン上の特定のスポットと1対1で整合させる。
基本的に、リッチインタラクションモジュール7は、ジェスチャー認識モジュール20を使用して、ジェスチャーの指示14が大きさ調整された画像ホットスポット領域12a,12bに関して何処に現れるかを判定する。ジェスチャー認識モジュール20は、動きが存在する特定の画像の座標x,yを既に識別している。動きの一致及びバウンドは、画像ホットスポット領域12a,12bの大きさに関する。リッチインタラクションモジュール7は、画像ホットスポット領域12a,12bをデバイススクリーンの大きさと整合させ、2つを比例的に整合させる。画像ホットスポット領域12a,12bで捕捉された動きは、画像ホットスポット領域12a,12bの大きさに関して定義された座標を有する。ジェスチャー認識モジュール20は、画像ホットスポット領域12a,12bに何れかにおける動きに関する画像の座標x,yを決定する。デバイススクリーン9は、デバイススクリーン9上のそれぞれの画素に割り当てられた、メディア座標を有する。
メディアホットスポット領域41はメディア座標の定義された領域をカバーするので、リッチインタラクションモジュール7は、デバイススクリーン9上の画素に関して、ジェスチャーの指示14により定義される、画像の座標x,yを整合させる。画像の座標x,yが、メディアホットスポット領域41により輪郭が描かれるメディア座標領域にある場合、リッチインタラクションモジュール7は、スクリーン上のその人物40に関連するメタデータを表示するように、マルチメディアアウトレット装置8に指示する。
メディア信号はメタデータを含むので、リッチインタラクションモジュール7は、どのような情報44がデバイススクリーン9で表示されるかをフィルタリングすることができる。情報44は、メタデータにおいて詳細であり、メタデータは、スクリーン上の画素の領域により定義される。リッチインタラクションモジュール7は、ジェスチャーの指示14がデバイススクリーンでのある点に関するかを判定しているので、リッチインタラクションモジュール7は、もしあれば、どのような情報がデバイススクリーン9に表示されるかを確実に判定することができる。
本発明の実施の形態では、リッチインタラクションモジュール7は、カーソル43がデバイススクリーン9に現れるように、マルチメディアアウトレット装置8にコマンドを供給する。
本発明は、ジェスチャー認識に顔検出技術を補い、人間のジェスチャーにより発せられるコマンドを更に確実にすることで利点を提供する。
上述された内容は、本発明を実施する可能性の幾つかを例示するものである。本発明の範囲及び精神において、多くの他の実施の形態が可能である。従って、上述された内容は、限定するものではなくむしろ例示するものとして考えられ、本発明の範囲は、それらのあらゆる種類の等価者と共に特許請求の範囲により与えられる。

Claims (33)

  1. マルチメディア装置からメタデータを取得する方法であって、
    当該方法は、
    顔認識を使用してマルチメディア装置からの現在の捕捉された画像における動き領域を決定するステップと、
    ジェスチャー認識を使用して前記現在の捕捉された画像において少なくとも1つの動き領域における動きを検出するステップと、
    前記少なくとも1つの動き領域の画素に割り当てられたメタデータを取得するステップと、
    を含み、
    前記ジェスチャー認識は、前記少なくとも1つの動き領域における時間を通した動きを定量化して特定する動き履歴画像を構築することを含み、前記動きを検出するステップは、前記動き履歴画像において、それぞれlx,ly,Sx及びSyとして示される最大のx,y座標と最小のx,y座標を探し、(ly-Sy)及び(lx-Sx)のそれぞれを対応する閾値と比較することで、前記現在の捕捉された画像において前記動きを検出する、ことを特徴とする方法。
  2. 前記現在の捕捉された画像と前の捕捉された画像との間の差を計算し、計算された差を分析するステップを更に含む、
    請求項1記載の方法。
  3. 前記計算された差にエロージョンを適用して小領域を除くステップを更に含む、
    請求項2記載の方法。
  4. 前記動き領域をマスクとして使用して、動きのない領域をフィルタリングするステップを更に含む、
    請求項3記載の方法。
  5. 前記計算された差を加えて動き画像を形成するステップを更に含む、
    請求項4記載の方法。
  6. 前記動き画像は、捕捉された画像から形成される、
    請求項5記載の方法。
  7. 前記動き画像は、前記動き領域から形成される、
    請求項5記載の方法。
  8. 前記動きがメディアを制御するためのコマンドであるかを判定するアルゴリズムを実行するステップを更に含む、
    請求項記載の方法。
  9. カメラを使用して前記捕捉された画像を撮影するステップを更に含む、
    請求項1記載の方法。
  10. それぞれの顔がF1,F2,…,Fnで示される、前記捕捉された画像における顔を検出するステップを更に含む、
    請求項記載の方法。
  11. 前記動き領域は、それぞれの顔の左側の領域と右側の領域とにより定義される、
    請求項10記載の方法。
  12. 左側の動きの領域におけるジェスチャーのコマンドと、右側の動きの領域におけるジェスチャーのコマンドとを定義するステップを更に含む、
    請求項11記載の方法。
  13. マルチメディア装置から画像信号を取得するステップを更に含む、
    請求項1記載の方法。
  14. それぞれの顔がF1,F2,F3,…,Fnで示される、それぞれの画像における顔を検出するステップを更に含む、
    請求項13記載の方法。
  15. それぞれの顔の実質的に周りにある画素領域として、メディアの画像ホットスポット領域を定義するステップを更に含む、
    請求項14記載の方法。
  16. (ly-Sy)が第一の経験値よりも大きい場合に、前記現在の捕捉された画像を認識しないステップを更に含む、
    請求項記載の方法。
  17. 前記第一の経験値は、統計的に決定される、
    請求項16記載の方法。
  18. 前記第一の経験値は、実験を通して決定される、
    請求項16記載の方法。
  19. (lx-Sx)が第二の経験値よりも大きい場合に、前記現在の捕捉された画像を認識しないステップを更に含む、
    請求項16記載の方法。
  20. 前記第二の経験値は、統計的に決定される、
    請求項19記載の方法。
  21. 前記第二の経験値は、実験を通して決定される、
    請求項19記載の方法。
  22. (ly-Sy)>(lx-Sx)である場合に、前記現在の捕捉された画像を認識しないステップを更に含む、
    請求項19記載の方法。
  23. (ly-Sy)が第一の経験値よりも大きく、(lx-Sx)が第二の経験値よりも大きく、(ly-Sy)>(lx-Sx)であり、且つ所定の閾値よりも大きい前記動き履歴画像における成分が存在する場合、制御する動きを有するとして前記現在の捕捉された画像を認識するステップを更に含む、
    請求項22記載の方法。
  24. 前記経験値は、統計的に決定される、
    請求項23記載の方法。
  25. 前記経験値は、実験を通して決定される、
    請求項23記載の方法。
  26. イメージセンサを有するカメラと、
    前記イメージセンサから画像を受ける入力画像モジュールと、
    前記入力画像モジュールに接続されるメモリと、
    前記入力画像モジュールに接続される顔検出モジュールと、
    前記入力画像モジュールに接続されるジェスチャー認識モジュールと、
    前記入力画像モジュールからのコマンドを受け、電気信号をリッチインタラクションモジュールに出力するメディア制御インタフェースと、
    マルチメディアアウトレット装置に設けられ、前記マルチメディアアウトレット装置からの電気的な画像信号を受け、前記マルチメディアアウトレット装置に電気的な画像信号を送出するリッチインタラクションモジュールと、
    を有し、
    前記顔検出モジュールは、顔認識を使用して現在の画像における動き領域を決定し、
    前記ジェスチャー認識モジュールは、ジェスチャー認識を使用して前記現在の画像において少なくとも1つの動き領域における動きを検出し、
    前記リッチインタラクションモジュールは、前記少なくとも1つの動き領域の画素に割り当てられたメタデータを取得し、
    前記ジェスチャー認識は、前記少なくとも1つの動き領域における時間を通した動きを定量化して特定する動き履歴画像を構築することを含み、前記ジェスチャー認識モジュールは、前記動き履歴画像において、それぞれlx,ly,Sx及びSyとして示される最大のx,y座標と最小のx,y座標を探し、(ly-Sy)及び(lx-Sx)のそれぞれを対応する閾値と比較することで、前記現在の画像において前記動きを検出する、メディア制御装置。
  27. 前記イメージセンサは、前記カメラと一体化される、
    請求項26記載のメディア制御装置。
  28. 前記入力画像モジュールは、前記カメラと一体化される、
    請求項26記載のメディア制御装置。
  29. 前記入力画像モジュールはマイクロプロセッサである、
    請求項26記載のメディア制御装置。
  30. 前記メモリ、前記顔検出モジュール及び前記ジェスチャー認識モジュールは、前記入力画像モジュールと一体化される、
    請求項26記載のメディア制御装置。
  31. 前記メディア制御インタフェースは、前記入力画像モジュールと一体化される、
    請求項26記載のメディア制御装置。
  32. 前記カメラ、イメージセンサ、入力画像モジュール、メモリ、顔検出モジュール、ジェスチャー認識モジュール、及びメディア制御インタフェースは、1つの構成要素として一体となるように構成され、
    当該メディア制御装置は、前記マルチメディアアウトレット装置に接続される外部の構成要素である、
    請求項26記載のメディア制御装置。
  33. 前記カメラ、イメージセンサ、入力画像モジュール、メモリ、顔検出モジュール、ジェスチャー認識モジュール及びメディア制御インタフェースは、1つの構成要素として一体となるように構成され、
    当該メディア制御装置は、前記マルチメディアアウトレット装置の内部の構成要素である、
    請求項26記載のメディア制御装置。
JP2011547874A 2009-01-30 2009-01-30 マルチメディアの表示から情報を制御及び要求する方法 Active JP5619775B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/000601 WO2010087796A1 (en) 2009-01-30 2009-01-30 Method for controlling and requesting information from displaying multimedia

Publications (2)

Publication Number Publication Date
JP2012516497A JP2012516497A (ja) 2012-07-19
JP5619775B2 true JP5619775B2 (ja) 2014-11-05

Family

ID=41130557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011547874A Active JP5619775B2 (ja) 2009-01-30 2009-01-30 マルチメディアの表示から情報を制御及び要求する方法

Country Status (5)

Country Link
US (1) US9639744B2 (ja)
EP (1) EP2391970A1 (ja)
JP (1) JP5619775B2 (ja)
CN (1) CN102301379B (ja)
WO (1) WO2010087796A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080229232A1 (en) * 2007-03-16 2008-09-18 Apple Inc. Full screen editing of visual media
US8384739B2 (en) * 2008-09-30 2013-02-26 Konica Minolta Laboratory U.S.A., Inc. Systems and methods for optimization of pixel-processing algorithms
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
JP2012068713A (ja) * 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
KR20160003336A (ko) 2011-09-12 2016-01-08 인텔 코포레이션 멀티미디어 클립들을 캡처하기 위한 제스처 사용
KR20130047890A (ko) * 2011-11-01 2013-05-09 삼성전기주식회사 원격 조정 장치 및 원격 조정 장치의 제스처 인식 방법
CN103092332A (zh) * 2011-11-08 2013-05-08 苏州中茵泰格科技有限公司 电视数字图像交互方法及系统
TW201403497A (zh) * 2012-07-09 2014-01-16 Alpha Imaging Technology Corp 電子裝置及數位顯示裝置
CN102819751A (zh) * 2012-08-21 2012-12-12 长沙纳特微视网络科技有限公司 一种基于动作识别的人机互动方法及装置
JP5782061B2 (ja) * 2013-03-11 2015-09-24 レノボ・シンガポール・プライベート・リミテッド 移動物体の動作を認識する方法および携帯式コンピュータ
DE102013012285A1 (de) * 2013-07-24 2015-01-29 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Wertdokumentbearbeitung
US9274673B2 (en) 2013-12-31 2016-03-01 Google Inc. Methods, systems, and media for rewinding media content based on detected audio events
JP2016212528A (ja) * 2015-04-30 2016-12-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
CN107493495B (zh) * 2017-08-14 2019-12-13 深圳市国华识别科技开发有限公司 交互位置确定方法、系统、存储介质和智能终端

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502803A (en) * 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
JP2831524B2 (ja) 1993-01-18 1998-12-02 シャープ株式会社 ジェスチャー編集機能付き文書処理装置
JP3416268B2 (ja) 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
US6377995B2 (en) 1998-02-19 2002-04-23 At&T Corp. Indexing multimedia communications
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6978475B1 (en) 1999-11-24 2005-12-20 Ecable, Llc Method and apparatus for internet TV
US6970206B1 (en) * 2000-04-20 2005-11-29 Ati International Srl Method for deinterlacing interlaced video by a graphics processor
WO2002032136A2 (en) * 2000-10-10 2002-04-18 Koninklijke Philips Electronics N.V. Device control via image-based recognition
US6904408B1 (en) 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US7032178B1 (en) 2001-03-30 2006-04-18 Gateway Inc. Tagging content for different activities
JP3997392B2 (ja) 2001-12-13 2007-10-24 セイコーエプソン株式会社 表示装置及び表示装置の入力方法
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7283983B2 (en) 2003-01-09 2007-10-16 Evolution Robotics, Inc. Computer and vision-based augmented interaction in the use of printed media
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4262014B2 (ja) * 2003-07-31 2009-05-13 キヤノン株式会社 画像撮影装置および画像処理方法
GB2407635B (en) * 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
US9311540B2 (en) * 2003-12-12 2016-04-12 Careview Communications, Inc. System and method for predicting patient falls
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
TW200601180A (en) 2004-06-30 2006-01-01 Inventec Corp Gesture recognition system and the method thereof
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
WO2006043925A1 (en) 2004-10-14 2006-04-27 John Mccarthy Bionet system for personalizing web content manager
JP2006155244A (ja) 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
US7796154B2 (en) * 2005-03-07 2010-09-14 International Business Machines Corporation Automatic multiscale image acquisition from a steerable camera
JP2006268582A (ja) 2005-03-24 2006-10-05 Fuji Xerox Co Ltd ジェスチャによる情報機器の制御方法および制御システム
US7548647B2 (en) * 2005-04-29 2009-06-16 Hewlett-Packard Development Company, L.P. Method and apparatus for digital-image red-eye correction that facilitates undo operation
KR100597798B1 (ko) 2005-05-12 2006-07-10 삼성전자주식회사 휴대용 단말기에서 동작인식을 위한 정보를 사용자에게제공하기 방법
KR20070009298A (ko) 2005-07-15 2007-01-18 삼성전자주식회사 모션 감지에 의하여 효과 음향을 재생하고 제어하는 방법및 장치
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
US20080156989A1 (en) 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
US8558888B2 (en) * 2009-02-27 2013-10-15 Third Iris Corp. Bandwidth shaping client to capture, transform, cache, and upload images from a remote point of recordation to a network service
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface

Also Published As

Publication number Publication date
US20120019684A1 (en) 2012-01-26
EP2391970A1 (en) 2011-12-07
CN102301379B (zh) 2017-04-05
CN102301379A (zh) 2011-12-28
US9639744B2 (en) 2017-05-02
WO2010087796A1 (en) 2010-08-05
JP2012516497A (ja) 2012-07-19

Similar Documents

Publication Publication Date Title
JP5619775B2 (ja) マルチメディアの表示から情報を制御及び要求する方法
JP5706340B2 (ja) 顔検出及びホットスポットの動きによりメディアを制御する方法
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5641970B2 (ja) 操作装置、再生装置及びテレビ受信装置
KR101250619B1 (ko) 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법
US20170200314A1 (en) Augmented reality contents generation and play system and method using the same
US11006864B2 (en) Face detection device, face detection system, and face detection method
CN107438173A (zh) 视频处理装置、视频处理方法和存储介质
JP6465600B2 (ja) 映像処理装置および映像処理方法
KR101634355B1 (ko) 동작 검출 장치 및 방법
US9268408B2 (en) Operating area determination method and system
JPWO2015072166A1 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
KR20210013631A (ko) 표시 장치에서의 인간-컴퓨터 상호 작용 방법, 장치, 컴퓨터 설비 및 저장 매체
KR101501487B1 (ko) 깊이 영상 기반 머리 검출방법 및 장치
JP6641386B2 (ja) ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置
JP2008271310A (ja) 撮像装置及び撮像装置の制御方法、プログラム、及び記憶媒体
WO2019095097A1 (zh) 电子终端的身份验证方法与电子终端
CN112565631A (zh) 智能导播方法
CN114610155B (zh) 手势控制方法、装置、显示终端及存储介质
US10616479B2 (en) Image recording apparatus, image recording method, and computer-readable storage medium
CN107395874A (zh) 显示界面控制方法、装置、存储介质及终端
JP7114564B2 (ja) ヘッドマウントディスプレイ装置
KR20150005368A (ko) 카메라 모듈 및 그 제어 방법
CN116320608A (zh) 一种基于vr的视频剪辑方法及装置
CN115171741A (zh) 一种数据记录方法以及装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130806

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140917

R150 Certificate of patent or registration of utility model

Ref document number: 5619775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250