[go: up one dir, main page]

JP5900393B2 - 情報処理装置、操作制御方法及びプログラム - Google Patents

情報処理装置、操作制御方法及びプログラム Download PDF

Info

Publication number
JP5900393B2
JP5900393B2 JP2013058858A JP2013058858A JP5900393B2 JP 5900393 B2 JP5900393 B2 JP 5900393B2 JP 2013058858 A JP2013058858 A JP 2013058858A JP 2013058858 A JP2013058858 A JP 2013058858A JP 5900393 B2 JP5900393 B2 JP 5900393B2
Authority
JP
Japan
Prior art keywords
gesture
reference position
user
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013058858A
Other languages
English (en)
Other versions
JP2014186361A (ja
JP2014186361A5 (ja
Inventor
幸徳 前田
幸徳 前田
順 横野
順 横野
活樹 南野
活樹 南野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013058858A priority Critical patent/JP5900393B2/ja
Priority to PCT/JP2013/007295 priority patent/WO2014147686A1/en
Priority to CN201380074691.3A priority patent/CN105190477B/zh
Priority to EP13818016.1A priority patent/EP2976690B1/en
Priority to US14/775,776 priority patent/US10466794B2/en
Publication of JP2014186361A publication Critical patent/JP2014186361A/ja
Publication of JP2014186361A5 publication Critical patent/JP2014186361A5/ja
Application granted granted Critical
Publication of JP5900393B2 publication Critical patent/JP5900393B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、情報処理装置、操作制御方法及びプログラムに関する。
従来、ユーザの視界に入るように配置される画面内に操作対象の機器を操作するためのユーザインタフェース(UI)を表示し、表示したUIを介して機器の操作を可能とする技術が存在する。例えば、下記特許文献1は、ヘッドマウントディスプレイの画面内に映る機器をユーザが操作する際に、機器又は機器と関連付けられる仮想UIに対してユーザがジェスチャ(例えば、機器を触れるジェスチャ)でユーザ入力を与えることを記載している。
特開2012−181809号公報
しかしながら、上記特許文献1において記載されている手法では、ジェスチャ入力を受け付ける画面領域が機器の表示領域又は仮想UIの領域に限られる。そのため、ジェスチャ入力の自由度は制限され、ジェスチャに求められる正確さ(例えば、機器を正確にポインティングすること)がユーザの負担となり得る。
従って、利用可能な画面領域をより自由にジェスチャのために活用することのできる仕組みが提供されることが望ましい。
本開示によれば、ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部、を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置により実行される操作制御方法において、ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御すること、を含む操作制御方法が提供される。
また、本開示によれば、情報処理装置を制御するコンピュータを、ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部、として機能させるためのプログラムが提供される。
本開示に係る技術によれば、利用可能な画面領域をより自由にジェスチャのために活用することが可能となる。
装置の概要について説明するための説明図である。 操作対象の一例及び既存のジェスチャインタフェースについて説明するための説明図である。 操作対象の他の例について説明するための説明図である。 操作対象のまた別の例について説明するための説明図である。 一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報処理装置の論理的な構成の一例を示すブロック図である。 認識され得るジェスチャの第1の例について説明するための説明図である。 認識され得るジェスチャの第2の例について説明するための説明図である。 認識され得るジェスチャの第3の例について説明するための説明図である。 認識され得るジェスチャの第4の例について説明するための説明図である。 認識され得るジェスチャの第5の例について説明するための説明図である。 認識され得るジェスチャの第6の例について説明するための説明図である。 操作対象が実オブジェクトである場合の基準位置の一例について説明するための説明図である。 操作対象が実オブジェクトである場合の基準位置の他の例について説明するための説明図である。 操作対象が表示オブジェクトである場合の基準位置の一例について説明するための説明図である。 表示オブジェクトの基準位置の操作体の動きへの追従について説明するための説明図である。 単一の操作対象のみが存在する状況において設定され得るジェスチャ領域の一例について説明するための説明図である。 複数の操作対象にジェスチャ領域を設定するための第1の手法について説明するための第1の説明図である。 複数の操作対象にジェスチャ領域を設定するための第1の手法について説明するための第2の説明図である。 複数の操作対象にジェスチャ領域を設定するための第2の手法について説明するための説明図である。 複数の操作対象にジェスチャ領域を設定するための第3の手法について説明するための第1の説明図である。 複数の操作対象にジェスチャ領域を設定するための第4の手法について説明するための第2の説明図である。 複数の操作対象にジェスチャ領域を設定するための手法のさらなる例について説明するための説明図である。 ジェスチャ領域のマージについて説明するための第1の説明図である。 ジェスチャ領域のマージについて説明するための第2の説明図である。 ジェスチャインタフェース用の標識のいくつかの例について説明するための説明図である。 ジェスチャインタフェース用の標識の他の例について説明するための説明図である。 メニューに対するジェスチャ入力の一例について説明するための説明図である。 一実施形態に係る操作制御処理の全体的な流れの一例を示すフローチャートである。 図22のステップS180における処理の詳細な流れの一例を示すフローチャートである。 複数の装置の連携について説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.一実施形態に係る情報処理装置
2−1.ハードウェア構成
2−2.論理的な構成
2−3.ジェスチャの例
2−4.基準位置の例
2−5.ジェスチャ領域の設定例
2−6.ジェスチャ領域のマージ
2−7.ジェスチャインタフェース用の標識
3.処理の流れの例
3−1.全体的な流れ
3−2.操作の実行
4.複数の装置の連携
5.まとめ
<1.概要>
本開示に係る技術は、様々な形態の装置に適用可能である。図1は、本開示に係る技術が適用可能な装置の概要について説明するための説明図である。図1の例において、情報処理装置100は、ヘッドマウントディスプレイ(HMD)である。HMDは、ユーザの頭部に装着され、ユーザの目の一方又は双方の前方に配置されるシースルー型の又は非シースルー型の画面(screen)を有する。情報処理装置100は、カメラ101をも備える。カメラ101は、その光軸がユーザの視線と略平行になるように配置され、ユーザの視界に重なる画像を撮像するために用いられる。情報処理装置100の筐体は、画面を支持するフレームと、ユーザの側頭部に位置するいわゆるテンプルとを含む。テンプルの内部には情報処理及び通信のための様々なモジュールが格納され得る。筐体の表面には、タッチセンサ、ボタン、スイッチ又はホイールなどの操作手段が配設されてもよい。
図1の例において、ユーザは実空間1内に位置している。実空間1には、実オブジェクトRo1及びRo2が存在する。実オブジェクトRo1は、テレビジョン装置である。実オブジェクトRo2は、壁面に貼られた地図である。ユーザは、情報処理装置100の画面上で、実オブジェクトRo1及びRo2を視認することができる。ユーザは、これら実オブジェクトの他に、情報処理装置100により表示され得る表示オブジェクトを画面上で視認し得る。
情報処理装置100の画面を見ている間、ユーザの手は拘束されない。従って、ユーザは、自身の手又はその他の操作体(例えば、手で把持する実オブジェクト、又は足など)を用いて、様々なジェスチャをカメラ101に撮像させることができる。そこで、既存の手法において、そうしたジェスチャを活用するジェスチャインタフェースが提案されている。
図2は、操作対象の一例及び既存のジェスチャインタフェースについて説明するための説明図である。図2を参照すると、情報処理装置100の画面に、実オブジェクトRo1が映っている。また、実オブジェクトRo1を操作するためのユーザインタフェースUI1が当該画面に重畳されている。ユーザインタフェースUI1は、仮想的なメニューであり、メニューアイテムUI1a、UI1b、UI1c、UI1d及びUI1eを含む。ユーザが例えば操作体H1でいずれかのメニューアイテムにタッチすると、タッチされたメニューに対応する機能(例えば、チャンネルの変更又は音量の変更)が実オブジェクトRo1により実行される。
図3は、操作対象の他の例について説明するための説明図である。図3を参照すると、情報処理装置100の画面に、実オブジェクトRo2が映っている。ここで、実オブジェクトRo2について仮想的な操作が予め定義されているものとする。仮想的な操作とは、例えば、拡大され又は縮小された地図の表示であってよい。ユーザが例えば操作体H1で実オブジェクトRo2をピンチアウトすると、拡大された地図を表す地図データが動的に取得され、取得された地図データに基づいて拡大された地図が画面に表示される。
図4は、操作対象のまた別の例について説明するための説明図である。図4を参照すると、情報処理装置100の画面に、表示オブジェクトVo3が表示されている。表示オブジェクトVo3は、スクロールバーを有するインターネットブラウザである。ユーザが例えば操作体H1でスクロールバーを下方へスクロールすると、表示オブジェクトVo3のコンテンツもまたスクロールする。
上述したようなジェスチャインタフェースにおいて、ジェスチャ入力を受け付ける画面領域は、特定のオブジェクトの領域又は仮想的なUIの領域に限られる。そのため、ユーザには、それら領域を正確にポインティングした上で所定のジェスチャを行うことが求められる。ジェスチャ入力を受け付ける画面領域が狭い場合、ジェスチャ入力の自由度もまた制限される。従って、既存の手法は、ジェスチャインタフェースの利便性を十分に引き出しているとは言い難い。そこで、次節より、利用可能な画面領域をより自由にジェスチャのために活用することを可能とする仕組みを説明する。
なお、本開示に係る技術は、上述したHMDの例に限定されず、ユーザのジェスチャに基づいて何らかの操作対象を操作するための様々なシステムに適用可能である。例えば、本開示に係る技術は、自動車又はその他の機械を運転する操作者を支援するために操作者の目の前方に配置される画面を有する操作支援システムに適用されてもよい。その場合には、操作者のジェスチャを介して、様々な支援機能が実行され得る。画面は、必ずしもユーザ又は操作者により装着されなくてよく、例えばスマートフォン又はポータブルナビゲーションデバイスなどの情報端末の画面であってもよい。
<2.一実施形態に係る情報処理装置>
[2−1.ハードウェア構成]
図5は、情報処理装置100のハードウェア構成の一例を示すブロック図である。図5を参照すると、情報処理装置100は、カメラ101、マイクロフォン102、入力デバイス103、センサ104、メモリ105、通信インタフェース(I/F)107、ディスプレイ108、スピーカ109、遠隔操作I/F110、バス111及びプロセッサ112を備える。
(1)カメラ
カメラ101は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有し、画像を撮像する。カメラ101により撮像される画像(動画を構成する各フレーム)は、情報処理装置100による処理のための入力画像として扱われる。
(2)マイクロフォン
マイクロフォン102は、ユーザにより発せられる音声を集音し、音声信号を生成する。マイクロフォン102により生成される音声信号は、情報処理装置100による音声認識のための入力音声として扱われ得る。マイクロフォン102は、無指向性マイクロフォンであってもよく、又は固定的な若しくは可変的な指向性を有していてもよい。
(3)入力デバイス
入力デバイス103は、ユーザが情報処理装置100を直接的に操作するために使用されるデバイスである。入力デバイス103は、例えば、情報処理装置100の筐体に配設されるタッチセンサ、ボタン、スイッチ又はホイールなどを含み得る。入力デバイス103は、ユーザ入力を検出すると、検出されたユーザ入力に対応する入力信号を生成する。
(4)センサ
センサ104は、情報処理装置100の位置を測定する測位センサ、情報処理装置100に加わる加速度を測定する加速度センサ、情報処理装置100の姿勢を測定するジャイロセンサなどのセンサモジュール群を含み得る。センサ104により生成されるセンサデータは、オブジェクト認識の支援、地理的な位置に特化したデータの取得、又はユーザ入力の検出などの様々な用途のために利用されてよい。
(5)メモリ
メモリ105は、半導体メモリ又はハードディスクなどの記憶媒体(非一時的な媒体:non-transitory media)により構成され、情報処理装置100による処理のためのプログラム及びデータを記憶する。メモリ105により記憶されるデータは、後に説明する様々なデータベース内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部又は全部は、メモリ105により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(6)通信インタフェース
通信I/F107は、情報処理装置100による他の装置との間の通信を仲介する。通信I/F107は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)ディスプレイ
ディスプレイ108は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される画面と回路素子とを有する。ディスプレイ108の画面は、ユーザの視界に入るようにユーザの目の前方に配置され、その画角はカメラ101の画角に一致し又は部分的に重なる。ディスプレイ108は、情報処理装置100により生成される出力画像を表示する。
(8)スピーカ
スピーカ109は、振動板及びアンプなどの回路素子を有し、情報処理装置100により生成される出力音声信号に基づいて、音声を出力する。
(9)遠隔操作インタフェース
遠隔操作I/F110は、遠隔操作可能な機器へ遠隔操作信号(赤外線信号、無線信号又はその他の制御信号)を送信するインタフェースである。遠隔操作I/F110は、後に説明するプロセッサ112から入力される遠隔操作信号を変調し、変調された信号を送信する。
(10)バス
バス111は、カメラ101、マイクロフォン102、入力デバイス103、センサ104、メモリ105、通信I/F107、ディスプレイ108、スピーカ109、遠隔操作I/F110及びプロセッサ112を相互に接続する。
(11)プロセッサ
プロセッサ112は、例えば、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などであってよい。プロセッサ112は、メモリ105又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
[2−2.論理的な構成]
図6は、図5に示した情報処理装置100のメモリ105及びプロセッサ112により実現される論理的機能の構成の一例を示すブロック図である。図6を参照すると、情報処理装置100は、画像取得部120、音声取得部130、アプリケーション部140、認識部150、オブジェクトデータベース(DB)160、ジェスチャDB170及び制御部180を備える。認識部150は、オブジェクト認識部152、ジェスチャ認識部154及び音声認識部156を含む。制御部180は、操作制御部182及び表示制御部184を含む。
(1)画像取得部
画像取得部120は、カメラ101により撮像される画像を入力画像として取得する。入力画像は、典型的には、動画を構成する一連のフレームの各々である。入力画像は、ユーザの視界に重なる画角を有する。そして、画像取得部120は、取得した入力画像を認識部150及び制御部180へ出力する。
(2)音声取得部
音声取得部130は、マイクロフォン102により生成される音声信号を入力音声として取得する。そして、音声取得部130は、取得した入力音声を認識部150へ出力する。
(3)アプリケーション部
アプリケーション部140は、情報処理装置100が有する様々なアプリケーションを実行し、表示オブジェクトを生成する。例えば、インターネットブラウザ、コンテンツプレーヤ、メーラ又はSNS(Social Networking Service)クライアントなどのウィンドウが、表示オブジェクトとして生成されてよい。各アプリケーションは、後に説明する操作制御部182による制御の下で、アプリケーション処理を実行する。
(4)オブジェクト認識部
オブジェクト認識部152は、画像取得部120から入力される入力画像内で、実オブジェクト及び操作体を認識する。オブジェクト認識部152は、例えば、入力画像から抽出される画像特徴量をオブジェクトDB160により予め記憶される既知の実オブジェクトの画像特徴量と照合することにより、入力画像に映る実オブジェクトを識別すると共に、識別した実オブジェクトの画像内の位置を認識する。オブジェクト認識部152は、例えば、SfM(Structure from Motion)法又はSLAM(Simultaneous Localization And Mapping)法などのより高度なオブジェクト認識アルゴリズムを用いて、実オブジェクトの3次元的な位置及び姿勢を認識してもよい。オブジェクト認識部152は、同様に、例えば、ユーザの手、足、又はその他の実オブジェクトである操作体をも認識し得る。
(5)ジェスチャ認識部
ジェスチャ認識部154は、操作対象を操作するために操作体を用いてユーザにより演じられるジェスチャを認識する。ジェスチャ認識部154により実行されるジェスチャ認識処理は、操作体を含む部分画像の切り出し、切り出した部分画像のスケーリング、部分画像の一時的な保存、フレーム間の差分の計算などを含み得る。ジェスチャ認識部154は、例えば、オブジェクト認識部152により認識される操作体の位置、形状又はサイズなどの属性を追跡し、それら属性の時間的変化をジェスチャDB170により予め記憶される既知のパターンと照合することにより、操作体が表現するジェスチャを認識してもよい。なお、本明細書において、ジェスチャとの用語は、操作体の属性の時間的変化を伴わない、静的なポーズ(形状)をも含むものとする。ジェスチャ認識部154により認識され得るジェスチャの非限定的ないくつかの例について、後に図面を用いて説明する。
(6)音声認識部
音声認識部156は、音声取得部130から入力される入力音声に基づいて、ユーザの音声を認識する。音声認識部156は、例えば、実行中のアプリケーション又はUIが音声コマンドの入力を受け付ける場合には、ユーザの音声から音声コマンドを認識し、認識した音声コマンドの識別子を制御部180へ出力する。
(7)オブジェクトDB
オブジェクトDB160は、オブジェクト認識部152により認識される実オブジェクト及び操作体について予め定義されるオブジェクトデータを記憶するデータベースである。オブジェクトデータは、例えば、各実オブジェクトの識別子、画像特徴量、遠隔操作フラグ及び仮想操作フラグを含み得る。遠隔操作フラグは、対応する実オブジェクトが遠隔操作可能な機器であるか否かを示すフラグである。仮想操作フラグは、対応する実オブジェクトについて仮想的な操作が定義されているか否かを示すフラグである。さらに、オブジェクトDB160は、音声認識部156により音声認識のために使用される音声コマンドごとの音声特徴データを予め記憶してもよい。
(8)ジェスチャDB
ジェスチャDB170は、操作制御部182が操作対象の操作を制御するために使用するジェスチャデータを記憶するデータベースである。ジェスチャDB170により記憶されるデータは、操作対象に依存しない共通的なジェスチャインタフェースのためのデータと、個々の操作対象に固有のジェスチャインタフェースのためのデータとを含み得る。ジェスチャデータは、例えば、操作体の属性(位置、形状及びサイズなど)の任意の組合せについての、静的なパターン又は時間的変化のパターンを定義する。遠隔操作可能な実オブジェクトについてのジェスチャデータは、個々のジェスチャと送信すべき遠隔制御信号とをマッピングする。仮想的な操作を有する実オブジェクトについてのジェスチャデータは、個々のジェスチャと表示されるべき仮想的な操作の内容とをマッピングする。表示オブジェクトについてのジェスチャデータは、個々のジェスチャと実行すべきアプリケーション処理とをマッピングする。後に説明する操作制御部174は、これらジェスチャデータに従い、認識されたジェスチャに応じて操作対象の操作を制御する。
(9)操作制御部
操作制御部182は、ジェスチャを認識するためのジェスチャ領域を画面内に設定し、設定したジェスチャ領域において操作体により表現されるジェスチャに応じて、少なくとも1つの操作対象の操作を制御する。本実施形態において、ジェスチャ領域は、入力画像内で操作対象が占める範囲よりも広く設定され得る。従って、ユーザは、操作対象から画面上で離れた位置でジェスチャを演じることによっても、操作対象を操作することができる。操作制御部182は、単一の操作対象のみが存在する場合には、当該単一の操作対象に関連付けられるジェスチャ領域を、画面内の利用可能な領域の全体に設定し得る。利用可能な領域とは、画面の全体であってもよく、一部を除外した領域であってもよい。また、操作制御部182は、複数の操作対象が存在する場合には、当該複数の操作対象の各々に関連付けられるジェスチャ領域を、当該複数の操作対象の基準位置に基づいて画面内に設定する。画面内の利用可能な領域を個々の操作対象にどのように配分し得るかについて、後に図面を用いてさらに説明する。
一例として、操作制御部182により制御される操作対象は、遠隔操作可能な機器であってもよい。遠隔操作可能な機器とは、例えば、テレビジョン装置、ビデオレコーダ、オーディオ機器及びプロジェクタなどのデジタル家電機器、照明器具及び空調機などの非デジタル家電機器、並びにPC(Personal Computer)及びスマートフォンなどの情報端末を含み得る。操作制御部182は、遠隔操作可能な機器に関連付けられるジェスチャ領域においてユーザのジェスチャが認識された場合には、認識された当該ジェスチャに対応する遠隔操作信号をジェスチャDB170から取得し、取得した遠隔操作信号を当該機器へ送信する。
他の例として、操作制御部182により制御される操作対象は、図3を用いて説明したような、仮想的な操作の定義された実オブジェクトであってもよい。仮想的な操作は、図3の例に限定されず、いかなる操作であってもよい。例えば、紙をめくってその裏側を表示するような操作、ポスターからキャラクターが飛び出すような操作又はカレンダーにスケジュールデータを重畳するような操作が定義されてもよい。操作制御部182は、そのような実オブジェクトに関連付けられるジェスチャ領域においてユーザのジェスチャが認識された場合には、認識された当該ジェスチャに対応する仮想的な操作を表示することを表示制御部184へ指示する。
また別の例として、操作制御部182により制御される操作対象は、アプリケーション部140がアプリケーションを実行することにより表示される表示オブジェクトであってもよい。操作制御部182は、表示オブジェクトに関連付けられるジェスチャ領域においてユーザのジェスチャが認識された場合には、認識された当該ジェスチャに対応するアプリケーション処理をアプリケーション部140に実行させる。
操作制御部182は、さらに、ジェスチャ以外の操作手段(例えば、入力デバイス103又はセンサ104)を用いるユーザインタフェースを介する操作対象の操作をも制御してよい。
(10)表示制御部
表示制御部184は、情報処理装置100による画像の表示を制御する。表示制御部184は、例えば、アプリケーション部140により生成されるウィンドウなどの表示オブジェクトをディスプレイ108へ出力し、表示オブジェクトを画面に表示させる。また、表示制御部184は、ジェスチャインタフェースをユーザがより容易に使用できるように、ユーザを支援するいくつかの標識を画面に表示させる。本実施形態において表示され得るジェスチャインタフェース用の標識は、例えば、現在設定されているジェスチャ領域を示す標識、及び操作のために利用可能なジェスチャを示す標識を含み得る。これら標識の具体的な例について、後に図面を用いてさらに説明する。また、表示制御部184は、仮想的な操作の定義された実オブジェクトに関連付けられるジェスチャ領域において所定のジェスチャが認識された場合に、認識されたジェスチャに対応する仮想的な操作を画面に表示させる。仮想的な操作の内容は、ジェスチャDB170において予め定義され得る。
[2−3.ジェスチャの例]
図7A〜図7Fは、ジェスチャ認識部154により認識され得るジェスチャの例をそれぞれ示している。なお、ここでは一例として、操作体はユーザの手又は指であるものとする。
図7Aの第1の例において、ジェスチャ認識部154は、人差し指以外の指を折り畳んだ手の形状と指を倒す動きから、ジェスチャG1を認識する。ジェスチャG1は、指でのタッチを表現するジェスチャ(FingerTouch)である。
図7Bの第2の例において、ジェスチャ認識部154は、手のひらを開いた形状と手のひらを倒す動きから、ジェスチャG2を認識する。ジェスチャG2は、手のひらでのタッチを表現するジェスチャ(PalmTouch)である。
図7Cの第3の例において、ジェスチャ認識部154は、手を並行移動させる動きから、ジェスチャG3a〜G3dを認識する。ジェスチャG3a〜G3dは、いわゆるスワイプを表現するジェスチャ(Swipe)である。ジェスチャG3a〜G3dは、並行移動の方向(例えば、上下左右の4方向)に依存して、それぞれ異なるジェスチャであると認識されてもよい。なお、同様のジェスチャが、フリック(flick)などの他の語で表現されてもよい。また、手のひらを閉じた形状での並行移動が、ドラッグを表現する他のジェスチャとして認識されてもよい。
図7Dの第4の例において、ジェスチャ認識部154は、人差し指と親指との間の距離を変化させる動きから、ジェスチャG4a又はG4bを認識する。ジェスチャG4aは、人差し指と親指との間の距離を広げる動きに対応する、いわゆるピンチアウトを表現するジェスチャ(PinchOut)である。ジェスチャG4bは、人差し指と親指との間の距離を狭める動きに対応する、いわゆるピンチインを表現するジェスチャ(PinchIn)である。
図7Eの第5の例において、ジェスチャ認識部154は、手が左右に折り返す動きから、ジェスチャG5を認識する。ジェスチャG5は、手を振る合図を表現するジェスチャ(Wave)である。
図7Fの第6の例において、ジェスチャ認識部154は、予め定義される指先の動きから、ジェスチャG6を認識する。ジェスチャG6を認識するための動きは、任意の動きであってよい。
[2−4.基準位置の例]
上述したように、操作制御部182は、複数の操作対象が存在する場合に、当該複数の操作対象の各々に関連付けられるジェスチャ領域を、当該複数の操作対象の基準位置に基づいて画面内に設定する。実空間に存在する実オブジェクトの基準位置は、典型的には、当該実オブジェクトの画面内の位置から決定されてよい。一方、実空間に存在せず画面に表示される表示オブジェクトの基準位置は、当該表示オブジェクトが表示される際にユーザにより指定され得る。
(1)実オブジェクトの基準位置
図8は、操作対象が実オブジェクトである場合の基準位置の一例について説明するための説明図である。図8を参照すると、入力画像に映る実オブジェクトRo1が示されている。オブジェクト認識部152は、オブジェクト認識の結果として、画角に対応する2次元座標系(U,V)において実オブジェクトRo1が領域RA1に映っていることを認識する。図8の例では、操作制御部182は、オブジェクト認識の結果に基づき、領域RA1の中心を実オブジェクトRo1の基準位置RP1として決定している。基準位置RP1は、領域RA1の中心ではなく、領域RA1のいずれかの頂点など、領域RA1に関連するその他の位置であってもよい。
実オブジェクトの基準位置は、典型的には、画角の変化(又は実オブジェクトの移動)に追随して変化し得る。実オブジェクトが画角の外へ移動した場合には、実オブジェクトの認識はロストし、当該実オブジェクトは操作対象から外れる。しかしながら、一変形例として、操作制御部182は、実オブジェクトが画角の外へ移動した後に、一定の期間にわたり又はユーザが明示的に指定する終了タイミングまでの間、当該実オブジェクトの基準位置を画面内に残してもよい。図9の例では、画角が変化した結果として(矢印D1a)、実オブジェクトRo1が画角の外へ移動している(矢印D1b)。しかし、実オブジェクトRo1の基準位置RP1は、実オブジェクトRo1の認識が最後に成功した時点の位置のまま残されている。
(2)表示オブジェクトの基準位置
図10は、操作対象が表示オブジェクトである場合の基準位置の一例について説明するための説明図である。図10の上段を参照すると、入力画像に映る操作体H2が示されている。オブジェクト認識部152は、オブジェクト認識の結果として、2次元座標系(U,V)における操作体H2の位置を認識する。ここで、ユーザがインターネットブラウザを起動する音声コマンドVC1を発したものとする。音声認識部156は、音声コマンドVC1を認識する。すると、操作制御部182は、操作体H2の認識及び音声コマンドVC1の認識に応じて、アプリケーション部140にインターネットブラウザを起動させ、ブラウザのウィンドウである表示オブジェクトVo3を基準位置RP3に配置する。図10の下段を参照すると、基準位置RP3に表示された表示オブジェクトVo3が示されている。基準位置RP3は、操作体H2の位置から決定される任意の位置であってよい。表示オブジェクトVo3の3次元的な姿勢が、操作体H2の姿勢から決定されてもよい。このように操作体の認識と音声コマンドの認識との組合せによってアプリケーションを起動する手法によれば、ユーザの通常の会話に起因して誤ってアプリケーションが起動されてしまう誤動作のリスクを軽減することができる。
表示オブジェクトが一度表示された後、表示オブジェクトの基準位置(表示位置)は、操作体の動きに追従してもよく、又は操作体の動きに追従しなくてもよい。基準位置が操作体の動きに追従する場合には、例えばユーザがインターネットブラウザを手に保持しているかのようなUIが実現される。図11の例では、操作体が特定の形状(例えば、手のひらを閉じて表示オブジェクトを掴むような形状)をしていることを条件として、表示オブジェクトVo3の基準位置RP3が操作体の動きに追従している(矢印D2)。基準位置が操作体の動きに追従しない場合には、ユーザは、一度表示させた表示オブジェクトに対して両手を用いて自在にジェスチャを演じることができる。
[2−5.ジェスチャ領域の設定例]
(1)単一の操作対象のみが存在
上述したように、操作制御部182は、単一の操作対象のみが存在する場合には、当該単一の操作対象に関連付けられるジェスチャ領域を、画面内の利用可能な領域の全体に設定し得る。
図12は、単一の操作対象のみが存在する状況において設定され得るジェスチャ領域の一例について説明するための説明図である。図12を参照すると、入力画像内で実オブジェクトRo1が認識されている。実オブジェクトRo1は、ユーザにより操作可能である。ユーザにより操作可能な他の操作対象(実オブジェクト又は表示オブジェクト)は存在しない。従って、図12の例では、操作制御部182は、実オブジェクトRo1に関連付けられるジェスチャ領域GA1を、画角ANGの全体に設定している。ユーザは、実オブジェクトRo1を操作するために、ジェスチャ領域GA1内のどこでジェスチャを演じてもよい。
(2)複数の操作対象が存在
ユーザにより操作可能な複数の操作対象が存在する場合には、操作制御部182は、複数の操作対象の画面内の基準位置に基づいて、各操作対象に関連付けられるジェスチャ領域を画面内に設定する。即ち、2つ以上の操作対象が存在する場合、第1の操作対象のためのジェスチャ領域は、他の操作対象の基準位置に影響され得る。そして、2つ以上の操作対象の基準位置に基づいて、個々の操作対象にジェスチャ領域が配分される。以下、複数の操作対象にジェスチャ領域を設定するためのいくつかの手法について説明する。
図13Aは、複数の操作対象にジェスチャ領域を設定するための第1の手法について説明するための第1の説明図である。なお、ここでは2つの操作対象が存在するものとする。第1の手法において、操作制御部182は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、第1の基準位置と第2の基準位置との間を通る境界によって画角を分割することにより、画面内に設定する。図13Aを参照すると、入力画像内で実オブジェクトRo1が認識されている。また、表示オブジェクトVo3が表示されている。実オブジェクトRo1及び表示オブジェクトVo3は共に、ユーザにより操作可能である。そこで、操作制御部182は、実オブジェクトRo1の基準位置RP1と表示オブジェクトVo3の基準位置RP3との間を通る垂直な境界BD1によって、画角ANGを2つの領域に分割する。基準位置RP1は境界BD1の右側に位置するため、境界BD1の右側の分割後の領域は実オブジェクトRo1のジェスチャ領域GA1となる。ユーザは、例えばジェスチャ領域GA1において操作体を用いて所定のジェスチャを演じることにより、テレビジョン装置である実オブジェクトRo1のチャンネルの変更及び音量の変更などの操作を指示することができる。一方、基準位置RP3は境界BD1の左側に位置するため、境界BD1の左側の分割後の領域は表示オブジェクトVo3のジェスチャ領域GA3となる。ユーザは、例えばジェスチャ領域GA3において操作体を用いて所定のジェスチャを演じることにより、インターネットブラウザのウィンドウである表示オブジェクトVo3のスクロール及びページ遷移などの操作を指示することができる。
操作制御部182は、画角を分割する境界の方向を、基準位置の間の位置関係に依存して決定してもよい。それにより、操作対象とジェスチャ領域との間の対応がよりユーザにとって直感的に分かり易いような柔軟な領域の配分が可能となる。例えば、2つの基準位置の間の垂直方向の距離が水平方向の距離よりも短い場合には垂直な境界、2つの基準位置の間の垂直方向の距離が水平方向の距離よりも長い場合には水平な境界が、画角を分割するために使用され得る。図13Aは前者の例を示しており、図13Bは後者の例を示している。図13Bを参照すると、入力画像内で実オブジェクトRo1及びRo2が認識されている。実オブジェクトRo1及びRo2は共に、ユーザにより操作可能である。操作制御部182は、実オブジェクトRo1の基準位置RP1と実オブジェクトRo2の基準位置RP2との間を通る水平な境界BD2によって、画角ANGを2つの領域に分割する。基準位置RP1は境界BD2の下側に位置するため、境界BD2の下側の分割後の領域は実オブジェクトRo1のジェスチャ領域GA1となる。一方、基準位置RP2は境界BD2の上側に位置するため、境界BD2の上側の分割後の領域は実オブジェクトRo2のジェスチャ領域GA2となる。ユーザは、例えばジェスチャ領域GA2において操作体を用いて所定のジェスチャを演じることにより、実オブジェクトRo2について定義されている仮想的な操作を呼び出すことができる。
図14は、複数の操作対象にジェスチャ領域を設定するための第2の手法について説明するための説明図である。なお、ここでも2つの操作対象が存在するものとする。第2の手法において、操作制御部182は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、画角を均等に分割し、分割後の領域を第1の基準位置と第2の基準位置との間の位置関係に応じて第1の操作対象及び第2の操作対象に割り当てることにより、画面内に設定する。図14を参照すると、入力画像内で実オブジェクトRo1が認識されている。また、表示オブジェクトVo3が表示されている。実オブジェクトRo1及び表示オブジェクトVo3は共に、ユーザにより操作可能である。操作制御部182は、画角の中央を通る垂直な境界BD3によって、画角ANGを2つの領域に分割する。基準位置RP1は基準位置RP3よりも右方に位置するため、境界BD3の右側の分割後の領域は実オブジェクトRo1のジェスチャ領域GA1に、境界BD3の左側の分割後の領域は表示オブジェクトVo3のジェスチャ領域GA3となる。このような手法によれば、各ジェスチャ領域が過剰に狭くなってしまうことを回避しつつ、ジェスチャ領域をユーザにとって分かり易いように複数の操作対象に配分することができる。
図15は、複数の操作対象にジェスチャ領域を設定するための第3の手法について説明するための説明図である。なお、ここでも2つの操作対象が存在するものとする。第3の手法において、操作制御部182は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域を設定した後、第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域を、第1の基準位置と第2の基準位置とに基づいて設定する。図15の上段を参照すると、表示オブジェクトVo3が表示されている。表示オブジェクトVo3のジェスチャ領域GA3は、表示オブジェクトVo3の基準位置RP3に基づいて画面内に設定される。その後、図15の下段を参照すると、画角が移動した結果として、入力画像内で実オブジェクトRo1が認識されている。実オブジェクトRo1の基準位置RP1は、既に設定されているジェスチャ領域GA3の右方に位置する。実オブジェクトRo1のジェスチャ領域GA1は、先に設定されたジェスチャ領域GA3からの影響を受け、ジェスチャ領域GA3の右方に残る空き領域に設定される。このような手法によれば、先に設定されたジェスチャ領域においてユーザがジェスチャを演じようとしている際に新たな操作対象が認識された場合にも、新たな操作対象の出現に阻害されることなく、ユーザは意図したジェスチャを演じることができる。
図16は、複数の操作対象にジェスチャ領域を設定するための第4の手法について説明するための説明図である。なお、ここでも2つの操作対象が存在するものとする。第4の手法において、操作制御部182は、第1の基準位置を有する第1の操作対象のために第1のジェスチャ領域を設定した後、第1の基準位置とより優先度の高い第2の操作対象の第2の基準位置とに基づいて、第1のジェスチャ領域を変更する。図16の上段を参照すると、表示オブジェクトVo3が表示されている。また、入力画像内で実オブジェクトRo1が認識されている。表示オブジェクトVo3はジェスチャ領域GA3を有し、実オブジェクトRo1はジェスチャ領域GA1を有する。ここで、実オブジェクトRo1の優先度は表示オブジェクトVo3よりも高いものとする。その後、図16の下段を参照すると、画角が移動した結果として、入力画像内で実オブジェクトRo1の基準位置RP1が左方へ移動している。その結果、実オブジェクトRo1のジェスチャ領域GA1は左方へ拡大している一方で、表示オブジェクトVo3のジェスチャ領域GA3はジェスチャ領域GA1からの影響を受け、縮小している。このような手法によれば、ユーザが優先的に操作したいと望む操作対象について十分に広いジェスチャ領域を確実に設定することができる。なお、優先度は、様々な操作対象の種類についてどのように設定されてもよい。
本項では主に2つの操作対象が存在する例について説明したが、操作対象の数はかかる例に限定されない。例えば、図17を参照すると、入力画像内で実オブジェクトRo1及びRo4が認識されている。実オブジェクトRo4は、遠隔操作可能なオーディオ機器である。また、表示オブジェクトVo3が表示されている。実オブジェクトRo1及びRo4並びに表示オブジェクトVo3は、ユーザにより操作可能である。そこで、操作制御部182は、上述した4つの手法の任意の組合せに従って、画角ANGを3つの領域に分割する。図17の例では、分割後の右上のジェスチャ領域GA1が実オブジェクトRo1のために、分割後の右下のジェスチャ領域GA4が実オブジェクトRo4のために、分割後の左のジェスチャ領域GA3が表示オブジェクトVo3のためにそれぞれ設定されている。
なお、一実施例において、図9を用いて説明したように、画角が変化した結果として実オブジェクトが画角の外へ移動した後に、実オブジェクトの基準位置は画角内に残される。その場合、操作制御部182は、画角の外へ移動した実オブジェクトを操作するためのジェスチャ領域を、当該実オブジェクトの画角内に残される基準位置と他の操作対象の基準位置とに基づいて設定してよい。それにより、画角の変化又はオブジェクト認識の不安定性に起因してジェスチャを介する操作が意図せず中断されてしまうことを防ぐことができる。
[2−6.ジェスチャ領域のマージ]
複数の操作対象が存在する場合であっても、ユーザは、特定の操作対象を操作するために広い画面領域を用いてジェスチャを演じたいと望む可能性がある。そうしたニーズを充足するために、ユーザからの指示に従ってジェスチャ領域をマージするためのUIもまた提供されてよい。例えば、操作制御部182は、第1の操作対象及び第2の操作対象のうち一方がユーザにより指定された場合に、指定されなかった方の操作対象のジェスチャ領域を、指定された方の操作対象のジェスチャ領域にマージする。
図18A及び図18Bは、ジェスチャ領域のマージについて説明するための説明図である。図18Aの上段を参照すると、入力画像内で実オブジェクトRo1が認識されている。また、表示オブジェクトVo5が表示されている。表示オブジェクトVo5は、コンテンツプレーヤのウィンドウである。実オブジェクトRo1及び表示オブジェクトVo5は共に、ユーザにより操作可能である。そこで、操作制御部182は、実オブジェクトRo1の基準位置RP1と表示オブジェクトVo5の基準位置RP5とに基づいて、実オブジェクトRo1のためにジェスチャ領域GA1を、表示オブジェクトVo5のためにジェスチャ領域GA5をそれぞれ設定する。ここで、一例として、ジェスチャDB170において、ジェスチャ領域をマージするためのジェスチャとしてジェスチャG1が定義されているものとする。ユーザは、例えば、操作体H1を用いてジェスチャ領域GA1においてジェスチャG1を演じる。ジェスチャ認識部154は、操作体の認識の結果に基づいてジェスチャG1を認識する。すると、図18Aの下段に示したように、操作制御部182は、表示オブジェクトVo5のために設定されていたジェスチャ領域GA5を、ユーザにより指定された実オブジェクトRo1のためのジェスチャ領域GA1にマージする。その結果、画角ANG内の利用可能な領域の全体が、ジェスチャ領域GA1になっている。
また、一例として、ジェスチャDB170において、操作対象を切り替えるためのジェスチャとしてジェスチャG3が定義されているものとする。図18Bの上段に示したように、ユーザは、例えば、操作体H1を用いてジェスチャ領域GA1においてジェスチャG3を演じる。ジェスチャ認識部154は、操作体の認識の結果に基づいてジェスチャG3を認識する。すると、図18Bの下段に示したように、操作制御部182は、実オブジェクトRo1のためのジェスチャ領域GA1を、表示オブジェクトVo5のためのジェスチャ領域GA5に切り替える。
上述したジェスチャインタフェースが採用されることにより、ユーザは、意図する操作対象を操作するために、最大限に広いジェスチャ領域において様々なジェスチャを自在に演じることができる。
[2−7.ジェスチャインタフェース用の標識]
図19は、ジェスチャインタフェース用の標識のいくつかの例について説明するための説明図である。図19を参照すると、情報処理装置100の画面に表示オブジェクトVo3が表示されている。また、実オブジェクトRo1が認識されている。表示制御部184により出力画像に重畳される標識IN11及び標識IN12は、表示オブジェクトVo3のためのジェスチャ領域及び実オブジェクトRo1のためのジェスチャ領域をそれぞれユーザに示す矩形枠である。図19の例では、操作体H1は表示オブジェクトVo3のためのジェスチャ領域に位置しているため、標識IN11の枠線は、標識IN12の枠線よりも(例えば、異なる色、異なる線の太さ、又は点滅などによって)強調的に表示されている。標識IN13は、表示オブジェクトVo3の操作のために利用可能なジェスチャをユーザに通知するためのガイダンスを示す。例えば、上下方向のスワイプジェスチャはウィンドウのスクロール、左方向のスワイプジェスチャは「(前のページへ)戻る」、手を振るジェスチャはアプリケーションの終了というアプリケーション処理にそれぞれ対応することが、標識IN13から理解される。操作体H1が実オブジェクトRo1のためのジェスチャ領域に移動した場合には、表示制御部184は、標識IN13のガイダンスの内容を、実オブジェクトRo1のための内容に切り替えてもよい。
図20は、ジェスチャインタフェース用の標識の他の例について説明するための説明図である。図20を参照すると、実オブジェクトRo1が認識されている。表示制御部184により出力画像に重畳される標識IN21は、実オブジェクトRo1のためのジェスチャ領域をユーザに示す矩形枠である。標識IN22は、操作体H1が実オブジェクトRo1のためのジェスチャ領域に位置している結果として実オブジェクトRo1が操作対象であることをユーザに示すマークである。標識IN23は、実オブジェクトRo1の操作のために利用可能なジェスチャをユーザに通知するためのガイダンスを示す。例えば、上下方向のスワイプジェスチャは音量の変更、左右方向のスワイプジェスチャはチャンネルの変更、手を振るジェスチャは電源オフという遠隔操作にそれぞれ対応することが、標識IN23から理解される。さらに、標識IN23は、詳細なメニューを表示させるためのボタンB1を含む。
例えばユーザが図20のボタンB1にタッチした場合、表示制御部184は、実オブジェクトRo1の操作メニューを取得し、図21に例示されるメニューMN1を出力画像に重畳し得る。メニューMN1は、例えば階層的に構成される複数のメニューアイテムを含む。標識IN33は、実オブジェクトRo1のメニューMN1を操作するために利用可能なジェスチャをユーザに通知するためのガイダンスを示す。例えば、上下方向のスワイプジェスチャはメニューアイテムのフォーカスの移動、タッチジェスチャはメニューアイテムの決定という操作にそれぞれ対応することが、標識IN33から理解される。ユーザは、メニューMN1を操作するために、メニューMN1の狭い表示領域又は個々のメニューアイテムに直接的にタッチしなくてもよい。ユーザは、実オブジェクトRo1のために設定された広いジェスチャ領域においてジェスチャを演じることにより、メニューMN1を操作することができる。
<3.処理の流れの例>
[3−1.全体的な流れ]
図22は、情報処理装置100により実行され得る操作制御処理の全体的な流れの一例を示すフローチャートである。ここで説明する操作制御処理は、画像取得部120により取得される動画を構成する一連のフレームの各々について繰り返される。
図22を参照すると、まず、画像取得部120は、カメラ101により撮像される画像を入力画像として取得する(ステップS100)。そして、画像取得部120は、取得した入力画像を認識部150及び制御部180へ出力する。
また、音声取得部130は、マイクロフォン102により生成される音声信号を入力音声として取得する(ステップS105)。そして、音声取得部130は、取得した入力音声を認識部150へ出力する。
次に、音声認識部156は、音声取得部130から入力される入力音声に基づいて、ユーザにより発せられる音声コマンドを認識する(ステップS110)。何らかの音声コマンドが認識された場合には、音声認識部156は、認識した音声コマンドの識別子を制御部180へ出力する。
また、オブジェクト認識部152は、画像取得部120から入力される入力画像に映る操作体を認識する(ステップS115)。そして、オブジェクト認識部152は、認識した操作体の画面内の位置を制御部180へ出力する。
次に、操作制御部182は、音声認識部156から入力される音声コマンドの認識の結果と、オブジェクト認識部152から入力される操作体の認識の結果とに基づいて、表示オブジェクトを配置すべきかを判定する(ステップS120)。そして、操作制御部182は、表示オブジェクトを配置すべきであると判定される場合に、認識された音声コマンドに対応する表示オブジェクトをアプリケーション部140に生成させ、操作体の位置から決定される基準位置に、表示オブジェクトを配置する(ステップS125)。
また、オブジェクト認識部152は、画像取得部120から入力される入力画像に映る実オブジェクトを認識する(ステップS130)。そして、オブジェクト認識部152は、認識した実オブジェクトの画面内の位置を制御部180へ出力する。
次に、操作制御部182は、画面に配置される表示オブジェクト及び認識された実オブジェクトのうち、ユーザにより操作可能な操作対象を、オブジェクトDB160を参照することにより識別する(ステップS135)。その後の処理は、ユーザにより操作可能な操作対象の数に依存して分岐する(ステップS140、S145)。ユーザにより操作可能な操作対象が存在しない場合には、処理はステップS190へ進む。操作可能な操作対象が1つだけ存在する場合には、処理はステップS150へ進む。操作可能な操作対象が複数存在する場合には、処理はステップS155へ進む。
操作可能な操作対象が1つだけ存在する場合、操作制御部182は、その1つの操作対象に関連付けられるジェスチャ領域を、利用可能な画角の全体に設定する(ステップS150)。
一方、操作可能な操作対象が複数存在する場合、操作制御部182は、当該複数の操作対象の基準位置に基づいて、各操作対象に関連付けられるジェスチャ領域を画面内に設定する(ステップS155)。ここでのジェスチャ領域の設定は、図13A〜図18Bを用いて説明した様々な手法のうち任意の手法に従って行われてよい。
次に、表示制御部184は、ジェスチャインタフェースを使用するユーザを支援するための標識を画面に配置する(ステップS160)。ここで配置されるジェスチャインタフェース用の標識は、図19〜図21に例示したようないかなる標識を含んでもよい。
さらに、ジェスチャ認識部154は、操作体の認識の結果に基づき、操作制御部182により設定されたジェスチャ領域において操作体を用いて演じられたジェスチャを認識する(ステップS165)。そして、ジェスチャ認識部154は、認識したジェスチャの識別子を操作制御部182へ出力する。
操作制御部182は、ジェスチャ認識部154により所定のジェスチャが認識された場合には(ステップS170)、どのジェスチャ領域においてジェスチャが演じられたかに基づいて、操作されるべき操作対象を判定する(ステップS175)。そして、操作制御部182は、認識されたジェスチャに対応する操作を、判定した操作対象に実行させる(ステップS180)。
そして、表示制御部184は、実行された操作についてのフィードバックを含み得る出力画像を、ディスプレイ108の画面に表示させる(ステップS190)。その後、処理はステップS100へ戻る。
[3−2.操作の実行]
図23は、図22のステップS180における処理の詳細な流れの一例を示すフローチャートである。図23の処理は、操作対象の種類に依存して分岐する。
例えば、操作対象が遠隔操作可能な実オブジェクトである場合には(ステップS181)、操作制御部182は、認識されたジェスチャに対応する遠隔操作信号を、遠隔操作I/F110から当該実オブジェクトへ送信させる(ステップS182)。
操作対象が仮想的な操作の定義された実オブジェクトである場合には(ステップS183)、操作制御部182は、認識されたジェスチャに対応する仮想的な操作を表現する拡張現実(AR)オブジェクトを、表示制御部184に生成させる(ステップS184)。ここで生成されるARオブジェクトは、図22のステップS190において画面に表示され得る。
操作対象がアプリケーションウィンドウなどの表示オブジェクトである場合には(ステップS185)、操作制御部182は、認識されたジェスチャに対応するアプリケーション処理をアプリケーション部140に実行させる(ステップS186)。アプリケーション処理が実行された結果は、図22のステップS190において画面に表示され得る。
なお、本節で説明した処理の流れは一例に過ぎない。即ち、上述した処理ステップのいくつかは省略されてもよく、他の処理ステップが追加されてもよく、又は処理ステップの順序が変更されてもよい。例えば、実オブジェクトの操作の用途のみに本開示に係る技術が適用される場合には、表示オブジェクトの配置及び操作に関連する処理ステップは省略されてよい。また、表示オブジェクトの操作の用途のみに本開示に係る技術が適用される場合には、実オブジェクトの認識及び操作に関連する処理ステップは省略されてよい。
<4.複数の装置の連携>
本開示に係る技術は、複数の操作が互いに連携することにより実現されてもよい。例えば、前節で説明した操作制御処理の一部は、情報処理装置100とは物理的に異なる装置により実行されてもよい。
図24は、複数の装置の連携について説明するための説明図である。図24を参照すると、ユーザにより装着されるHMDである情報処理装置100、情報処理装置100と通信するサーバ装置200、及び実オブジェクトRo1が示されている。情報処理装置100は、例えば入力画像及び入力音声をサーバ装置200へ送信する(SIG1)。サーバ装置200は、図6に示した認識部150及び制御部180の機能を有する情報処理装置である。サーバ装置200は、情報処理装置100から受信される入力画像及び入力音声に基づいて操作制御処理を実行する。サーバ装置200により実行された処理の結果は、情報処理装置100へ提供される(SIG2)。情報処理装置100は、サーバ装置200から受信される処理の結果に基づいて出力画像を画面に表示し、又は遠隔制御信号を実オブジェクトRo1へ送信する(SIG3)。遠隔制御信号は、情報処理装置100ではなくサーバ装置200から実オブジェクトRo1へ送信されてもよい(SIG4)。サーバ装置200は、例えば、ユーザの近傍に構築されるパーソナルネットワーク若しくはホームネットワーク上に配置されてもよく、又はインターネットなどの遠隔的なネットワーク上に配置されてもよい。
<5.まとめ>
ここまで、図1〜図24を用いて、本開示に係る技術の様々な実施形態について説明した。上述した実施形態によれば、ユーザにより操作可能な単一の操作対象が存在する場合には、当該単一の操作対象に関連付けられるジェスチャ領域が、画面内で利用可能な広い領域に設定される。複数の操作対象が存在する場合には、当該複数の操作対象の基準位置に基づいて、少なくとも1つの操作対象に関連付けられるジェスチャ領域が設定される。即ち、利用可能な画面領域が、操作対象の間の位置関係に応じて、ジェスチャ領域として複数の操作対象に配分される。そして、設定されたジェスチャ領域におけるジェスチャインタフェースを介して、個々の操作対象の操作が制御される。従って、ジェスチャ入力を受け付ける画面領域が狭い領域に制限されないため、ジェスチャ入力の自由度が高められる。また、画角内のある領域でジェスチャを演じることによりある操作対象を操作し、他の領域でジェスチャを演じることにより別の操作対象を操作するという多元的な操作が可能となる。その結果、操作対象を切り替えるための特別なコマンドなどを要することなく、ユーザは、多様なジェスチャインタフェースを通じて複数の操作対象を自在に操作することができる。また、ジェスチャ領域が狭い領域に制限されないため、操作対象を正確にポインティングするといったようなユーザの負担も解消される。これは、タッチセンサ又はマウスなどの他の操作手段と同等のポインティングの精度を得ることの難しいジェスチャインタフェースにおいて特に有益である。
また、上述した実施形態によれば、設定されたジェスチャ領域を示す標識、又は操作対象の操作のために利用可能なジェスチャを示す標識など、ジェスチャインタフェース用のユーザを支援する標識が画面に表示される。従って、ユーザは、どの画面領域でどのようなジェスチャを演じればよいかを、その標識を見ることにより理解することができる。それにより、ジェスチャインタフェースの使用が促進される。
また、上述した実施形態によれば、操作対象が実オブジェクトである場合に、実オブジェクトの基準位置は実オブジェクトの画面内の位置から決定される。従って、ユーザの視界のどこに操作対象の実オブジェクトが存在するかを考慮して、当該実オブジェクトを操作するためのジェスチャ領域を設定することができる。実オブジェクトが遠隔操作可能な機器である場合には、ジェスチャインタフェースを介して当該実オブジェクトを遠隔的に操作することが可能である。実オブジェクトについて仮想的な操作が定義されている場合には、ジェスチャインタフェースを介してその仮想的な操作を呼び出すことができる。
また、上述した実施形態によれば、操作対象が画面に表示される表示オブジェクトである場合に、表示オブジェクトの基準位置は当該表示オブジェクトが表示される際にユーザにより指定される。従って、ユーザが望む表示オブジェクトの配置を考慮して、当該表示オブジェクトを操作するためのジェスチャ領域を設定することができる。そして、設定されたジェスチャ領域におけるジェスチャインタフェースを介して、表示オブジェクトを操作することが可能となる。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部、
を備える情報処理装置。
(2)
前記制御部は、前記ジェスチャ領域を示す標識を前記画面に表示させる、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記少なくとも1つの操作対象の操作のために利用可能なジェスチャを示す標識を前記画面に表示させる、前記(1)又は前記(2)に記載の情報処理装置。
(4)
前記複数の操作対象は、実空間に存在する実オブジェクトを含み、
前記実オブジェクトの前記基準位置は、当該実オブジェクトの前記画面内の位置から決定される、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記複数の操作対象は、前記画面に表示される表示オブジェクトを含み、
前記表示オブジェクトの前記基準位置は、当該表示オブジェクトが表示される際に前記ユーザにより指定される、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記表示オブジェクトは、前記ユーザにより発せられる音声コマンドに応じて表示され、
当該表示オブジェクトの前記基準位置は、前記音声コマンドが認識された際の前記画面内の操作体の位置から決定される、
前記(5)に記載の情報処理装置。
(7)
前記実オブジェクトに関連付けて設定される前記ジェスチャ領域は、当該実オブジェクトが前記画面の外へ移動した後に前記画面内に残される、前記(4)に記載の情報処理装置。
(8)
前記実オブジェクトは、遠隔操作可能な機器であり、
前記制御部は、前記遠隔操作可能な機器に関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応する遠隔操作信号を前記遠隔操作可能な機器へ送信する、
前記(4)に記載の情報処理装置。
(9)
前記実オブジェクトは、仮想的な操作の定義されたオブジェクトであり、
前記制御部は、当該オブジェクトに関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応する前記仮想的な操作を前記画面に表示させる、
前記(4)に記載の情報処理装置。
(10)
前記表示オブジェクトは、アプリケーションを実行することにより表示され、
前記制御部は、前記表示オブジェクトに関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応するアプリケーション処理を前記アプリケーションに実行させる、
前記(5)又は前記(6)に記載の情報処理装置。
(11)
前記制御部は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、前記第1の基準位置と前記第2の基準位置との間を通る境界によって画角を分割することにより設定する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記境界の方向は、前記第1の基準位置と前記第2の基準位置との間の位置関係に依存して決定される、前記(11)に記載の情報処理装置。
(13)
前記制御部は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、画角を均等に分割し、分割後の領域を前記第1の基準位置と前記第2の基準位置との間の位置関係に応じて前記第1の操作対象及び前記第2の操作対象に割り当てることにより、設定する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域を設定した後、第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域を、前記第1の基準位置と前記第2の基準位置とに基づいて設定する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(15)
前記制御部は、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域を、当該第1の基準位置とより優先度の高い第2の操作対象の第2の基準位置とに基づいて設定する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(16)
前記制御部は、前記第1の操作対象及び前記第2の操作対象のうち一方が前記ユーザにより指定された場合に、指定されなかった方の操作対象のジェスチャ領域を、指定された方の操作対象のジェスチャ領域にマージする、前記(11)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記制御部は、単一の操作対象が存在する場合には、当該単一の操作対象に関連付けられるジェスチャ領域を前記画面内の利用可能な領域の全体に設定し、前記複数の操作対象が存在する場合には、前記複数の操作対象の各々に関連付けられるジェスチャ領域を、前記複数の操作対象の前記基準位置に基づいて設定する、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記画面は、前記ユーザの頭部に装着される、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(19)
情報処理装置により実行される操作制御方法において、
ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御すること、
を含む操作制御方法。
(20)
情報処理装置を制御するコンピュータを、
ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部、
として機能させるためのプログラム。
100 情報処理装置
150 認識部
180 制御部
200 サーバ装置(情報処理装置)
RP1,RP2,RP3,RP4,RP5 基準位置
GA1,GA2,GA3,GA4,GA5 ジェスチャ領域

Claims (18)

  1. ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部、
    を備え
    前記制御部は、
    第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、前記第1の基準位置と前記第2の基準位置との間を通る境界によって画角を分割することにより設定し、
    前記ユーザが前記第1のジェスチャ領域及び前記第2のジェスチャ領域のうちの一方において所定のジェスチャを行ったことを認識した場合には、前記ユーザが前記所定のジェスチャを行った前記ジェスチャ領域に、前記ユーザが前記所定のジェスチャを行われなかった前記ジェスチャ領域をマージする、
    情報処理装置。
  2. 前記制御部は、前記ジェスチャ領域を示す標識を前記画面に表示させる、請求項1に記載の情報処理装置。
  3. 前記制御部は、前記少なくとも1つの操作対象の操作のために利用可能なジェスチャを示す標識を前記画面に表示させる、請求項1又は2に記載の情報処理装置。
  4. 前記複数の操作対象は、実空間に存在する実オブジェクトを含み、
    前記実オブジェクトの前記基準位置は、当該実オブジェクトの前記画面内の位置から決定される、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記複数の操作対象は、前記画面に表示される表示オブジェクトを含み、
    前記表示オブジェクトの前記基準位置は、当該表示オブジェクトが表示される際に前記ユーザにより指定される、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記表示オブジェクトは、前記ユーザにより発せられる音声コマンドに応じて表示され、
    当該表示オブジェクトの前記基準位置は、前記音声コマンドが認識された際の前記画面内の操作体の位置から決定される、
    請求項5に記載の情報処理装置。
  7. 前記実オブジェクトに関連付けて設定される前記ジェスチャ領域は、当該実オブジェクトが前記画面の外へ移動した後に前記画面内に残される、請求項4に記載の情報処理装置。
  8. 前記実オブジェクトは、遠隔操作可能な機器であり、
    前記制御部は、前記遠隔操作可能な機器に関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応する遠隔操作信号を前記遠隔操作可能な機器へ送信する、
    請求項4に記載の情報処理装置。
  9. 前記実オブジェクトは、仮想的な操作の定義されたオブジェクトであり、
    前記制御部は、当該オブジェクトに関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応する前記仮想的な操作を前記画面に表示させる、
    請求項4に記載の情報処理装置。
  10. 前記表示オブジェクトは、アプリケーションを実行することにより表示され、
    前記制御部は、前記表示オブジェクトに関連付けられる前記ジェスチャ領域において前記ユーザのジェスチャが認識された場合に、認識された当該ジェスチャに対応するアプリケーション処理を前記アプリケーションに実行させる、
    請求項5又は6に記載の情報処理装置。
  11. 前記境界の方向は、前記第1の基準位置と前記第2の基準位置との間の位置関係に依存して決定される、請求項に記載の情報処理装置。
  12. 前記制御部は、前記第1の基準位置を有する前記第1の操作対象に関連付けられる前記第1のジェスチャ領域と前記第2の基準位置を有する前記第2の操作対象に関連付けられる前記第2のジェスチャ領域とを、画角を均等に分割し、分割後の領域を前記第1の基準位置と前記第2の基準位置との間の位置関係に応じて前記第1の操作対象及び前記第2の操作対象に割り当てることにより、設定する、請求項1〜10のいずれか1項に記載の情報処理装置。
  13. 前記制御部は、前記第1の基準位置を有する前記第1の操作対象に関連付けられる前記第1のジェスチャ領域を設定した後、前記第2の基準位置を有する前記第2の操作対象に関連付けられる前記第2のジェスチャ領域を、前記第1の基準位置と前記第2の基準位置とに基づいて設定する、請求項1〜10のいずれか1項に記載の情報処理装置。
  14. 前記制御部は、前記第1の基準位置を有する前記第1の操作対象に関連付けられる前記第1のジェスチャ領域を、当該第1の基準位置とより優先度の高い前記第2の操作対象の前記第2の基準位置とに基づいて設定する、請求項1〜10のいずれか1項に記載の情報処理装置。
  15. 前記制御部は、単一の操作対象が存在する場合には、当該単一の操作対象に関連付けられるジェスチャ領域を前記画面内の利用可能な領域の全体に設定し、前記複数の操作対象が存在する場合には、前記複数の操作対象の各々に関連付けられるジェスチャ領域を、前記複数の操作対象の前記基準位置に基づいて設定する、請求項1〜14のいずれか1項に記載の情報処理装置。
  16. 前記画面は、前記ユーザの頭部に装着される、請求項1〜14のいずれか1項に記載の情報処理装置。
  17. 情報処理装置により実行される操作制御方法において、
    ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御すること、
    第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、前記第1の基準位置と前記第2の基準位置との間を通る境界によって画角を分割することにより設定することと、
    前記ユーザが前記第1のジェスチャ領域及び前記第2のジェスチャ領域のうちの一方において所定のジェスチャを行ったことを認識した場合には、前記ユーザが前記所定のジェスチャを行った前記ジェスチャ領域に、前記ユーザが前記所定のジェスチャを行われなかった前記ジェスチャ領域をマージすることと、
    を含む操作制御方法。
  18. 情報処理装置を制御するコンピュータを、
    ユーザにより操作可能な複数の操作対象の画面内の基準位置に基づいて前記画面内に設定される少なくとも1つのジェスチャ領域であって、少なくとも1つの操作対象に関連付けられる前記ジェスチャ領域を用いて、前記少なくとも1つの操作対象の操作を制御する制御部であって、第1の基準位置を有する第1の操作対象に関連付けられる第1のジェスチャ領域と第2の基準位置を有する第2の操作対象に関連付けられる第2のジェスチャ領域とを、前記第1の基準位置と前記第2の基準位置との間を通る境界によって画角を分割することにより設定し、前記ユーザが前記第1のジェスチャ領域及び前記第2のジェスチャ領域のうちの一方において所定のジェスチャを行ったことを認識した場合には、前記ユーザが前記所定のジェスチャを行った前記ジェスチャ領域に、前記ユーザが前記所定のジェスチャを行われなかった前記ジェスチャ領域をマージする制御部、
    として機能させるためのプログラム。
JP2013058858A 2013-03-21 2013-03-21 情報処理装置、操作制御方法及びプログラム Expired - Fee Related JP5900393B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013058858A JP5900393B2 (ja) 2013-03-21 2013-03-21 情報処理装置、操作制御方法及びプログラム
PCT/JP2013/007295 WO2014147686A1 (en) 2013-03-21 2013-12-11 Head-mounted device for user interactions in an amplified reality environment
CN201380074691.3A CN105190477B (zh) 2013-03-21 2013-12-11 用于在增强现实环境中的用户交互的头戴式显示装置
EP13818016.1A EP2976690B1 (en) 2013-03-21 2013-12-11 Head-mounted device for user interactions in an amplified reality environment
US14/775,776 US10466794B2 (en) 2013-03-21 2013-12-11 Gesture recognition areas and sub-areas for interaction with real and virtual objects within augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013058858A JP5900393B2 (ja) 2013-03-21 2013-03-21 情報処理装置、操作制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014186361A JP2014186361A (ja) 2014-10-02
JP2014186361A5 JP2014186361A5 (ja) 2015-03-19
JP5900393B2 true JP5900393B2 (ja) 2016-04-06

Family

ID=49918783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013058858A Expired - Fee Related JP5900393B2 (ja) 2013-03-21 2013-03-21 情報処理装置、操作制御方法及びプログラム

Country Status (5)

Country Link
US (1) US10466794B2 (ja)
EP (1) EP2976690B1 (ja)
JP (1) JP5900393B2 (ja)
CN (1) CN105190477B (ja)
WO (1) WO2014147686A1 (ja)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777746B (zh) * 2012-10-23 2018-03-13 腾讯科技(深圳)有限公司 一种人机交互方法、终端及系统
US10168873B1 (en) 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US10057483B2 (en) * 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
DE102014109734A1 (de) * 2014-07-11 2016-01-14 Miele & Cie. Kg Verfahren zum Betreiben einer mit einem Haushaltsgerät koppelbaren Datenbrille, Verfahren zum Betreiben eines mit einer Datenbrille koppelbaren Haushaltsgeräts, Datenbrille, Haushaltsgerät sowie System zum Ansteuern eines Haushaltsgeräts
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
US9696551B2 (en) * 2014-08-13 2017-07-04 Beijing Lenovo Software Ltd. Information processing method and electronic device
US10725533B2 (en) * 2014-09-26 2020-07-28 Intel Corporation Systems, apparatuses, and methods for gesture recognition and interaction
CN104375641B (zh) * 2014-10-27 2017-12-26 联想(北京)有限公司 一种控制方法及电子设备
KR102235707B1 (ko) * 2015-01-29 2021-04-02 한국전자통신연구원 콘텐츠 부가 정보 제공 방법 및 모바일 단말 및 콘텐츠 제어 서버
JP6483514B2 (ja) * 2015-04-28 2019-03-13 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
EP3088991B1 (en) * 2015-04-30 2019-12-25 TP Vision Holding B.V. Wearable device and method for enabling user interaction
US9442575B1 (en) 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
US10401966B2 (en) 2015-05-15 2019-09-03 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
EP3096517A1 (en) * 2015-05-22 2016-11-23 TP Vision Holding B.V. Wearable smart glasses
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置
ES2835877T3 (es) 2015-06-09 2021-06-23 Nokia Technologies Oy Transición de un casco de realidad virtual a partir del funcionamiento en un primer modo de potencia al funcionamiento en un segundo modo de potencia
WO2016209039A1 (ko) * 2015-06-24 2016-12-29 주식회사 브이터치 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2017018388A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP6319220B2 (ja) * 2015-07-30 2018-05-09 京セラドキュメントソリューションズ株式会社 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
US10437415B2 (en) 2015-08-18 2019-10-08 Sony Corporation System, method, and device for controlling a display
CN105045398B (zh) * 2015-09-07 2018-04-03 哈尔滨市一舍科技有限公司 一种基于手势识别的虚拟现实交互设备
JP6684559B2 (ja) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
KR102400900B1 (ko) * 2015-10-26 2022-05-23 엘지전자 주식회사 시스템
JP2017120556A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム
WO2017161497A1 (zh) * 2016-03-22 2017-09-28 深圳市柔宇科技有限公司 头戴式显示设备及其操控方法
CN105607264B (zh) * 2016-03-28 2018-08-31 联想(北京)有限公司 电子设备和显示方法
JP6736944B2 (ja) 2016-03-29 2020-08-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20170286383A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc Augmented imaging assistance for visual impairment
NZ746640A (en) 2016-03-31 2020-03-27 Magic Leap Inc Interactions with 3d virtual objects using poses and multiple-dof controllers
CN107636696B (zh) * 2016-06-16 2021-04-06 深圳市柔宇科技股份有限公司 多用户交互方法、装置及陪护机器人
CN106203287A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 一种图像增强现实的处理方法、装置和移动终端
CN106155311A (zh) * 2016-06-28 2016-11-23 努比亚技术有限公司 Ar头戴设备、ar交互系统及ar场景的交互方法
JP6672458B2 (ja) * 2016-07-12 2020-03-25 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
CN106155326A (zh) * 2016-07-26 2016-11-23 北京小米移动软件有限公司 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备
WO2018032970A1 (zh) * 2016-08-19 2018-02-22 腾讯科技(深圳)有限公司 基于虚拟现实场景的认证方法、虚拟现实设备及存储介质
JP6122537B1 (ja) * 2016-09-08 2017-04-26 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
EP4064679A1 (en) 2016-09-16 2022-09-28 Sony Semiconductor Solutions Corporation Imaging device and electronic device
CN106445152A (zh) * 2016-09-29 2017-02-22 珠海市魅族科技有限公司 一种在虚拟现实环境中管理菜单的方法及虚拟现实设备
CN107918481B (zh) * 2016-10-08 2022-11-11 深圳巧牛科技有限公司 基于手势识别的人机交互方法与系统
JP6208837B1 (ja) 2016-10-12 2017-10-04 株式会社エイチアイ ユーザインタフェースを制御する方法、プログラム及び装置
CN106527938A (zh) * 2016-10-26 2017-03-22 北京小米移动软件有限公司 应用程序的操作方法和装置
CN107024981B (zh) 2016-10-26 2020-03-20 阿里巴巴集团控股有限公司 基于虚拟现实的交互方法及装置
CN107357416A (zh) * 2016-12-30 2017-11-17 长春市睿鑫博冠科技发展有限公司 一种人机交互装置及交互方法
EP3324270A1 (en) * 2016-11-16 2018-05-23 Thomson Licensing Selection of an object in an augmented reality environment
CN108092950B (zh) * 2016-11-23 2023-05-23 深圳脸网科技有限公司 一种基于位置的ar或mr社交方法
JP6790769B2 (ja) * 2016-11-30 2020-11-25 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US11507216B2 (en) * 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
JP2018151851A (ja) * 2017-03-13 2018-09-27 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
WO2018195099A1 (en) 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
US20200042105A1 (en) 2017-04-27 2020-02-06 Sony Corporation Information processing apparatus, information processing method, and recording medium
CN108700912B (zh) * 2017-06-30 2022-04-01 广东虚拟现实科技有限公司 通过增强现实操作设备的方法和系统
WO2019026616A1 (ja) * 2017-08-01 2019-02-07 ソニー株式会社 情報処理装置および方法
JP7222351B2 (ja) 2017-08-09 2023-02-15 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
KR102431712B1 (ko) 2017-09-04 2022-08-12 삼성전자 주식회사 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
JP2018063706A (ja) * 2017-09-07 2018-04-19 株式会社エイチアイ 情報処理方法、プログラム及び情報処理装置
WO2019050535A1 (en) * 2017-09-08 2019-03-14 Hewlett-Packard Development Company, L.P. DETECTION OF GESTURE IN AN INTERACTIVE ENVIRONMENT
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
CN109491496A (zh) * 2017-09-12 2019-03-19 精工爱普生株式会社 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
US10102659B1 (en) 2017-09-18 2018-10-16 Nicholas T. Hariton Systems and methods for utilizing a device as a marker for augmented reality content
WO2019079757A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US10105601B1 (en) 2017-10-27 2018-10-23 Nicholas T. Hariton Systems and methods for rendering a virtual content object in an augmented reality environment
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11907423B2 (en) * 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11567573B2 (en) 2018-09-20 2023-01-31 Meta Platforms Technologies, Llc Neuromuscular text entry, writing and drawing in augmented reality systems
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US10636188B2 (en) 2018-02-09 2020-04-28 Nicholas T. Hariton Systems and methods for utilizing a living entity as a marker for augmented reality content
CA3033605C (en) * 2018-02-14 2021-11-23 Aaron Derouin Three-dimensional visual target acquisition systems
WO2019189965A1 (ko) * 2018-03-30 2019-10-03 데이터얼라이언스 주식회사 가상 현실과 증강 현실을 이용한 IoT 디바이스 제어 시스템 및 방법
CN108388351B (zh) * 2018-04-12 2024-03-12 深圳市正图科技有限公司 一种混合现实体验系统
US20190324549A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes
US10198871B1 (en) 2018-04-27 2019-02-05 Nicholas T. Hariton Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
US10783712B2 (en) * 2018-06-27 2020-09-22 Facebook Technologies, Llc Visual flairs for emphasizing gestures in artificial-reality environments
US20200110560A1 (en) * 2018-10-09 2020-04-09 Nicholas T. Hariton Systems and methods for interfacing with a non-human entity based on user interaction with an augmented reality environment
CN113423341B (zh) 2018-11-27 2024-12-03 元平台技术有限公司 用于可穿戴电极传感器系统的自动校准的方法和装置
US10969937B2 (en) * 2019-01-11 2021-04-06 Microsoft Technology Licensing, Llc Context-aware system menu behavior for mixed reality
JP2022051971A (ja) * 2019-02-05 2022-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2020135096A (ja) 2019-02-14 2020-08-31 セイコーエプソン株式会社 表示方法、表示装置、及び、インタラクティブプロジェクター
FR3107390B1 (fr) * 2020-02-13 2023-10-20 Orange Dispositif, système et procédé de traitement de données de réalité virtuelle
EP3942390A1 (fr) 2019-03-21 2022-01-26 Orange Dispositif, système et procédé de traitement de données de réalite virtuelle
US10586396B1 (en) 2019-04-30 2020-03-10 Nicholas T. Hariton Systems, methods, and storage media for conveying virtual content in an augmented reality environment
US11030459B2 (en) * 2019-06-27 2021-06-08 Intel Corporation Methods and apparatus for projecting augmented reality enhancements to real objects in response to user gestures detected in a real environment
CN110597442B (zh) * 2019-09-20 2021-03-16 北京华捷艾米科技有限公司 一种手机ar绘画方法及装置
CN112825013A (zh) * 2019-11-20 2021-05-21 百度在线网络技术(北京)有限公司 终端设备的控制方法和装置
CN111078002A (zh) * 2019-11-20 2020-04-28 维沃移动通信有限公司 一种悬空手势识别方法及终端设备
SG10201913005YA (en) * 2019-12-23 2020-09-29 Sensetime Int Pte Ltd Method, apparatus, and system for recognizing target object
JP2021119364A (ja) * 2020-01-30 2021-08-12 セイコーエプソン株式会社 表示装置、表示装置の制御方法およびプログラム
CN111522496A (zh) * 2020-04-13 2020-08-11 江西省映尚科技有限公司 一种vr和ar设备的控制管理系统
US20210358294A1 (en) * 2020-05-15 2021-11-18 Microsoft Technology Licensing, Llc Holographic device control
CN112905003A (zh) * 2021-01-21 2021-06-04 浙江吉利控股集团有限公司 一种智能座舱手势控制方法、装置和存储介质
WO2022269753A1 (ja) * 2021-06-22 2022-12-29 マクセル株式会社 情報処理システム、情報処理装置及び画像表示装置
WO2023027343A1 (ko) 2021-08-26 2023-03-02 삼성전자 주식회사 서랍형 상자
US11687221B2 (en) * 2021-08-27 2023-06-27 International Business Machines Corporation Augmented reality based user interface configuration of mobile and wearable computing devices
US12141364B2 (en) * 2021-11-15 2024-11-12 Samsung Electronics Co., Ltd. Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor
US20230409122A1 (en) * 2022-06-21 2023-12-21 Apple Inc. Hand-Gesture Activation of Actionable Items
US20240071002A1 (en) * 2022-08-30 2024-02-29 Rovi Guides, Inc. Systems and methods for pinning content items to locations in an augmented reality display based on user preferences

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
JP2001290574A (ja) * 2000-04-11 2001-10-19 Hitachi Ltd 情報表示方法および情報処理装置
AU2003291304A1 (en) * 2002-11-06 2004-06-03 Julius Lin Virtual workstation
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP4221445B1 (ja) * 2008-06-11 2009-02-12 株式会社ベイビッグ テレビ電話端末、テレビ電話端末制御方法及びプログラム
JP5156571B2 (ja) * 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP2012079138A (ja) * 2010-10-04 2012-04-19 Olympus Corp ジェスチャ認識装置
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8965049B2 (en) * 2011-02-01 2015-02-24 Panasonic Intellectual Property Corporation Of America Function extension device, function extension method, computer-readable recording medium, and integrated circuit
JP2012181809A (ja) 2011-03-03 2012-09-20 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
CA2847975A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
US9448404B2 (en) * 2012-11-13 2016-09-20 Qualcomm Incorporated Modifying virtual object display properties to increase power performance of augmented reality devices
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices

Also Published As

Publication number Publication date
JP2014186361A (ja) 2014-10-02
US10466794B2 (en) 2019-11-05
CN105190477B (zh) 2018-09-21
US20160034039A1 (en) 2016-02-04
CN105190477A (zh) 2015-12-23
EP2976690A1 (en) 2016-01-27
EP2976690B1 (en) 2019-07-17
WO2014147686A1 (en) 2014-09-25

Similar Documents

Publication Publication Date Title
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
US12164739B2 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US12032803B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11494000B2 (en) Touch free interface for augmented reality systems
US20220084279A1 (en) Methods for manipulating objects in an environment
US20210191600A1 (en) Devices, Methods, and Graphical User Interfaces for Displaying Applications in Three-Dimensional Environments
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US20220317776A1 (en) Methods for manipulating objects in an environment
US10521101B2 (en) Scroll mode for touch/pointing control
WO2024064229A1 (en) Devices, methods, and graphical user interfaces for tabbed browsing in three-dimensional environments
JP6841232B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN103309466A (zh) 指向性影像操控装置及其方法
US12032754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20220377041A1 (en) Immersive message management
KR20240025593A (ko) 객체에 대한 동작 양식을 동적으로 선택하기 위한 방법 및 디바이스
US20230042447A1 (en) Method and Device for Managing Interactions Directed to a User Interface with a Physical Object
US20240256049A1 (en) Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments
WO2024039666A1 (en) Devices, methods, and graphical user interfaces for improving accessibility of interactions with three-dimensional environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160222

R151 Written notification of patent or utility model registration

Ref document number: 5900393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees