JP6598617B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP6598617B2 JP6598617B2 JP2015184523A JP2015184523A JP6598617B2 JP 6598617 B2 JP6598617 B2 JP 6598617B2 JP 2015184523 A JP2015184523 A JP 2015184523A JP 2015184523 A JP2015184523 A JP 2015184523A JP 6598617 B2 JP6598617 B2 JP 6598617B2
- Authority
- JP
- Japan
- Prior art keywords
- input device
- user
- distance
- task
- hmd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 87
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000012545 processing Methods 0.000 claims description 54
- 230000000007 visual effect Effects 0.000 claims description 28
- 210000003128 head Anatomy 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 22
- 210000001508 eye Anatomy 0.000 claims description 14
- 238000000034 method Methods 0.000 description 46
- 238000003384 imaging method Methods 0.000 description 31
- 238000005259 measurement Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 239000002131 composite material Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 7
- 241001422033 Thestylus Species 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
Description
タスクの切り替えには、対象アプリケーションの切り替えが必要である。ところが、キーボード等の入力装置を操作して対象アプリケーションを切り替える必要がある場合、体験者であるユーザは、HMDを装着したまま入力装置を正確に操作することが困難である。そのため、アプリケーションの切り替え時には、HMDの着脱を要する。しかしながら、MRシステムやVRシステムを体験中にHMDを着脱すると、没入感の阻害やタスク実行効率の低下が発生してしまう。
そこで、本発明は、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、適切にタスクの切り替えを判別することを目的とする。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
図1は、本実施形態における情報処理装置30を備える複合現実感(MR)システム10の構成例を示す図である。
MRシステム10は、HMD20と、情報処理装置30と、を備える。MRシステム10は、現実空間と仮想空間とを融合させ、MR体験者であるユーザに提示する技術を用いたシステムである。MRシステム10は、CADモデルなどの現実にはない物体が、あたかもその場にあるかのようにユーザに提示することができる。このMRシステム10は、製造分野や医療分野等、様々な分野への適用が可能である。例えば、製造分野においては、MRシステム10は、設計時点でのデザイン確認や、組み立て時点での手順の表示といった組み立て支援に用いることができる。また、医療分野においては、MRシステム10は、患者の体表面に体内の様子を表示するといった手術支援に用いることができる。
画像入力制御部31は、後述する図2に示す画像入力部308を制御して、撮像部21L、21Rによってユーザの視点位置から撮像されたユーザの視線方向の画像を取得する。なお、情報処理装置30は、画像入力制御部31によって取得された画像に対してレンズ歪み補正を行うことで、画像の歪みはないものとして扱う。画像加工部32は、現実空間に定義した標準座標系をもとに、HMD20の位置姿勢を検出し、画像入力制御部31によって取得された画像内におけるHMD20の位置姿勢との整合性を持たせた位置に仮想のコンテンツを重畳させることで、合成画像を生成する。
ここで、標準座標系上におけるHMD20の位置姿勢は、撮像部21L、22Rによって撮像されたステレオ画像によって検出することができる。なお、HMD20の位置姿勢は、不図示の位置姿勢センサの情報をもとに検出してもよい。また、コンテンツの位置は、HMD20の位置姿勢の検出結果から一義的に決めることができる。画像加工部32は、上記の生成した画像を制御部33および画像出力制御部35に出力する。
CPU301は、情報処理装置30における動作を統括的に制御するものであり、システムバス309を介して、各構成部(302〜308)を制御する。RAM302は、CPU301の主メモリ、ワークエリアとして機能する。ROM303は、CPU301が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、上記プログラムは、RAM302、記憶装置304、または記憶媒体305に記憶されていてもよい。すなわち、CPU301は、処理の実行に際して、例えばROM303から必要なプログラムをRAM302にロードし、上記プログラムを実行することで各種の機能動作を実現する。
条件設定部33aは、図2のROM303、RAM302、記憶装置304および記憶媒体305の少なくとも1つに予め記憶された条件設定テーブルを読み出す。図4は、条件設定テーブルの一例である。この図4に示すように、条件設定テーブルは、入力装置と操作媒体との組合せと、その組合せに対応付けられた、ユーザが実行し得るタスク(対象タスク)とを格納する。
本実施形態では、制御部33は、形状認識技術を用いて入力装置を識別し、色認識技術を用いて操作媒体を識別する。したがって、図4に示すように、入力装置の識別情報は、入力装置のパターン形状を示すテンプレート画像であり、操作媒体の識別情報は、操作媒体の色を示す色情報(R,G,B)である。なお、入力装置および操作媒体の識別方法は、形状認識技術や色認識技術を用いる方法に限定されない。
なお、図1に示す情報処理装置30の各部の機能、および図3に示す制御部33の各部の機能は、図2に示すCPU301がRAM302、ROM303、記憶装置304もしくは記憶媒体305に記憶されたプログラムを実行することで実現され得る。
図5は、制御部33が実行するタスク判別処理手順を示すフローチャートである。図5の処理は、情報処理装置30のCPU301が、所定のプログラムを読み出して実行することにより実現され得る。ただし、図5の処理の一部または全部が、専用のハードウェアにより実現されてもよい。
先ずS1において、制御部33は、予め登録しておいた条件設定テーブルを読み出し、入力装置の識別情報と、操作媒体の識別情報と、距離の判定パラメータ(規定距離)とを取得してS2に移行する。S2では、制御部33は、S1において取得した入力装置の識別情報を用いて、HMD20の撮像部21L、21Rによる撮像画像から入力装置を検索する。図6に示すように、HMD20の視線方向に複数の物体41〜44が存在する場合、撮像画像内には物体41〜44の画像が含まれる。したがって、この場合、制御部33は、これらの物体41〜44の中にS1において取得した入力装置の識別情報40と合致する物体が存在するか否かを判定する。
S4では、制御部33は、S2において識別された入力装置とHMD20との距離を計測する。例えば、制御部33は、図6に示すキーボードである物体41を入力装置として識別した場合、入力装置41とHMD20との距離41aを計測する。
なお、文章入力欄61の表示方法は、図7に示す方法に限定されない。文章入力欄61をキーボード41に重畳させて表示する場合には、背景となるキーボードを確認可能なように文章入力欄61を透過表示するようにしてもよい。また、文字エディタアプリを起動したときに表示させる情報も文章入力欄61に限定されない。
図8は、CG調整タスク実行時におけるHMD画面60の一例である。HMD20の表示部22L、22Rによって表示されるHMD画面60には、コントローラである入力装置45やユーザの手51といった現実物体や、仮想のコンテンツ70が表示される。コンテンツ移動アプリが起動された場合、図8に示すように、HMD画面60に座標軸62を重畳表示させることで、コンテンツを移動可能な状態に切り替えることができる。なお、座標軸62の表示方法は、図8に示す方法に限定されない。また、コンテンツ移動アプリを起動したときに表示させる情報も座標軸62に限定されない。
仮に、ユーザがタスクの切り替えのために対象アプリを切り替える操作を行う場合、ユーザは画面上の操作メニューやアイコンを見ながら、入力装置を操作する必要がある。しかしながら、ユーザがHMDを装着すると、ユーザの視覚情報が変化するため、HMDを装着したままでは対象アプリの切り替え操作が難しい場合がある。
しかしながら、MRシステムやVRシステムは、ユーザが、仮想のコンテンツが現実の空間に実在するかのような没入感を得ることができるシステムである。そのため、アプリ切り替えのためにHMDを着脱すると、上記の没入感が阻害されてしまう。また、HMDの着脱に時間を要すると、タスク集中力の低下にも繋がる。
また、アプリの切り替え方法の別の例として、物体認識入力方式を用いた方法もある。物体認識入力方式は、パターンマッチングなどの形状認識技術を用いた方式である。具体的には、形状認識技術を用いて規定の物体やマーカー等が画像内に映り込んだことを認識したときに、対象のアプリに切り替える。ところが、この方式では、規定の物体やマーカーが不用意に画像内に映り込んだ場合には誤認識が発生し得る。
また、情報処理装置30は、ユーザの視点位置から撮像されたユーザの視線方向の画像を取得し、取得した画像内に存在する入力装置および操作媒体を、ユーザの視野範囲内に存在する入力装置および操作媒体として識別する。このように、ユーザの視線方向の画像を用いることで、容易且つ適切にユーザの視野範囲内に存在する入力装置および操作媒体を識別することができる。つまり、入力装置や操作媒体の位置情報をもとに、ユーザの視点位置(HMD)に対する入力装置や操作媒体の位置する方向をそれぞれ求める必要がない。
また、情報処理装置30は、HMDから入力装置までの距離、およびHMDから操作媒体までの距離が、それぞれ入力装置や操作媒体の種別毎に予め設定された規定距離の範囲内であるか否かを判定する。そして、情報処理装置30は、規定距離の範囲内にあると判定された入力装置と、規定距離の範囲内にあると判定された操作媒体との組合せに基づいて、タスクを判別する。したがって、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、ユーザが切り替えようとするタスクを適切に判別し、自動的に適切なアプリに切り替えることができる。
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、頭部装着型表示装置としてビデオシースルー型HMDを用いる場合について説明した。第二の実施形態では、頭部装着型表示装置として光学シースルー型HMDを用いる場合について説明する。
図9は、第二の実施形態における情報処理装置130を備えるMRシステム110の構成例を示す図である。なお、情報処理装置130のハードウェア構成は、図2に示す情報処理装置30のハードウェア構成と同様である。この図9において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
具体的には、情報処理装置130の画像入力制御部131は、図2に示す画像入力部308を制御して、撮像部121によってユーザの視点位置から撮像されたユーザの視線方向の画像を取得する。なお、情報処理装置130は、画像入力制御部131によって取得された画像に対してレンズ歪み補正を行うことで、画像の歪みはないものとして扱う。画像加工部132は、現実空間に定義した標準座標系をもとに、HMD120の位置姿勢を求め、その位置姿勢に応じた仮想のコンテンツを提示するための仮想空間の画像を生成する。ここで、標準座標系上におけるHMD120の位置姿勢は、撮像部121によって撮像された画像や位置姿勢センサ(不図示)の情報をもとに計測することができる。また、コンテンツの位置は、HMD120の位置姿勢の計測結果から一義的に決めることができる。
また、HMD120から操作媒体までの距離を計測する場合には、制御部133は、所定の距離で撮像された操作媒体の画面上での外接矩形の面積(基準面積)とピクセル数(基準ピクセル数)とを予め設定しておく。そして、制御部133は、撮像画像内における操作媒体の外接矩形の面積と予め設定しておいた面積との比率、および撮像画像内における操作媒体の外接矩形のピクセル数と予め設定しておいたピクセル数との比率を求める。次に、制御部133は、求めた面積比率とピクセル数比率との平均値に基づいて、HMD120から操作媒体までの距離を計算する。
また、情報処理装置130は、HMD120の撮像部121により撮像された画像内における操作媒体に対応する領域を包含する外接図形(例えば、外接矩形)の面積と、所定の基準面積とを比較することにより、HMD120から操作媒体までの距離を検出する。したがって、単眼カメラを備える光学シースルー型HMDを利用した場合であっても、HMD120から対象物までの距離を正確に検出することができる。なお、上記外接図形は、外接矩形に限定されず、外接多角形や外接円であってもよい。
次に、本発明の第三の実施形態について説明する。
上述した第一および第二の実施形態では、ユーザが装着するHMDに搭載されたカメラによるユーザの視線方向の撮像画像をもとにタスクを判別する場合について説明した。第三の実施形態では、HMD、入力装置および操作媒体の位置姿勢を計測可能な位置姿勢センサを用いてタスクを判別する場合について説明する。
図10は、第三の実施形態における情報処理装置230を備えるMRシステム210の構成例を示す図である。なお、情報処理装置230のハードウェア構成は、図2に示す情報処理装置30のハードウェア構成と同様である。この図10において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
情報処理装置230の情報入力制御部231は、光学センサ240から3次元空間におけるHMD220、入力装置41および操作媒体51の位置姿勢情報を取得し、画像加工部232に出力する。
また、画像加工部232は、保持した各計測対象の位置姿勢情報や、HMD220を基準とした入力装置および操作媒体のそれぞれの方向を示す情報を制御部233に出力する。制御部233は、画像加工部232から入力した情報をもとに、タスク判別処理を実行する。このとき、制御部233は、図11に示す条件設定テーブルを参照し、HMD220から入力装置までの距離およびHMD220から操作媒体までの距離と、条件設定テーブルに設定されている規定距離とをそれぞれ比較してタスクを判別する。制御部233の詳細については後述する。
以下、画像加工部232の構成について具体的に説明する。図12は、画像加工部232の機能ブロック図である。画像加工部232は、入力装置位置姿勢保持部232aと、操作媒体位置姿勢保持部232bと、HMD位置姿勢保持部232cと、入力装置方向計測部232dと、操作媒体方向計測部232eと、画像合成部232fと、を備える。
入力装置位置姿勢保持部232aは、情報入力制御部231から出力される入力装置の位置姿勢情報を保持する。操作媒体位置姿勢保持部232bは、情報入力制御部231から出力される操作媒体の位置姿勢情報を保持する。HMD位置姿勢保持部232cは、情報入力制御部231から出力されるHMD220の位置姿勢情報を保持する。入力装置位置姿勢保持部232aは、新たに光学センサ240により計測された入力装置の位置姿勢情報を取得した場合、保持している位置姿勢情報を新たに取得した位置姿勢情報に書き換える。操作媒体位置姿勢保持部232bおよびHMD位置姿勢保持部232cについても同様である。
画像合成部232fは、入力装置方向計測部232dおよび操作媒体方向計測部232eによって計測された情報に基づいて、入力装置のCGモデルの画像、操作媒体のCGモデルの画像、および仮想コンテンツの画像を生成し、これらの画像を合成する。
次に、制御部233の構成について具体的に説明する。制御部233の機能ブロック図は、図3に示す制御部33と同様であるため、図3を参照しながら説明する。
条件設定部33aに対応する処理部は、タスクの判別に用いる条件設定テーブルとして、図11に示す条件設定テーブルを読み出す。本実施形態では、光学センサ240から出力される位置姿勢情報を用いて入力装置および操作媒体を識別する。したがって、図11に示すように、入力装置および操作媒体の識別情報としては、光学センサ240が出力する計測対象の識別番号が格納される。
判定部33dに対応する処理部は、画像加工部232において計測されたHMD220の視野範囲と、HMD220に対する操作媒体の方向とに基づいて、操作媒体がHMD220の視野範囲内に存在するか否かを判定する。距離計測部33eに対応する処理部は、ユーザの視野範囲内に存在すると判定された操作媒体について、画像加工部232において計測されたHMD220から操作媒体までの距離を取得する。
なお、図10に示す情報処理装置230の各部の機能、および制御部233の図3に示す各部に対応する機能は、図2に示すCPU301が所定のプログラムを実行することで実現され得る。
また、上記実施形態においては、位置姿勢センサとしてカメラを用いることもできる。つまり、カメラによってユーザ、入力装置および操作媒体を撮像し、撮像画像をもとにユーザの頭部の位置姿勢や入力装置の位置姿勢、操作媒体の位置姿勢を検出するようにしてもよい。この場合にも、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、ユーザが切り替えようとするタスクを適切に判別し、自動的に適切なアプリに切り替えることができる。
上記各実施形態においては、入力装置が、文字入力を行うためのキーボードや、CGの移動や回転を行うためのゲーム用のコントローラである場合について説明したが、入力装置はこれらに限定されるものではない。入力装置は、位置姿勢を計測可能なセンサが内蔵されたボタン付きの3次元ポインティングデバイス(以下、「スタイラス」と呼ぶ。)であってもよい。
入力装置がスタイラスである場合、操作媒体はユーザの手である。この場合、ユーザが実行し得るタスクとしては、空間中に表示されているCGモデルの表面形状コントロールポイントを制御するといったタスクが考えられる。具体的には、ユーザが、車などの3次元CADモデルをHMD越しに3次元空間で観察しながら曲面形状を変更するシチュエーションが考えられる。この場合、情報処理装置は、ユーザがスタイラスを手に持ったとき、曲面形状を編集するタスクを実行するための曲面編集アプリを起動し、曲面変種機能の有効化への切り替えや、3次元形状の曲面コントロールポイントの表示を行えばよい。
また、上記各実施形態においては、操作媒体がユーザの手である場合について説明したが、操作媒体はユーザの手に限定されるものではない。操作媒体は、手袋(グローブ)を使用した手であってもよい。上記グローブは、布や樹脂で作られた光りの反射を抑えた単色のグローブとすることができる。HMDに内蔵されたカメラによって操作媒体を認識する場合、上記のようなグローブを手に装着して撮像することで、操作媒体である手の認識率を向上させることができる。
さらに、操作媒体は、遠隔で人間の指示に従って動く遠隔作業ロボットのアームであってもよい。この場合、遠隔地に配置されている入力装置とロボットアームとの、遠隔地を基準とした座標系における位置姿勢を、HMDを装着する空間の基準座標系に座標変換すればよい。そして、座標変換後の入力装置とロボットアームとの位置姿勢をもとに、入力装置およびロボットアームのそれぞれの存在有無の判定やHMDからの距離計測を行うことで、上記各実施形態と同様に自動タスク判定処理を実行することができる。なお、操作媒体はスタイラスであってもよい。この場合、入力装置はタッチパネルであってもよい。
また、上記各実施形態においては、入力装置と操作媒体との組合せと、対象タスクとが一対一の関係である場合について説明したが、1つの上記組合せに複数の対象タスクが対応付けられていてもよい。すなわち、1つの入力装置によって、複数のタスクを実行可能に構成することもできる。この場合、1つの上記組合せに対応付けられた複数のタスクの中から、直前に実行されていたタスクに応じたタスクを判別するようにしてもよい。具体的には、第一のタスクを実行するための第一の入力装置から、速やかに第二の入力装置に切り替えられたことを検出した場合、第二の入力装置に対応付けられた第二のタスクと第三のタスクとのうち、第一のタスクに関連する第三のタスクに切り替えてもよい。
上述した第一の実施形態では、ユーザが、第一の入力装置であるコントローラを用いて第一のタスクであるCG調整を実施した後、第二の入力装置であるキーボードに持ち替えると、情報処理装置30は第二のタスクである文章入力が可能な状態に切り替える。ところが、例えば、CG調整タスクを終えた後、CGモデル上にコメントを挿入するコメント挿入タスクを実行したい場合がある。この場合、ユーザはコントローラを置いた後、速やかにキーボードに持ち替えることになる。
図13の条件設定テーブルを参照したタスク判別処理によると、ユーザが入力装置であるコントローラを置いた後、規定時間内(例えば3秒以内)にキーボードに持ち替えると、情報処理装置はユーザがCGモデル上へのコメント挿入を希望していると判定する。そして、情報処理装置は、3次元モデル上の編集箇所へコメント入力欄を表示する。一方、ユーザが入力装置であるコントローラを置いた後、規定時間(例えば3秒)が経過してからキーボードに持ち替えた場合には、情報処理装置は、ユーザはCGモデル上へのコメント挿入を希望していないと判定する。そして、情報処理装置は、所定の箇所にメモ作成欄を表示する。
以上により、ユーザがメニューを操作するまでもなく、キーボードを入力しようとする動作を行った時点で、コメント挿入タスクを実行するモードに切り替えることができ、効率的にユーザが希望するタスクを実現することができる。なお、上記の環境において、ユーザがキーボードから手を離すと、規定時間経過後に、コメント入力欄等を消去し、外観をチェックするモードに切り替えてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (16)
- 頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出する第一の検出手段と、
前記ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別する第一の識別手段と、
前記ユーザの視野範囲内に存在する、前記ユーザが前記入力装置を操作するための操作媒体を識別する第二の識別手段と、
前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第一の識別手段によって識別された入力装置までの第一距離を検出する第二の検出手段と、
前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第二の識別手段によって識別された操作媒体までの第二距離を検出する第三の検出手段と、
前記第二の検出手段によって検出された第一距離と前記識別された入力装置に対して設定された第一規定距離との比較結果と、前記第三の検出手段によって検出された第二距離と前記識別された操作媒体に対して設定された第二規定距離との比較結果とに基づいて、実行すべきタスクを判別する判別手段と、
前記判別手段によって判別されたタスクに応じた情報を前記頭部装着型表示装置に表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。 - 前記ユーザの視点位置から撮像された前記ユーザの視線方向の画像を取得する取得手段をさらに備え、
前記第一の識別手段は、前記画像内に存在する前記入力装置を、前記視野範囲内に存在する前記入力装置として識別し、
前記第二の識別手段は、前記画像内に存在する前記操作媒体を、前記視野範囲内に存在する前記操作媒体として識別することを特徴とする請求項1に記載の情報処理装置。 - 前記取得手段は、少なくとも前記ユーザの左右の目に対応する複数の視点位置からそれぞれ撮像された前記ユーザの視線方向の複数の画像を取得し、
前記第二の検出手段は、前記取得手段によって取得された前記複数の画像をもとに、三角測量の原理を用いて前記第一距離を検出し、
前記第三の検出手段は、前記取得手段によって取得された前記複数の画像をもとに、三角測量の原理を用いて前記第二距離を検出することを特徴とする請求項2に記載の情報処理装置。 - 前記第三の検出手段は、
前記取得手段により取得された前記画像内における前記操作媒体に対応する領域を包含する外接図形の面積と、所定の基準面積とを比較することにより、前記第二距離を検出することを特徴とする請求項2または3に記載の情報処理装置。 - 前記入力装置の位置姿勢を検出する第四の検出手段と、
前記操作媒体の位置姿勢を検出する第五の検出手段と、をさらに備え、
前記第一の識別手段は、前記第一の検出手段によって検出された前記頭部の位置姿勢と、前記第四の検出手段によって検出された前記入力装置の位置姿勢とに基づいて、前記視野範囲内に存在する前記入力装置を識別し、
前記第二の識別手段は、前記第一の検出手段によって検出された前記頭部の位置姿勢と、前記第五の検出手段によって検出された前記操作媒体の位置姿勢とに基づいて、前記視野範囲内に存在する前記操作媒体を識別する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記判別手段は、
前記第二の検出手段によって検出された前記第一距離が、前記入力装置の種別毎に予め設定された前記第一規定距離のうち、前記識別された入力装置に対して設定された第一規定距離の範囲内であるか否かを判定する第一の判定手段と、
前記第三の検出手段によって検出された前記第二距離が、前記操作媒体の種別毎に予め設定された前記第二規定距離のうち、前記識別された操作媒体に対して設定された第二規定距離の範囲内であるか否かを判定する第二の判定手段と、を備え、
前記第一の判定手段によって前記第一規定距離の範囲内にあると判定された前記入力装置と、前記第二の判定手段によって前記第二規定距離の範囲内にあると判定された前記操作媒体との組合せに基づいて、前記タスクを判別する
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記判別手段は、1つの前記組合せに対応付けられた複数のタスクの中から、直前に実行されていたタスクに応じたタスクを判別することを特徴とする請求項6に記載の情報処理装置。
- 前記判別手段は、
前記第一の判定手段によって前記第一規定距離の範囲内にあると判定されていた前記入力装置が前記第一規定距離の範囲外にあると判定されてから、種別の異なる前記入力装置が新たに前記第一規定距離の範囲内にあると判定されるまでの時間が、予め設定された規定時間の範囲内である場合、
前記複数のタスクの中から、直前に実行されていたタスクに関連するタスクを判別することを特徴とする請求項7に記載の情報処理装置。 - 前記操作媒体は、前記入力装置を操作する前記ユーザの手であることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
- 前記頭部装着型表示装置は、ビデオシースルー型ヘッドマウントディスプレイ(HMD)であることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
- 前記頭部装着型表示装置は、光学シースルー型ヘッドマウントディスプレイ(HMD)であることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
- 前記入力装置は、少なくともキーボードを含み、
前記判別手段により判別されるタスクの少なくとも1つは、前記キーボードを操作して文字を入力するタスクであることを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。 - 前記入力装置は、少なくとも指示を入力するためのボタンを有するコントローラを含み、
前記判別手段により判別されるタスクの少なくとも1つは、前記コントローラを操作して前記頭部装着型表示装置に表示された仮想コンテンツを移動するタスクであることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 - 頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出するステップと、
前記ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別するステップと、
前記ユーザの視野範囲内に存在する、前記ユーザが前記入力装置を操作するための操作媒体を識別するステップと、
前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から前記入力装置までの第一距離を検出するステップと、
前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から前記操作媒体までの第二距離を検出するステップと、
前記第一距離と前記識別された入力装置に対して設定された第一規定距離との比較結果と、前記第二距離と前記識別された操作媒体に対して設定された第二規定距離との比較結果とに基づいて、実行すべきタスクを判別するステップと、
前記判別によって判別されたタスクに応じた情報を前記頭部装着型表示装置に表示させるステップと、
を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 請求項15に記載のプログラムを記録した、コンピュータが読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015184523A JP6598617B2 (ja) | 2015-09-17 | 2015-09-17 | 情報処理装置、情報処理方法およびプログラム |
US15/257,415 US10001844B2 (en) | 2015-09-17 | 2016-09-06 | Information processing apparatus information processing method and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015184523A JP6598617B2 (ja) | 2015-09-17 | 2015-09-17 | 情報処理装置、情報処理方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017059062A JP2017059062A (ja) | 2017-03-23 |
JP2017059062A5 JP2017059062A5 (ja) | 2018-11-01 |
JP6598617B2 true JP6598617B2 (ja) | 2019-10-30 |
Family
ID=58282601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015184523A Active JP6598617B2 (ja) | 2015-09-17 | 2015-09-17 | 情報処理装置、情報処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10001844B2 (ja) |
JP (1) | JP6598617B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108076A1 (ko) * | 2020-11-17 | 2022-05-27 | 삼성전자 주식회사 | 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치 |
US11847258B2 (en) | 2020-11-17 | 2023-12-19 | Samsung Electronics Co., Ltd. | Method for wireless connection in augmented reality environment and electronic device therefor |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10317989B2 (en) * | 2016-03-13 | 2019-06-11 | Logitech Europe S.A. | Transition between virtual and augmented reality |
JP6162299B1 (ja) * | 2016-07-28 | 2017-07-12 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、入力切替方法、及びプログラム |
US11417426B2 (en) | 2017-02-24 | 2022-08-16 | Masimo Corporation | System for displaying medical monitoring data |
US11024064B2 (en) | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
JP7070547B2 (ja) * | 2017-03-22 | 2022-05-18 | ソニーグループ株式会社 | 画像処理装置および方法、並びにプログラム |
US10499042B2 (en) | 2017-04-01 | 2019-12-03 | Intel Corporation | Barreling and compositing of images |
CN110809804B (zh) | 2017-05-08 | 2023-10-27 | 梅西莫股份有限公司 | 使用适配器将医疗系统与网络控制器配对的系统 |
US20190057180A1 (en) * | 2017-08-18 | 2019-02-21 | International Business Machines Corporation | System and method for design optimization using augmented reality |
CN107577344B (zh) * | 2017-09-01 | 2020-04-28 | 广州励丰文化科技股份有限公司 | 一种mr头显设备的互动模式切换控制方法及系统 |
KR102389185B1 (ko) * | 2017-10-17 | 2022-04-21 | 삼성전자주식회사 | 컨텐츠의 적어도 일부를 통해 표시된 입력 인터페이스를 이용하여 기능을 실행하기 위한 전자 장치 및 방법 |
WO2019092685A1 (en) | 2017-11-13 | 2019-05-16 | Arkio Ehf. | Virtual/augmented reality modeling application for architecture |
US11275481B2 (en) * | 2018-03-07 | 2022-03-15 | California Institute Of Technology | Collaborative augmented reality system |
JP7168974B2 (ja) * | 2018-08-30 | 2022-11-10 | 株式会社maruyaビルド | 施工支援システム |
US11137908B2 (en) * | 2019-04-15 | 2021-10-05 | Apple Inc. | Keyboard operation with head-mounted device |
CN111258420B (zh) * | 2020-01-13 | 2023-02-21 | 维沃移动通信有限公司 | 信息交互方法、头戴式设备及介质 |
WO2021256520A1 (ja) * | 2020-06-17 | 2021-12-23 | 株式会社Nttドコモ | ヘッドマウントディスプレイ |
CN115867890A (zh) | 2020-07-02 | 2023-03-28 | 麦克赛尔株式会社 | 信息处理系统和信息处理终端 |
JP7556245B2 (ja) | 2020-09-17 | 2024-09-26 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、表示装置、情報処理システムおよびプログラム |
JP7537254B2 (ja) | 2020-12-02 | 2024-08-21 | 株式会社Jvcケンウッド | 映像表示装置、映像表示装置の制御方法、及びプログラム |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
KR20230144042A (ko) | 2021-02-08 | 2023-10-13 | 사이트풀 컴퓨터스 리미티드 | 생산성을 위한 확장 현실 |
JP2024509722A (ja) | 2021-02-08 | 2024-03-05 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるユーザ相互作用 |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US12175614B2 (en) | 2022-01-25 | 2024-12-24 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
JP2024025272A (ja) | 2022-08-12 | 2024-02-26 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US12112012B2 (en) | 2022-09-30 | 2024-10-08 | Sightful Computers Ltd | User-customized location based content presentation |
US20240272707A1 (en) * | 2023-02-15 | 2024-08-15 | Apple Inc. | Orientation feedback devices and methods |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0984349B1 (en) | 1998-08-31 | 2008-11-05 | Sony Corporation | Image processing |
JP2009087161A (ja) * | 2007-10-01 | 2009-04-23 | Canon Inc | 画像処理装置、画像処理方法 |
JP5635736B2 (ja) * | 2009-02-19 | 2014-12-03 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
US9030425B2 (en) * | 2011-04-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Detection of interaction with virtual object from finger color change |
US9024844B2 (en) * | 2012-01-25 | 2015-05-05 | Microsoft Technology Licensing, Llc | Recognition of image on external display |
US9335547B2 (en) * | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
JP5877824B2 (ja) * | 2013-09-20 | 2016-03-08 | ヤフー株式会社 | 情報処理システム、情報処理方法および情報処理プログラム |
JP5762600B1 (ja) * | 2014-06-06 | 2015-08-12 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
-
2015
- 2015-09-17 JP JP2015184523A patent/JP6598617B2/ja active Active
-
2016
- 2016-09-06 US US15/257,415 patent/US10001844B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108076A1 (ko) * | 2020-11-17 | 2022-05-27 | 삼성전자 주식회사 | 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치 |
US11847258B2 (en) | 2020-11-17 | 2023-12-19 | Samsung Electronics Co., Ltd. | Method for wireless connection in augmented reality environment and electronic device therefor |
Also Published As
Publication number | Publication date |
---|---|
US20170083104A1 (en) | 2017-03-23 |
JP2017059062A (ja) | 2017-03-23 |
US10001844B2 (en) | 2018-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10453235B2 (en) | Image processing apparatus displaying image of virtual object and method of displaying the same | |
JP4701424B2 (ja) | 画像認識装置および操作判定方法並びにプログラム | |
JP6611501B2 (ja) | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 | |
US8139087B2 (en) | Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program | |
US11508150B2 (en) | Image processing apparatus and method of controlling the same | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
WO2013035758A1 (ja) | 情報表示システム、情報表示方法、及び記憶媒体 | |
US9342925B2 (en) | Information processing apparatus, information processing method, and program | |
US20170351327A1 (en) | Information processing apparatus and method, and program | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
CN110520822B (zh) | 控制装置、信息处理系统、控制方法和程序 | |
CN112927259A (zh) | 基于多相机的裸手追踪显示方法、装置及系统 | |
CN112449708A (zh) | 虚拟现实系统、程序、以及计算机可读取存储介质 | |
US20230290081A1 (en) | Virtual reality sharing method and system | |
US20200258193A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20220254123A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019101476A (ja) | 操作案内システム | |
US10345595B2 (en) | Head mounted device with eye tracking and control method thereof | |
JP2006276748A (ja) | 情報呈示装置、情報呈示方法、及びコンピュータプログラム | |
JP5951966B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP2019175294A (ja) | 表示制御プログラム、装置、及び方法 | |
JP2019045997A (ja) | 情報処理装置及びその方法、プログラム | |
JP6929043B2 (ja) | 画像処理装置、画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191001 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6598617 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |