JP2005174021A - 情報提示方法及び装置 - Google Patents
情報提示方法及び装置 Download PDFInfo
- Publication number
- JP2005174021A JP2005174021A JP2003413807A JP2003413807A JP2005174021A JP 2005174021 A JP2005174021 A JP 2005174021A JP 2003413807 A JP2003413807 A JP 2003413807A JP 2003413807 A JP2003413807 A JP 2003413807A JP 2005174021 A JP2005174021 A JP 2005174021A
- Authority
- JP
- Japan
- Prior art keywords
- user
- point position
- annotation
- visual field
- pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 claims description 31
- 238000003860 storage Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims 2
- 230000006870 function Effects 0.000 description 14
- 238000005259 measurement Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 241001422033 Thestylus Species 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】複合現実空間において、他のユーザによって指示された位置に関する情報を、当該指示された位置が視野画面上で観察可能であるか否かにかかわらず提示可能とする。
【解決手段】3次元空間内のポイント位置をユーザに提示する情報提示方法は、検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる。そして、仮想空間内におけるポイント位置を特定し、そのポイント位置が視野範囲にある場合は該ポイント位置を明示するためのアノテーション511、512を当該画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーション513を表示させる。
【選択図】 図5
【解決手段】3次元空間内のポイント位置をユーザに提示する情報提示方法は、検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる。そして、仮想空間内におけるポイント位置を特定し、そのポイント位置が視野範囲にある場合は該ポイント位置を明示するためのアノテーション511、512を当該画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーション513を表示させる。
【選択図】 図5
Description
本発明は、3次元空間内におけるポイント位置を認識するのに有用な、特に複数人で複合現実空間を共有するために有用な、ポインティングアノテーションの重畳を行うための情報提示装置、情報提示方法、および記憶媒体に関する。
現実世界と仮想世界とを違和感なく自然に融合する複合現実感(MR:Mixed Reality)の技術を応用した装置が盛んに提案されている。中でもヘッドマウントディスプレイ(HMD:Head Mounted Display)を装着したユーザが観測している現実世界や仮想世界に対して仮想の情報を重畳することにより、仮想の情報をユーザに提示するような装置では、工事やメンテナンスなどの作業性を向上させることが期待できる。例えば,特許文献1には複数人で仮想空間を共有することが開示されている。また、複数人が一つの複合現実空間(MR空間)を共有し、会議や講演、協調作業を行うためのシステムが提案されている。
複数人が一つのMR空間を共有しながら会議や講演を行ったり、協調を必要とする作業などを行う際には、複数人で同一の対象を観測し、その対象物に関する情報を共有することが必要である。この場合、あるユーザが他のユーザに注目させたい対象物を明示することが必要となる。特願2002−223279号では、あるユーザが他のユーザに注目させたい対象の方向を伝える手段または、ユーザが注目すべき対象の方向を知る手段を提案している。
特開2002−247602号公報
MR空間では、現実世界に仮想物を重畳して表示するため、実際には見えるユーザや指示対象物が仮想物体によって隠れてしまう場合などがある。この場合、あるユーザが指示している場所(対象物)を、他のユーザが把握できなくなることがある。従って、あるユーザが他のユーザに注目させたい対象を伝える、MR空間に特有の手段が必要とされていた。特願2002−223279号による提案では、注目対象物を1つの単位として扱っているために、注目対象物の一部分(例えば、現在見えている裏側など)を指し示す手段が考慮されていない。また、特に注目対象物が視野外にある場合「注目対象のおおよその方向」を指し示す手段を提供するものであり、「注目対象の位置」を指し示す手段を提供するものではない。
本発明は、上記の課題に鑑みてなされたものであり、複合現実空間において、他のユーザによって指示された位置に関する情報を、当該指示された位置が視野画面上で観察可能であるか否かにかかわらず提示可能とすることを目的とする。
前記の目的を達成するための本発明による情報提示装置は以下の構成を備える。
すなわち、
3次元空間内のポイント位置をユーザに提示する情報提示方法であって、
検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる第1表示制御工程と、
前記仮想空間内におけるポイント位置を特定する特定工程と、
前記ポイント位置が前記視野範囲にある場合は該ポイント位置を明示するためのアノテーションを前記画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーションを表示させる第2表示制御工程とを備える。
すなわち、
3次元空間内のポイント位置をユーザに提示する情報提示方法であって、
検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる第1表示制御工程と、
前記仮想空間内におけるポイント位置を特定する特定工程と、
前記ポイント位置が前記視野範囲にある場合は該ポイント位置を明示するためのアノテーションを前記画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーションを表示させる第2表示制御工程とを備える。
本発明によれば、複合現実空間において、他のユーザによって指示された位置に関する情報が、当該指示された位置が視野画面上で観察可能であるか否かにかかわらず提示される。このため、他のユーザによって指示された位置を容易に認識できる。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
<第1実施形態>
第1実施形態では、現実の風景に仮想空間を重畳したMR空間を複数人で共有するMRシステムの例が示される。例えば、ユーザがHMDを装着して眺めると、ユーザの位置・姿勢に応じて富士山の噴火による災害の様子を表すコンピュータグラフィックス(CG:Computer Graphics)を現実の風景(他のユーザ)に重ね合わせて見ることができる。このMRシステムでは、表示装置として、位置・姿勢計測可能なビデオシースルーHMDを用いる。なお、第1実施形態ではビデオシースルーHMDを用いているが、光学シースルーHMD、更には、携帯型シースルーディスプレイでも実現可能である。HMDには位置・姿勢計測センサおよびカメラが内蔵されており、ユーザの視点位置からの映像が位置・姿勢情報とともに取得可能である。
第1実施形態では、現実の風景に仮想空間を重畳したMR空間を複数人で共有するMRシステムの例が示される。例えば、ユーザがHMDを装着して眺めると、ユーザの位置・姿勢に応じて富士山の噴火による災害の様子を表すコンピュータグラフィックス(CG:Computer Graphics)を現実の風景(他のユーザ)に重ね合わせて見ることができる。このMRシステムでは、表示装置として、位置・姿勢計測可能なビデオシースルーHMDを用いる。なお、第1実施形態ではビデオシースルーHMDを用いているが、光学シースルーHMD、更には、携帯型シースルーディスプレイでも実現可能である。HMDには位置・姿勢計測センサおよびカメラが内蔵されており、ユーザの視点位置からの映像が位置・姿勢情報とともに取得可能である。
複数のユーザは、この噴火による災害の様子(CG)を見ながら、消火活動や救命活動などの仕方について検討を行うことが可能である。また、各ユーザは、スイッチ付きスタイラスで注目位置(対象物)を指し示し、スイッチをONにすることで、他のユーザに注目して欲しい位置/対象物(以下、ポインティング位置/対象物と呼ぶ)を指し示すことができる。各ユーザのHMDには、他のユーザがポインティングしている物体の位置に関する情報(以下、ポインティングアノテーション)が表示される。
図1は、第1実施形態による情報提示装置100の全体構成を示すブロック図である。図1において、101はユーザ視点映像入力部であり、本実施形態ではHMDに内蔵されたカメラである。ユーザ視点映像入力部101はユーザの目に映る現実世界の映像を獲得し、撮影映像を映像信号として映像表示部106へ送信する。なお、映像表示部106に光学シースルー型のHMDを備える場合においては、ユーザは現実世界を直接観測することが可能であり、ユーザ視点映像入力部101は不要となる。
102はユーザ視点位置姿勢計測部であり、例えば地磁気センサやジャイロや光学式のセンサなどの位置姿勢計測装置(不図示)を備える。ユーザ視点位置姿勢計測部102は、ユーザ視点の位置姿勢情報をCG生成部104からの要求に応じて、或いはCG生成部104からの要求なしにCG生成部104に送出する。
なお、位置姿勢計測装置をユーザの視点位置に設置することは一般的に困難であるため、ユーザ視点位置姿勢計測部102は、位置姿勢計測装置の出力結果をもとに、ユーザの視点の位置姿勢を算出する機能を持つ。本実施形態においても、位置姿勢計測装置はHMDに内蔵されており、ユーザの頭部にHMDが固定されることにより、ユーザの視点の位置姿勢が位置姿勢計測装置の出力から算出できる。また、ユーザ視点映像入力部101によって現実世界の映像を取り込み、これを画像処理することにより位置姿勢計測装置の出力結果の誤差を補正するようにしてもよい。この画像処理は、例えば、現実空間上で三次元座標が既知である複数の特徴点について画像上での位置を検出し、位置姿勢計測装置の出力結果から計算される特徴点の画像上の位置との比較を行うことで、位置姿勢計測装置の誤差を算出し、その誤差を打ち消すように位置姿勢計測装置の出力結果を補正する処理である。また、この画像処理のみからユーザの視点の位置姿勢を算出してもよい。
103はユーザ操作入力部であり、本実施形態ではポインティング対象物を指示するスイッチ付きスタイラスである。本実施形態ではポインティング対象物を、スタイラスの指示する方向で、最も手前にある仮想物体または現実物体と定義する。これによりユーザは、ポインティング対象物の方向をスタイラスで指し示し、スイッチをONにすることで、他のユーザにポインティング対象物/位置を指示することができる。ユーザ操作入力部103は、ユーザが操作する操作内容に応じた制御情報をCG生成部104へ送る。なお、本実施形態では、スタイラスで指示された方向の、仮想物体或いは現実物体の面上の位置をポインティング位置とし、このポインティング位置を示すポインティングアノテーションの表示制御を説明する。ここで、現実物体の面については現実世界モデルデータをデータ部105に保持しておき、これを参照することにより取得することができる。
なお、ユーザ操作入力部103は、マウス、ジョイスティックなど他の入力装置を用いたり、ユーザ視点映像入力部101からの映像を画像処理することでユーザのジェスチャ認識するなど他の手法でも実現可能である。また、更に、様々なユーザ操作、例えば、仮想物体の移動・削除などを行う操作や、空間中の対象物に関する情報の表示を要求する操作などを設定することも可能である。
104はCG生成部であり、例えばコンピュータのCPUやMPU等で実現される。CG生成部104はユーザ視点位置姿勢計測部102から得られるユーザの視点の位置姿勢情報に基づき、仮想世界におけるユーザの視野を求め、データ部105からユーザの視野に入る部分のCGデータを取り出し、ユーザの視野に重なるCGを生成する。
また、CG生成部104は伝送路200に共有データを送信する機能および伝送路200から共有データを受信する機能を持つ。これらの機能により、伝送路200を通じて、他の情報提示装置100のCG生成部104と相互に接続し、必要な情報の交換を行うことができる。図2は複数のユーザが情報提示装置100を利用する場合の構成を示した図である。このように複数のユーザがそれぞれの情報提示装置100を利用することにより、複数人が同一のMR空間を共有することが可能である。この共有データには、各ユーザのポインティング対象物が判別できる情報(以下、ポインティング情報と呼ぶ)を含む。ポインティング情報としては、例えば、(1)ユーザを判別する情報(以下、ユーザID)、仮想空間におけるポインティング位置座標、或いは、(2)ユーザID、スタイラス位置姿勢情報などが考えられる。
CG生成部104は、伝送路200から送信されたポインティング情報から、ポインティングアノテーションを生成する。本実施形態では、ポインティングアノテーションを始点・終点をもつ矢印(線分)で表示する。例えば、矢印の始点はユーザ視野平面の定位置(例えば、左右中心・下方辺り)とし、矢印の終点はユーザ視野平面に投影された他ユーザのポインティング位置とする。或いは、ポインティングアノテーションを図8で後述するように、仮想空間中に生成し、これを表示するようにしてもよい。
次に、ポインティングアノテーションについて、図5を参照して説明する。図5(a)は、各ユーザ(ユーザAからユーザD)の位置関係および、ユーザA〜Cによるポインティングの様子を模式的に示している。図5(a)において、山501及び建物502はCGである。ユーザA、ユーザBはそれぞれ矢印の先をポインティングしており、ユーザAは山501の部分を、ユーザBは建物502の部分をポインティングしている。ユーザCは山501の向こう側から山501の向こう側をポインティングしている。また、ユーザDはどこもポインティングしていない。ユーザDとユーザCはCGの山501で隠れて、互いに観察することができない。
図5の(b)、(c)は、ポインティングアノテーションが、ユーザDの視界に表示される様子を示す図である。
図5(b)について説明する。ユーザAが山501をポインティングしており、ユーザAのポインティング位置はユーザDの視界の内側にあり視察可能であるため、ユーザAのポインティングアノテーションは矢印511で示されている。また、ユーザBが建物502をポインティングしているがこれはユーザDの視野の外である。すなわち、ユーザBのポインティング対象物がユーザDの視野の外側にあるため、ユーザBのポインティングアノテーションは線分513で示されている。この表示によりユーザDは、ユーザBのポインティング対象物を見るために、左方向を向けばよいことが分かる。
また、ユーザCは山501の反対側の位置をポインティングしている。ユーザCのポインティング対象物はユーザDの視野の内側にあるが、ユーザCがポインティングしている位置は見えず隠れているため、ユーザCのポインティングアノテーションは途中から点線の矢印512で示されている。この表示によりユーザDは、ユーザC自体を視察できないにもかかわらず、ユーザCのポインティング対象物を見るために、山501の裏側に回ればよいことが分かる。
図5の(c)は、ユーザDがユーザBのアノテーション対象物を見ようと、視野を図5の(b)の状態から左方向に移した場合である。ユーザDの視野の変化により、各ユーザのポインティングアノテーションが変化する。即ち、ユーザAのポインティング位置(山501の部分)がユーザDの視野の外側に移ったため、ユーザAのポインティングアノテーションは線分521で示されている。また、ユーザBのポインティング対象物(建物502)におけるポインティング位置がユーザDの視野の内側に移ったため、ユーザBのポインティングアノテーションは矢印522で示されている。ユーザCのポインティング対象物(ポインティング位置)はユーザDの視野の外側であり、かつ、裏側で見えないため、ユーザCのポインティングアノテーションは途中から点線となる線分523で示されている。
なお、図5には示されていないが、ユーザの背後がポインティングされている場合は、視野画面の定点から下方向に向かう線分で示されるものとする。
このように、ユーザの視野内のある定位置510から他ユーザのポインティング位置までの矢印(511、512、522)、或いは定位置510から他ユーザのポインティング位置への方向を有する線分(513、521、523)を表示することにより、ユーザの位置関係やポインティング位置に関わらず、ユーザは容易にポインティング位置を知ることが可能である。
なお、ポインティングアノテーションとしての矢印や線分に対して、ユーザ毎の色づけを行なって表示するようにしてもよい。ユーザ毎の色づけは、アノテーション情報に付随するユーザIDによりユーザを識別し、色を割り当てていけばよい。このようにすれば、どのユーザによるポインティングアノテーションであるかが一目瞭然となる。或いは、ユーザを基準とした色分けではなく、ポインティングの状態を基準としてポインティングアノテーションを色分けすることも可能である。色分けするポインティングの状態としては、例えば、ポインティング位置が視野内にあって観察可能である状態(図5(b)の矢印511)、視野内であるが観察できない状態(図5(b)の矢印512)、視野外にあるが視線を変更すれば観察できる状態(図5(b)の線分513)、視野外であって当該位置からは観察できない状態(図5(c)の線分523)が挙げられる。また、ポインティング位置を当該視点位置から観察できるかできないかは、空間中の各オブジェクトとの前後関係等により判断できる。
また、矢印の始点の定位置を、図6に示すようにユーザごとに変えたり、図7に示すようにユーザの位置によって変えたりすることも可能である。図7(a)では、視界平面にの4角に設定した始点のうち、ユーザの位置に一番近い点をそのユーザに対応した矢印の始点としている。ただし図7(b)のように、始点を視界平面の境界上に設定すると、ポインティングアノテーションが描画されない場合が生じる(図7(b)のユーザB)ため、視界平面の境界上には設定しないことが望ましい。さらに、ポインティングアノテーションを矢印や線分で表現しているが、始点・終点を結ぶ他の仮想物体(2次元または3次元)で描画してもよい。また、その描画方法も他物体との隠蔽や奥行きを表現するために、半透明やグラデーションにより描画してもよい。
さらにCG生成部104において、データ部105からアノテーションデータを取り出し、ユーザに提示するべきアノテーションを生成するようにしてもよい。このアノテーションデータは例えば仮想空間中のオブジェクトに関するアノテーションを表し、ユーザ操作入力部103からのユーザの要求に応じて、或いはユーザ操作入力部103からのユーザの要求なしに、ユーザ視点位置姿勢計測部102から得られたユーザの視点の位置姿勢に応じて生成される。この種のアノテーションは二次元のものに限られず、三次元形状を有するアノテーションを生成するよう設定することも可能である。
更に、CG生成部104はユーザ操作入力部103から送られるユーザの操作情報に従って仮想世界を操作したり、生成されるアノテーションを制御する機能を持たせることも可能である。
図1に戻り、CG生成部104は、生成したCG(仮想物体、ポインティングアノテーション、アノテーションなどすべて)を映像表示部106に出力する。105はデータ部であり、例えばハードディスクやCD−ROM等の補助記憶装置または媒体を具備する。データ部105は仮想世界をCGで描画するために必要な仮想世界モデルデータと、現実世界と仮想世界とを正しく合成するために必要な現実世界モデルデータと、仮想世界映像を生成するために必要なデータおよび関連情報を保持する。
データ部105に格納されるデータとしては、たとえばテキスト情報やパノラマ映像、三次元CGデータ等といったものや、ユーザ視点映像入力部101が備える撮像装置の撮像素子の大きさや角度、レンズの画角や歪み係数等の内部パラメータ等が含まれる。さらに、ポインティングアノテーションに関する情報や、現実世界や仮想世界の付加情報である上述のアノテーションデータも含まれる。このようなアノテーションデータとしては、現実世界および仮想世界の物体が配置されている位置や姿勢の情報、物体の識別情報、物体の情報をユーザに示すためのテキストや記号、画像等のデータ、さらに、ある情報をユーザに表示するアルゴリズムも含まれる場合もある。
データ部105はCG生成部104からの要求に応じて適切なデータをCG生成部104に送出する。たとえばCG生成部104がユーザ視点映像入力部101の視野に合成する三次元CGデータを要求してきた時に、データ部105は格納されている三次元CGデータの中からユーザ視点映像入力部101の視野に含まれる三次元CGデータを取り出して送出する。なお、データ部105はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。さらにデータ部105は情報提示装置100の内部に備えられるのに限定されず、情報提示装置100の外部に備え、伝送路200を通じてCG生成部104にデータを伝送する構成でもよい。
106は映像表示部であり、ここではビデオシースルーHMDである。映像表示部106はユーザ視点映像入力部101によって獲得されたユーザが見る現実世界の映像と、CG生成部104によって生成されたCGとを合成して、その合成映像をユーザの目の前に表示する。画像表示装置に光学シースルー型のHMDを用いる場合においては、CG生成部104によって生成されたCGをユーザの視野の現実世界に重畳して表示する。
伝送路200は、有線または無線のコンピュータネットワークを実現する媒体からなり、複数の情報提示装置100を接続し、情報提示装置100が相互に交換するデータが流される。
以上の様な構成を備えた本実施形態の制御について、以下説明する。図3は本実施形態の情報提示装置における処理の手順を説明するフローチャートである。
ステップS11においてシステムが起動され、初期化のために必要な処理が行われる。ステップS12では、ユーザ視点映像入力部101においてユーザの視点から見える現実世界の映像が取り込まれ、映像表示部106に送られる。なお、映像描画部106の画像表示装置に光学シースルー型のHMDを備える場合には、ステップS12の処理は不要となる。ステップS13では、ユーザの視点での位置姿勢情報がユーザ視点位置姿勢計測部102において計測され、CG生成部104へと送られる。
ステップS14では、ユーザ操作入力部103がユーザによる操作を認識し、当該操作内容に応じた制御信号を生成しCG生成部104へ送る。ステップS15において、通信データが伝送路200へ送信される。通信データとしては、ポインティング情報を含め、例えば情報提示装置100を使用している各ユーザの識別番号、各ユーザ視点の位置姿勢情報、各ユーザの操作情報などが含まれる。
ステップS16では、CG生成部104において、伝送路200から通信データを受信する。ステップS17において、CG生成部104は、データ部105から取得したデータを用いてCGを生成する。このCGにはユーザの視野内にある仮想物体、現実または仮想物体に対するアノテーション、ポインティングアノテーションなどが含まれる。
ステップS17において、CG生成部104は、ステップS13において獲得されたユーザ視点の位置姿勢情報に基づいてユーザの視点を設定し、ユーザ操作情報に応じてデータ部103に蓄積されているモデルデータから必要なデータ取り出し、その視点から見える仮想物体を生成する。さらに、その視点から見える仮想物体に対するアノテーションを、ユーザ操作入力部部103からのユーザ操作情報に応じて、またはユーザ操作情報があるなしに関わらず、ユーザの視野内に生成するなど、システムの構成に応じてCGを生成する。
さらにステップS17において、CG生成部104は、ポインティングアノテーションを生成する。ポインティングアノテーションの生成処理について図4を参照して詳細に説明する。
ステップS31では、受信した通信データに含まれる各ユーザのポインティング情報を入力する。ステップS32では、ポインティング情報から、仮想空間におけるポインティング位置の3次元位置を算出する。ポインティングアノテーションは、上述した様にポインティング位置を視野平面上に投影した位置を終点とし、当該視野平面上の所定位置を始点とした矢印で表すことができるが、ここでは、3次元空間中にポインティングアノテーションオブジェクトを生成して表示する方法を説明する。まず、ステップS33において、仮想空間中にポインティングアノテーションオブジェクトを生成する。このポインティングアノテーションオブジェクトの生成について、図8を参照しながら詳細に説明する。図8に示されるように、ポインティングアノテーションオブジェクト(O)は、仮想空間における「ポインティング始点位置(S)」と、仮想空間における「ポインティング位置(P)」とを結ぶ仮想オブジェクトである。ここで、仮想空間における「ポインティング始点位置(S)」は、「ユーザの視錐台81の上面82(ユーザ視点に近い方の面)上の、視界画面上のポインティングアノテーション始点位置に対応する点」として算出している。なお、仮想空間におけるユーザの視錐台は、ユーザの視点位置姿勢およびカメラ画角などから算出可能である。
ステップS34では、ステップS33で生成したポインティングアノテーションオブジェクトと、3次元空間内の物体との前後判定を行うなどして、ポインティングアノテーション(2次元または3次元)を生成する。例えば、ポインティングアノテーションがMR空間内の物体で隠れる場合には、点線で描画したり(2次元)、半透明で描画する(2次元、3次元)など描画属性を与える。
図3に戻り、ステップS18では、ステップS12によって得られたユーザの視点位置からの現実世界の映像と、ステップS17において生成された仮想世界の映像とを合成した映像を描画し、画像表示装置に出力する。映像表示部107が備える映像表示装置に光学シースルー型のHMDを備えている場合には、仮想世界の映像を描画し、映像表示装置に出力する。ステップS19において、情報提示装置100は画像提示処理を終了するか否かを判定し、終了指示が無ければステップS12に戻り、終了指示があれば本処理を終了する。
このように、各ユーザの視野のある定位置から、他ユーザのポインティング位置までの方向を表示することにより、位置やポインティング位置に関わらず、ポインティング位置を示すことが可能となる。本実施形態では、他のユーザに注目させたい対象を伝える、MR空間に特有の手段として説明した。
その他の実施形態として、例えば仮想空間の目印となる点を、ユーザに指し示す手段としても利用できる。仮想空間を動き回るユーザは、自分の現在の位置を見失う場合がある。その場合、原点やユーザにとって目印となる位置を、ポインティングアノテーションで表示することで、ユーザの向かうべき方向を案内することが可能となる。なお、ポインティングアノテーションの形態等は種々の変形が可能であることは明らかである。
以上のように、本実施形態の情報提示装置および情報提示方法によれば、複数人で共有する複合現実空間において、あるユーザが他のユーザに注目させたい対象をポイントすると、他の各ユーザの視野画面上に、ポインティング対象物の位置に関する情報が提示されることから、どこを注目すればよいのかが分かり、講演や協調を必要とする作業などを行うことが容易になる。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
Claims (11)
- 3次元空間内のポイント位置をユーザに提示する情報提示方法であって、
検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる第1表示制御工程と、
前記仮想空間内におけるポイント位置を特定する特定工程と、
前記ポイント位置が前記視野範囲にある場合は該ポイント位置を明示するためのアノテーションを前記画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーションを表示させる第2表示制御工程とを備えることを特徴とする情報提示方法。 - 前記第2表示工程は、前記ポイント位置が前記視野範囲にある場合に、該ポイント位置が前記検出された視点位置から直接観察可能な場合とそうでない場合とで、該ポイント位置を明示するアノテーションの表示形態を変えることを特徴とする請求項1に記載の情報提示方法。
- 前記第2表示工程は、前記ポイント位置が前記視野範囲外にある場合に、該ポイント位置が前記検出された視点位置から直接観察可能な場合とそうでない場合とで、該ポイント位置の方向を示すアノテーションの表示形態を変えることを特徴とする請求項1に記載の情報提示方法。
- 現実空間を撮影手段により撮影する撮影工程と、
前記撮影手段の視点位置及び視線方向を検出する検出工程とを更に備え、
前記第1表示工程は、前記検出工程で検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像と、前記撮影工程で得られた画像とを重畳して表示することを特徴とする請求項1乃至3のいずれかに記載の情報提示方法。 - 前記第2表示工程は、
前記視野範囲内の定点と前記ポイント位置とに基づいて前記仮想空間内にアノテーションを生成する生成工程を含み、
前記生成工程で生成されたアノテーションを前記視野平面に投影することにより該アノテーションを前記画像上に表示させることを特徴とする請求項1乃至4のいずれかに記載の情報提示方法。 - 前記第2表示工程は、前記視野平面上に設定された定点と、前記ポイント位置を該視野平面上に投影した点とに基づいて前記画像上にアノテーションを表示することを特徴とする請求項1乃至4のいずれかに記載の情報提示方法。
- 前記ポイント位置を指定する情報を入力する入力工程を更に備えることを特徴とする請求項1乃至6のいずれかに記載の情報提示方法。
- 複数のユーザによるポイント位置の指定情報を入力する入力工程を更に備え、
前記第2表示工程はユーザ毎にアノテーションの表示態様を変化させることを特徴とする請求項1乃至6のいずれかに記載の情報提示方法。 - 3次元空間内のポイント位置をユーザに提示する情報提示装置であって、
検出された視点位置及び視線方向に基づいて特定される仮想空間の視野範囲を視野平面に投影した画像を表示させる第1表示制御手段と、
前記仮想空間内におけるポイント位置を特定する特定手段と、
前記ポイント位置が前記視野範囲にある場合は該ポイント位置を明示するためのアノテーションを前記画像上に表示させ、該ポイント位置が該視野範囲外にある場合には該ポイント位置が存在する方向を示すアノテーションを表示させる第2表示制御手段とを備えることを特徴とする情報提示装置。 - 請求項1乃至8のいずれかに記載の情報提示方法をコンピュータに実行させるための制御プログラム。
- 請求項1乃至8のいずれかに記載の情報提示方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413807A JP2005174021A (ja) | 2003-12-11 | 2003-12-11 | 情報提示方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413807A JP2005174021A (ja) | 2003-12-11 | 2003-12-11 | 情報提示方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005174021A true JP2005174021A (ja) | 2005-06-30 |
Family
ID=34733832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003413807A Withdrawn JP2005174021A (ja) | 2003-12-11 | 2003-12-11 | 情報提示方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005174021A (ja) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009064364A (ja) * | 2007-09-07 | 2009-03-26 | Copcom Co Ltd | プログラム、記憶媒体およびコンピュータ |
CN102221878A (zh) * | 2010-04-19 | 2011-10-19 | 索尼公司 | 图像处理系统、图像处理装置、图像处理方法及程序 |
WO2012042974A1 (ja) | 2010-09-30 | 2012-04-05 | 富士フイルム株式会社 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
JP2013507677A (ja) * | 2009-10-12 | 2013-03-04 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 実環境視像における仮想情報の表示方法 |
JP2014043353A (ja) * | 2013-12-10 | 2014-03-13 | Okura Yusoki Co Ltd | ピッキングシステム |
JP2014072576A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置および制御方法 |
US8805002B2 (en) | 2009-12-23 | 2014-08-12 | Metalo GmbH | Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method |
WO2014162825A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2016035742A (ja) * | 2014-07-31 | 2016-03-17 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2016130987A (ja) * | 2015-01-15 | 2016-07-21 | 三菱電機株式会社 | ポインティング装置、ポインティング方法、及びプログラム |
JP2016197393A (ja) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2017191700A1 (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法及びプログラム |
WO2018020661A1 (ja) * | 2016-07-29 | 2018-02-01 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
WO2018225218A1 (ja) * | 2017-06-08 | 2018-12-13 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
JP2019191528A (ja) * | 2018-04-18 | 2019-10-31 | 株式会社リコー | 情報処理装置およびプログラム |
WO2020185029A1 (ko) * | 2019-03-14 | 2020-09-17 | 삼성전자 주식회사 | 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법 |
CN111819603A (zh) * | 2018-02-26 | 2020-10-23 | 三菱电机株式会社 | 虚拟物体显示控制装置、虚拟物体显示系统、虚拟物体显示控制方法以及虚拟物体显示控制程序 |
JP2021152665A (ja) * | 2020-03-26 | 2021-09-30 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
US11768383B2 (en) | 2015-12-02 | 2023-09-26 | Sony Interactive Entertainment Inc. | Display control apparatus and display control method |
JP7544484B2 (ja) | 2019-01-30 | 2024-09-03 | シュネーデル、エレクトリック、インダストリーズ、エスアーエス | オフスクリーン関心地点(Points of Interest)を示すためのグラフィカル・ユーザ・インターフェース |
JP7614256B1 (ja) | 2023-06-26 | 2025-01-15 | レノボ・シンガポール・プライベート・リミテッド | 情報共有システム、ウェアラブル装置、情報共有方法、及び情報共有プログラム |
-
2003
- 2003-12-11 JP JP2003413807A patent/JP2005174021A/ja not_active Withdrawn
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009064364A (ja) * | 2007-09-07 | 2009-03-26 | Copcom Co Ltd | プログラム、記憶媒体およびコンピュータ |
US10453267B2 (en) | 2009-10-12 | 2019-10-22 | Apple Inc. | Method for representing virtual information in a view of a real environment |
US11410391B2 (en) | 2009-10-12 | 2022-08-09 | Apple Inc. | Method for representing virtual information in a view of a real environment |
JP2013507677A (ja) * | 2009-10-12 | 2013-03-04 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 実環境視像における仮想情報の表示方法 |
US11880951B2 (en) | 2009-10-12 | 2024-01-23 | Apple Inc. | Method for representing virtual information in a view of a real environment |
US10074215B2 (en) | 2009-10-12 | 2018-09-11 | Apple Inc. | Method for representing virtual information in a view of a real environment |
US9001154B2 (en) | 2009-10-12 | 2015-04-07 | Metaio Gmbh | Method for representing virtual information in a view of a real environment |
US8805002B2 (en) | 2009-12-23 | 2014-08-12 | Metalo GmbH | Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method |
CN102221878A (zh) * | 2010-04-19 | 2011-10-19 | 索尼公司 | 图像处理系统、图像处理装置、图像处理方法及程序 |
WO2012042974A1 (ja) | 2010-09-30 | 2012-04-05 | 富士フイルム株式会社 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
US9196093B2 (en) | 2010-09-30 | 2015-11-24 | Fujifilm Corporation | Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium |
JP2014072576A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置および制御方法 |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
CN105103198A (zh) * | 2013-04-04 | 2015-11-25 | 索尼公司 | 显示控制装置、显示控制方法以及程序 |
WO2014162825A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JPWO2014162825A1 (ja) * | 2013-04-04 | 2017-02-16 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2014043353A (ja) * | 2013-12-10 | 2014-03-13 | Okura Yusoki Co Ltd | ピッキングシステム |
JP2017033575A (ja) * | 2014-07-31 | 2017-02-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2020102232A (ja) * | 2014-07-31 | 2020-07-02 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2016035742A (ja) * | 2014-07-31 | 2016-03-17 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2016130987A (ja) * | 2015-01-15 | 2016-07-21 | 三菱電機株式会社 | ポインティング装置、ポインティング方法、及びプログラム |
JP2016197393A (ja) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US12124044B2 (en) | 2015-12-02 | 2024-10-22 | Sony Interactive Entertainment Inc. | Display control apparatus and display control method |
US11768383B2 (en) | 2015-12-02 | 2023-09-26 | Sony Interactive Entertainment Inc. | Display control apparatus and display control method |
JPWO2017191700A1 (ja) * | 2016-05-02 | 2018-09-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法及びプログラム |
WO2017191700A1 (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法及びプログラム |
US20190114823A1 (en) * | 2016-05-02 | 2019-04-18 | Sony Interactive Entertainment Inc. | Image generating apparatus, image generating method, and program |
US10803652B2 (en) | 2016-05-02 | 2020-10-13 | Sony Interactive Entertainment Inc. | Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space |
DE112016007015T5 (de) | 2016-07-29 | 2019-03-21 | Mitsubishi Electric Corporation | Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren |
WO2018020661A1 (ja) * | 2016-07-29 | 2018-02-01 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
JPWO2018020661A1 (ja) * | 2016-07-29 | 2018-12-13 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
WO2018225218A1 (ja) * | 2017-06-08 | 2018-12-13 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
JPWO2018225218A1 (ja) * | 2017-06-08 | 2019-11-07 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
US11094107B2 (en) | 2017-06-08 | 2021-08-17 | Sony Interactive Entertainment Inc. | Information processing device and image generation method |
CN111819603B (zh) * | 2018-02-26 | 2024-03-08 | 三菱电机株式会社 | 虚拟物体显示控制装置、方法、记录介质及虚拟物体显示系统 |
CN111819603A (zh) * | 2018-02-26 | 2020-10-23 | 三菱电机株式会社 | 虚拟物体显示控制装置、虚拟物体显示系统、虚拟物体显示控制方法以及虚拟物体显示控制程序 |
JP7073917B2 (ja) | 2018-04-18 | 2022-05-24 | 株式会社リコー | 情報処理装置およびプログラム |
JP2019191528A (ja) * | 2018-04-18 | 2019-10-31 | 株式会社リコー | 情報処理装置およびプログラム |
JP7544484B2 (ja) | 2019-01-30 | 2024-09-03 | シュネーデル、エレクトリック、インダストリーズ、エスアーエス | オフスクリーン関心地点(Points of Interest)を示すためのグラフィカル・ユーザ・インターフェース |
US11688146B2 (en) | 2019-03-14 | 2023-06-27 | Samsung Electronics Co., Ltd | Electronic device and method for displaying sharing information on basis of augmented reality |
KR102583682B1 (ko) * | 2019-03-14 | 2023-10-04 | 삼성전자주식회사 | 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법 |
WO2020185029A1 (ko) * | 2019-03-14 | 2020-09-17 | 삼성전자 주식회사 | 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법 |
KR20200109812A (ko) * | 2019-03-14 | 2020-09-23 | 삼성전자주식회사 | 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법 |
JP2021152665A (ja) * | 2020-03-26 | 2021-09-30 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
JP7462591B2 (ja) | 2020-03-26 | 2024-04-05 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
JP7614256B1 (ja) | 2023-06-26 | 2025-01-15 | レノボ・シンガポール・プライベート・リミテッド | 情報共有システム、ウェアラブル装置、情報共有方法、及び情報共有プログラム |
JP2025010638A (ja) * | 2023-06-26 | 2025-01-23 | レノボ・シンガポール・プライベート・リミテッド | 情報共有システム、ウェアラブル装置、情報共有方法、及び情報共有プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4065507B2 (ja) | 情報提示装置および情報処理方法 | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
KR102517876B1 (ko) | 증강 현실 데이터를 레코딩하기 위한 기술 | |
EP1404126B1 (en) | Video combining apparatus and method | |
JP4434890B2 (ja) | 画像合成方法及び装置 | |
JP4777182B2 (ja) | 複合現実感提示装置及びその制御方法、プログラム | |
TWI610097B (zh) | 電子系統、可攜式顯示裝置及導引裝置 | |
US20050024388A1 (en) | Image displaying method and apparatus | |
JPWO2015098807A1 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6409861B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
WO2020179027A1 (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2012048568A (ja) | 情報処理装置及び方法 | |
JP2018142230A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2018056924A (ja) | 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス | |
WO2018139073A1 (ja) | 表示制御装置、第2の表示装置、表示制御装置の制御方法、および制御プログラム | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6730577B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2006012042A (ja) | 画像生成方法及び装置 | |
CN115004132A (zh) | 信息处理装置、信息处理系统和信息处理方法 | |
JP2018124746A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2024163628A (ja) | 情報処理システム | |
JP2005251118A (ja) | 画像処理方法、画像処理装置 | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070306 |