JP6585929B2 - システム、システムの制御方法 - Google Patents
システム、システムの制御方法 Download PDFInfo
- Publication number
- JP6585929B2 JP6585929B2 JP2015112403A JP2015112403A JP6585929B2 JP 6585929 B2 JP6585929 B2 JP 6585929B2 JP 2015112403 A JP2015112403 A JP 2015112403A JP 2015112403 A JP2015112403 A JP 2015112403A JP 6585929 B2 JP6585929 B2 JP 6585929B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mode
- virtual object
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
前記保持装置は、
前記情報を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とする。
本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムである。このような構成を有するシステムにおいて、画像表示装置は、第1のモードが設定されている場合には、表示装置において表示されている複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して表示し(表示制御)、仮想物体を構成するパーツのうち、第2のモードにおいて表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、保持装置に対して送信する。一方、保持装置は、該情報を受信し、仮想物体を構成するパーツのうち該情報に対応するパーツを特定し、該特定したパーツのデータを更新する。
HMD150(160)が有する撮影部522は、現実空間の映像を撮像する。
HMD150(160)が有する取得部524は、HMD150(160)の位置姿勢を取得する。HMD150(160)の位置姿勢を取得する方法については様々な方法が考えられ、如何なる方法を採用しても構わない。例えば、図2に示す如く現実空間にマーカを配しておき、このような現実空間をステップS621において撮像することで取得した映像に映っているマーカ(自然特徴でも良い)を用いて、HMD150(160)の位置姿勢を求めても良い。また、赤外線センサ、磁気センサ、超音波センサ、光学センサ、ジャイロセンサ等のセンサによる計測結果に基づいてHMD150(160)の位置姿勢を求めても良い。また、映像中のマーカとセンサによる計測結果とを用いてHMD150(160)の位置姿勢を求めても良い。なお、ここでいうところの「HMD150(160)の位置姿勢」とは、「世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における撮影部522の位置姿勢」であり、以下では「視点の位置姿勢」と呼称する場合がある。
映像合成部525は先ず、「取得部526がステップS630においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。シーンデータ131とは、仮想空間を構成する各仮想物体のデータ(形状、テクスチャなど、仮想物体を描画するために必要なデータ)、各仮想物体の位置姿勢データ、仮想空間を照明する光源を規定するデータ等、仮想空間を規定するデータである。次に映像合成部525は、ステップS622で取得した位置姿勢を有する視点から見た仮想空間の映像を生成する。位置姿勢が与えられた視点から見える仮想空間の映像を生成する技術は周知であるため、該技術に関する説明は省略する。
映像合成部525は、ステップS621で撮影部522が撮影した現実空間の映像に、ステップS624で生成した仮想空間の映像を重畳することで、複合現実空間の映像を生成する。複合現実空間の映像の生成技術については周知であるため、該生成技術に関する説明は省略する。
映像合成部525は、ステップS625で生成した複合現実空間の映像を表示部523に対して出力することで、該映像を表示部523に表示させる。表示部523は、HMD150(160)を頭部に装着したユーザの眼前に位置するように該HMD150(160)に取り付けられたものである。これによりHMD150(160)を頭部に装着したユーザの眼前には、ステップS625において生成した複合現実空間の映像を提示することができる。
映像送信部528は、ステップS625で映像合成部525が生成した複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられた一方若しくは両方に対して送信する。HMD150(160)において生成した複合現実空間の映像をどのタブレット端末装置に対して送信するのかは予め設定しておいても良いし、HMD150(160)側及び/又はタブレット端末装置側で任意のタイミングで設定しても構わない。また、このような設定を、HMD制御装置110(120)に対して行っておき、HMD制御装置110(120)がHMD150(160)から受けた複合現実空間の映像を、該設定に応じた送信先に対して送信するようにしても構わない。また、映像送信部528は、複合現実空間の映像をJPEGやH.264等で符号化してから送信するようにしても構わない。また、複合現実空間の映像をRTP等のストリーミングプロトコルを用いて送信してもよい。
制御部590は、タブレット端末装置180(190)の動作モードとして、MRモード(共有モード)、VRモードの何れが設定されているのかを確認する。タブレット端末装置180(190)の動作モードを切り替える方法には様々な方法が考えられ、特定の方法に限るものではない。例えば、表示部536と入力部537とでタッチパネル画面を構成している場合、MRモードに切り替えるためのボタン画像(MRモードボタン画像)とVRモードに切り替えるためのボタン画像(VRモードボタン画像)とを表示部536に表示する。そして、ユーザがMRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをMRモードに切り替える。一方、ユーザがVRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをVRモードに切り替える。このようなモード切り替え要求は、ユーザー入力イベントを検出するための不図示の別処理において検出することが可能である。
映像受信部534は、映像送信部528によって送信された複合現実空間の映像を受信する。なお、受信した複合現実空間の映像が符号化されている場合には、該映像を復号する。
生成部535は、ステップS652で受信した複合現実空間の映像を、表示部536に適した映像に変換することで表示画面を生成する。例えば、ステップS652で受信した複合現実空間の映像のサイズを、表示部536の解像度に応じて変換する。なお、本ステップではこれ以外にも、複合現実空間の映像を表示するための表示領域と、様々な操作を行うためのボタンなどが配置されている操作領域と、を含むダイアログ画面を、表示画面として生成しても構わない。
生成部535は、ステップS653において生成した表示画面を、表示部536に表示する。これにより表示部536には、ステップS626においてHMD側で表示されている複合現実空間の映像と同じ内容の映像が表示されることになり、該HMDと複合現実空間の映像を共有することができる。
映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を停止する。なお動作モードがVRモードであって、映像共有が既に停止されている場合には、ステップS660の処理をスキップしてもよい。
入力部537が、ユーザがタブレット端末装置180(190)側でローカルに制御可能な視点(ローカル視点)の位置姿勢を変更するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS662に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS665に進み、何等入力イベントを検知していない場合には、処理はステップS663に進む。
生成部535は先ず、「取得部532がステップS640においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。次に生成部535は、ローカル視点から見た仮想空間の映像を生成する。なお、制御部590は、VRモードに切り替わった直後におけるローカル視点の位置姿勢には、VRモードに切り替わる直前のHMD(タブレット端末装置180(190)に対応づけられているHMD)の位置姿勢を該HMDから取得して設定する。なお、該設定では、位置姿勢だけでなく、画角など、他のパラメータをも設定して構わない。また、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)が管理するようにしても良く、その場合、制御部590は、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)から取得することになる。
生成部535は、ステップS663で生成した仮想空間の映像を、表示部536に表示する。
入力部537は、ユーザが行ったローカル視点の位置姿勢の変更操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、ローカル視点の位置姿勢を変更する。然るにその後、ステップS663では、この変更後の位置姿勢に応じた仮想空間の映像が生成され、ステップS664では、変更後の位置姿勢に応じた仮想空間の映像が表示部536に表示されることになる。
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。例えば、仮想スクリーン(ローカル視点の位置からローカル視点の視線方向に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられるもので、世界座標系におけるその位置姿勢はローカル視点の位置姿勢から求めることができる。また、仮想スクリーンのサイズ(幅、高さ)や、上記の「規定距離」は、表示部536の画面サイズ、視野角、等に基づいて設定される。)上の各位置は3次元座標で表され、且つ表示部536の表示画面上における各位置と仮想スクリーン上の各位置とは1対1で対応しているため、先ずは、表示部536の表示画面上における指示位置に対応する仮想スクリーン上の位置(3次元座標)を特定する。そして、該特定した位置とローカル視点の位置とを通る直線と仮想物体との交点を求める処理を行い、交点がなければ、指示位置には仮想部品は表示されていないことになり、交点があれば、そのうちもっともローカル視点の位置に近い交点を特定し、該特定した交点を含む仮想部品を「ユーザが指定した部品」として特定する。
送信部539は、ステップS665において取得部538がシーンデータ131から取得した、「ユーザが指定した部品」である仮想部品の識別情報を、シーンデータ管理サーバ130に対して送信する。
制御部590は、タブレット端末装置180(190)の動作モードをVRモードからMRモードに切り替える。タブレット端末装置180(190)の動作モードがMRモードに切り替わったことに応じて、映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を再開する。
受信部513は、ステップS666において送信部539が送信した識別情報を受信する。
変更部514は、ステップS611で受信部513が受信した識別情報に対応する仮想部品が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該識別情報に対応する仮想部品のデータを加工する。例えば、識別情報に対応する仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
共有部515は、シーンデータ131を、HMD150(160)やタブレット端末装置180(190)に対して送信する。
第1の実施形態では、VRモードではローカル視点の位置姿勢を変更することで、仮想物体を様々な角度から観察可能にしていたが、同様の効果を得るために、VRモードに移行しても視点の位置姿勢は固定して(VRモードに移行する直前のHMDの位置姿勢のまま)、仮想物体そのものを移動、回転させても構わない。このとき、タブレット端末装置は、シーンデータ管理サーバ130からダウンロードしたシーンデータを用いて仮想空間を構成した後、該シーンデータによって規定されている仮想物体の位置姿勢を変更することで、仮想物体の移動や回転を実現させても構わない。
[第2の実施形態]
本実施形態では、タブレット端末装置側でMRモードからVRモードに切り替えると、VRモードに切り替え前にHMDから受信した複合現実空間の映像(静止画像)を用いて、仮想部品を指定する。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
入力部537が、ユーザが表示画面に表示されている複合現実空間の映像の拡大、縮小、平行移動などの操作入力(表示画面上のジェスチャー入力、例えばピンチイン・アウト操作)を行ったことを示す入力イベントを検知した場合には、処理はステップS962に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS965に進み、何等入力イベントを検知していない場合には、処理はステップS964に進む。
生成部535は、ユーザが行った、複合現実空間の映像の拡大、縮小、平行移動などの操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、表示部536の表示画面上に表示されている複合現実空間の映像の拡大、縮小、平行移動を行う。
生成部535は、複合現実空間の映像を、表示部536に表示する。VRモードに移行直後のステップS964では、VRモードに移行する直前に映像受信部534がHMDから受信した複合現実空間の映像(静止画像)を表示部536に表示する。
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)を取得する。
送信部539は、ステップS965で取得部538が取得した指示位置をシーンデータ管理サーバ130に対して送信する。
受信部513は、ステップS966において送信部539が送信した指示位置を受信する。
特定部817は、ステップS911で受信部513が受信した指示位置に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。一例としては、図4に示す方法が考えられる。
y=b+H×q/(h×R)
このように、複合現実空間の映像に対して拡大、縮小、平行移動操作を行ったとしても、仮想スクリーン430上の位置とタブレット端末装置の画面450上の位置とは1対1で対応しているため、位置452に対応する仮想スクリーン430上の位置431は一意に求めることができる。すなわち、位置452に対応する位置431の仮想スクリーン座標系における2次元座標I’(Iu’、Iv’)は一意に求めることができる。
変更部514は、ステップS912で特定した仮想部品(特定仮想部品)が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該特定仮想部品のデータを加工する。例えば、ステップS912で特定した仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
共有部515は、シーンデータ131を、HMD150(160)に対して送信する。
第2の実施形態では、VRモードに移行する直前に映像受信部534がHMDから受信した1枚の静止画像(複合現実空間の映像)を表示部536に表示していたが、VRモードに移行する時点から規定時間前までの間に(若しくは該時点の前後規定時間内で)映像受信部534がHMDから受信した複数枚の静止画像(複合現実空間の映像)、若しくはそのうちユーザが入力部537を用いて選択した静止画像を表示部536に表示するようにしても構わない。
第1の実施形態で説明したように、幾つかの装置を統合しても構わない。例えば、図10に示す如く、HMD150(160)とシーンデータ管理サーバ130とを統合して1つのHMD150(160)としても構わない。もちろん、図10においてHMD150(160)の構成としたものを、HMD150(160)とHMD制御装置110,120とによる構成としても構わない。これは第1の実施形態でも触れたとおりである。
図5,8,10に示したそれぞれの機能部は全てハードウェアで構成しても構わないが、一部をソフトウェアで構成しても構わない。例えば、図5のシーンデータ管理サーバ130の場合、受信部513、共有部515、変更部514(図8の場合はこれに加えて特定部817)をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはシーンデータ管理サーバ130のメモリ内に格納され、シーンデータ管理サーバ130のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のHMD150(160)の場合、取得部526、取得部524、映像合成部525、映像送信部528をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはHMD150(160)のメモリ内に格納され、HMD150(160)のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のタブレット端末装置180(190)の場合、映像受信部534、生成部535、取得部538、送信部539、取得部532をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはタブレット端末装置180(190)のメモリ内に格納され、タブレット端末装置180(190)のCPUが該コンピュータプログラムを実行することになる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (11)
- 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
前記保持装置は、
前記情報を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。 - 前記画像表示装置は、前記仮想物体のデータを、前記保持装置から取得することを特徴とする請求項1に記載のシステム。
- 前記表示制御手段は、
前記第2のモードに切り替わると、前記第2のモードに切り替わる前の前記表示装置の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1又は2に記載のシステム。 - 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
前記切り替えの前に前記表示装置から取得した複合現実空間の静止画像に対するユーザ操作が入力されない限りは該静止画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて加工した該静止画像を前記表示手段に表示し、
前記保持装置は、
前記指示位置を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。 - 前記画像表示装置は更に、
前記第2のモードにおいて前記表示手段に表示されている前記静止画像に対するユーザ操作として拡大操作、縮小操作、平行移動操作、を入力する手段を備えることを特徴とする請求項4に記載のシステム。 - 前記更新手段は、
前記表示装置の位置姿勢と、前記指示位置と、を用いて、前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定することを特徴とする請求項4又は5に記載のシステム。 - 前記更新手段は、
前記特定したパーツが強調表示されるように、該パーツのデータを更新することを特徴とする請求項1乃至6の何れか1項に記載のシステム。 - 前記システムは、前記画像表示装置及び前記表示装置のうち少なくとも一方を複数、有していることを特徴とする請求項1乃至7の何れか1項に記載のシステム。
- 前記表示装置は頭部装着型表示装置であることを特徴とする請求項1乃至8の何れか1項に記載のシステム。
- 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
前記画像表示装置が、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行い、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記画像表示装置の表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信し、
前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記第2の処理では、
視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
前記保持装置が、
前記情報を受信し、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。 - 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
前記画像表示装置が、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行い、
前記第2のモードにおいて前記画像表示装置の表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信し、
前記第1の処理では、
前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、
前記第2の処理では、
前記切り替えの前に前記表示装置から取得した複合現実空間の静止画像に対するユーザ操作が入力されない限りは該静止画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて加工した該静止画像を前記表示手段に表示し、
前記保持装置が、
前記指示位置を受信し、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015112403A JP6585929B2 (ja) | 2015-06-02 | 2015-06-02 | システム、システムの制御方法 |
EP16001150.8A EP3101523B1 (en) | 2015-06-02 | 2016-05-20 | Information processing apparatus, information processing method, computer-readable storage medium, and system |
US15/166,307 US10095458B2 (en) | 2015-06-02 | 2016-05-27 | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system |
CN201610373474.XA CN106227329B (zh) | 2015-06-02 | 2016-05-31 | 信息处理装置、信息处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015112403A JP6585929B2 (ja) | 2015-06-02 | 2015-06-02 | システム、システムの制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019163837A Division JP2020074066A (ja) | 2019-09-09 | 2019-09-09 | 画像表示装置、画像表示装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016224810A JP2016224810A (ja) | 2016-12-28 |
JP2016224810A5 JP2016224810A5 (ja) | 2018-07-12 |
JP6585929B2 true JP6585929B2 (ja) | 2019-10-02 |
Family
ID=56092697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015112403A Active JP6585929B2 (ja) | 2015-06-02 | 2015-06-02 | システム、システムの制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10095458B2 (ja) |
EP (1) | EP3101523B1 (ja) |
JP (1) | JP6585929B2 (ja) |
CN (1) | CN106227329B (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102471977B1 (ko) * | 2015-11-06 | 2022-11-30 | 삼성전자 주식회사 | 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치 |
JP2017162102A (ja) * | 2016-03-08 | 2017-09-14 | 株式会社東芝 | 保守支援方法、保守支援システム、及び保守支援プログラム |
US11024064B2 (en) | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
US11417426B2 (en) | 2017-02-24 | 2022-08-16 | Masimo Corporation | System for displaying medical monitoring data |
CN110520903B (zh) * | 2017-03-28 | 2023-11-28 | 三星电子株式会社 | 基于用户移动信息显示图像的方法和装置 |
CN110809804B (zh) | 2017-05-08 | 2023-10-27 | 梅西莫股份有限公司 | 使用适配器将医疗系统与网络控制器配对的系统 |
WO2019003323A1 (ja) * | 2017-06-27 | 2019-01-03 | サン電子株式会社 | ゲームプログラム |
US20190212962A1 (en) * | 2017-07-14 | 2019-07-11 | Kyocera Document Solutions Inc. | Display device and display system |
CN107390875B (zh) | 2017-07-28 | 2020-01-31 | 腾讯科技(上海)有限公司 | 信息处理方法、装置、终端设备和计算机可读存储介质 |
US10748340B1 (en) | 2017-07-31 | 2020-08-18 | Apple Inc. | Electronic device with coordinated camera and display operation |
JP7073702B2 (ja) * | 2017-12-11 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
CN108196674A (zh) * | 2017-12-29 | 2018-06-22 | 梁穗 | 用于虚拟感应现实的实体模型、通过虚拟设备感应现实模型的系统及实现方法 |
US10976982B2 (en) * | 2018-02-02 | 2021-04-13 | Samsung Electronics Co., Ltd. | Guided view mode for virtual reality |
JP7057197B2 (ja) * | 2018-04-12 | 2022-04-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN108829251A (zh) * | 2018-06-14 | 2018-11-16 | 北京小米移动软件有限公司 | 信息提示的方法、装置和存储介质 |
CN108961424B (zh) * | 2018-07-04 | 2023-04-18 | 百度在线网络技术(北京)有限公司 | 虚拟信息处理方法、设备及存储介质 |
DE112019004485T5 (de) | 2018-09-07 | 2021-07-01 | Apple Inc. | Wechseln zwischen bildern und tönen einer virtuellen umgebung und einer realen umgebung |
US12032164B2 (en) | 2018-10-03 | 2024-07-09 | Maxell, Ltd. | Head-mount display and head-mount display system that display virtual space information on a display |
US11808941B2 (en) * | 2018-11-30 | 2023-11-07 | Google Llc | Augmented image generation using virtual content from wearable heads up display |
CN113412479A (zh) | 2019-02-06 | 2021-09-17 | 麦克赛尔株式会社 | 混合现实显示装置和混合现实显示方法 |
CN111784271B (zh) * | 2019-04-04 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 基于虚拟对象的用户引导方法、装置、设备及存储介质 |
KR200489627Y1 (ko) * | 2019-06-11 | 2019-07-12 | 황영진 | 증강현실을 이용한 멀티플레이 교육 시스템 |
US12147607B1 (en) * | 2019-07-11 | 2024-11-19 | Apple Inc. | Transitioning between environments |
EP4064694A4 (en) * | 2019-11-20 | 2023-01-11 | Daikin Industries, Ltd. | Remote work support system |
US12106439B2 (en) * | 2020-07-21 | 2024-10-01 | Sony Group Corporation | Device and associated methodology for suppressing interaction delay of interacting with a field of view of a mobile terminal on a different display |
JP7513723B2 (ja) * | 2020-08-06 | 2024-07-09 | マクセル株式会社 | 仮想現実共有方法及びシステム |
CN113740719B (zh) * | 2021-09-02 | 2024-05-14 | 上海壁仞科技股份有限公司 | 芯片以及芯片测试方法 |
US11656835B1 (en) * | 2021-12-29 | 2023-05-23 | Transmira, Inc. | Systems and methods for spatial conversion and synchronization between geolocal augmented reality and virtual reality modalities associated with real-world physical locations |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003051031A (ja) * | 2001-05-08 | 2003-02-21 | Komatsu Ltd | 製品又はその部品についての電子文書をクライアント端末に表示するためのシステム及び方法 |
JP4677269B2 (ja) * | 2005-04-08 | 2011-04-27 | キヤノン株式会社 | 情報処理方法およびシステム |
US7843470B2 (en) * | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
JP4738870B2 (ja) | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
JP4810467B2 (ja) * | 2007-02-28 | 2011-11-09 | 富士通株式会社 | 部品選択プログラム、該プログラムを記録した記録媒体、部品選択方法、および部品選択装置 |
EP3654147A1 (en) * | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
US9829997B2 (en) | 2013-02-22 | 2017-11-28 | Sony Corporation | Head-mounted display system, head-mounted display, and head-mounted display control program |
EP2983139A4 (en) * | 2013-04-04 | 2016-12-28 | Sony Corp | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
JP5845211B2 (ja) * | 2013-06-24 | 2016-01-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2015
- 2015-06-02 JP JP2015112403A patent/JP6585929B2/ja active Active
-
2016
- 2016-05-20 EP EP16001150.8A patent/EP3101523B1/en active Active
- 2016-05-27 US US15/166,307 patent/US10095458B2/en active Active
- 2016-05-31 CN CN201610373474.XA patent/CN106227329B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106227329B (zh) | 2019-11-08 |
EP3101523B1 (en) | 2019-07-17 |
US10095458B2 (en) | 2018-10-09 |
EP3101523A1 (en) | 2016-12-07 |
US20160357491A1 (en) | 2016-12-08 |
JP2016224810A (ja) | 2016-12-28 |
CN106227329A (zh) | 2016-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6585929B2 (ja) | システム、システムの制御方法 | |
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
JP4553362B2 (ja) | システム、画像処理装置、情報処理方法 | |
JP4883774B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
EP1686554A2 (en) | Virtual space generating system, image processing apparatus and information processing method | |
JP2004062756A (ja) | 情報提示装置および情報処理方法 | |
CN102668556A (zh) | 医疗支援装置,医疗支援方法以及医疗支援系统 | |
US10386633B2 (en) | Virtual object display system, and display control method and display control program for the same | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
JP7170798B2 (ja) | 画像処理方法、画像処理システム | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
EP3229482B1 (en) | Master device, slave device, and control method therefor | |
JP2017010387A (ja) | システム、複合現実表示装置、情報処理方法及びプログラム | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
WO2018139073A1 (ja) | 表示制御装置、第2の表示装置、表示制御装置の制御方法、および制御プログラム | |
JP4235522B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2017010228A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2008217119A (ja) | システム、画像処理装置、画像処理方法 | |
CN111345037B (zh) | 虚拟现实影像提供方法及利用其的程序 | |
JP5161544B2 (ja) | 画像表示システム | |
JP2007004714A (ja) | 情報処理方法、情報処理装置 | |
JP6765846B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US12249090B2 (en) | Information processing device, information processing method, and computer program | |
JP2005251118A (ja) | 画像処理方法、画像処理装置 | |
JP7401245B2 (ja) | 画像合成装置、画像合成装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190906 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6585929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |