[go: up one dir, main page]

JP6585929B2 - システム、システムの制御方法 - Google Patents

システム、システムの制御方法 Download PDF

Info

Publication number
JP6585929B2
JP6585929B2 JP2015112403A JP2015112403A JP6585929B2 JP 6585929 B2 JP6585929 B2 JP 6585929B2 JP 2015112403 A JP2015112403 A JP 2015112403A JP 2015112403 A JP2015112403 A JP 2015112403A JP 6585929 B2 JP6585929 B2 JP 6585929B2
Authority
JP
Japan
Prior art keywords
image
mode
virtual object
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015112403A
Other languages
English (en)
Other versions
JP2016224810A5 (ja
JP2016224810A (ja
Inventor
大矢 崇
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015112403A priority Critical patent/JP6585929B2/ja
Priority to EP16001150.8A priority patent/EP3101523B1/en
Priority to US15/166,307 priority patent/US10095458B2/en
Priority to CN201610373474.XA priority patent/CN106227329B/zh
Publication of JP2016224810A publication Critical patent/JP2016224810A/ja
Publication of JP2016224810A5 publication Critical patent/JP2016224810A5/ja
Application granted granted Critical
Publication of JP6585929B2 publication Critical patent/JP6585929B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複合現実感の提示技術に関するものである。
自動車・航空機などの製造業分野において、設計工程の期間短縮、費用削減が求められている。この要求に応える技術として、現実空間と仮想空間とを継ぎ目なく合成する複合現実(MR:Mixed Reality)システムがある。複合現実システムによれば、開発中の製品をCG(コンピュータグラフィックス)映像として現実世界に重畳表示できる。そして、自由な視点から確認、検討することで実寸大の模型を制作せずにデザイン等の検討を行うことができる。
複合現実システムでは、映像表示装置のひとつとして、ビデオカメラ等の撮像装置とディスプレイとが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。HMDの一形態としてビデオシースルー方式がある。これは、HMDに搭載された撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳して表示する方式である。仮想空間の画像の例としては、例えば、CGにより描画された仮想物体や文字情報等がある。別の画像表示装置として、光学シースルー方式がある。これは、体験者の頭部に装着された光学透過型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する方式である。
製造業の設計工程では、多人数が参加したレビューがしばしば開催される。複合現実システムを用いたレビューでは、多人数が複合現実空間(仮想空間と現実空間とを合成した空間)を体験するために、HMDに加えて、タブレットなどの手持ち型情報端末を組み合わせてシステムが構成される。このシステムは、HMD装着者が見ている複合現実空間の映像を、複数のタブレット画面にも同時に配信・表示する。これにより、HMD装着者の視界を複数人が同時に共有し、設計・検討に参加できる。
特許文献1には、複合現実システムを用いた共同作業の例が開示されている。この例では、作業者が体感している複合現実空間を複数人の参加者が遠隔から共有し、視点を変更しながら現実物体と仮想物体とを継ぎ目のない状態で知覚して共同作業を可能にする。
また、非特許文献1には、ナビゲーションシステムにおいて、拡張現実感(AR:Augumented Reality)表示モードと仮想現実感表示モード(VR:Virtual Reality)とを切替えて表示する技術が開示されている。これにより、利用者が周囲の状況を適切に把握し、行動を支援することができる。また、商用のグラフィックスライブラリにおいて、スクリーン(表示画像平面)上の任意の点と、仮想空間中の三次元モデルを構成する部品との対応を、逆透視投影変換によって求める機能が提供されている。
複合現実システムを用いてHMD利用者の映像をタブレットで共有している状況において、タブレットの画面上に表示された仮想物体の部品を、タブレット使用者が指定するケースを考える。このとき、HMD利用者は自らの意志で視点位置・姿勢を変更するため、映像共有中のタブレット利用者は仮想物体に対する視点位置・姿勢を制御することはできない。すなわち、タブレット利用者の意思とは無関係にタブレット表示画面が変化することになり、所望の部品を正確に指定することは難しい。
本発明はこのような問題に鑑みてなされたものであり、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することを可能にする技術を提供する。
本発明の一様態は、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
前記保持装置は、
前記情報を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とする。
本発明の構成によれば、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することができる。
システムの構成例を示す図。 複合現実空間の映像を共有している様子を示す図。 タブレット端末装置の画面の遷移を示す図。 ステップS912の処理を説明する図。 システムの機能構成例を示すブロック図。 システムが行う処理のフローチャート。 仮想部品の指定について説明する図。 システムの機能構成例を示すブロック図。 システムが行う処理のフローチャート。 第3の実施形態に係るシステムの機能構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムである。このような構成を有するシステムにおいて、画像表示装置は、第1のモードが設定されている場合には、表示装置において表示されている複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して表示し(表示制御)、仮想物体を構成するパーツのうち、第2のモードにおいて表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、保持装置に対して送信する。一方、保持装置は、該情報を受信し、仮想物体を構成するパーツのうち該情報に対応するパーツを特定し、該特定したパーツのデータを更新する。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、HMD150,160、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、タブレット端末装置180,190、を有する。
HMD150,160は、頭部装着型表示装置の一例であり、現実空間の映像と仮想空間の映像とを合成した複合現実空間の映像を、HMD150,160を頭部に装着したユーザの眼前に提示する装置である。
HMD制御装置110,120はそれぞれ、HMD150,160の電源管理やHMD150,160による通信を含む、HMD150,160の基本動作を制御するための装置であり、HMD150,160とは無線若しくは有線でもってデータ通信を行う。
シーンデータ管理サーバ130は、仮想空間(シーン)を構築するために必要なデータ(シーンデータ)131を保持する装置である。なお、HMD制御装置110,120及びシーンデータ管理サーバ130は、図1のように別個の装置であっても良いし、1つの一体化した装置であっても良い。HMD制御装置110,120及びシーンデータ管理サーバ130に適用可能な機器としては、例えば、一般のPC(パーソナルコンピュータ)が挙げられる。
無線LANアクセスポイント170は、タブレット端末装置180,190に対する無線LANアクセスポイントとして機能するものであり、タブレット端末装置180,190は、この無線LANアクセスポイント170を介してシーンデータ管理サーバ130やHMD150,160(HMD制御装置110,120を介して)との間のデータ通信を行う。
タブレット端末装置180,190は、タッチパネル画面を有し、該タッチパネル画面に様々な情報を表示すると共に、ユーザによる該タッチパネル画面上の操作を検知する機能を有する装置である。なお、タブレット端末装置180,190は、ユーザからの様々な指示を受け付ける機能、様々な情報を表示する機能、を有するものであれば、如何なる機器であっても良い。
図1に示す如く、タブレット端末装置180,190と無線LANアクセスポイント170との間は無線LANでもって接続されており、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、は互いにデータ通信が可能なようにネットワークに接続されている。
本実施形態では、HMD150(160)は、現実空間の映像を撮像し、HMD150(160)の位置姿勢に応じた仮想空間の映像をシーンデータ131を用いて生成し、該撮像した現実空間の映像と該生成した仮想空間の映像とを合成した複合現実空間の映像を生成し、該生成した複合現実空間の映像を表示すると共に、該複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられている一方若しくは両方に対して送信する。これにより、例えば、タブレット端末装置180の表示画面には、該タブレット端末装置180に対応づけられているHMDにおいて表示されている複合現実空間の映像が表示されていることになり、結果としてタブレット端末装置180は該HMDと複合現実空間の映像を共有することができる。HMDとタブレット端末装置との間で複合現実空間の映像を共有している様子を図2を用いて説明する。
ユーザ230は頭部にHMDを装着しており、該HMDの画面には、仮想物体220を含む複合現実空間を仮想スクリーン231に投影した投影映像が表示される。マーカ211,212は、HMDの位置姿勢を求めるために現実空間の壁や床に設けられたもので、ここでは、HMDが現実空間の映像を撮像し、該映像中に写っているマーカを用いて自身の位置姿勢を求めるものとしている。
ユーザ230の頭部に装着されているHMDにおいて表示されている複合現実空間の映像は、該HMDに対応づけられているタブレット端末装置250にも送信され、該タブレット端末装置250の表示画面251に表示される。これによりユーザ240は、ユーザ230が観察している複合現実空間の映像を、表示画面251において確認(共有)することができる。
次に、シーンデータ管理サーバ130、HMD150(160)、タブレット端末装置180(190)、のそれぞれの機能構成例を、図5に示す。なお、図5では説明を簡単にするために、HMD制御装置110,120の図示を省略し、HMD150(160)は、シーンデータ管理サーバ130やタブレット端末装置180(190)と直接データ通信を行うように示しているが、実際には、図1に示す如く、HMD150(160)はそれぞれ、HMD制御装置110,120を介して、シーンデータ管理サーバ130やタブレット端末装置180(190)とのデータ通信を行う。図5に示した各機能部によって行われる各処理について、図6のフローチャートに従って説明する。
<ステップS621>
HMD150(160)が有する撮影部522は、現実空間の映像を撮像する。
<ステップS622>
HMD150(160)が有する取得部524は、HMD150(160)の位置姿勢を取得する。HMD150(160)の位置姿勢を取得する方法については様々な方法が考えられ、如何なる方法を採用しても構わない。例えば、図2に示す如く現実空間にマーカを配しておき、このような現実空間をステップS621において撮像することで取得した映像に映っているマーカ(自然特徴でも良い)を用いて、HMD150(160)の位置姿勢を求めても良い。また、赤外線センサ、磁気センサ、超音波センサ、光学センサ、ジャイロセンサ等のセンサによる計測結果に基づいてHMD150(160)の位置姿勢を求めても良い。また、映像中のマーカとセンサによる計測結果とを用いてHMD150(160)の位置姿勢を求めても良い。なお、ここでいうところの「HMD150(160)の位置姿勢」とは、「世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における撮影部522の位置姿勢」であり、以下では「視点の位置姿勢」と呼称する場合がある。
<ステップS624>
映像合成部525は先ず、「取得部526がステップS630においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。シーンデータ131とは、仮想空間を構成する各仮想物体のデータ(形状、テクスチャなど、仮想物体を描画するために必要なデータ)、各仮想物体の位置姿勢データ、仮想空間を照明する光源を規定するデータ等、仮想空間を規定するデータである。次に映像合成部525は、ステップS622で取得した位置姿勢を有する視点から見た仮想空間の映像を生成する。位置姿勢が与えられた視点から見える仮想空間の映像を生成する技術は周知であるため、該技術に関する説明は省略する。
<ステップS625>
映像合成部525は、ステップS621で撮影部522が撮影した現実空間の映像に、ステップS624で生成した仮想空間の映像を重畳することで、複合現実空間の映像を生成する。複合現実空間の映像の生成技術については周知であるため、該生成技術に関する説明は省略する。
<ステップS626>
映像合成部525は、ステップS625で生成した複合現実空間の映像を表示部523に対して出力することで、該映像を表示部523に表示させる。表示部523は、HMD150(160)を頭部に装着したユーザの眼前に位置するように該HMD150(160)に取り付けられたものである。これによりHMD150(160)を頭部に装着したユーザの眼前には、ステップS625において生成した複合現実空間の映像を提示することができる。
<ステップS627>
映像送信部528は、ステップS625で映像合成部525が生成した複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられた一方若しくは両方に対して送信する。HMD150(160)において生成した複合現実空間の映像をどのタブレット端末装置に対して送信するのかは予め設定しておいても良いし、HMD150(160)側及び/又はタブレット端末装置側で任意のタイミングで設定しても構わない。また、このような設定を、HMD制御装置110(120)に対して行っておき、HMD制御装置110(120)がHMD150(160)から受けた複合現実空間の映像を、該設定に応じた送信先に対して送信するようにしても構わない。また、映像送信部528は、複合現実空間の映像をJPEGやH.264等で符号化してから送信するようにしても構わない。また、複合現実空間の映像をRTP等のストリーミングプロトコルを用いて送信してもよい。
<ステップS651>
制御部590は、タブレット端末装置180(190)の動作モードとして、MRモード(共有モード)、VRモードの何れが設定されているのかを確認する。タブレット端末装置180(190)の動作モードを切り替える方法には様々な方法が考えられ、特定の方法に限るものではない。例えば、表示部536と入力部537とでタッチパネル画面を構成している場合、MRモードに切り替えるためのボタン画像(MRモードボタン画像)とVRモードに切り替えるためのボタン画像(VRモードボタン画像)とを表示部536に表示する。そして、ユーザがMRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをMRモードに切り替える。一方、ユーザがVRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをVRモードに切り替える。このようなモード切り替え要求は、ユーザー入力イベントを検出するための不図示の別処理において検出することが可能である。
そして、タブレット端末装置180(190)の動作モードがMRモードである場合には、処理はステップS652に進み、VRモードである場合には、処理はステップS660に進む。
<ステップS652>
映像受信部534は、映像送信部528によって送信された複合現実空間の映像を受信する。なお、受信した複合現実空間の映像が符号化されている場合には、該映像を復号する。
<ステップS653>
生成部535は、ステップS652で受信した複合現実空間の映像を、表示部536に適した映像に変換することで表示画面を生成する。例えば、ステップS652で受信した複合現実空間の映像のサイズを、表示部536の解像度に応じて変換する。なお、本ステップではこれ以外にも、複合現実空間の映像を表示するための表示領域と、様々な操作を行うためのボタンなどが配置されている操作領域と、を含むダイアログ画面を、表示画面として生成しても構わない。
<ステップS654>
生成部535は、ステップS653において生成した表示画面を、表示部536に表示する。これにより表示部536には、ステップS626においてHMD側で表示されている複合現実空間の映像と同じ内容の映像が表示されることになり、該HMDと複合現実空間の映像を共有することができる。
<ステップS660>
映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を停止する。なお動作モードがVRモードであって、映像共有が既に停止されている場合には、ステップS660の処理をスキップしてもよい。
<ステップS661>
入力部537が、ユーザがタブレット端末装置180(190)側でローカルに制御可能な視点(ローカル視点)の位置姿勢を変更するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS662に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS665に進み、何等入力イベントを検知していない場合には、処理はステップS663に進む。
<ステップS663>
生成部535は先ず、「取得部532がステップS640においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。次に生成部535は、ローカル視点から見た仮想空間の映像を生成する。なお、制御部590は、VRモードに切り替わった直後におけるローカル視点の位置姿勢には、VRモードに切り替わる直前のHMD(タブレット端末装置180(190)に対応づけられているHMD)の位置姿勢を該HMDから取得して設定する。なお、該設定では、位置姿勢だけでなく、画角など、他のパラメータをも設定して構わない。また、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)が管理するようにしても良く、その場合、制御部590は、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)から取得することになる。
<ステップS664>
生成部535は、ステップS663で生成した仮想空間の映像を、表示部536に表示する。
<ステップS662>
入力部537は、ユーザが行ったローカル視点の位置姿勢の変更操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、ローカル視点の位置姿勢を変更する。然るにその後、ステップS663では、この変更後の位置姿勢に応じた仮想空間の映像が生成され、ステップS664では、変更後の位置姿勢に応じた仮想空間の映像が表示部536に表示されることになる。
例えば、MRモードが設定されているタブレット端末装置において、図3(a)に示す如く、表示部536に、マーカ311を含む現実空間の映像と、仮想物体312を含む仮想空間の映像と、を合成した複合現実空間の映像が表示されているとする。このとき、タブレット端末装置の動作モードをVRモードに切り替えると、直後のステップS664では、図3(b)に示す如く、図3(a)と同じ視点位置姿勢を有するローカル視点から見た仮想物体312の映像が表示部536に表示される。ここで、VRモードでは、現実空間の映像が重畳表示されていないことに注意されたい。そして、VRモードが設定されているタブレット端末装置においては、ユーザはローカル視点の位置姿勢の変更操作を行うことができ、ユーザがローカル視点の位置姿勢の変更操作を行うと、該変更操作に応じてローカル視点の位置姿勢が変更され、該変更後の位置姿勢を有するローカル視点に基づく仮想物体の映像が表示部536に表示されることになり、対応するHMDの位置姿勢の変化に関係なく、タブレット端末装置側で独自に視点の位置姿勢を変更して仮想物体の映像を表示部536上で閲覧することができる。
<ステップS665>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。例えば、仮想スクリーン(ローカル視点の位置からローカル視点の視線方向に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられるもので、世界座標系におけるその位置姿勢はローカル視点の位置姿勢から求めることができる。また、仮想スクリーンのサイズ(幅、高さ)や、上記の「規定距離」は、表示部536の画面サイズ、視野角、等に基づいて設定される。)上の各位置は3次元座標で表され、且つ表示部536の表示画面上における各位置と仮想スクリーン上の各位置とは1対1で対応しているため、先ずは、表示部536の表示画面上における指示位置に対応する仮想スクリーン上の位置(3次元座標)を特定する。そして、該特定した位置とローカル視点の位置とを通る直線と仮想物体との交点を求める処理を行い、交点がなければ、指示位置には仮想部品は表示されていないことになり、交点があれば、そのうちもっともローカル視点の位置に近い交点を特定し、該特定した交点を含む仮想部品を「ユーザが指定した部品」として特定する。
そして取得部538は、「ユーザが指定した部品」として特定した仮想部品に固有の識別情報(例えば、仮想部品に固有のID)を、ステップS640において取得部532が取得したシーンデータ131から取得する。なお、仮想空間中に複数の仮想物体が存在する場合、この識別情報は、「ユーザが指定した部品」として特定した仮想部品及び該仮想部品が属する仮想物体を一意に特定するため情報、となる。
<ステップS666>
送信部539は、ステップS665において取得部538がシーンデータ131から取得した、「ユーザが指定した部品」である仮想部品の識別情報を、シーンデータ管理サーバ130に対して送信する。
<ステップS667>
制御部590は、タブレット端末装置180(190)の動作モードをVRモードからMRモードに切り替える。タブレット端末装置180(190)の動作モードがMRモードに切り替わったことに応じて、映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を再開する。
<ステップS611>
受信部513は、ステップS666において送信部539が送信した識別情報を受信する。
<ステップS614>
変更部514は、ステップS611で受信部513が受信した識別情報に対応する仮想部品が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該識別情報に対応する仮想部品のデータを加工する。例えば、識別情報に対応する仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<ステップS615>
共有部515は、シーンデータ131を、HMD150(160)やタブレット端末装置180(190)に対して送信する。
例えば、図3(b)に示す如く、タブレット端末装置の表示画面に仮想物体312が表示されている状態で、ユーザがヘッドライト部分をタップしたとすると、上記の処理により、このタップした仮想部品であるヘッドライトが他の仮想部品とは識別可能に視認されるように該ヘッドライトのデータが更新されるので、図3(c)に示す如く、ヘッドライト部分333が強調表示されている。カーソル334はタップ位置に表示されている。そしてMRモードに移行後、図3(d)に示す如く、複合現実空間の映像においてヘッドライト部分333が強調表示されている。このように、ヘッドライト部分333が強調表示されるように、全てのタブレット端末装置で共通に用いるシーンデータ131を更新するので、ヘッドライト部分333の強調表示は、HMD、タブレット端末装置の全てにおいて観察される複合現実空間の映像に反映されることになる。
なお、図6のフローチャートに従った処理では、図3(d)に示す如く、このような強調表示はMRモードにおいて行われることになるが、図3(c)のように、VRモードにおいて強調表示を行うようにしても構わない。
なお、本実施形態において用いたHMDの代わりに、タブレット等の情報端末装置を用いても良いし、固定位置に備え付けられたカメラを用いても構わない。
このように、本実施形態によれば、HMDとタブレット端末装置とで複合現実空間の映像を共有するシステムにおいて、タブレット端末装置側で独自に視点を設定して仮想物体を観察したり、タブレット端末装置側で仮想部品を指定し、該指定した仮想部品を他の複合現実空間の観察者に提示することができ、複数人が参加する上記のシステムを利用した協調作業を促進できる。
なお、HMDが行うものとして説明した処理の一部、例えば、仮想空間の映像の生成や、複合現実空間の映像の生成は、HMD制御装置が行うようにしても構わない。このように、1つの装置が行うものとして説明した処理の一部を、他の装置に行わせるようにしても構わない。一般に、どの処理をどの装置に行わせるのか、どれだけの数の装置を使用するのか、といったシステム設計については、図5に示した構成に限るものではなく、第1の実施形態で説明したような処理と同等以上の処理が実現できるのであれば、様々な構成が考えられる。これは第2以降の実施形態についても同様である。
<変形例1>
第1の実施形態では、VRモードではローカル視点の位置姿勢を変更することで、仮想物体を様々な角度から観察可能にしていたが、同様の効果を得るために、VRモードに移行しても視点の位置姿勢は固定して(VRモードに移行する直前のHMDの位置姿勢のまま)、仮想物体そのものを移動、回転させても構わない。このとき、タブレット端末装置は、シーンデータ管理サーバ130からダウンロードしたシーンデータを用いて仮想空間を構成した後、該シーンデータによって規定されている仮想物体の位置姿勢を変更することで、仮想物体の移動や回転を実現させても構わない。
<変形例2>
[第2の実施形態]
本実施形態では、タブレット端末装置側でMRモードからVRモードに切り替えると、VRモードに切り替え前にHMDから受信した複合現実空間の映像(静止画像)を用いて、仮想部品を指定する。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
すなわち、本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの一例である。このようなシステムにおいては、画像表示装置は、第1のモードが設定されている場合には、表示装置から複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に表示装置から取得した複合現実空間の映像を表示し、第2のモードにおいて表示されている複合現実空間の映像上のユーザによる指示位置を取得して保持装置に対して送信する。一方、保持装置は、指示位置を受信し、仮想物体を構成するパーツのうち指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する。
先ず、仮想部品の指定について、図7を用いて説明する。タブレット端末装置は、HMDから受信した最新フレームの複合現実空間の映像を保持しておき、VRモードに切り替わると、図7(a)に示す如く、この時点で保持している複合現実空間の映像(該切り替え前にHMDから受信した複合現実空間の映像)を表示する。本実施形態においても、VRモードでは、HMDからの複合現実空間の映像の受信は停止する。ユーザは、タブレット端末装置の表示画面上で、該表示画面に表示されている複合現実空間の映像(静止画像)に対する拡大操作、縮小操作、平行移動操作(ドラッグ)を行うことで、表示画面に表示されている複合現実空間の映像を拡大したり、縮小したり、平行移動させたりすることができる。図7(b)では、HMDから受信した複合現実空間の映像の一部を拡大したものが表示されている。そして図7(b)に示す如く、ユーザが表示画面上で所望の仮想部品723をタップすると(タップ位置にはカーソル722が表示される)、以降は第1の実施形態と同様に、このタップされた仮想部品723が図7(c)に示す如く、強調表示される。
次に、本実施形態に係るシステムの機能構成例を図8に示す。また、このようなシステムの各機能部によって行われる各処理について、図9のフローチャートに従って説明する。
なお、ステップS921〜S930の各ステップにおける処理はそれぞれ、上記のステップS621〜S630と同様であるため、これらのステップに係る説明は省略する。また、ステップS951〜S960、S967の各ステップにおける処理はそれぞれ、上記のステップS651〜S660、S667と同様であるため、これらのステップに係る説明は省略する。
<ステップS961>
入力部537が、ユーザが表示画面に表示されている複合現実空間の映像の拡大、縮小、平行移動などの操作入力(表示画面上のジェスチャー入力、例えばピンチイン・アウト操作)を行ったことを示す入力イベントを検知した場合には、処理はステップS962に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS965に進み、何等入力イベントを検知していない場合には、処理はステップS964に進む。
<ステップS962>
生成部535は、ユーザが行った、複合現実空間の映像の拡大、縮小、平行移動などの操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、表示部536の表示画面上に表示されている複合現実空間の映像の拡大、縮小、平行移動を行う。
<ステップS964>
生成部535は、複合現実空間の映像を、表示部536に表示する。VRモードに移行直後のステップS964では、VRモードに移行する直前に映像受信部534がHMDから受信した複合現実空間の映像(静止画像)を表示部536に表示する。
<ステップS965>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)を取得する。
<ステップS966>
送信部539は、ステップS965で取得部538が取得した指示位置をシーンデータ管理サーバ130に対して送信する。
<ステップS911>
受信部513は、ステップS966において送信部539が送信した指示位置を受信する。
<ステップS912>
特定部817は、ステップS911で受信部513が受信した指示位置に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。一例としては、図4に示す方法が考えられる。
例えば、タブレット端末装置の画面450上でユーザが仮想物体451のヘッドライト部分を指示すべくタップし、その位置452がI(Iu、Iv)であるとする。この位置452は、画面450の左上隅の位置を原点(0,0)とし、水平方向にu軸、垂直方向にv軸を規定する座標系I(u,v)におけるものである。
次に、ユーザ440の頭部に装着されたHMDの視点441の位置V(Vx,Vy,Vz)から視点441の視線方向θ(α、β、γ)に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられる仮想スクリーン430において、位置452に対応する位置431を求める。ここで、位置V(Vx,Vy,Vz)は、世界座標系におけるx座標、y座標、z座標を表し、視線方向θ(α、β、γ)は、x軸、y軸、z軸のそれぞれの軸周りの回転角度を表す。なお、視点方向を表現する方法はこれ以外の方法も考え得る。
世界座標系における仮想スクリーン430の位置姿勢は視点441の位置姿勢V,θから求めることができる。また、仮想スクリーン430のサイズ(幅、高さ)や、上記の「規定距離」は、撮影部522による撮像映像サイズ、表示部536の画面サイズ、視野角、等に基づいて設定される。
ここで、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動の何れも行っていない状態(例えば、VRモードに切り替え直後の状態)では、例えば仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)である場合、画面450上の位置452I(Iu、Iv)に対応する位置431I’(Iu’、Iv’)は、Iv’=H/h×Iv、Iu’=W/w×Iuとして一意に特定することができる。ここで、位置431I’(Iu’、Iv’)は、仮想スクリーン座標系(仮想スクリーン430の左上隅の位置を原点(0,0)とし、水平方向にu’軸、垂直方向にv’軸を規定する座標系I’(u’、v’))におけるものである。
一方、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動を行った場合、画面450に表示されるものは、仮想スクリーン430において、拡大/縮小に応じたサイズを有し且つ平行移動操作によって平行移動したウィンドウ内の映像(実際にはこの映像に現実空間の映像が重畳されている)であるため、上記のように、位置452に対応するウィンドウ内の位置を特定することができる。
例えば、仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)、画面450において、オリジナルの複合現実空間の映像(VRモードに移行時に画面450に表示した複合現実空間の映像)に対して行った拡大/縮小の割合(拡大/縮小率)をR(0<R)、仮想スクリーン430上のウィンドウの左上隅の位置を(a、b)、画面450上の位置452を(p、q)とすると、位置431(x、y)は以下の式に基づいて求めることができる。
x=a+W×p/(w×R)
y=b+H×q/(h×R)
このように、複合現実空間の映像に対して拡大、縮小、平行移動操作を行ったとしても、仮想スクリーン430上の位置とタブレット端末装置の画面450上の位置とは1対1で対応しているため、位置452に対応する仮想スクリーン430上の位置431は一意に求めることができる。すなわち、位置452に対応する位置431の仮想スクリーン座標系における2次元座標I’(Iu’、Iv’)は一意に求めることができる。
また、仮想スクリーン430上の各位置は3次元座標でも表されることから、位置431の世界座標系における3次元座標S(Sx,Sy,Sz)と、視点441の位置V(Vx,Vy,Vz)と、を通る直線と仮想物体420との交点を求め、求めた交点のうち視点441の位置V(Vx,Vy,Vz)に最も近い交点421の3次元座標P(Px,Py,Pz)を、「ユーザが画面450上で指定した位置452に対応する、仮想物体420上の位置」として特定することができる。
<ステップS914>
変更部514は、ステップS912で特定した仮想部品(特定仮想部品)が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該特定仮想部品のデータを加工する。例えば、ステップS912で特定した仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<ステップS915>
共有部515は、シーンデータ131を、HMD150(160)に対して送信する。
<変形例>
第2の実施形態では、VRモードに移行する直前に映像受信部534がHMDから受信した1枚の静止画像(複合現実空間の映像)を表示部536に表示していたが、VRモードに移行する時点から規定時間前までの間に(若しくは該時点の前後規定時間内で)映像受信部534がHMDから受信した複数枚の静止画像(複合現実空間の映像)、若しくはそのうちユーザが入力部537を用いて選択した静止画像を表示部536に表示するようにしても構わない。
[第3の実施形態]
第1の実施形態で説明したように、幾つかの装置を統合しても構わない。例えば、図10に示す如く、HMD150(160)とシーンデータ管理サーバ130とを統合して1つのHMD150(160)としても構わない。もちろん、図10においてHMD150(160)の構成としたものを、HMD150(160)とHMD制御装置110,120とによる構成としても構わない。これは第1の実施形態でも触れたとおりである。
[第4の実施形態]
図5,8,10に示したそれぞれの機能部は全てハードウェアで構成しても構わないが、一部をソフトウェアで構成しても構わない。例えば、図5のシーンデータ管理サーバ130の場合、受信部513、共有部515、変更部514(図8の場合はこれに加えて特定部817)をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはシーンデータ管理サーバ130のメモリ内に格納され、シーンデータ管理サーバ130のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のHMD150(160)の場合、取得部526、取得部524、映像合成部525、映像送信部528をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはHMD150(160)のメモリ内に格納され、HMD150(160)のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のタブレット端末装置180(190)の場合、映像受信部534、生成部535、取得部538、送信部539、取得部532をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはタブレット端末装置180(190)のメモリ内に格納され、タブレット端末装置180(190)のCPUが該コンピュータプログラムを実行することになる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
150,160:HMD 130:シーンデータ管理サーバ 180,190:タブレット端末装置

Claims (11)

  1. 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
    前記画像表示装置は、
    表示手段と、
    第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
    前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
    を備え、
    前記表示制御手段は前記第1の処理では、
    前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
    前記表示制御手段は前記第2の処理では、
    視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
    前記保持装置は、
    前記情報を受信する受信手段と、
    前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
    を備えることを特徴とするシステム。
  2. 前記画像表示装置は、前記仮想物体のデータを、前記保持装置から取得することを特徴とする請求項1に記載のシステム。
  3. 前記表示制御手段は、
    前記第2のモードに切り替わると、前記第2のモードに切り替わる前の前記表示装置の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1又は2に記載のシステム。
  4. 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
    前記画像表示装置は、
    表示手段と、
    第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
    前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信する送信手段と
    を備え、
    前記表示制御手段は前記第1の処理では、
    前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、
    前記表示制御手段は前記第2の処理では、
    前記切り替えの前に前記表示装置から取得した複合現実空間の静止画像に対するユーザ操作が入力されない限りは該静止画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて加工した該静止画像を前記表示手段に表示し、
    前記保持装置は、
    前記指示位置を受信する受信手段と、
    前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
    を備えることを特徴とするシステム。
  5. 前記画像表示装置は更に、
    前記第2のモードにおいて前記表示手段に表示されている前記静止画像に対するユーザ操作として拡大操作、縮小操作、平行移動操作、を入力する手段を備えることを特徴とする請求項に記載のシステム。
  6. 前記更新手段は、
    前記表示装置の位置姿勢と、前記指示位置と、を用いて、前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定することを特徴とする請求項又はに記載のシステム。
  7. 前記更新手段は、
    前記特定したパーツが強調表示されるように、該パーツのデータを更新することを特徴とする請求項1乃至の何れか1項に記載のシステム。
  8. 前記システムは、前記画像表示装置及び前記表示装置のうち少なくとも一方を複数、有していることを特徴とする請求項1乃至の何れか1項に記載のシステム。
  9. 前記表示装置は頭部装着型表示装置であることを特徴とする請求項1乃至の何れか1項に記載のシステム。
  10. 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
    前記画像表示装置が、
    第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行い
    前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記画像表示装置の表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信し
    前記第1の処理では、
    前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
    前記第2の処理では、
    視点の位置姿勢を変更するためのユーザ操作が入力されない限りは、位置姿勢が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置姿勢の視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、
    前記保持装置が、
    前記情報を受信し、
    前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する
    ことを特徴とするシステムの制御方法。
  11. 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
    前記画像表示装置が、
    第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行い
    前記第2のモードにおいて前記画像表示装置の表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信し、
    前記第1の処理では、
    前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、
    前記第2の処理では、
    前記切り替えの前に前記表示装置から取得した複合現実空間の静止画像に対するユーザ操作が入力されない限りは該静止画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて加工した該静止画像を前記表示手段に表示し、
    前記保持装置が、
    前記指示位置を受信し、
    前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する
    ことを特徴とするシステムの制御方法。
JP2015112403A 2015-06-02 2015-06-02 システム、システムの制御方法 Active JP6585929B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015112403A JP6585929B2 (ja) 2015-06-02 2015-06-02 システム、システムの制御方法
EP16001150.8A EP3101523B1 (en) 2015-06-02 2016-05-20 Information processing apparatus, information processing method, computer-readable storage medium, and system
US15/166,307 US10095458B2 (en) 2015-06-02 2016-05-27 Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
CN201610373474.XA CN106227329B (zh) 2015-06-02 2016-05-31 信息处理装置、信息处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112403A JP6585929B2 (ja) 2015-06-02 2015-06-02 システム、システムの制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019163837A Division JP2020074066A (ja) 2019-09-09 2019-09-09 画像表示装置、画像表示装置の制御方法

Publications (3)

Publication Number Publication Date
JP2016224810A JP2016224810A (ja) 2016-12-28
JP2016224810A5 JP2016224810A5 (ja) 2018-07-12
JP6585929B2 true JP6585929B2 (ja) 2019-10-02

Family

ID=56092697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112403A Active JP6585929B2 (ja) 2015-06-02 2015-06-02 システム、システムの制御方法

Country Status (4)

Country Link
US (1) US10095458B2 (ja)
EP (1) EP3101523B1 (ja)
JP (1) JP6585929B2 (ja)
CN (1) CN106227329B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471977B1 (ko) * 2015-11-06 2022-11-30 삼성전자 주식회사 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
JP2017162102A (ja) * 2016-03-08 2017-09-14 株式会社東芝 保守支援方法、保守支援システム、及び保守支援プログラム
US11024064B2 (en) 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US11417426B2 (en) 2017-02-24 2022-08-16 Masimo Corporation System for displaying medical monitoring data
CN110520903B (zh) * 2017-03-28 2023-11-28 三星电子株式会社 基于用户移动信息显示图像的方法和装置
CN110809804B (zh) 2017-05-08 2023-10-27 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
WO2019003323A1 (ja) * 2017-06-27 2019-01-03 サン電子株式会社 ゲームプログラム
US20190212962A1 (en) * 2017-07-14 2019-07-11 Kyocera Document Solutions Inc. Display device and display system
CN107390875B (zh) 2017-07-28 2020-01-31 腾讯科技(上海)有限公司 信息处理方法、装置、终端设备和计算机可读存储介质
US10748340B1 (en) 2017-07-31 2020-08-18 Apple Inc. Electronic device with coordinated camera and display operation
JP7073702B2 (ja) * 2017-12-11 2022-05-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN108196674A (zh) * 2017-12-29 2018-06-22 梁穗 用于虚拟感应现实的实体模型、通过虚拟设备感应现实模型的系统及实现方法
US10976982B2 (en) * 2018-02-02 2021-04-13 Samsung Electronics Co., Ltd. Guided view mode for virtual reality
JP7057197B2 (ja) * 2018-04-12 2022-04-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN108829251A (zh) * 2018-06-14 2018-11-16 北京小米移动软件有限公司 信息提示的方法、装置和存储介质
CN108961424B (zh) * 2018-07-04 2023-04-18 百度在线网络技术(北京)有限公司 虚拟信息处理方法、设备及存储介质
DE112019004485T5 (de) 2018-09-07 2021-07-01 Apple Inc. Wechseln zwischen bildern und tönen einer virtuellen umgebung und einer realen umgebung
US12032164B2 (en) 2018-10-03 2024-07-09 Maxell, Ltd. Head-mount display and head-mount display system that display virtual space information on a display
US11808941B2 (en) * 2018-11-30 2023-11-07 Google Llc Augmented image generation using virtual content from wearable heads up display
CN113412479A (zh) 2019-02-06 2021-09-17 麦克赛尔株式会社 混合现实显示装置和混合现实显示方法
CN111784271B (zh) * 2019-04-04 2023-09-19 腾讯科技(深圳)有限公司 基于虚拟对象的用户引导方法、装置、设备及存储介质
KR200489627Y1 (ko) * 2019-06-11 2019-07-12 황영진 증강현실을 이용한 멀티플레이 교육 시스템
US12147607B1 (en) * 2019-07-11 2024-11-19 Apple Inc. Transitioning between environments
EP4064694A4 (en) * 2019-11-20 2023-01-11 Daikin Industries, Ltd. Remote work support system
US12106439B2 (en) * 2020-07-21 2024-10-01 Sony Group Corporation Device and associated methodology for suppressing interaction delay of interacting with a field of view of a mobile terminal on a different display
JP7513723B2 (ja) * 2020-08-06 2024-07-09 マクセル株式会社 仮想現実共有方法及びシステム
CN113740719B (zh) * 2021-09-02 2024-05-14 上海壁仞科技股份有限公司 芯片以及芯片测试方法
US11656835B1 (en) * 2021-12-29 2023-05-23 Transmira, Inc. Systems and methods for spatial conversion and synchronization between geolocal augmented reality and virtual reality modalities associated with real-world physical locations

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003051031A (ja) * 2001-05-08 2003-02-21 Komatsu Ltd 製品又はその部品についての電子文書をクライアント端末に表示するためのシステム及び方法
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4738870B2 (ja) 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP4810467B2 (ja) * 2007-02-28 2011-11-09 富士通株式会社 部品選択プログラム、該プログラムを記録した記録媒体、部品選択方法、および部品選択装置
EP3654147A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US9829997B2 (en) 2013-02-22 2017-11-28 Sony Corporation Head-mounted display system, head-mounted display, and head-mounted display control program
EP2983139A4 (en) * 2013-04-04 2016-12-28 Sony Corp IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP5845211B2 (ja) * 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
CN106227329B (zh) 2019-11-08
EP3101523B1 (en) 2019-07-17
US10095458B2 (en) 2018-10-09
EP3101523A1 (en) 2016-12-07
US20160357491A1 (en) 2016-12-08
JP2016224810A (ja) 2016-12-28
CN106227329A (zh) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6585929B2 (ja) システム、システムの制御方法
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP4553362B2 (ja) システム、画像処理装置、情報処理方法
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
EP1686554A2 (en) Virtual space generating system, image processing apparatus and information processing method
JP2004062756A (ja) 情報提示装置および情報処理方法
CN102668556A (zh) 医疗支援装置,医疗支援方法以及医疗支援系统
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP2005174021A (ja) 情報提示方法及び装置
JP7170798B2 (ja) 画像処理方法、画像処理システム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
EP3229482B1 (en) Master device, slave device, and control method therefor
JP2017010387A (ja) システム、複合現実表示装置、情報処理方法及びプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2018139073A1 (ja) 表示制御装置、第2の表示装置、表示制御装置の制御方法、および制御プログラム
JP4235522B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017010228A (ja) 情報処理装置、情報処理方法、プログラム
JP2008217119A (ja) システム、画像処理装置、画像処理方法
CN111345037B (zh) 虚拟现实影像提供方法及利用其的程序
JP5161544B2 (ja) 画像表示システム
JP2007004714A (ja) 情報処理方法、情報処理装置
JP6765846B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US12249090B2 (en) Information processing device, information processing method, and computer program
JP2005251118A (ja) 画像処理方法、画像処理装置
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190906

R151 Written notification of patent or utility model registration

Ref document number: 6585929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151