JP2021071672A - 表示システム、表示方法、及び、表示プログラム - Google Patents
表示システム、表示方法、及び、表示プログラム Download PDFInfo
- Publication number
- JP2021071672A JP2021071672A JP2019199704A JP2019199704A JP2021071672A JP 2021071672 A JP2021071672 A JP 2021071672A JP 2019199704 A JP2019199704 A JP 2019199704A JP 2019199704 A JP2019199704 A JP 2019199704A JP 2021071672 A JP2021071672 A JP 2021071672A
- Authority
- JP
- Japan
- Prior art keywords
- display
- head
- host device
- image
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/12—Synchronisation between the display unit and other units, e.g. other display units, video-disc players
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/22—Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/10—Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】AR表示を行うための環境再構築を回避する。【解決手段】表示システムは、ホスト機器とHMDとを有する。ホスト機器は、ホスト機器に掛かる慣性を検知する第1慣性センサーと、画像処理部と、を有し、HMDは、外景を撮像するカメラと、HMDに掛かる慣性を検知する第2慣性センサーと、外景と共に、ホスト機器から送信された画像を表示可能な画像表示部と、を有し、画像処理部は、HMDが接続されていることを検出した場合には、第1慣性センサーからの第1センサーデータと第2慣性センサーからの第2センサーデータとを関連付け、カメラで撮像された画像中の対象を認識し、第2センサーデータを用いて画像処理を行い、画像処理後の画像を対象に関連づけて画像表示部に表示させ、HMDとの接続がされていないことを検出した場合には、HMDと再接続されるまでの間、第1センサーデータを用いて外景における対象の状態の推定を維持する。【選択図】図1
Description
本開示は、表示システム、表示方法、及び、表示プログラムに関する。
特許文献1には、対象の認識を行う際に、シーン認識を組み合わせるトラッキング方法が開示されている。
ホスト機器と接続されるヘッドマウントディスプレイ(「HMD」と略す)において、上記特許文献1の技術のように、現実空間にある物体などの対象に対して画像を重畳する拡張現実(Augmented Reality、「AR」と略す)表示を行うことが考えられる。しかし、HMDのカメラが撮像した画像に基づいて対象の認識などを行っていた場合において、ホスト機器からHMDの接続が抜けてしまったりすると、HMDのカメラからの撮像画像の供給が停止してしまい、情報が更新されなくなってしまう。その後、HMDを接続し直したとしてもHMDが抜けたときの状態とは異なる状態となっている場合がある。かかる場合、HMDが抜ける前にHMDから得た情報と、HMDを再接続した後にHMDから得た情報について、情報の連続性がないため、AR表示を行うための環境構築を再度行う必要があった。
本開示の一形態によれば、ホスト機器と前記ホスト機器に接続されたヘッドマウントディスプレイとを有する表示システムが提供される。この表示システムでは、前記ホスト機器は、前記ホスト機器に掛かる慣性を検知する第1慣性センサーと、画像処理部と、を有し、前記ヘッドマウントディスプレイは、外景を撮像するカメラと、前記ヘッドマウントディスプレイに掛かる慣性を検知する第2慣性センサーと、外景と共に、前記ホスト機器から送信された画像を表示可能な画像表示部と、を有し、前記画像処理部は、前記ヘッドマウントディスプレイが接続されていることを検出した場合には、前記第1慣性センサーからの第1センサーデータと前記第2慣性センサーから受信した第2センサーデータとを関連付け、前記カメラで撮像された画像中の対象を認識し、前記第2センサーデータを用いて画像処理を行い、画像処理後の画像を前記対象に関連づけて前記画像表示部に表示させ、前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記ヘッドマウントディスプレイと再接続されるまでの間、前記第1センサーデータを用いて前記外景における前記対象の状態の推定を維持する。この形態によれば、画像処理部は、ホスト機器とヘッドマウントディスプレイとの接続が切れ、第2慣性センサーからのデータを得ることができなくなっても、第1慣性センサーからのデータを用いて、対象の状態の推定を維持できる。
・第1実施形態:
図1は、頭部装着型表示装置10(「ヘッドマウントディスプレイ(Head Mounted Display)10」、以下、「HMD10」と略す。)の概略構成を示す説明図である。本実施形態のHMD10は、光学透過型である。つまり、HMD10は、ユーザーに対して、虚像を知覚させると同時に、オブジェクトを含む外景(シーン)から到来する光も直接視認させることができる。
図1は、頭部装着型表示装置10(「ヘッドマウントディスプレイ(Head Mounted Display)10」、以下、「HMD10」と略す。)の概略構成を示す説明図である。本実施形態のHMD10は、光学透過型である。つまり、HMD10は、ユーザーに対して、虚像を知覚させると同時に、オブジェクトを含む外景(シーン)から到来する光も直接視認させることができる。
HMD10は、ユーザーの頭部に装着可能な装着帯90と、画像を表示する表示部20と、イヤホン30と、ケーブル40と、カメラ60と、表示部20を制御するホスト機器100と、を備えている。表示部20は、ユーザーの頭部に装着された状態においてユーザーに拡張現実画像(AR画像)を知覚させる。ARとは、「Augmented Reality」の略で、一般的に「拡張現実」と訳される。ARは、実在する風景等にバーチャルの視覚情報を重ねて表示することで、目の前にある世界を“仮想的に拡張する”ものである。ARでは、例えば、カメラ60で撮像された画像、映像に、バーチャルの視覚情報が重畳され、表示部20に表示される。
装着帯90は、樹脂製の装着基部91と、装着基部91に連結される布製のベルト92と、慣性センサー50と、カメラ60と、を備える。装着基部91は、人の前頭部の形に合った湾曲した形状を有する。ベルト92は、ユーザーの頭部の周りに装着される。
カメラ60は、例えばRGBセンサーであり、撮像部として機能する。カメラ60は、外景を撮像可能で、装着基部91の中心部分に配置されている。すなわち、カメラ60は、装着帯90がユーザーの頭部に装着された状態で、ユーザーの額の中央に対応する位置に配置されている。そのため、カメラ60は、ユーザーが装着帯90を頭部に装着した状態において、ユーザーの視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。
慣性センサー50(Inertial Measurement Unit75、以下「IMU50」と呼ぶ。)は、6自由度の慣性計測装置である。IMU50は、x軸、y軸、z軸の3軸方向の加速度センサーと、3軸回りのジャイロセンサーとを有しており、HMD10の6DoF(six degrees of freedom)情報を取得する。6DoFは、動きの自由度であり、x軸、y軸、z軸方向の動きと、x軸、y軸、z軸回りの回転の動きを含む。IMU50は、装着基部91に内蔵されている。そのため、IMU50は、HMD10の6DoF情報を取得する。
表示部20は、表示駆動部21と、保持部22とを備え、装着帯90の装着基部91に連結されている。なお、表示部20は、眼鏡型である。したがって、表示部20は、右表示部20Rと、左表示部20Lを備える。表示駆動部21、保持部22についても同様に、右表示駆動部21R、左表示駆動部21L、右保持部22R、左保持部22Lを備える。
右表示部20R及び左表示部20Lは、それぞれ、フレーム23の左右に組み込まれ、ユーザーが表示部20を装着した際にユーザーの右および左の眼前に位置する。右表示部20Rおよび左表示部20Lは、各々の中央側端部で互いに接続されている。
右保持部22Rは、右表示部20Rの端部ERから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ERと装着基部91の右側の連結部93との間を結んでいる。同様に、左保持部22Lは、左表示部20Lの端部ELから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ELと装着基部91の左側の連結部(図示せず)との間を結んでいる。各連結部93は、右保持部22R及び左保持部22Lを連結部93回りに回転可能に、且つ任意の回転位置に固定可能に連結する。この結果、表示部20は、装着基部91に対して回転可能に設けられる。
右表示駆動部21R及び左表示駆動部21Lは、それぞれ、HMD10のテンプルに想到する部分である右保持部22R、左保持部22Lの内側に配置されている。
HMD10は、イヤホン30として、ユーザーの右耳に装着される右イヤホン30Rと、左耳に装着される左イヤホン30Lとを備える。
HMD10の表示駆動部21と、イヤホン30と、慣性センサー50と、カメラ60とは、ケーブル40により、ホスト機器100に接続されている。ケーブル40は、ホスト機器100からHMD10に電力を供給するとともに、HMD10とホスト機器100との間の情報のやり取りを行う。ケーブル40の先端には、コネクター42が設けられている。ケーブル40は、コネクター42を用いてホスト機器100に接続されている。ホスト機器100は、例えば、スマートフォンである。ホスト機器100は、HMD10から得た画像や映像に重畳させるバーチャルの視覚情報を生成し、HMD10に送る。HMD10は、バーチャルの視覚情報を表示部20に表示する。
図2は、ホスト機器100の概略構成を示す説明図である。ホスト機器100は、上述したように、スマートフォンであり、CPU110と、メモリー120と、タッチパネル130と、カメラ140と、慣性センサー150と、コネクター160と、を備える。メモリー120には、コンピュータプログラムであるAPアプリ125が格納されている。APアプリ125は、CPU110により実行されることで、HMD10から得た画像や映像にバーチャルの視覚情報を重畳させる。
タッチパネル130は、ホスト機器100の入力装置兼出力装置である。慣性センサー150(以下「IMU150」と略す。)は、6自由度の慣性計測装置である。IMU150は、3軸(x軸、y軸、z軸)の加速度センサーと、3軸回り(x軸回り、y軸回り、z軸回り)のジャイロセンサーとを有しており、ホスト機器100の6DoF(six degrees of freedom)を取得する。なお、便宜上、IMU150を第1慣性センサー、IMU50を第2慣性センサーとも呼ぶ。
コネクター160には、ケーブル40のコネクター42が接続される。すなわち、ホスト機器100は、コネクター160に接続されたコネクター42及びケーブル40を介して、HMD10のカメラ60が撮像した画像や映像、IMU50の6DoF情報を取得し、HMD10に、AR画像を送信する。
図3は、ホスト機器100のCPU110が実行するAR表示の制御フローチャートである。ステップS100において、ユーザーが、HMD10のケーブル40のコネクター42をホスト機器100のコネクター160に差し込むと、CPU110は、HMD10がホスト機器100に接続されたことを検知し、処理をステップS110に移行する。
ステップS110では、ユーザーが、ホスト機器100のAPアプリ125を選択し、実行すると、CPU110は、APアプリ125を実行する。ユーザーによるAPアプリ125の選択や実行は、例えば、タッチパネル130に表示されたAPアプリ125のアイコンをタップすることで行われる。
ステップS120では、CPU110は、HMD10からカメラ60の撮像画像を取得し、IMU50からセンサーデータを取得する。センサーデータは、例えば、6DoF情報である。
ステップS130では、CPU110は、第1のサンプリングレート(低レート)でホスト機器100のIMU150からセンサーデータを取得する。
ステップS140では、CPU110は、環境を構築する。環境構築とは、HMD10とホスト装置100との相対的位置を認識し、IMU50とIMU150のセンサーデータの相関をとることを意味する。すなわち、HMD10とホスト機器100とがケーブル40で接続されている場合、HMD10の動きとホスト機器100の動きは、ほぼ同じであると仮定する。しかし、IMU50の3軸の向きと、IMU150の3軸の向きとは必ずしも一致しないので、CPU110は、IMU50からのセンサーデータとIMU150からのセンサーデータとを関連づける。これにより、CPU110は、いずれか一方のIMUのセンサーデータを取得した場合には、他方のIMUのセンサーデータを予測できる。その後、HMD10から取得した画像中の対象を認識し、該対象を追跡するトラッキングを実行し、対象の姿勢を算出する。
ステップS150では、CPU110は、トラッキングした対象の画像に対し、画像を重畳する拡張現実処理(「AR処理」とも呼ぶ。)を実行し、AR処理後の画像データをHMD10に送信する。
ステップS160では、CPU110は、所定の時間経過後、HMD10から撮像画像、センサーデータを取得し、画像中の対象を追跡するトラッキングデータを更新する。ステップS170では、CPU110は、AR処理後の画像データを更新し、HMD10に送信する。ステップS160、S170は、次のステップS180でケーブル40のコネクター42がホスト機器100のコネクター160から抜けて非接続になるまで、所定の時間間隔で繰り返し実行される。
ステップS180では、CPU110は、ケーブル40のコネクター42がホスト機器100のコネクター160から抜けて非接続になったことを検知すると、処理をステップS190に移行する。なお、HMD10とホスト機器100の接続が切れていない場合には、CPU110は、処理をステップS260に移行する。
ステップS190では、CPU110は、ホスト機器100のIMU150から第1センサーデータを取得するサンプリングレートを、第1のサンプリングレートよりも高レートの第2のサンプリングレート(高レート)に切り替える。サンプリングレートを高レートとすることで、ホスト機器100の動きをより細かく検出できる。ステップS200では、CPU110は、ホスト機器100のIMU150からホスト機器100のIMU150から第1センサーデータ、すなわち、6DoF情報を取得する。
ステップS210では、CPU110は、IMU150から取得した6DoF情報を用いて、ケーブル40が非接続の状態になる前にHMD10に設けられたカメラ60から取得した画像中の対象を認識し、画像中の対象を追跡するトラッキングデータを更新する。
ステップS220では、CPU110は、ユーザーによるAPアプリが終了されたか否かを検知する。CPU110は、APアプリの終了を検知すると、本フローチャートによる処理を終了する。CPU110は、APアプリの終了を検知しない場合には、処理をステップS230に移行する。
ステップS220では、CPU110は、ユーザーによるAPアプリが終了されたか否かを検知する。CPU110は、APアプリの終了を検知すると、本フローチャートによる処理を終了する。CPU110は、APアプリの終了を検知しない場合には、処理をステップS230に移行する。
ステップS230では、CPU110は、ケーブル40のコネクター42がホスト機器100のコネクター160に接続されたことを検知すると、処理をステップS240に移行する。なお、HMD10とホスト機器100の接続が検知されない場合には、CPU110は、処理をステップS200に移行する。
ステップS240では、CPU110は、HMD10からカメラ60の撮像画像の取得し、IMU50からセンサーデータの取得を再開する。
ステップS250では、CPU110は、ホスト機器100のIMU150からセンサーデータを取得するときのサンプリングレートを、第2のサンプリングレート(高レート)から第1のサンプリングレート(低レート)に切り替える。その後、CPU110は、処理をステップS160に移行する。
ステップS260では、CPU110は、ユーザーによるAPアプリが終了されたか否かを検知する。CPU110は、APアプリの終了を検知すると、本フローチャートによる処理を終了する。CPU110は、APアプリの終了を検知しない場合には、処理をステップS160に移行する。
図4は、CPU110が実行するケーブル40が非接続になったとき、及び、再接続されたときの6DoF情報の処理フローチャートである。ステップS300では、CPU110は、HMD10とホスト機器100との間の接続がはずれ、非接続になったことを検知すると処理をステップS310に移行する。
ステップS310では、CPU110は、HMD10とホスト機器100との間の接続が非接続になる直前のHMD10のIMU50の6DoF情報をメモリー120に記憶する。例えば、CPU110は、HMD10のIMU50の6DoF情報をメモリー120に記憶し、一定時間毎に更新する。HMD10とホスト機器100との間の接続が非接続になると、CPU110は、HMD10のIMU50の6DoF情報を取得できなくなり、メモリー120の6DoF情報を更新できなくなる。CPU110は、このメモリー120の6DoF情報を更新できなくなった直前の6DoF情報を、HMD10とホスト機器100との間の接続が非接続になる直前のHMD10のIMU50の6DoF情報としてもよい。
ステップS320では、CPU110は、ホスト機器100のIMU150の第2センサーデータ(6DoF情報)を用いて、メモリー120に記憶したIMU50の6DoF情報を更新する。
ステップS330では、ステップS300では、CPU110は、HMD10とホスト機器100との間の接続が再接続されたことを検知すると処理をステップS340に移行する。なお、再接続が検知しない場合には、CPU110は処理をステップS320に移行する。
ステップS340では、CPU110は、HMD10のIMU50の最新の6DoF情報を用いて、HMD10のIMU50の6DoF情報を更新する。具体的には、CPU110は、ステップS320におけるホスト機器100のIMU150の6DoF情報を用いて更新したステップS310で記憶したHMD10とホスト機器100とが非接続になる直前におけるHMD10のIMU50の6DoF情報の情報を、さらにHMD10のIMU50の最新の6DoF情報を用いて補正することでHMD10のIMU50の6DOF情報を連続的なデータとみなすようにデータ補正を再度行う。これにより、HMD10とホスト機器100との間の相対的位置及び第1センサーデータと第2センサーデータとの関係を、HMD10の接続が切れた場合とHMD10が再接続された場合とで同じ関係として扱えるように補正することができる。なお、上記のようにHMD10が再接続されてHMD10のIMU50の6DOF情報の再補完が行われた後に、HMD10のカメラの撮像範囲にホスト機器10が含まれた場合にHMD10とホスト機器100との相対位置関係、第1センサーデータと第2センサーデータとの関係を再構成してもよい。このようにすることで、HMD10が再接続されてセンサーデータの補完が行われる際などに発生する誤差などの影響をリセットすることができる。
ステップS350では、CPU110は、新たにHMD10のIMU50から取得した第2慣性データを用いて、ステップS340で初期化したHMD10の6DoF情報を更新する。
以上、本実施形態によれば、CPU110は、HMD10とホスト機器100との間の接続が切れ、HMD10のIMU50から第2センサーデータを取得できない場合であっても、ホスト機器100のCPU110は、ホスト機器100のIMU150からの第1センサーデータを用いて、HMD10のカメラ60の撮像画像中の対象の認識を継続し、AR処理を実行できる。その結果、HMD10とホスト機器100との再接続後、AR表示を行うための環境構築として、例えば、HMD10とホスト機器100との間の相対的位置及び第1センサーデータと第2センサーデータとの関係を初期化して構築し直す必要が無くなった。なお、CPU110は、第1センサーデータを用いて対象の認識の状態変化量の差分を推定してもよい。対象の認識を維持し易くできる。ここで、状態とは、対象の位置や姿勢を意味する。なお、CPU110は、対象の認識を維持できれば、対象の認識の状態変化量の差分を推定しなくても良い。
CPU110は、同時に取得した第1センサーデータと第2センサーデータとに同一のタイムスタンプを付加してもよい。両者の関連付けを容易にできる。なお、CPU110は、第1センサーデータと第2センサーデータとの時間差が分かっていれば、異なるタイムスタンプを付加しても良い。
上記実施形態において、HMD10とホスト機器100とが接続されている場合には、CPU110は、低レートの第1のサンプリングレートでホスト機器100のIMU150から第1センサーデータを取得する。一方、HMD10とホスト機器100とが接続されていない場合には、CPU110は、高レートの第2のサンプリングレートでホスト機器100のIMU150から第1センサーデータを取得する。しかし、HMD10とホスト機器100とが接続されている場合、接続されていない場合のいずれであっても、CPU110は、同じサンプリングレートでホスト機器100のIMU150から第1センサーデータを取得してもよい。
実施形態において、カメラ60がホスト機器100を撮像した場合には、CPU110は、その画像から、カメラ60、すなわちHMD10と、ホスト機器100との相対的位置を認識し、初期化しても良い。CPU110は、HMD10と、ホスト機器100との相対的位置や第1センサーデータと第2センサーデータとの関係をより高精度に認識できる。
・第2実施形態:
図5は、第2実施形態の頭部装着型表示装置11(「HMD11」と呼ぶ。)の概略構成を示す説明図である。HMD11は、HMD10の構成に加え、電池70と、メモリー80を備える。HMD10と同一乃構成については、同一の符号を付している。電池70は、ケーブル40のコネクター42がホスト機器100から抜けていても、HMD11に電力を供給する。メモリー80は、IMU50の第2センサーデータを記憶する。
図5は、第2実施形態の頭部装着型表示装置11(「HMD11」と呼ぶ。)の概略構成を示す説明図である。HMD11は、HMD10の構成に加え、電池70と、メモリー80を備える。HMD10と同一乃構成については、同一の符号を付している。電池70は、ケーブル40のコネクター42がホスト機器100から抜けていても、HMD11に電力を供給する。メモリー80は、IMU50の第2センサーデータを記憶する。
図6は、第2実施形態におけるCPU110とHMD10が実行するケーブル40が非接続になったとき、及び、再接続されたときの6DoF情報の処理フローチャートである。図4に示すフローチャートとの違いは、ステップS320を備えない点、ステップS340の代わりにステップS345を備える点、及び、HMD10が実行するステップS400を備える点である。以下、異なる点について説明する。
HMD10は、ケーブル40の接続がされていない場合、ステップS400を実行する。ステップS400では、HMD10は、所定時間毎に、IMU50の第2センサーデータをメモリー80に記憶する。このときに必要とされる電力は、電池70から供給される。
他方、ホスト機器100のCPU110は、ステップS330では、CPU110は、HMD10とホスト機器100との間の接続が再接続されたことを検知すると、処理をステップS345に移行する。なお、再接続を検知するまでの期間は、CPU110は、ステップS330を繰り返し実行する。
ステップS345では、CPU110は、メモリー80に記憶されたIMU50の第2センサーデータ(6DoF情報)を取得し、メモリー120に記憶したIMU50の第2センサーデータを最新状態に更新する。
以上、第2実施形態によれば、HMD11は、電池70を備えているので、HMD11とホスト機器100との接続がされていない場合でも、IMU50の第2センサーデータをメモリー80に記憶できる。そのため、その後、HMD11とホスト機器100との再接続が行われた場合には、CPU110は、メモリー80に記憶された第2センサーデータを取得することにより、HMD11の動きを取得できる。その結果、HMD10とホスト機器100との再接続後、AR表示を行うための環境構築を再度行う必要がない。
上記説明では、HMD10、HMD11は、光学透過型のHMDとしたが、光学透過型でないHMDであってもよい。この場合、CPU110は、カメラ60が撮像した画像にAR画像を重畳した画像をHMD10に送信する。また、この場合にAR画像以外の画像としてカメラの撮像範囲内の対象物に基づいて構成された仮想空間の画像を表示するVR画像や、カメラの撮像画像に対して仮想空間の画像を重畳して表示するMR画像などとしてもよい。
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の一形態によれば、ホスト機器と前記ホスト機器に接続されたヘッドマウントディスプレイとを有する表示システムが提供される。この表示システムでは、前記ホスト機器は、前記ホスト機器に掛かる慣性を検知する第1慣性センサーと、画像処理部と、を有し、前記ヘッドマウントディスプレイは、外景を撮像するカメラと、前記ヘッドマウントディスプレイに掛かる慣性を検知する第2慣性センサーと、外景と共に、前記ホスト機器から送信された画像を表示可能な画像表示部と、を有し、前記画像処理部は、前記ヘッドマウントディスプレイが接続されていることを検出した場合には、前記第1慣性センサーからの第1センサーデータと前記第2慣性センサーから受信した第2センサーデータとを関連付け、前記カメラで撮像された画像中の対象を認識し、前記第2センサーデータを用いて画像処理を行い、画像処理後の画像を前記画像表示部に表示させ、前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記ヘッドマウントディスプレイと再接続されるまでの間、前記第1センサーデータを用いて前記外景における前記対象の状態の推定を維持する。この形態によれば、画像処理部は、ホスト機器とヘッドマウントディスプレイとの接続が切れ、第2慣性センサーからのデータを得ることができなくなっても、第1慣性センサーからのデータを用いて、対象を認識できる。
(2)上記形態の表示システムにおいて、前記画像処理部は、前記第1センサーデータを用いて対象の認識の状態変化量である差分を推定してもよい。この形態によれば、対象の認識を維持し易くできる。
(3)上記形態の表示システムにおいて、前記画像処理部は、前記第1センサーデータと前記第2センサーデータとに同一のタイムスタンプを付加してもよい。この形態によれば、第1センサーデータと第2センサーデータとの関連付けを容易にできる。
(4)上記形態の表示システムにおいて、前記画像処理部は、前記ヘッドマウントディスプレイが接続されていることを検出している場合には、第1のサンプリングレートで前記第1センサーデータを取得し、前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記第1のサンプリングレートよりも高い第2のサンプリングレートで前記第1センサーデータを取得してもよい。この形態によれば、ホスト機器の動きをより細かく検出でき、対象の認識をより高精度にできる。
(5)上記形態の表示システムにおいて、画像処理部は、前記ヘッドマウントディスプレイとの再接続を検出し、かつ、前記第2慣性センサーの初期化を検知した場合には、前記第1慣性センサーから第1のサンプリングレートでデータを取得してもよい。この形態によれば、ヘッドマウントディスプレイとの再接続を検出した場合には、ヘッドマウントディスプレイから第2センサーデータを得ることができるので、第1センサーデータを細かく検出する必要が無い。
(6)上記形態の表示システムにおいて、前記画像処理部は、前記カメラが前記ホスト機器を撮像した時には、前記カメラに対する前記ホスト機器の相対的位置を認識し、初期化してもよい。この形態によれば、画像処理部は、カメラ(ヘッドマウントディスプレイ)と、ホスト機器との間の相対的位置を高精度に認識できる。
(7)上記形態の表示システムにおいて、前記ヘッドマウントディスプレイは、電源及び記憶部を有し、前記ヘッドマウントディスプレイと前記ホスト機器との接続がされていない場合には、前記電源の電力を用いて前記記憶部に前記第2センサーデータを記憶し、前記画像処理部は、前記ヘッドマウントディスプレイと前記ホスト機器とが再接続された場合には、前記ヘッドマウントディスプレイと前記ホスト機器との接続がされなくなった後の前記第2センサーデータを取得し、対象の認識を実行してもよい。この形態によれば、ヘッドマウントディスプレイとホスト機器とが非接続状態にあるときの第2センサーデータは、記憶部に記憶されるので、ヘッドマウントディスプレイとホスト機器とが再接続された後は、画像処理部は、記憶部の第2センサーデータを取得することで、対象の認識を容易にできる。
本開示は、表示システム以外の種々の形態で実現することも可能である。例えば、表示方法、その表示方法を実現するコンピュータプログラムである表示プログラム、その表示プログラムを記録した一時的でない記録媒体等の形態で実現することができる。
10…頭部装着型表示装置、11…頭部装着型表示装置、20…表示部、20L…左表示部、20R…右表示部、21…表示駆動部、21L…左表示駆動部、21R…右表示駆動部、22…保持部、22L…左保持部、22R…右保持部、23…フレーム、30…イヤホン、30L…左イヤホン、30R…右イヤホン、40…ケーブル、42…コネクター、50…慣性センサー、60…カメラ、70…電池、80…メモリー、90…装着帯、91…装着基部、92…ベルト、93…連結部、100…ホスト機器、110…CPU、120…メモリー、125…APアプリ、130…タッチパネル、140…カメラ、150…慣性センサー、160…コネクター、EL…端部、ER…端部
Claims (9)
- ホスト機器と前記ホスト機器に接続されたヘッドマウントディスプレイとを有する表示システムであって、
前記ホスト機器は、
前記ホスト機器に掛かる慣性を検知する第1慣性センサーと、
画像処理部と、を有し、
前記ヘッドマウントディスプレイは、
外景を撮像するカメラと、
前記ヘッドマウントディスプレイに掛かる慣性を検知する第2慣性センサーと、
外景と共に、前記ホスト機器から送信された画像を表示可能な画像表示部と、を有し、
前記画像処理部は、
前記ヘッドマウントディスプレイが接続されていることを検出した場合には、前記第1慣性センサーからの第1センサーデータと前記第2慣性センサーから受信した第2センサーデータとを関連付け、前記カメラで撮像された画像中の対象を認識し、前記第2センサーデータを用いて画像処理を行い、画像処理後の画像を前記対象に関連づけて前記画像表示部に表示させ、
前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記ヘッドマウントディスプレイと再接続されるまでの間、前記第1センサーデータを用いて前記外景における前記対象の状態の推定を維持する、
表示システム。 - 請求項1に記載の表示システムであって、
前記画像処理部は、前記第1センサーデータを用いて前記対象の認識の状態変化量である差分を推定する、表示システム。 - 請求項1または2に記載の表示システムであって、
前記画像処理部は、前記第1センサーデータと前記第2センサーデータとに同一のタイムスタンプを付加する、表示システム。 - 請求項1から請求項3のいずれか一項に記載の表示システムであって、
前記画像処理部は、
前記ヘッドマウントディスプレイが接続されていることを検出している場合には、第1のサンプリングレートで前記第1センサーデータを取得し、
前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記第1のサンプリングレートよりも高い第2のサンプリングレートで前記第1センサーデータを取得する、表示システム。 - 請求項4に記載の表示システムであって、
前記画像処理部は、前記ヘッドマウントディスプレイとの再接続を検出し、かつ、前記第2慣性センサーの初期化を検知した場合には、前記第1慣性センサーから前記第1のサンプリングレートでデータを取得する、表示システム。 - 請求項1から請求項5のいずれか一項に記載の表示システムであって、
前記画像処理部は、前記カメラが前記ホスト機器を撮像した時には、前記カメラに対する前記ホスト機器の相対的位置を認識し、初期化する、表示システム。 - 請求項1から請求項6のいずれか一項に記載の表示システムであって、
前記ヘッドマウントディスプレイは、電源及び記憶部を有し、前記ヘッドマウントディスプレイと前記ホスト機器との接続がされていない場合には、前記電源の電力を用いて前記記憶部に前記第2センサーデータを記憶し、
前記画像処理部は、前記ヘッドマウントディスプレイと前記ホスト機器とが再接続された場合には、前記ヘッドマウントディスプレイと前記ホスト機器との接続がされなくなった後の前記第2センサーデータを取得し、前記対象の認識を実行する、表示システム。 - ホスト機器に接続されたヘッドマウントディスプレイへの画像の表示方法であって、
前記ホスト機器に前記ヘッドマウントディスプレイが接続されていることを検出した場合には、前記ホスト機器の第1慣性センサーの第1センサーデータと前記ヘッドマウントディスプレイの第2慣性センサーから受信した第2センサーデータとを関連付け、前記ヘッドマウントディスプレイのカメラで撮像された外景の画像中の対象を認識し、前記第2センサーデータを用いて画像処理を行い、画像処理後の画像を前記ヘッドマウントディスプレイの画像表示部に表示し、
前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記ヘッドマウントディスプレイと再接続されるまでの間、前記第1センサーデータを用いて前記外景における前記対象の状態の推定を維持する、表示方法。 - ホスト機器に接続されたヘッドマウントディスプレイへ画像を表示する表示プログラムであって、
前記ホスト機器に前記ヘッドマウントディスプレイが接続されていることを検出した場合には、前記ホスト機器の第1慣性センサーの第1センサーデータと前記ヘッドマウントディスプレイの第2慣性センサーから受信した第2センサーデータとを関連付け、前記ヘッドマウントディスプレイのカメラで撮像された外景の画像中の対象を認識し、前記第2センサーデータを用いて画像処理を行い、画像処理後の画像を前記ヘッドマウントディスプレイの画像表示部に表示する機能と、
前記ヘッドマウントディスプレイとの接続がされていないことを検出した場合には、前記ヘッドマウントディスプレイと再接続されるまでの間、前記第1センサーデータを用いて前記外景における前記対象の状態の推定を維持する機能と、
を前記ホスト機器に実行させる表示プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199704A JP2021071672A (ja) | 2019-11-01 | 2019-11-01 | 表示システム、表示方法、及び、表示プログラム |
US17/080,806 US11327705B2 (en) | 2019-11-01 | 2020-10-26 | Display system, display method, and display program for displaying image on head-mounted display |
CN202011178946.9A CN112782855B (zh) | 2019-11-01 | 2020-10-29 | 显示系统、显示方法和记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199704A JP2021071672A (ja) | 2019-11-01 | 2019-11-01 | 表示システム、表示方法、及び、表示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021071672A true JP2021071672A (ja) | 2021-05-06 |
Family
ID=75688965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019199704A Pending JP2021071672A (ja) | 2019-11-01 | 2019-11-01 | 表示システム、表示方法、及び、表示プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11327705B2 (ja) |
JP (1) | JP2021071672A (ja) |
CN (1) | CN112782855B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI727725B (zh) * | 2020-03-27 | 2021-05-11 | 台灣骨王生技股份有限公司 | 手術導航系統及其成像方法 |
GB2610386B (en) * | 2021-09-01 | 2024-01-10 | Sony Interactive Entertainment Inc | Head-mountable display system and methods |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150316979A1 (en) * | 2014-05-02 | 2015-11-05 | Wolfcom Enterprises | System and method for body-worn camera with re-connect feature |
JP6565465B2 (ja) * | 2015-08-12 | 2019-08-28 | セイコーエプソン株式会社 | 画像表示装置、コンピュータープログラム、および画像表示システム |
JP2018067115A (ja) | 2016-10-19 | 2018-04-26 | セイコーエプソン株式会社 | プログラム、追跡方法、追跡装置 |
US10621751B2 (en) * | 2017-06-16 | 2020-04-14 | Seiko Epson Corporation | Information processing device and computer program |
CN109960039B (zh) * | 2017-12-22 | 2021-08-06 | 精工爱普生株式会社 | 显示系统、电子设备以及显示方法 |
JP2019164431A (ja) * | 2018-03-19 | 2019-09-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
US10878285B2 (en) * | 2018-04-12 | 2020-12-29 | Seiko Epson Corporation | Methods and systems for shape based training for an object detection algorithm |
-
2019
- 2019-11-01 JP JP2019199704A patent/JP2021071672A/ja active Pending
-
2020
- 2020-10-26 US US17/080,806 patent/US11327705B2/en active Active
- 2020-10-29 CN CN202011178946.9A patent/CN112782855B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112782855B (zh) | 2023-03-28 |
US20210132889A1 (en) | 2021-05-06 |
US11327705B2 (en) | 2022-05-10 |
CN112782855A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102448284B1 (ko) | 헤드 마운트 디스플레이 추적 시스템 | |
CN109146965B (zh) | 信息处理装置、计算机可读介质和头戴式显示装置 | |
JP6860488B2 (ja) | 複合現実システム | |
US8049775B2 (en) | System for obtaining connection relationships between stereoscopic image processing devices | |
JP6642432B2 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
US10842349B2 (en) | Endoscope operation support system | |
US11216083B2 (en) | Display system that switches into an operation acceptable mode according to movement detected | |
US10373334B2 (en) | Computer program, object tracking method, and object tracking device | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
CN106768361A (zh) | 与vr头戴设备配套的手柄的位置追踪方法和系统 | |
JP6011072B2 (ja) | 制御装置、及びプログラム | |
CN103513421A (zh) | 影像处理装置、影像处理方法及影像处理系统 | |
WO2017218213A2 (en) | Miniature vision-inertial navigation system with extended dynamic range | |
CN112655202B (zh) | 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正 | |
JP4580678B2 (ja) | 注視点位置表示装置 | |
CN112782855B (zh) | 显示系统、显示方法和记录介质 | |
KR20230066454A (ko) | 동기화되지 않은 롤링 셔터 카메라들을 갖는 아이웨어 | |
CN110688002A (zh) | 虚拟内容的调整方法、装置、终端设备及存储介质 | |
WO2021153577A1 (ja) | 視線検出装置のキャリブレーション | |
CN108803861B (zh) | 一种交互方法、设备及系统 | |
US11796822B2 (en) | Modular head-mounted device | |
US20200312032A1 (en) | Image generating apparatus and image generation method | |
US11947119B2 (en) | Display control device, display control method, and recording medium | |
JP6103743B2 (ja) | ディスプレイ装置 | |
US20250103149A1 (en) | Information processing apparatus and device position estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200821 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210914 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211101 |