[go: up one dir, main page]

JP2017516250A - 世界固定表示品質のフィードバック - Google Patents

世界固定表示品質のフィードバック Download PDF

Info

Publication number
JP2017516250A
JP2017516250A JP2017510437A JP2017510437A JP2017516250A JP 2017516250 A JP2017516250 A JP 2017516250A JP 2017510437 A JP2017510437 A JP 2017510437A JP 2017510437 A JP2017510437 A JP 2017510437A JP 2017516250 A JP2017516250 A JP 2017516250A
Authority
JP
Japan
Prior art keywords
display device
quality level
mounted display
display mode
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017510437A
Other languages
English (en)
Inventor
エブスタイン,マイケル・ジョン
シャッファリツキー,フレデリク
スティードリー,ドリュー
イード,イーサン
シェッター,マーティン
グラブナー,マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017516250A publication Critical patent/JP2017516250A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Digital Computer Display Output (AREA)

Abstract

ヘッド・マウント型ディスプレイ・デバイスを有するユーザに、世界固定表示モードにおける推定品質レベルを伝達することに関連する実施形態が開示される。例えば、開示される1つの実施形態では、センサ・データが、デバイスの1つ以上のセンサから受信される。センサ・データを使用して、デバイスの推定ポーズが決定される。推定ポーズを使用して、1つ以上の仮想オブジェクトが、世界固定表示モードまたは本体固定表示モードの何れかでデバイスを介して表示される。センサ・データの入力不確定度値および推定ポーズのポーズ不確定度値が決定される。入力不確定度値およびポーズ不確定度値は、世界固定表示モードにおける推定品質レベルにマップされる。推定品質レベルのフィードバックはデバイスを介してユーザに伝達される。【選択図】図1

Description

[0001] 様々な技術によって、ユーザが現実および仮想現実の複合を体験することができる。例えば、幾らかの表示デバイス(例えば、様々なヘッド・マウント型ディスプレイ(HMD)デバイス)は、現実環境の上に仮想オブジェクトの重畳を可能にするシー・スルー・ディスプレイを備えるものもある。仮想オブジェクトは、HMDデバイスの装着者がシースルーを通じてビューするときに、実世界環境と統合された外観を呈する(appear)。仮想オブジェクトと実世界環境の間のこのような関係は、拡張現実と称されることがある。
[0002] 同時のローカライゼーションおよびマッピング・システムにより、拡張現実体験を供することができる。通例、このような追跡およびマッピング・システムは、ユーザが操作している環境の照度および他の視覚的態様の環境に依存する。追跡およびマッピングをサポートするために充分なデータを環境が提供しないときに、アプリケーション即ち技術は、ユーザ体験の重要な劣化によって動作できないこともあるし、または動作することもある。
[0003] 多様な実世界環境において、また、多様な量のデータを有する動的環境においてユーザはこのような追跡およびマッピング・システムを利用し、追跡およびマッピングをサポートすることができる。幾らかの場合では、ユーザは、特定の環境で拡張現実アプリケーションを実行する追跡およびマッピング・システムを使用するのを期待することもある。しかしながら、環境は、有効な追跡およびマッピングをサポートするために十分なデータを提供せず、アプリケーションを不十分に機能させ、期待外れのユーザ体験を提供するか、または完全に機能しない。追跡およびマッピング・システムに関連した、環境の品質に関する情報が制限され、または何ら情報を有しないと、ユーザは、ユーザ体験に不愉快に驚くことになる。更に、ユーザは、ユーザ体験の予測を調整すること、および/または、他のアクティビティ若しくはより効果的に動作できる他のアプリケーションを選択することが阻止されることになる。
[0004] 本明細書に開示される様々な実施形態は、世界固定表示モードにおける推定品質レベルを、ヘッド・マウント型ディスプレイ・デバイスを有するユーザに伝達することに関する。世界固定表示モードでは、1つ以上の仮想オブジェクトの位置は、ヘッド・マウント型ディスプレイ・デバイスを通じてビュー可能な実世界オブジェクトに対して固定されるように見える。例えば、開示される1つの実施形態では、ヘッド・マウント型ディスプレイ・デバイスの1つ以上のセンサからセンサ・データを受信するステップを含む方法を提供する。センサ・データを使用して、ヘッド・マウント型ディスプレイ・デバイスの推定ポーズが決定される。
[0005] 推定ポーズを使用して、1つ以上の仮想オブジェクトが、世界固定表示モードまたは本体固定表示モードの何れかで、ヘッド・マウント型表示デバイスを通じて表示される。本体固定表示モードでは、各仮想オブジェクトの位置は、ヘッド・マウント型表示デバイスを有するユーザに対して固定されているように見える。センサ・データの入力不確定度値および推定ポーズの不確定度値の内1つ以上が決定される。入力不確定度値およびポーズ不確定度値の内1つ以上は、世界固定表示モードにおいて推定品質レベルにマップされる。推定品質レベルのフィードバックは、ヘッド・マウント型ディスプレイ・デバイスを介してユーザに伝達される。
[0006] 本摘要は、発明の詳細な説明で更に後述する簡略化された形態で、概念の選択を導くために設けられる。本摘要は特許請求する主題における鍵となる特徴点または必須の特徴点を特定するのを意図するのではなく、また、特許請求する主題の範囲を限定するために用いることを意図するのでもない。更にまた、特許請求する主題は、本開示の如何なる部分で注記される任意のまたは全ての不利な点を解決する実施態様に限定するのではない。
図1は、本開示の実施形態による拡張現実システムの概要図である。 図2は、本開示の実施形態による世界固定位置を有する複数の仮想オブジェクトを示す。 図3は、本開示の実施形態による世界固定位置を有する複数の仮想オブジェクトを示す。 図4は、本開示の実施形態による本体固定位置を有する複数の仮想オブジェクトを示す。 図5は、本開示の実施形態による本体固定位置を有する複数の仮想オブジェクトを示す。 図6は、本開示の実施形態による世界固定位置を有する空間(volumetric)ホログラムとして複数の仮想オブジェクトを示す。 図7は、本開示の実施形態による本体固定位置を有するスクリーン・ビューポートに表示される複数の仮想オブジェクトを示す。 図8は、本開示の実施形態による追跡システムの概要図である。 図9は、本開示の実施形態による例示のヘッド・マウント型ディスプレイ・デバイスを示す。 図10Aは、本開示の実施形態による世界固定表示モードにおける推定品質レベルをヘッド・マウント型表示デバイスのユーザに伝達する方法のフローチャートである。 図10Bは、本開示の実施形態による世界固定表示モードにおける推定品質レベルをヘッド・マウント型表示デバイスのユーザに伝達する方法のフローチャートである。 図11は、簡略化したコンピューティング・デバイスの概要図である。
[0016] 図1は、拡張現実システム10の一実施形態の概要図を示す。拡張現実システム10は、コンピューティング・デバイス22の大容量ストレージ18に格納される追跡システム14を含む。追跡システム14は、メモリ26にロードすることができ、また、以下に更に詳細に説明する1つ以上の方法およびプロセスを実行するために、コンピューティング・デバイス22のプロセッサ28によって実行することができる。
[0017] 拡張現実システム10は、実世界環境に表示する1つ以上の仮想オブジェクトを生成することができる表示プログラム30を含む。実世界環境は、1つ以上の実世界オブジェクト34を含む。表示デバイス(例えば、ヘッド・マウント型ディスプレイ(HMD)デバイス36)は、仮想オブジェクト32を実世界環境の上に重畳して表示して、拡張現実環境40を生成することができる。以下に更に詳細に説明するように、表示プログラム30は、2つの異なる表示モードを利用して、仮想オブジェクト32を表示することができる。
[0018] 具体的には、世界固定(world-lock)表示モード44では、1つ以上の仮想オブジェクト32が、世界固定位置を用いてHMD装置36を介して表示される。世界固定位置では、仮想オブジェクト32は、HMDデバイス36を通じてビュー可能な実世界オブジェクト34に対して固定されているように見える。そして、各仮想オブジェクトが有する世界固定位置は、HMDデバイス36の装着者に対して移動可能なように見える。図8において追跡システム14を参照すると、世界固定表示モード44は、6自由度(6DOF)の追跡フィルタ816に関連付けられる。追跡フィルタ816は、6自由度(例えば、x、y、z、ピッチ、ロール、ヨー)でHMDデバイス36の位置および向きを推定する。
[0019] 例えば、6自由度での推定は、HMDデバイス36が有する光学センサと、HMDデバイスが有する、単に光情報だけに依拠しない他のポーズ・センサとの組み合わせから、センサ・データ46を使用して決定する。このような他のポーズ・センサは、これに限定されないが、加速度計、ジャイロスコープ、磁力計、および他のセンサを含む。他のセンサは、以前に決定された1つ以上の位置/向きと、指定された時間期間にわたり既知の或いは推定された変位と、を使用することによって現在の位置/向きを推測して導出するのに使用される。
[0020] 光学センサは、HMDデバイス36が位置する実世界環境が有する光学特徴の画像情報を提供する。前述したように、照度の条件、光学的特徴、およびユーザが操作している実世界環境の他の視覚的態様への依存に因っては、光学センサからのセンサ・データ46の精度が変化することがあり、信頼できない場合もある。しかしながら、正確なセンサ・データを提供するのに条件が好適なときは、世界固定表示モード44によって提供される拡張現実体験はリッチ且つ説得力に富むものとなる。
[0021] 世界固定表示モード44において、また世界固定表示モードをサポートしないアプリケーションについて、世界固定位置を有する仮想オブジェクト32を一貫して表示するには条件が好適でない場合には、HMDデバイス36は、本体固定(body-lock)表示モード48で動作することになる。本体固定表示モード48では、1つ以上の仮想オブジェクト32は、本体固定位置を用いてHMDデバイス36を介して表示する。本体固定位置では、仮想オブジェクト32は、HMDデバイス36の装着者に対し固定されているように見え、また、各仮想オブジェクトの本体固定位置は、実世界オブジェクト34に対して移動可能なように見える。
[0022] 本体固定表示モード48は、3自由度(3DOF)の追跡フィルタ820に関連付けることができる。追跡フィルタ820は、6DOFの追跡フィルタ816と並行して動作することができる。3DOFの追跡フィルタ820は、3自由度(例えば、ピッチ、ロール、ヨー)でHMDデバイス36の方向を推定する。例えば、3自由度での推定は、光学データに依拠することのない、ポーズ・センサからの情報を使用して決定する。したがって、3DOF追跡フィルタ820は、6DOF追跡フィルタ816が劣化した拡張現実体験を提供することになる条件の間に一貫して動作する。
[0023] 再度図1を参照する。コンピューティング・デバイス22は、有線接続を使用してHMDデバイス36と動作可能に接続することができ、または、WiFi、Bluetooth、または他の如何なる好適な無線通信プロトコルを介した無線接続を採用することができる。加えて、図1に示される例では、コンピューティング・デバイス22を、HMDデバイス36とは別個のコンポーネントとして示している。他の例では、コンピューティング・デバイス22は、HMDデバイス36内に統合されることが認められる。
[0024] 幾らかの例では、コンピューティング・デバイス22は、デスクトップ・コンピューティング・デバイス、モバイル・コンピューティング・デバイス(例えばスマートフォン)、ラップトップ、ノートブック若しくはタブレット・コンピュータ、ネットワーク・コンピュータ、家庭用娯楽機器コンピュータ、双方向テレビ、セット・トップ・ボックス、ゲーミング・システム、または他の適切なタイプのコンピューティング・デバイスの形態を採ることができるものもある。コンピューティング・デバイス22のコンポーネントおよびコンピューティング態様に関する付加的な詳細については、図11を参照して以下に詳細に説明する。
[0025] 以下に更に詳細に説明するように、追跡システム14は、世界固定表示モード44における推定品質レベルのフィードバック42を、HMDデバイス36を装着するユーザ50に伝達するように構成することができる。有利なことに、このようにして、現在の環境条件および品質についての効果、並びに/または世界固定表示モードのユーザ体験の利用可能性について、リアル・タイムにユーザに知らせることができる。
[0026] これより、図2から図7を参照する。拡張現実システム10および追跡システム14の例示のユース・ケースについて、これより説明する。図2および図3に示される例では、実世界環境の条件が品質レベル閾値を上回るので、世界固定表示モード44を利用する。品質レベル閾値は、世界固定表示モード44の受け入れ可能なユーザ体験を提供するためのセンサ・データの最小量および/または品質に相当する。利用可能なセンサ・データの量または品質は、1つの環境から他のものまでかなり変化できることが認められる。したがって、好適な品質レベル閾値はまた、変化することにもなり、そして、当業者によって容易に決定されることになる。
[0027] 図2では、第1ビデオ・スレート208が、HMDデバイス36を有するユーザ50の位置および方向に対して、部屋206の左側の壁210に掛かっているように見える。第2ビデオ・スレート212が、HMDデバイス36を有するユーザ50の位置および方向に対して、部屋206の正面の壁214に掛かっているように見える。第3ビデオ・スレート216が、HMDデバイス36を有するユーザ50の位置および方向に対して、右側の218に掛かっているように見える。
[0028] 図3では、HMDデバイス36を有するユーザ50は、右へ移動し、左に回転している。その結果、彼/彼女は壁210と対面しており、従ってHDMデバイスの位置および方向が変化する。加えて、数人が部屋に入っており、様々な備品が第2ビデオ・スレートの下にあるテーブル222上に置かれている。HMDデバイス36は世界固定表示モード44で動作しており、複数のビデオ・スレートは世界固定位置を対応して有するので、第1ビデオ・スレート208は他の実世界オブジェクトに対して、またHMDデバイス36を通じてビューされる第2ビデオ・スレート212に対して、壁210に固定されているように見える。同様に、第2ビデオ・スレート212は、他の実世界オブジェクトに対して、また、HMDデバイス36を通じてビューされる第1ビデオ・スレートに対して、壁214に固定されているように見える。これに対応して、第1ビデオ・スレートおよび第2ビデオ・スレートのそれぞれの世界固定位置は、ユーザが移動すると共にユーザ50に対して移動するように見える。
[0029] HMDデバイス36が、世界固定位置を有する好適な任意の数のビデオ・スレートまたは他の仮想オブジェクト32を表示することが認められる。ビデオ・スレートは、好適な如何なるビデオまたは他の画像を提示する。例えば、ビデオ・スレートは、1またはそれ以上のWebページ、電子メール・アプリケーション、天気予報、テレビ、ニュース、写真等を提示してもよい。
[0030] また、ビデオ・スレートが部屋の中の好適な如何なる世界固定位置に位置されことも理解される。実施形態の中には、ビデオ・スレートは、位置に特有のものとされる所定の視覚的レイアウトに従って表示されてもよい。例えば、追跡システム14からの光学センサ・データを使用して、実世界環境が特定の位置(例えば、ユーザのオフィス)にあることを認識することができる。それ故、ビデオ・スレートは、位置に特有の視覚的レイアウトに従って、オフィス内の特定の位置に配置される。一方で、実世界環境が認識されない場合は、ビデオ・スレートは、デフォルトの視覚的レイアウトに従って配置されることになる。他の実施形態では、視覚的レイアウトは独立した位置であってもよく、また、ビデオ・スレートは世界固定表示モード44で動作している間、同一の世界固定位置に表示されてもよい。
[0031] 再度図1を参照する。以下に更に詳細に説明するように、追跡システム14は、部屋206から受信されるセンサ・データ46を利用して、HMDデバイス36の推定ポーズ54を決定することができる。推定ポーズを使用して、次いで、それら世界固定位置にビデオ・スレートを表示する。追跡システム14は、センサ・データ46を分析して、センサ・データに関連付けられる1つ以上の入力不確定度値(input uncertainty value)を決定することができる。前述したように、様々な環境要因が、センサ・データと関連付けられる不確定度に影響を与える。このような要因は、これに限定されないが、実世界オブジェクトの照度、シーン深度、シーン・モーション、および特徴密度(例えば、シーン混乱)の照度を含む。同様に、追跡システム14は、推定ポーズ54を分析して、推定ポーズの1つ以上のポーズ不確定度値を決定することができる。
[0032] 追跡システム14は、次いで、入力不確定度値およびポーズ不確定度値の内1つ以上を、世界固定表示モード44において複数の推定品質レベルの内1つにマップする。有利なことに、追跡システム14は、次いで、推定品質レベルのフィードバック42を、HMDデバイス36を介してユーザ50に伝達することができる。
[0033] 幾らかの例では、フィードバック42は、HMDデバイス36を介して推定品質レベルの1つ以上のグラフ図を表示するのを含む。これより図2を参照する。一例では、推定品質レベルのフィードバック42は、HMDデバイス36の視野200内に表示される円230を含む。円230は、世界固定表示モード44の異なる推定品質レベルに対応した各色と共に、複数の異なる色の内1つで表示される。例えば、5色および対応する推定品質レベルは、例えば(1)赤/利用不可能(Unavailable)、(2)紫/悪(Poor)、(3)黄/並(Fair)、(4)青/良(Good)、および(5)緑/優(Excellent))のように利用される。好適な任意の数の品質レベルおよび対応の色、並びに他の如何なるタイプおよび形態のグラフ図が利用され、本開示の範囲内にあることが認められる。
[0034] 図2の例では、部屋26内の実世界オブジェクトは、HMDデバイスによって収集される画像データにおける少量の特徴密度(即ち、シーン混乱)を供給する。追跡システム14は、この環境におけるこのような少量の特徴密度が、恐らくは1つ以上の他の環境態様と共に、世界固定表示モードの体験において並(Fair)の推定品質レベルを与えることになることを決定する。したがって、ユーザ50にアラートするために、追跡システム14は、HMDデバイス36を介して黄色(Y)の円230を表示する。
[0035] 図3の例では、部屋206内にいる追加の人々および他の実世界のオブジェクトは、HMDデバイス36によって収集される画像データにおいて特徴密度を強化されて提供する。追跡システム14は、このようなより大きな特徴密度が優(Excellent)の推定品質レベルを与えることになることを決定する。したがって、ユーザ50にアラートするために、追跡システム14は、世界固定表示モードの体験において優(Excellent)の推定品質レベルに対応する緑(G)の円230を、HMDデバイス36を介して表示する。
[0036] 図4および図5の例では、HMDデバイス36を有するユーザは、図2および図3の部屋206の出入口を通じて廊下400に移動している。この例では、廊下400の照度条件およびその特徴は、非常に劣悪なものでよい。従って、HMDデバイス36によって収集される画像データは、例えば、廊下400の劣悪なテクスチャおよびその特徴を与える低い解像度によって特徴づけられる。追跡システム14では、このような劣悪な照度条件が、おそらく1つ以上の他の環境要因と共に、世界固定表示モード44の利用不可能(Unavailable)な推定品質レベルを与えることになることを決定する。例えば、HMDデバイス36は、世界固定表示モードでは動作することができない。
[0037] したがって、ユーザ50にアラートするために、追跡システム14は、見込まれる5つの棒の内1つを表示することにより利用不可能(Unavailable)な品質レベルを伝える棒グラフ指標404を、HMDデバイス36を介して表示する。幾らかの例では、追跡システム14は、推定品質レベルが予め定められた品質レベル閾値未満であるときに、世界固定表示モード44を無効化するように構成するものもある。
[0038] 世界固定表示モード44が利用可能ではない場合、HMDデバイス36は、本体固定表示モード48で動作することになる。本体固定表示モード48では、複数のビデオ・スレートは、本体固定位置を有する視界200に表示される。例えば、複数のビデオ・スレートは、球面ワークスペースのレイアウトにおいて外観を呈する。ここでは、HMDデバイス36を有するユーザ50が彼/彼女の周囲の複数のビデオ・スレートと共に球体の中央に立っている。実施形態の中には、複数のビデオ・スレートは、所定の視覚的レイアウトに従って配置されるものもある。1つの特定の例では、ニュース・アプリケーションを左側の第1ビデオ・スレートに表示することができ、電子メール・アプリケーションを中央にある第2ビデオ・スレートに表示することができ、そして、株式相場表示アプリケーションを右側の第3ビデオ・スレートに表示することができる。
[0039] 図4では、HMDデバイス36を有するユーザ50は、廊下400の、部屋206から出入口の隣に立っている。複数のビデオ・スレートが、ユーザに対して固定されているように見え、且つ実世界オブジェクト(例えば、出入口)に対して移動可能なように見える本体固定位置で、視界200内に表示される。
[0040] 図5では、HMDデバイス36を有するユーザ50は、廊下400の端まで歩き、他の出入口の正面に立っている。複数のビデオ・スレートが本体固定位置で、HMDデバイス36を介して表示されるので、彼/彼女が廊下を歩くにつれて複数のビデオ・スレートがユーザに対して固定されたままとなる。換言すれば、スレートは、ユーザ50と共に移動する。
[0041] 図5はまた、世界固定表示モード44における推定品質レベルのフィードバック42をユーザ50に伝達する他の例を示し、ここでは、視界200の外観が変更される。図5では、追跡システム14は、視界200を(複数のRで示される)赤色でハイライトして、世界固定表示モード44が利用不可能(Unavailable)であることを伝達する。推定品質レベルが変化すると、視界200のハイライトは、前述した他の4つの色の内対応する1つに変化することになる。視界200の外観を変化させる好適な他の如何なる形態および/または手法が利用され、例えば、推定品質レベルに対応する透過した透かし(transparent watermark)を表示することがまた認められる。
[0042] 図6および図7は例示のシナリオを示し、ここでは、複数の仮想オブジェクトが世界固定表示モード44の3Dビューで示され、また、本体固定表示モード48の2Dビューに視覚的に遷移される。図6では、HMDデバイス36は世界固定表示モード44で動作しており、良い魔法使い600、火の玉604、および悪の魔法使い606という空間ホログラム(volumetric hologram)(例えば、3Dメッシュ)の形態で、複数の仮想オブジェクトが3DビューでHMDデバイス36を通じて表示される。空間ホログラムは、実世界環境(例えば、部屋)610での世界固定位置を有し、また、実世界環境内で容積を占めるような外観を呈する。
[0043] 図6はまた、推定品質レベルのグラフ図を1/4円の複数の指標614の形態で表示する例を示す。この例では、良(Good)の推定品質レベルに対応する、5つの内4つの指標を示している。一例では、1/4円の複数の指標614は、仮想オブジェクトと共に世界固定表示モード44で表示される。他の例では、1/4円の複数の指標614は、本体固定表示モード48で表示される。その結果、当該指標は、ユーザに対して固定されているように見え、また実世界環境でのユーザの移動および方向に拘わらずユーザのビューが維持される。
[0044] 図7では、HMDデバイス36を有するユーザ50は、部屋610の出入口を通じて、狭い廊下702内を歩いている。狭い廊下702は、非常に制限されたシーン深度を供給し、その中でHMDデバイス36のセンサがセンサ・データ46をキャプチャすることになる。狭い廊下702のシーン深度が最小のシーン深度閾値未満である場所では、センサ・データおよび対応する推定ポーズ54の結果として生じる不確定度は、世界固定表示モード44について受け入れることができない推定品質レベルを与えることがある。
[0045] したがって、ユーザ50が廊下702に入るときに、追跡システム14は、世界固定表示モード44から本体固定表示モード48へと切り替える。これに応答して、空間メッシュ(volumetric mesh)は、3Dビューから2Dビューに視覚的に遷移することになる。一例では、空間メッシュは、ビデオ・スレート706について2Dビューに圧壊する(collapse)。ビデオ・スレート706は、仮想オブジェクトが位置する(inhabit)仮想世界のスクリーン・ビューポートとしてもよい。ビデオ・スレート706は本体固定位置を有し、また、仮想オブジェクトはビデオ・スレートに表される仮想世界内を移動してもよい。
[0046] 他の例では、HMDデバイス36が有する1つ以上のセンサは、ユーザの髪、ユーザの手若しくは腕、および/またはユーザが着用した帽子によって、少なくとも部分的に覆い隠されることがある。この例では、1つ以上のセンサからのセンサ・データ46を分析して、ユーザの髪、ユーザの手または腕、および/またはユーザが着用した帽子についての視覚的指標を検出することができる。このような分析に基づくことで、入力不確定度値が決定される。例えば、イメージ・センサにおける視界の50%以上が覆い隠される帽子のつばを画像データが示す(reveal)ところでは、追跡システム14は、当該条件が世界固定表示モード44について利用不可能(Unavailable)な推定品質レベルを与えることを決定する。
[0047] 他の例では、世界固定表示モード44における推定品質レベルのフィードバック42は、1つ以上の仮想オブジェクト32の外観を変化させることを含んでもよい。再度図6を参照する。推定品質レベルが第1レベルから下位の第2レベルに落ちる一例では、悪い悪魔606の空間ホログラムは、下位の推定品質レベルを示すために透過化を行う。他の例では、空間ホログラムまたは2D画像の1つ以上は、対応する推定品質レベルを示す特定の色で表示してもよい。他の例では、ホログラムまたは画像の1つ以上は、震える(quiver)、或いは視覚的に振動する(vibrate)外観を呈するように表示されて、対応する推定品質レベルを示すことができる。前述した例が排他的でないことが認められる。また、1つ以上の仮想オブジェクト32の外観を変化させる他の多くの例が利用されることが認められる。
[0048] 他の例について、図1を再度参照する。追跡システム14は、他のアプリケーション、例えば世界固定表示モード44および本体固定表示モード48を利用する拡張現実アプリケーション64に推定品質レベルを供給する。アプリケーションは、次いで、HMDデバイス36を介してユーザ50に推定品質レベルのフィードバック42を伝える。例えば、拡張現実アプリケーション64は、アプリケーション・プログラミング・インタフェース(API)を介して追跡システム14に関与し、世界固定表示モード44の利用可能性および/または推定品質に関して追跡システム14に問い合わせる。問い合わせへの応答に基づくことで、拡張現実アプリケーション64は、ユーザ50にデリバリする推定品質レベルのフィードバック42についての種別および/または手法を決定する。例えば、拡張現実アプリケーション64は、「世界固定モードは、現在利用できません」と有声化するように、HMDデバイス36を介して音声フィードバックをユーザ50に供給する。
[0049] 他の例では、世界固定表示モードを求めるユーザ入力68をユーザ50から受信するまでは、追跡システム14または他のアプリケーションは、世界固定表示モード44における推定品質レベルのフィードバック42を伝達するのを抑制してもよい。一例では、追跡システム14は、デフォルトの本体固定表示モード48で動作することができ、当該モードにある間は、世界固定モード44の推定品質レベルのフィードバック42を提供しない。ユーザ50は、次いで、世界固定表示モード44を求める手法で、要求を行う、アクションをする、または、拡張現実アプリケ−ション64との他の相互対話を行う。例えば、図6および図7を参照して、ユーザ50は世界固定表示モード44が利用可能ではない狭い廊下702から歩き、世界固定表示モード44が利用可能な部屋610に戻るのがよい。したがって、拡張現実アプリケーション64および追跡システム14は、次いで、良(Good)の推定品質レベルを示す1/4円の指標を表示する。
[0050] ユーザ入力68の多くの他の形態を使用して、推定品質レベルのフィードバック42の表示をトリガできることが認められる。幾らかの例では、廊下702から部屋610に向かって歩くユーザ50の前述の例のように、このようなユーザ入力68は受動的であってもよい。他の例では、ユーザ入力68は、世界固定表示モード44を利用する拡張現実アプリケーション64を起動させる指示を言葉で話すユーザ50のように、明示的なものであってもよい。
[0051] これより図8に戻る。本開示の実施形態によるHMDデバイス36の例示の追跡システム14の概要図が提供される。前述したように、追跡システム14は、HMDデバイス36の推定ポーズ54を、世界固定表示モード44における推定品質レベル804と共に決定するように構成される。更に詳細には、追跡システム14は、HMDデバイス36からのセンサ・データ46を利用して、HMDデバイスの実際のポーズについてフィルタされた実行(running)推定を供給することができる。これらの推定ポーズ54を使用して、世界固定位置に仮想オブジェクト32を表示することができる。推定品質レベル804のフィードバック42は、HMDデバイス86を有するユーザ50に伝達される。
[0052] 追跡システム14は、HMDデバイス36および/またはコンピューティング・デバイス22に配置される複数のセンサ808からセンサ・データ46を受信する。センサ・データ46は、6自由度(例えば、x、y、z、ピッチ、ロール、ヨー)の位置および方向情報を供給する。例えば、複数のセンサ808は、前述した光学センサおよびポーズ・センサを含む。図9を参照して以下に更に詳細に説明するように、センサ808は、好適な如何なる数または組み合わせの複数のセンサを含む。複数のセンサは、HMDデバイス36の位置、方向、および/または他の移動特性を最大6自由度で決定する。
[0053] センサ・データ46は、並行に動作できる2つの別個の追跡フィルタを含む追跡およびマッピング・モジュール812に提供される。6DOF追跡フィルタ816は、推定ポーズ54を出力するように構成される。推定ポーズ54は、センサ・データ46に基づく6自由度のHMDデバイスの位置および方向を含む。6DOF追跡フィルタ816の推定ポーズ54は、高い正確性および精度を有する回転および並進のポーズ・データを表す。ポーズ・データは通常、可視光または他の光の情報に依拠する。特に、HMDデバイス36の並進のポーズ/位置は、実世界環境における光学フィードバックに基づいて当該環境の他の実世界オブジェクト34に対して推定する。
[0054] 更に、6DOF追跡フィルタ816は、実世界環境を仮想モデルにマップして、他の実世界オブジェクト34に対するHMDデバイス36の位置を決定することができる。更に、実施形態の中には、光情報をポーズ・センサからの情報と組み合わせて、HMDデバイス36の回転ポーズ/方向を推定することができるものもある。前述したように、可視光への依拠に因り、6DOF追跡フィルタ816は、HMDデバイス36が位置する物理環境の環境条件に強く依存する。
[0055] 3DOF追跡フィルタ820は、ポーズ・センサのセンサ・データ46に基づいて、3自由度でHMD装置36の方向に対応する推定ポーズ54を出力するように構成される。実施形態の中には、3DOF追跡フィルタ820の推定ポーズ54は、可視光または他の光情報に依拠しない各種センサからのセンサ情報に基づくものもある。
[0056] 6自由度および/または3自由度におけるHMDデバイス36の推定ポーズ54は、ポーズ・フィルタ824に供給される。ポーズ・フィルタ824は、推定ポーズ54を分析し、および/または調整するように構成される。例えば、センサ808からの画像データは、1つ以上の特性(シーンにおける低いテクスチャ、即ち画像ぼけ)を有し、画像の特徴における推定位置の不正確性を発生させる。ポーズ・フィルタ824は、このようなデータおよび他のセンサ・データ46を分析して、このようなデータにおける1つ以上の入力不確定度値830を決定することができる。
[0057] 前述したように、実世界環境における様々な要因および条件は、センサ・データと関連付けられる不確定度に影響する。このような要因は、これに限定されないが、実世界オブジェクト、シーン深度の照度、シーン・モーション、および特徴密度を含む。例えば、多数の実世界オブジェクトおよび/または移動中の人々を含むシーンは、シーンの画像データと関連した不確定度を高めることになり、従って、信頼性が高い6DOFの追跡をより困難なものにすることがある。
[0058] 一例では、加速度計からの加速度データを分析して、並進コンポーネントの入力不確定度値830を決定することができる。加えて、ジャイロスコープからの回転データを分析して、回転コンポーネントの入力不確定度値830を決定することができる。ポーズ・フィルタ824は、位置的(geometric)平均、ハーモニック手段、またはこのような入力不確定度値830を決定する如何なる他の好適な方法をも利用する。幾らかの例では、各入力、即ち範囲(dimension)についての不確定度は、当該範囲の共分散として表現されるものもある。更に、ポーズ・フィルタ824は、任意の好適な数の範囲で不確定度を分析する。
[0059] 入力不確定度値830は、世界固定表示モードの体験における品質推定レベル804にマップされる。例えば、6自由度でのポーズ推定の不確定度は、3つの回転コンポーネントおよび3つの並進コンポーネントを備える6×6の共分散マトリックスによって表現されてもよい。マトリックスの対角線は、3つの回転角度の各々および3つの並進方向の各々を表す個々の軸のそれぞれの不確定度を表す。
[0060] 様々な共分散を圧壊して、単一の共分散を与えることができる。当該単一の共分散は、品質レベル閾値838と比較され、また、複数の品質レベル842と比較されて、推定品質レベル804を与えることができる。このような推定品質レベル804は、6×6DOFの世界固定表示モードの体験における推定品質を表す。追跡システム14は、次いで、推定品質レベル804を、前述したように、ユーザ50へのフィードバック42の形態で出力する。
[0061] 図8に示すように、幾らかの例では、追跡システム14によって出力される推定ポーズ54は、ポーズ・フィルタ824へとループバックされる。このような手法で、ポーズ・フィルタ824は推定ポーズ54を分析して、ポーズ(1または複数)の1つ以上のポーズ不確定度値850を決定することができる。入力確定度値830を決定するのと同様に、共分散マトリックスが推定ポーズ54について生成され、所与の推定ポーズ54についてポーズ不確定度値850を決定することができる。
[0062] 幾らかの例では、入力不確定度値830およびポーズ不確定度値850が計算され、推定品質レベル804にマップされるものもある。他の例では、入力不確定度値830が計算され、推定品質レベル804にマップされる一方で、ポーズ不確定度値850は決定されず、即ち利用されないものもある。これらの例は、例えば、3DOF追跡フィルタ820が動作し、6DOF追跡フィルタ816が動作しないときに利用される。他の例では、ポーズ不確定度値850が計算され、推定品質レベル804にマップされる一方で、入力不確定度値830は決定されず、即ち利用されないものもある。
[0063] 入力不確定度値830、ポーズ不確定度値850、推定ポーズ54、および推定品質レベル804は、本開示の範囲を逸脱することなく、好適な如何なる手法で決定されることが理解される。例えば、追跡およびマッピング・モジュール812は、tick-by-tickのセンサ・データ入力を追跡システム14で監視して、推定ポーズ54および推定品質レベル834をより長い時間期間にわたり評価および調整することができる。
[0064] 実施形態の中には、追跡システムは、ハードウェアで実装(例えば、様々な論理ブロックまたはパイプ・ステージを含む処理パイプライン)されるものもある。実施形態の中には、処理システムは、プロセッサによって実行されるソフトウェア命令として実装されるものもある。実施形態の中には、追跡システムは、ハードウェアおよびソフトウェアの組み合わせとして実装されるものもある。
[0065] これより図9を参照して、透過型ディスプレイ54を有する一組のウェアラブル・グラスの形態のHMDデバイス900を示す。他の例では、HMDデバイス900は、透過型、半透過型または非透過型のディスプレイがビューアの片目または両目の前で支持される他の好適な形態としてもよいことが認められる。図1から図7に示されるHMDデバイスは、以下により詳細に説明するHMDデバイス900の形態、または他の如何なる好適なHMDデバイスの形態としてもよいことが認められる。
[0066] HMDデバイス900は表示システム902、およびシースルー、即ち透過型のディスプレイ904を含み、ホログラフィック・オブジェクトのような画像がHMDデバイスの装着者の両目に届けられることになるのを可能にする。透過型ディスプレイ904は、当該透過型ディスプレイを通じて物理環境をビューしている装着者に対し、実世界の物理環境の外観を視覚的に拡張させるように構成される。例えば、透過型ディスプレイを通じて提示されるグラフィック・コンテンツ(例えば、色および明るさをそれぞれ有する1つ以上の各画素)によって、物理環境の外観を拡張し、拡張現実環境を生成する。
[0067] 透過型ディスプレイ904はまた、装着者が、物理的な実世界環境48において、物理的な現実世界の物理オブジェクトを1つ以上の部分的な透過画素を通じてビューするのを可能にするようにも構成される。1つ以上の部分的な透過画素は、仮想オブジェクト表現を表示している。図9に示されるように、一例では、透過型ディスプレイ904は、レンズ906(例えば、シースルーの有機発光ダイオード(OLED; Organic Light-Emitting Diode)ディスプレイ)内に位置する画像生成エレメントを含む。他の例として、透過型ディスプレイ904は、レンズ906の端部に光変調器を含む。当該例では、レンズ906は、光変調器から装着者の両目に光を届けるための光ガイドとして供する。当該光ガイドは、装着者がビューしている物理環境内に位置する3Dホログラフィー画像を装着者が知覚するのを可能にするのと共に、物理環境にある物理オブジェクトを装着者がビューするのを可能にする。このようにして、拡張現実環境44を生成する。
[0068] HMDデバイス900はまた、様々なセンサおよび関連のシステムも含む。例えば、HMDデバイス900は視線追跡(gaze tracking)システム908を含む。視線追跡システム908は、装着者の目から追跡データの形態で画像データを取得するように構成される画像センサを含む。装着者が当該情報を取得および使用することに同意した場合は、視線追跡システム908は、当該情報を使用して、装着者の目の位置および/または動きを追跡することができる。
[0069] 一例では、視線追跡システム908は、装着者の各目における凝視の方向を検出するように構成される視線検出サブシステムを含む。凝視検出サブシステムは、如何なる好適な手法でも装着者の両目の各々における視線方向を決定するように構成される。例えば、視線検出サブシステムは、1つ以上の光ソース(例えば赤外線の光ソース)を備え、光の輝きにより、ユーザの各目の角膜から反射させるように構成される。1つ以上の画像センサは、次いで、装着者の両目の画像をキャプチャするように構成される。
[0070] 輝きの画像および瞳の画像は、画像センサから収集される画像データから決定され、各目の光軸を決定するのに使用することができる。当該情報を使用して、視線追跡システム908は次いで、装着者が凝視する方向を決定することができる。視線追跡システム908は、これに追加してまたは代替として、どの物理的または仮想的オブジェクトを装着者が凝視しているかを決定することができる。当該視線追跡データは次いで、HMDデバイス900に供給される。
[0071] なお、視線追跡システム908は光源および画像センサについて如何なる好適な数および配置を有することが理解される。例えば、図9を参照して、HMDデバイス900の視線追跡システム908は少なくとも1つの内向き正面センサ910を利用することができる。
[0072] HMDデバイス900はまた、物理環境48から物理環境データを受信するセンサ・システムを含む。例えば、HMDデバイス900は、また、頭部追跡システム912を含む。頭部追跡システム912は、1つ以上のポーズ・センサ(例えば、HMDデバイス900のポーズ・センサ914)を利用して、頭部ポーズ・データをキャプチャし、これにより、位置追跡、方向/位置および方向感知、並びに/または装着者の頭部の動き検出を可能にする。したがって、前述したように、図8の追跡システム14は、ポーズ・センサ914からセンサ・データを受信する。ポーズ・センサ914は、HMDデバイスの方向が3自由度で推定されるのを可能にし、またはHMDデバイスの位置および方向が6自由度で推定されるのを可能にする。
[0073] 一例では、頭部追跡システム912は、3軸、即ち3自由度の位置センサ・システムとして構成される慣性測定ユニット(IMU)を備える。当該例示の位置センサ・システムは、例えば、3つのジャイロスコープを含むことができ、3本の直交軸の周りの3D空間内のHMDデバイス900の方向(例えば、x、y、z、またはロール、ピッチ、ヨー)の変化を示す、即ち測定することができる。IMUのセンサ信号から導出される方向は、透過型ディスプレイ904を介して、本体固定位置を有する1つ以上の仮想オブジェクトを表示するのに使用される。ここでは、各仮想オブジェクトの位置は、シー・スルー・ディスプレイを有する装着者に対して固定されているように見える。また、各仮想オブジェクトの位置は、物理環境の実世界オブジェクトに対して移動可能なように見える。
[0074] 他の例では、頭部追跡システム912は、6軸、即ち6自由度の位置センサ・システムとして構成されるIMUを備える。当該例示の位置センサ・システムは、3つの加速度計と3つのGスコープを含み、3本の直交軸に沿うHMDデバイス900の位置の変化、および3本の直交軸のまわりのデバイス方向の変化を示す、即ち測定する。
[0075] 頭部追跡システム912はまた、他の好適な位置決め技術(例えばGPS、または他のグローバル・ナビゲーション・システム)をサポートする。更に、特定の例の位置センサ・システムについて説明してきたが、他の好適な如何なる位置センサ・システムを用いてもよいことも認められる。例えば、装着者に搭載されるセンサ、および/またはこれに限定されないが、如何なる数のジャイロスコープ、加速度計、慣性測定ユニット、GPSデバイス、気圧計、磁力計、カメラ(可視光カメラ、赤外線カメラ、飛行時間(time-of-flight)深度カメラ、構造化した光深度カメラ等)、通信デバイス等を含む装着者の外部のセンサの如何なる組み合わせからのセンサ情報に基づいて頭部のポーズおよび/または移動のデータを決定する。
[0076] 幾らかの例では、HMDデバイス900は、該HMDデバイス900の光センサ916のような、1つ以上の外向き正面センサを利用する光センサ・システムを含んで、画像データをキャプチャするものもある。外向き正面センサ(1または複数)は、ジャスチャ・ベースの入力、または装着者、即ち人により遂行される他の動きのような、その視野内の動き、または視野内の物理オブジェクトを検出する。外向きの正面センサ(1または複数)はまた、物理環境および該環境内の物理オブジェクトからの2D画像情報および深度情報をキャプチャする。例えば、外向きの正面センサ(1または複数)は、深度カメラ、可視光カメラ、赤外線カメラ、および/または位置追跡カメラを含む。
[0077] 光センサ・システムは、深度追跡システムを含む。深度追跡システムは、1つ以上の深度カメラを介して深度追跡データを生成する。一例では、各深度カメラは、立体的視覚システムの左右のカメラを含む。これら深度カメラの1つ以上からの時間分解画像は、相互に登録し、および/または可視スペクトル・カメラのような他の光センサからの画像に登録する。また、深度分解映像を与えるように結合する。
[0078] 他の例では、構造化した光深度カメラは、構造化した赤外線照明を投射するように、また、照明が投射されるシーンから反射される照度を画像化するように構成する。シーンの深度マップを、様々な領域の画像化した風景における隣接特徴間の間隔に基づいて構成する。更に他の例では、深度カメラは、パルス化された赤外線照明をシーンに投射して、シーンから反射される照明を検出するように構成される飛行時間深度カメラの形態を採るものもある。例えば、照度は、赤外線ソース918によって供給することができる。他の如何なる好適な深度カメラが本開示の範囲内で使用され得ることが認められる。
[0079] 外向き正面カメラ・センサ(1または複数)は、HMDデバイスの装着者が置かれた物理環境の画像をキャプチャする。HMDデバイス900に関し、一例では、拡張現実表示プログラムは、HMDデバイスを有する装着者を取り囲んでいる物理環境をモデル化する仮想環境を生成するために、当該キャプチャされた画像を使用する3Dモデリング・システムを含む。幾らかの実施形態では、光センサ916はIMUと協働して、HMDデバイス900の位置および方向を6自由度で決定することができるものもある。このような一および方向の情報を使用して、世界固定位置を有する1つ以上の仮想オブジェクトを、透過型ディスプレイを介して表示することができる。ここでは、各仮想オブジェクトの位置は、透過型ディスプレイを通じてビュー可能な実世界オブジェクトに対して固定されているように見え、また、各仮想オブジェクトの位置はシー・スルー・ディスプレイの装着者に対して移動可能なように見える。
[0080] HMDデバイス900はまた、マイクロフォン920のような1つ以上のマイクロフォンを含むマイクロフォン・システムも含んでもよく、音響データをキャプチャすることができる。他の例では、音響は、HMDデバイス900のスピーカ922のような1つ以上のスピーカを介して、装着者に提示する。
[0081] HMDデバイス900はまた、コントローラ924のようなコントローラを含む。コントローラ924は、論理マシンおよびストレージ・マシンを含むことができ、以下に、図11を参照してより詳述するように、HMDデバイス900の様々なセンサおよびシステムと通信する。一例では、ストレージ・マシンは、論理マシンによって実行可能な命令を含み、センサから信号入力を受信し、HDMデバイス900のポーズを決定し、そして、透過型ディスプレイ904を通じて表示されるコンテンツの表示プロパティを調整することができる。
[0082] 図10Aおよび図10Bは、本開示の実施形態による世界固定表示モードにおける推定品質レベルを、HMDデバイスを有するユーザに伝達するための方法1000に関するフローチャートを示す。以下の方法1000の説明は、図1から図9に前述し、および図示した拡張現実システム10のソフトウェアおよびハードウェアのコンポーネントを参照して提供される。方法1000はまた、好適な他のハードウェアおよびソフトウェアのコンポーネントを使用して他のコンテキストで実行することもできることが認められる。
[0083] 図10Aを参照する。1004では、本方法1000は、ヘッド・マウント型ディスプレイ・デバイスが有する1つ以上のセンサからセンサ・データを受信することを含む。1008では、本方法1000は、センサ・データを使用して、ヘッド・マウント型ディスプレイ・デバイスの推定ポーズを決定することを含む。1012では、本方法1000は、推定ポーズを使用して、世界固定表示モードまたは本体固定表示モードの何れかでヘッド・マウント型ディスプレイ・デバイスを介して1つ以上の仮想オブジェクトを表示することを含む。1016では、本方法1000は、センサ・データの入力不確定度値および推定ポーズのポーズ不確定度値の1つ以上を決定することを含む。1020では、入力不確定度値およびポーズ不確定度値の1つ以上を決定することが、実世界オブジェクトの照度、シーン深度、シーン・モーション、特徴密度、ユーザの髪、ユーザの手、およびユーザが着用した帽子の1つ以上について画像データを分析することを含む。
[0084] 1024では、本方法1000は、入力不確定度値およびポーズ不確定度値の1つ以上を、世界固定表示モードにおける前記推定品質レベルにマップすることを含む。1024では、本方法1000は、推定品質レベルのフィードバックを、ヘッド・マウント型ディスプレイ・デバイスを介してユーザに伝達することを含む。1032では、本方法1000は、ヘッド・マウント型ディスプレイ・デバイスを介して推定品質レベルについて1つ以上のグラフ図を表示することを含む。1036では、本方法1000は、ヘッド・マウント型ディスプレイ・デバイスを通じてビュー可能な視界の外観を変更することによって、推定品質レベルのフィードバックを伝達することを含む。1040では、本方法1000は、1つ以上の仮想オブジェクトの外観を変更することによって、推定品質レベルのフィードバックを伝達することを含む。
[0085] 1044では、本方法1000は、世界固定表示モードおよび本体固定表示モードを利用するアプリケーションに推定品質レベルを供給することによって、推定品質レベルのフィードバックを伝達することを含む。1048では、本方法1000は、アプリケーションおよびヘッド・マウント型ディスプレイ・デバイスを通じて、推定品質レベルのフィードバックをユーザに伝える。1052では、本方法1000は、世界固定表示モードを求めるユーザ入力を受信するまで、推定品質レベルのフィードバックを伝達するのを抑制することを含む。
[0086] これより図10Bを参照する。1056では、本方法10000は、推定品質レベルが品質レベル閾値未満であるときに、世界固定表示モードを無効化することを含む。1060では、本方法1000は、入力不確定度値を決定し、ポーズ不確定度値を決定しないことを含む。1064では、本方法1000は、入力不確定度値を推定品質レベルにマップすることを含む。1068では、本方法1000は、ポーズ不確定度値を決定し、入力不確定度値を決定しないことを含む。1027では、本方法1000は、ポーズ不確定度値を推定品質レベルにマップすることを含む。
[0087] 前述した方法1000は、HDMデバイスによって供給されるフィードバックの1つ以上の形態を介して世界ロック表示モードにおける推定品質レベルをユーザに通告(apprise)するために実行される。当該手法では、ユーザは、よりリッチでより情報に富んだ拡張現実ユーザ・エクスペリエンスを通告される。
[0088] 一例として方法1000が提供され、これは限定を意味するものではないことが認められよう。従って、本方法1000が図10Aおよび図10Bに示されるものに付加的および/または代替のステップを含むことができることが理解される。更に、方法1000は如何なる好適な順序で実行されてもよいことが理解される。更にまた、1つ以上のステップが本開示の範囲を逸脱することなく方法1000から省略されてもよいことが理解される。
[0089] 図11は、以上で説明した方法およびプロセスの1つ以上を実行することができるコンピューティング・システム1100の非限定的な実施形態を模式的に示す。コンピューティング・システム1100は、簡略化した形態で示される。コンピューティング・システム700は、HMDデバイスと協働する1つ以上のデバイス(例えば、パーソナル・コンピュータ、サーバ・コンピュータ、タブレット・コンピュータ、家庭娯楽用コンピュータ、ネットワーク・コンピューティング・デバイス、ゲーミング・デバイス、モバイル・コンピューティング・デバイス、モバイル通信デバイス(例えば、スマートフォン)、および/または他のコンピューティング・デバイス等)の形態を採る。
[0090] コンピューティング・システム1100は、論理マシン1102およびストレージ・マシン1104を含む。コンピューティング・システム1100は、任意に、表示サブシステム1106、入力サブシステム1108、通信サブシステム1110、および/または図11には示されていない他のコンポーネントも含む。コンピューティング・システム1100はまた、コンピュータ可読媒体を、コンピュータ可読ストレージ媒体およびコンピュータ可読通信媒体を含むコンピュータ可読媒体と共に含む。更に、実施形態の中には、本明細書で説明した方法およびプロセスが、コンピュータ・アプリケーション、コンピュータ・サービス、コンピュータAPI、コンピュータ・ライブラリ、および/または、1つ以上のコンピュータを含むコンピューティング・システムにおける他のコンピュータ・プログラム製品として実装するものもある。
[0091] 論理サブシステム1102は、命令を実行するように構成される1つ以上の物理デバイスを含む。例えば、論理マシンは、1つ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構造の一部である命令を実行するように構成される。当該命令は、タスクを実行する、データ・タイプを実装する、1つ以上のコンポーネントの状態を移行させる、技術的効果を達成する、またはそれ以外で所望の結果に到達するように実装される。
[0092] 論理マシンは、ソフトウェア命令を実行するように構成される1つ以上のプロセッサを含む。加えてまたは代わりに、論理マシンは、ハードウェアまたはファームウェア命令を実行するように構成される1つ以上のハードウェアまたはファームウェア論理マシンも含む。論理サブシステムのプロセッサは、単一コアまたはマルチコアであってもよく、そこで実行されるプログラムは、並列処理、または分散処理に合わせて構成される。論理マシンの個々のコンポーネントは、任意に、2つ以上の別個のデバイス間で分散し、これらのデバイスは、遠隔に配置すること、および/または調整処理(coordinated processing)に合わせて構成されてもよい。論理マシンの1つ以上の態様は、遠隔にアクセス可能でクラウド・コンピューティング構成で構成されたネットワーク化されたコンピューティング・デバイスによって仮想化および実行されてもよい。
[0093] ストレージ・マシン1104は、本明細書において説明した方法およびプロセスを実装するために、論理マシンによって実行可能なマシン可読命令を保持するように構成される1つ以上の物理的デバイスを含む。当該方法およびプロセスが実装されると、例えば、異なるデータを保持するために、ストレージ・マシン1104の状態を移行する。
[0094] ストレージ・サブシステム1104は、リムーバブル媒体および/または内蔵デバイスを含む。ストレージ・マシン1104は、とりわけ、光メモリ・デバイス(例えば、CD、DVD、HD−DVD、ブルーレイ・ディスク等)、半導体メモリ・デバイス(例えば、RAM、EPROM、EEPROM等)、および/または磁気メモリ・デバイス(例えば、ハード・ディスク・ドライブ、フロッピー・ディスク・ドライブ、テープ・ドライブ、MRAM等)を含む。ストレージ・マシン1104は、揮発性、不揮発性、ダイナミック、スタティック、読み取り/書き込み、読み取り専用、ランダム・アクセス、順次アクセス、位置アドレス可能、ファイル・アドレス可能、および/またはコンテンツ・アクセス可能デバイスを含む。
[0095] ストレージ・マシン1104は、1つ以上の物理的、永続的デバイスを含むことが認められる。しかしながら、本明細書において説明した命令の態様は、代替として、通信媒体(例えば、電磁信号、光信号等)によって伝搬させる。通信媒体は、有限期間にわたり物理的デバイスによって保持されるのではない。更にまた、データおよび/または本開示に関連する他の形態の情報は、コンピュータ可読通信媒体を通じて純粋な信号によって伝搬させてもよい。
[0096] 論理マシン1102およびストレージ・マシン1104の態様は、1つ以上のハードウェア論理コンポーネントに統合されてもよい。当該ハードウェア論理コンポーネントは、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定プログラムおよび特定アプリケーションの集積回路(PASIC/ASIC)、特定プログラムおよび特定アプリケーションの標準製品(PSSP/ASSP)、チップ上システム(SOC)システム、ならびに複雑なプログラマブル論理デバイス(CPLD)を例えば含む。
[0097] 表示サブシステム1106が含まれる場合、ストレージ・マシン1104によって保持されているデータの視覚表現を提示するために用いる。この視覚表現は、グラフィカル・ユーザ・インタフェース(GUI)の形態を採る。前述した方法およびプロセスがストレージ・マシンに保持されているデータを変化させ、したがってストレージ・マシンの状態を遷移させると、表示サブシステム1106の状態も同様に、基礎データの変化を視覚的に表すために遷移させる。表示サブシステム1106は、図9のHMDデバイス900が有する透過型ディスプレイ904のような如何なるタイプの技術を仮想的に利用する1つ以上の表示デバイスを含む。このような表示デバイスは、共有筐体の中に論理マシン1102および/またはストレージ・マシン1104と組み合わせてもよい。或いは、このような表示デバイスは周辺機器の表示デバイスであってもよい。
[0098] 入力サブシステム1108が含まれる場合、キーボード、マウス、タッチ・スクリーン、またはゲーム・コントローラのような1つ以上のユーザ入力デバイスを備え、またはこれらとインタフェースしてもよい。実施形態の中には、入力サブシステムが、選択された自然ユーザ入力(NUI)コンポーネント(componentry)を備え、またはこれとインタフェースすることができる場合もある。このようなコンポーネントは、統合または周辺機器のものであってもよく、入力動作の変換(transduction)および/または処理は、オン・ボードまたはオフ・ボードで扱う。NUIコンポーネントの例には、音声(speech and/or voice)認識用マイクロフォンと、機械映像および/またはジェスチャ認識用の赤外線カメラ、カラー・カメラ、ステレオ・カメラ、および/または深度カメラと、動き検出および/または意思認識のためのヘッド・トラッキング装置、アイ・トラッキング装置、加速度計および/またはジャイロスコープと、脳活動評価のための電界検知コンポーネントと、図9の頭部追跡システム912に関して前述した如何なるセンサと、および/または他の如何なる好適なセンサと、を含む。
[0099] 通信サブシステム1110が含まれる場合、コンピューティング・システム1100を1つ以上の他のコンピューティング・デバイスと通信可能に結合するように構成される。通信サブシステム1110は、1つ以上の異なる通信プロトコルと互換性のある有線通信デバイスおよび/または無線通信デバイスを含む。非限定的な例として、通信サブシステムは、無線電話ネットワーク、または有線若しくは無線のローカル若しくはワイド・エリア・ネットワークを通じた通信に合わせて構成される。実施形態の中には、通信サブシステムが、コンピューティング・サブシステム1100に、インターネットのようなネットワークを通じて他のデバイスとの間でメッセージを送信および/または受信するのを可能にするとよい場合もある。
[0100] 「プログラム」および「モジュール」という用語は、1つ以上の特定の機能を実行するように実装された拡張現実システム10の一態様を説明するために使用することがある。場合によっては、プログラムまたはモジュールは、ストレージ・マシン1104によって保持される命令を実行する論理マシン1102によってインスタンス化することもある。異なるプログラムおよびモジュールを同一のアプリケーション、サービス、コード・ブロック、オブジェクト、ライブラリ、ルーチン、API、関数等からインスタンス化できることが理解される。同様に、同一のプログラムまたはモジュールを異なるアプリケーション、サービス、コード・ブロック、オブジェクト、ルーチン、API、関数等によってインスタンス化することもある。「プログラム」および「モジュール」という用語は、実行可能ファイル、データ・ファイル、ライブラリ、ドライバ、スクリプト、データベース・レコード等のそれぞれまたは群を含む。
[00101] 本明細書において説明した構成および/または手法は、性質上例示であること、そして多数の変形が可能であることから、これら具体的な実施形態または例は、限定的な意味で捉えてはならないことが理解される。本明細書において説明した具体的なルーチンまたは方法は、如何なる数の処理方策の内1つ以上を表す。したがって、図示した種々の動作(act)は、図示したシーケンスで実行すること、他のシーケンスで実行すること、並列に実行することもでき、あるいは省略することもできる。同様に、以上で説明したプロセスの順序も変更することができる。
[00102] 本開示の主題は、種々のプロセス、システム、および構成、ならびにその他の特徴、機能、動作、および/または本明細書において開示したプロパティ、更にはそのいずれかの均等物および全ての均等物の、全ての新規で非自明なコンビネーションおよびサブコンビネーションを含む。

Claims (10)

  1. ヘッド・マウント型ディスプレイ・デバイスのユーザに、世界固定表示モードにおける推定品質レベルを伝達するための方法であって、1つ以上の仮想オブジェクトの位置が前記ヘッド・マウント型ディスプレイ・デバイスを通じてビュー可能な実世界オブジェクトに対して固定されているように見え、当該方法が、
    前記ヘッド・マウント型ディスプレイ・デバイスが有する1つ以上のセンサからセンサ・データを受信するステップと、
    前記センサ・データを使用して、前記ヘッド・マウント型ディスプレイ・デバイスの推定ポーズを決定するステップと、
    前記推定ポーズを使用して、前記ヘッド・マウント型ディスプレイ・デバイスを介して前記世界固定表示モードまたは本体固定表示モードの何れかで前記1つ以上の仮想オブジェクトを表示するステップであって、前記本体固定表示モードにおいて各前記仮想オブジェクトの位置が前記ヘッド・マウント型ディスプレイ・デバイスのユーザに対して固定されているように見える、ステップと、
    前記センサ・データの入力不確定度値および前記推定ポーズのポーズ不確定度値の1つ以上を決定するステップと、
    前記入力不確定度値および前記ポーズ不確定度値の1つ以上を、前記世界固定表示モードにおける前記推定品質レベルにマップするステップと、
    前記推定品質レベルのフィードバックを、前記ヘッド・マウント型ディスプレイ・デバイスを介して前記ユーザに伝達するステップと、
    を含む、方法。
  2. 請求項1記載の方法において、前記推定品質レベルのフィードバックを伝達するステップが、更に、前記ヘッド・マウント型ディスプレイ・デバイスを介して前記推定品質レベルについて1つ以上のグラフ図を表示するステップを含む、方法。
  3. 請求項2記載の方法において、前記1つ以上のグラフ図を表示するステップが、前記ヘッド・マウント型ディスプレイ・デバイスを通じてビュー可能な視界の外観を変更するステップを含む、方法。
  4. 請求項2記載の方法において、前記1つ以上のグラフ図を表示するステップが、前記1つ以上の仮想オブジェクトの外観を変更するステップを含む、方法。
  5. 請求項1記載の方法において、前記推定品質レベルのフィードバックを伝達するステップが、更に、
    前記世界固定表示モードおよび前記本体固定表示モードを利用するアプリケーションに前記推定品質レベルを供給するステップと、
    前記アプリケーションおよび前記ヘッド・マウント型ディスプレイ・デバイスを通じて、前記推定品質レベルのフィードバックを前記ユーザに伝えるステップと、
    を含む、方法。
  6. コンピューティング・デバイスに操作可能に接続されるヘッド・マウント型ディスプレイ・デバイスであって、
    前記コンピューティング・デバイスが有するプロセッサによって実行される追跡システムであって、
    当該ヘッド・マウント型ディスプレイ・デバイスが有する1つ以上のセンサからセンサ・データを受信し、
    前記センサ・データを使用して、当該ヘッド・マウント型ディスプレイ・デバイスの推定ポーズを決定し、
    前記センサ・データの入力不確定度値および前記推定ポーズのポーズ不確定度値の1つ以上を決定し、
    前記入力不確定度値および前記ポーズ不確定度値の1つ以上を、世界固定表示モードにおける推定品質レベルにマップし、前記世界固定表示モードにおいて1つ以上の仮想オブジェクトの位置が前記ヘッド・マウント型ディスプレイ・デバイスを通じてビュー可能な実世界オブジェクトに対して固定されているように見え、
    前記推定品質レベルのフィードバックを、前記ヘッド・マウント型ディスプレイ・デバイスを介して前記ユーザに伝達する、
    ように構成される追跡システムと、
    前記コンピューティング・デバイスが有するプロセッサによって実行される表示プログラムであって、
    前記推定ポーズを使用して、前記世界固定表示モードまたは本体固定表示モードの何れかで前記1つ以上の仮想オブジェクトを表示し、前記本体固定表示モードにおいて各前記仮想オブジェクトの位置が前記ヘッド・マウント型ディスプレイ・デバイスのユーザに対して固定されているように見える、表示プログラムと、
    を備える、ヘッド・マウント型ディスプレイ・デバイス。
  7. 請求項6記載のヘッド・マウント型ディスプレイ・デバイスにおいて、前記追跡システムが、前記世界固定表示モードを求めるユーザ入力を受信するまで、前記推定品質レベルのフィードバックを伝達するのを抑制することにより、前記フィードバックを伝達するように構成される、ヘッド・マウント型ディスプレイ・デバイス。
  8. 請求項6記載のヘッド・マウント型ディスプレイ・デバイスにおいて、前記追跡システムが、更に、前記推定品質レベルが品質レベル閾値未満であるときに、前記世界固定表示モードを無効化するように構成される、ヘッド・マウント型ディスプレイ・デバイス。
  9. 請求項6記載のヘッド・マウント型ディスプレイ・デバイスにおいて、前記追跡システムが、
    前記ポーズ不確定度値を決定し、前記入力不確定度値を決定せず、
    前記ポーズ不確定度値を前記推定品質レベルにマップする、
    ように構成される、ヘッド・マウント型ディスプレイ・デバイス。
  10. 請求項6記載のヘッド・マウント型ディスプレイ・デバイスにおいて、前記追跡システムが、
    前記入力不確定度値および前記ポーズ不確定度値の両方を決定し、
    前記入力不確定度値および前記ポーズ不確定度値の両方を前記推定品質レベルにマップする、
    ように構成される、ヘッド・マウント型ディスプレイ・デバイス。
JP2017510437A 2014-05-01 2015-04-30 世界固定表示品質のフィードバック Pending JP2017516250A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/267,625 US9430038B2 (en) 2014-05-01 2014-05-01 World-locked display quality feedback
US14/267,625 2014-05-01
PCT/US2015/028382 WO2015168343A1 (en) 2014-05-01 2015-04-30 World-locked display quality feedback

Publications (1)

Publication Number Publication Date
JP2017516250A true JP2017516250A (ja) 2017-06-15

Family

ID=53181343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017510437A Pending JP2017516250A (ja) 2014-05-01 2015-04-30 世界固定表示品質のフィードバック

Country Status (11)

Country Link
US (1) US9430038B2 (ja)
EP (1) EP3137976B1 (ja)
JP (1) JP2017516250A (ja)
KR (1) KR20160148557A (ja)
CN (1) CN106255939B (ja)
AU (1) AU2015253096A1 (ja)
BR (1) BR112016024343A2 (ja)
CA (1) CA2946582A1 (ja)
MX (1) MX2016014098A (ja)
RU (1) RU2016142613A (ja)
WO (1) WO2015168343A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107742512A (zh) * 2017-11-07 2018-02-27 北京京东方光电科技有限公司 一种显示驱动电路、其驱动方法及显示装置
JP2021527247A (ja) * 2018-06-05 2021-10-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 空間3d環境へのコンテンツのマッチング
JP2022518885A (ja) * 2019-02-01 2022-03-17 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 適応的自由度(dof)選択を有する人工現実システム

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5724544B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
KR102551239B1 (ko) 2015-09-02 2023-07-05 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 확장된 장면에서의 내비게이션을 용이하게 하기 위한 방법, 장치 및 시스템
US10304247B2 (en) * 2015-12-09 2019-05-28 Microsoft Technology Licensing, Llc Third party holographic portal
US10218882B2 (en) * 2015-12-31 2019-02-26 Microsoft Technology Licensing, Llc Feedback for object pose tracker
US20190019308A1 (en) * 2016-01-12 2019-01-17 Suncorporation Image display device
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US10373381B2 (en) * 2016-03-30 2019-08-06 Microsoft Technology Licensing, Llc Virtual object manipulation within physical environment
US10979843B2 (en) * 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
US10572005B2 (en) * 2016-07-29 2020-02-25 Microsoft Technology Licensing, Llc Private communication with gazing
EP3943888A1 (en) 2016-08-04 2022-01-26 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10440240B2 (en) * 2016-09-30 2019-10-08 Sony Interactive Entertainment Inc. Systems and methods for reducing an effect of occlusion of a tracker by people
GB2555838A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
KR102633595B1 (ko) * 2016-11-21 2024-02-05 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US10438399B2 (en) * 2017-02-10 2019-10-08 Sony Interactive Entertainment LLC Paired local and global user interfaces for an improved augmented reality experience
EP3650811A3 (en) * 2017-03-15 2020-09-16 Essilor International Method and system for determining an environment map of a wearer of an active head mounted device
US10489651B2 (en) 2017-04-14 2019-11-26 Microsoft Technology Licensing, Llc Identifying a position of a marker in an environment
AU2018257776A1 (en) * 2017-04-24 2019-10-31 Magic Leap, Inc. Tracking optical flow of backscattered laser speckle patterns
EP3399398B1 (en) 2017-05-02 2022-04-13 Nokia Technologies Oy An apparatus and associated methods for presentation of spatial audio
US10394315B2 (en) * 2017-05-25 2019-08-27 Acer Incorporated Content-aware virtual reality systems and related methods
US10614308B2 (en) * 2017-05-30 2020-04-07 Edx Technologies, Inc. Augmentations based on positioning accuracy or confidence
EP3646058A4 (en) * 2017-06-30 2020-12-02 Kaarta, Inc. SYSTEMS AND METHODS FOR IMPROVING SCAN AND IMAGING
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
CN111712777B (zh) 2017-12-15 2023-11-07 瑞典爱立信有限公司 确定虚拟内容片段的内容姿态
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
EP3547080B1 (en) * 2018-03-27 2024-01-24 Nokia Technologies Oy Rendering anchored objects in a scene
US20190302903A1 (en) * 2018-03-30 2019-10-03 Microsoft Technology Licensing, Llc Six dof input device
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
EP3599544A1 (en) * 2018-07-25 2020-01-29 Nokia Technologies Oy An apparatus, method, computer program for enabling access to mediated reality content by a remote user
CN109218709B (zh) * 2018-10-18 2022-02-15 北京小米移动软件有限公司 全息内容的调整方法及装置和计算机可读存储介质
US11494953B2 (en) * 2019-07-01 2022-11-08 Microsoft Technology Licensing, Llc Adaptive user interface palette for augmented reality
US20230401798A1 (en) * 2019-08-26 2023-12-14 Apple Inc. Accessible mixed reality applications
EP4097711A4 (en) 2020-01-27 2024-01-24 Magic Leap, Inc. CURATION OF AN AUGMENTED REALITY MAP
US11302063B2 (en) 2020-07-21 2022-04-12 Facebook Technologies, Llc 3D conversations in an artificial reality environment
KR20230117639A (ko) 2020-09-25 2023-08-08 애플 인크. 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기위한 방법
US12164739B2 (en) 2020-09-25 2024-12-10 Apple Inc. Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11557102B2 (en) 2020-09-25 2023-01-17 Apple Inc. Methods for manipulating objects in an environment
WO2022146936A1 (en) 2020-12-31 2022-07-07 Sterling Labs Llc Method of grouping user interfaces in an environment
US20220229524A1 (en) * 2021-01-20 2022-07-21 Apple Inc. Methods for interacting with objects in an environment
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
EP4047558A1 (en) * 2021-02-17 2022-08-24 Miehee Ju Kim System for generating 3d mobile augmented reality
US12112009B2 (en) 2021-04-13 2024-10-08 Apple Inc. Methods for providing an immersive experience in an environment
EP4338038A1 (en) * 2021-05-14 2024-03-20 Snap Inc. Reducing startup time of augmented reality experience
US12099327B2 (en) 2021-06-28 2024-09-24 Meta Platforms Technologies, Llc Holographic calling for artificial reality
US20230045759A1 (en) * 2021-08-04 2023-02-09 Meta Platforms Technologies, Llc 3D Calling Affordances
AU2022352933A1 (en) 2021-09-25 2024-04-11 Apple Inc. Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments
US11676329B1 (en) 2022-01-07 2023-06-13 Meta Platforms Technologies, Llc Mobile device holographic calling with front and back camera capture
US12272005B2 (en) 2022-02-28 2025-04-08 Apple Inc. System and method of three-dimensional immersive applications in multi-user communication sessions
US12008160B2 (en) 2022-03-30 2024-06-11 Apple Inc. Eye tracking based selection of a user interface (UI) element based on targeting criteria
WO2023196258A1 (en) 2022-04-04 2023-10-12 Apple Inc. Methods for quick message response and dictation in a three-dimensional environment
US12200409B2 (en) 2022-08-26 2025-01-14 Meta Platforms Technologies, Llc Authentic eye region capture through artificial reality headset
US12148078B2 (en) 2022-09-16 2024-11-19 Apple Inc. System and method of spatial groups in multi-user communication sessions
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
CN119948434A (zh) * 2022-09-23 2025-05-06 苹果公司 包括环境表示的用户界面
US12249033B2 (en) 2022-09-23 2025-03-11 Apple Inc. User interfaces that include representations of the environment
US12108012B2 (en) 2023-02-27 2024-10-01 Apple Inc. System and method of managing spatial states and display modes in multi-user communication sessions
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6997882B1 (en) 2001-12-21 2006-02-14 Barron Associates, Inc. 6-DOF subject-monitoring device and method
US7774158B2 (en) 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
US7831094B2 (en) 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP5847924B2 (ja) 2011-06-08 2016-01-27 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実表現のための二次元画像取込み
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US20130083018A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Personal audio/visual system with holographic objects
EP3974041B1 (en) * 2011-10-28 2024-07-10 Magic Leap, Inc. System and method for augmented and virtual reality
HUP1200013A2 (en) 2012-01-06 2013-07-29 Leonar3Do Internat Zrt System and method for 3 dimension display
US9767720B2 (en) 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9317971B2 (en) 2012-06-29 2016-04-19 Microsoft Technology Licensing, Llc Mechanism to give holographic objects saliency in multiple spaces
CN105408937B (zh) * 2013-05-02 2018-02-13 高通股份有限公司 用于便于计算机视觉应用程序初始化的方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107742512A (zh) * 2017-11-07 2018-02-27 北京京东方光电科技有限公司 一种显示驱动电路、其驱动方法及显示装置
US10613624B2 (en) 2017-11-07 2020-04-07 Boe Technology Group Co., Ltd. Display driving circuit, driving method thereof and display device
JP2021527247A (ja) * 2018-06-05 2021-10-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 空間3d環境へのコンテンツのマッチング
JP7136931B2 (ja) 2018-06-05 2022-09-13 マジック リープ, インコーポレイテッド 空間3d環境へのコンテンツのマッチング
JP2022177059A (ja) * 2018-06-05 2022-11-30 マジック リープ, インコーポレイテッド 空間3d環境へのコンテンツのマッチング
JP7549630B2 (ja) 2018-06-05 2024-09-11 マジック リープ, インコーポレイテッド 空間3d環境へのコンテンツのマッチング
JP2022518885A (ja) * 2019-02-01 2022-03-17 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 適応的自由度(dof)選択を有する人工現実システム

Also Published As

Publication number Publication date
AU2015253096A1 (en) 2016-10-27
RU2016142613A (ru) 2018-05-04
BR112016024343A2 (pt) 2017-08-15
WO2015168343A1 (en) 2015-11-05
US9430038B2 (en) 2016-08-30
US20150317832A1 (en) 2015-11-05
EP3137976A1 (en) 2017-03-08
CA2946582A1 (en) 2015-11-05
CN106255939B (zh) 2019-08-27
MX2016014098A (es) 2017-02-09
EP3137976B1 (en) 2017-11-15
KR20160148557A (ko) 2016-12-26
CN106255939A (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
US9430038B2 (en) World-locked display quality feedback
US9361732B2 (en) Transitions between body-locked and world-locked augmented reality
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
CN107209386B (zh) 增强现实视野对象跟随器
KR102493749B1 (ko) 동적 환경에서의 좌표 프레임의 결정
US9584915B2 (en) Spatial audio with remote speakers
KR102115634B1 (ko) 혼합 현실 경험 공유
CN106489171B (zh) 立体图像显示器
JP2022532825A (ja) ヘッドマウントディスプレイに対する動的な障害物衝突警告を生成するシステムおよび方法
JP6359099B2 (ja) ユーザインターフェースナビゲーション
CN110603515A (zh) 利用共享锚点显示的虚拟内容
US10564915B2 (en) Displaying content based on positional state
US20140071163A1 (en) Augmented reality information detail
KR20160106629A (ko) 시선 추적을 갖는 타겟 위치결정
KR20140034252A (ko) 헤드 마운티드 디스플레이를 위한 tfov 분류 기법
JP2018526716A (ja) 媒介現実
CN112987914B (zh) 用于内容放置的方法和设备
JP2015118578A (ja) 拡張現実情報詳細
EP2887639A1 (en) Augmented reality information detail
US11308716B1 (en) Tailoring a computer-generated reality experience based on a recognized object