[go: up one dir, main page]

JP2015536514A - Imuを用いた直接ホログラム操作 - Google Patents

Imuを用いた直接ホログラム操作 Download PDF

Info

Publication number
JP2015536514A
JP2015536514A JP2015545488A JP2015545488A JP2015536514A JP 2015536514 A JP2015536514 A JP 2015536514A JP 2015545488 A JP2015545488 A JP 2015545488A JP 2015545488 A JP2015545488 A JP 2015545488A JP 2015536514 A JP2015536514 A JP 2015536514A
Authority
JP
Japan
Prior art keywords
virtual pointer
hmd
end user
augmented reality
reality environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015545488A
Other languages
English (en)
Inventor
サルター,トム
ジェイ. サグデン,ベン
ジェイ. サグデン,ベン
デプトフォード,ダニエル
エル.,ジュニア. クロッコ,ロベルト
エル.,ジュニア. クロッコ,ロベルト
イー. キーン,ブライアン
イー. キーン,ブライアン
イー. ミレス,クリストファー
イー. ミレス,クリストファー
ケー. マッセイ,ラウラ
ケー. マッセイ,ラウラ
アベン−アサー キプマン,アレックス
アベン−アサー キプマン,アレックス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2015536514A publication Critical patent/JP2015536514A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

頭部搭載ディスプレイ装置(head−mounted display device:HMD)に関連付けられた拡張現実環境を制御する方法が開示される。幾つかの実施形態では、仮想ポインタは、HMDのエンドユーザに表示され、2次装置(例えば、携帯電話機)に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御されても良い。仮想ポインタを用いて、エンドユーザは、拡張現実環境内の仮想オブジェクトを選択し操作し、拡張現実環境内の現実世界オブジェクトを選択し、及び/又はHMDのグラフィカルユーザインタフェースを制御できる。幾つかの例では、拡張現実環境内の仮想ポインタの初期位置は、エンドユーザが見つめている特定の方向及び/又はエンドユーザが現在注目している又は最近注目していた特定のオブジェクトに基づき決定されても良い。

Description

拡張現実(Augmented reality:AR)は、現実世界環境の知覚(又は現実世界環境を表すデータ)がコンピュータの生成した仮想データにより補償され又は変更される拡張現実世界環境を提供することに関連する。例えば、現実世界環境を表すデータは、カメラ又はマイクロフォンのような感覚入力装置を用いてリアルタイムにキャプチャされ、仮想画像及び仮想音響を含むコンピュータの生成した仮想データで補強できる。仮想データは、現実世界環境の中の現実世界オブジェクトに関連付けられたテキスト記述のような、現実世界環境に関連する情報も有しても良い。AR環境内のオブジェクトは、現実オブジェクト(つまり、特定の現実世界環境の中に存在するオブジェクト)及び仮想オブジェクト(つまり、特定の現実世界環境の中に存在しないオブジェクト)を有しても良い。
仮想オブジェクトをAR環境に写実的に統合するために、ARシステムは、通常、マッピング及びローカリゼーションを含む幾つかのタスクを実行する。マッピングは、現実世界環境のマップを生成する処理に関連する。ローカリゼーションは、現実世界環境のマップに対して特定の視点又は姿勢を定める処理に関連する。幾つかの例では、ARシステムは、現実世界環境の中を動くとき補強される必要のあるモバイル装置に関連付けられた特定のビューを決定するために、現実世界環境の範囲内で移動するモバイル装置の姿勢をリアルタイムに定めても良い。
ヘッドマウントディスプレイ装置(head−mounted display device:MHD)に関連付けられた拡張現実環境の制御を実現する技術が記載される。幾つかの実施形態では、仮想ポインタは、HMDのエンドユーザに表示され、2次装置(例えば、携帯電話機)に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御されても良い。仮想ポインタを用いて、エンドユーザは、拡張現実環境内の仮想オブジェクトを選択し操作し、拡張現実環境内の現実世界オブジェクトを選択し、及び/又はHMDのグラフィカルユーザインタフェースを制御できる。幾つかの例では、拡張現実環境内の仮想ポインタの初期位置は、エンドユーザが見つめている特定の方向及び/又はエンドユーザが現在注目している又は最近注目していた特定のオブジェクトに基づき決定されても良い。
この要約は、詳細な説明で後述する概念の選択を簡単な形式で紹介する。この要約は、請求の範囲の主要な特徴又は基本的特徴を特定するものではなく、請求の範囲の範囲の決定の助けとして用いられるものでもない。
開示の技術が実施され得るネットワーク接続されたコンピューティング環境の一実施形態のブロック図である。 第2のモバイル装置と通信するモバイル装置の一実施形態を示す。 HMDの一部の一実施形態を示す。 注視点へと延在する注視ベクトルが遠い瞳孔間距離(inter−pupillary distance:IPD)を揃えるために用いられる、HMDの一部の一実施形態を示す。 注視点へと延在する注視ベクトルが近い瞳孔間距離(inter−pupillary distance:IPD)を揃えるために用いられる、HMDの一部の一実施形態を示す。 注視検出要素を含む可動ディスプレイ光学システムを有するHMDの一部の一実施形態を示す。 注視検出要素を含む可動ディスプレイ光学システムを有するHMDの一部の代替の実施形態を示す。 HMDの一部の側面図の一実施形態を示す。 マイクロディスプレイ組立体の3次元調整のサポートを提供するHMDの一部の側面図の一実施形態を示す。 キャプチャ装置及びコンピューティング環境を含むコンピューティングシステムの一実施形態を示す。 仮想ポインタがHMDのエンドユーザに表示され、2次装置に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御され得る、種々の拡張現実環境の種々の実施形態を示す。 仮想ポインタがHMDのエンドユーザに表示され、2次装置に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御され得る、種々の拡張現実環境の種々の実施形態を示す。 仮想ポインタがHMDのエンドユーザに表示され、2次装置に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御され得る、種々の拡張現実環境の種々の実施形態を示す。 2次装置を用いて拡張現実環境を制御する方法の一実施形態を示すフローチャートである。 初期仮想ポインタ位置を決定する処理の一実施形態を説明するフローチャートである。 2次装置の方位がタイムアウト期間内に閾範囲内で変化したか否かを決定する処理の一実施形態を説明するフローチャートである。 2次装置を用いて拡張現実環境を制御する方法の代替の実施形態を示すフローチャートである。 モバイル装置の一実施形態のブロック図である。
ヘッドマウントディスプレイ装置(head−mounted display device:MHD)に関連付けられた拡張現実環境の高精度制御を提供する技術が記載される。幾つかの実施形態では、仮想ポインタは、HMDのエンドユーザに表示され、2次装置(例えば、携帯電話機、又は動き及び/又は方位情報をHMDに供給する能力を備えた他の装置)に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御されても良い。仮想ポインタを用いて、エンドユーザは、拡張現実環境内の仮想オブジェクトを選択し操作し、拡張現実環境内の現実世界オブジェクトを選択し、及び/又はHMDのグラフィカルユーザインタフェースを制御できる(例えば、エンドユーザは、アプリケーションを選択し、仮想オブジェクトをドラッグアンドドロップし、又は拡張現実環境の部分をズームできる)。仮想ポインタが選択可能な仮想又は現実世界オブジェクトを指す(又はそれにオーバレイする)場合、HMDは、オブジェクトが選択可能であるというフィードバックをエンドユーザに供給しても良い(例えば、振動、音、又は仮想指示子が、選択可能オブジェクトに関連付けられた追加情報が利用可能であることをユーザに警告するために用いられても良い)。幾つかの例では、拡張現実環境内の仮想ポインタの初期位置は、エンドユーザが見つめている特定の方向及び/又はエンドユーザが現在注目している又は最近注目していた特定のオブジェクトに基づき決定されても良い。
HMDを用いて拡張現実環境を制御することに伴う1つの問題は、他のコンピューティング装置(例えば、タッチスクリーンインタフェースを含むタブレットコンピュータ)と異なり、HMD自体は、手及び/又は指のジェスチャを用いてオブジェクトの操作を可能にするインタフェースを提供しないことである。さらに、オブジェクト(例えば、HMDの視界の範囲内の小さなオブジェクト)を選択する能力は、エンドユーザにより手及び/又は指の動きを用いて、彼らの頭の方位を調整するよりももっと正確に制御できる。エンドユーザの頭の方位の調整は、エンドユーザの首の疲労をもたらし得る。したがって、腕、手及び/又は指の動きを用いてHMDのエンドユーザにより操作され得る2次装置を用いて、HMDに関連付けられた拡張現実環境の制御を実現する必要がある。
図1は、開示の技術が実施され得るネットワーク接続されたコンピューティング環境100の一実施形態のブロック図である。ネットワーク接続されたコンピューティング環境100は、1又は複数のネットワーク180を通じて相互接続される複数のコンピューティング装置を有する。1又は複数のネットワーク180は、特定のコンピューティング装置を別のコンピューティング装置に接続させ及びそれと通信させる。図示のコンピューティング装置は、モバイル装置11、モバイル装置12、モバイル装置19、及びサーバ15を有する。幾つかの実施形態では、複数のコンピューティング装置は、図示しない他のコンピューティング装置を有しても良い。幾つかの実施形態では、複数のコンピューティング装置は、図1に示したよりも多くの又は少ない数のコンピューティング装置を有しても良い。1又は複数のネットワーク180は、企業私設網のようなセキュアネットワーク、無線開放型ネットワーク、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、及びインターネットのような非セキュアネットワークを有しても良い。1又は複数のネットワーク180のうちの各ネットワークは、ハブ、ブリッジ、ルータ、スイッチ、及び有線ネットワーク又は直接結線接続のような有線伝送媒体を有しても良い。
サーバ15は、補足情報サーバ又はアプリケーションサーバを有しても良く、クライアントに情報(例えば、テキスト、オーディオ、画像、及びビデオファイル)をサーバからダウンロードさせ、又はサーバに格納された特定の情報に関連する検索クエリを実行することができる。通常、「サーバ」は、クライアント−サーバ関係においてホストとして動作するハードウェア装置、又はリソースを共有する若しくは1又は複数のクライアントのために作業を実行するソフトウェアプロセスを有し得る。クライアント−サーバ関係におけるコンピューティング装置間の通信は、サーバに要求を送信して特定のリースへのアクセスを又は特定の作業が実行されることを要求するクライアントにより開始されても良い。続いて、サーバは、要求された動作を実行し、クライアントへ応答を返送する。
サーバ15の一実施形態は、ネットワークインタフェース155、プロセッサ156、メモリ157、及びトランスレータ158を有し、これら全ては互いに通信する。ネットワークインタフェース155は、サーバ15が1又は複数のネットワーク180に接続できるようにする。ネットワークインタフェース155は、無線ネットワークインタフェース、モデム、及び/又は有線ネットワークインタフェースを有しても良い。プロセッサ156は、本願明細書で議論する処理を実行するために、サーバ15がメモリ157に格納されたコンピュータ可読命令を実行できるようにする。トランスレータ158は、第1のファイルフォーマットの第1のファイルを対応する第2のファイルフォーマットの第2のファイルに変換する(つまり、第2のファイルは第1のファイルの変換されたバージョンであっても良い)マッピングロジックを有しても良い。トランスレータ158は、第1のファイルフォーマットのファイル(又はその部分)を第2のフォーマットの対応するファイルにマッピングする命令を提供するファイルマッピング命令を用いて構成されても良い。
モバイル装置19の一実施形態は、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、センサ148、及びディスプレイ150を有し、これら全ては互いに通信する。ネットワークインタフェース145は、モバイル装置19が1又は複数のネットワーク180に接続できるようにする。ネットワークインタフェース145は、無線ネットワークインタフェース、モデム、及び/又は有線ネットワークインタフェースを有しても良い。プロセッサ146は、本願明細書で議論する処理を実行するために、モバイル装置19がメモリ147に格納されたコンピュータ可読命令を実行できるようにする。カメラ148は、カラー画像及び/又は深さ画像をキャプチャできる。センサ149は、モバイル装置19に関連付けられた動き及び/又は方位情報を生成しても良い。幾つかの例では、センサ149は、慣性測定装置(inertial measurement unit:IMU)を有しても良い。ディスプレイ150は、デジタル画像及び/又はビデオを表示しても良い。ディスプレイ150は、透視ディスプレイを有しても良い。
幾つかの実施形態では、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、及びセンサ149を含むモバイル装置19の種々のコンポーネントは、単一のチップ基板に統合されても良い。一例では、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、及びセンサ149は、システムオンチップ(system on a chip:SOC)として統合されても良い。他の例では、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、及びセンサ149は、単一パッケージ内に統合されても良い。
幾つかの実施形態では、モバイル装置19は、カメラ148、センサ149、及びプロセッサ146で動作するジェスチャ認識ソフトウェアを用いることにより、自然なユーザインタフェース(natural user interface:NUI)を提供しても良い。自然なユーザインタフェースにより、人の身体部分及び動きが検出され、解釈され、及びコンピューティングアプリケーションの種々の特徴を制御するために用いられても良い。一例では、自然なユーザインタフェースを用いるコンピューティング装置は、コンピューティング装置と相互作用する人の意図(例えば、エンドユーザが、コンピューティング装置を制御するために特定のジェスチャを実行したこと)を推測する。
ネットワーク接続されたコンピューティング環境100は、1又は複数のコンピューティング装置のためにクラウドコンピューティング環境を提供しても良い。クラウドコンピューティングは、インターネットに基づくコンピューティングを表し、共有リソース、ソフトウェア、及び/又は情報は、1又は複数のコンピューティング装置にオンデマンドでインターネット(又は他のグローバルネットワーク)を介して供給される。用語「クラウド」は、インターネットの例えとして、基本インフラの抽象化としてインターネットを示すためにコンピュータネットワーキング図の中で用いられる雲の図に基づき、用いられる。
一例として、モバイル装置19は、ヘッドマウントディスプレイ装置(HMD)のエンドユーザに拡張現実環境又は混合現実環境を提供するHMDを有する。HMDは、ビデオ透明及び/又は光学的に透明なシステムを有しても良い。エンドユーザにより装着される光学的に透明なHMDは、(例えば、透過レンズにより)現実世界環境を実際に直接見ることを可能にし、同時に、エンドユーザの視界に仮想オブジェクトの画像を投影しても良く、それにより、エンドユーザにより知覚される現実世界環境を仮想オブジェクトで増強する。
HMDを用いて、エンドユーザは、HMDを装着しながら現実世界環境(例えば、リビングルーム)を動き回り、仮想オブジェクトの画像をオーバレイされた現実世界のビューを知覚しても良い。仮想オブジェクトは、現実世界環境とのコヒーレントな空間関係を維持するように見える(つまり、エンドユーザが彼らの頭の向きを変え、又は現実世界環境の中を動くとき、エンドユーザに表示される画像が変化し、エンドユーザにより知覚されるとき、仮想オブジェクトが現実世界環境内に存在するように見えるようにする)。仮想オブジェクトは、エンドユーザの視点に対して固定されて現れても良い(例えば、エンドユーザがどのように彼らの頭の向きを変え又は現実世界環境内を動くかに係わらず、エンドユーザの視点の上部右隅に仮想メニューが現れる)。一実施形態では、現実世界環境の環境マッピングは、サーバ15により(つまり、サーバ側で)実行されても良く、一方で、カメラローカリゼーションはモバイル装置19で(つまり、クライアント側で)実行されても良い。仮想オブジェクトは、現実世界オブジェクトに関連付けられたテキスト記述を有しても良い。
幾つかの実施形態では、モバイル装置19のようなモバイル装置は、サーバ15のようなクラウド内のサーバと通信しても良く、サーバに、モバイル装置に関連付けられた位置情報(例えば、GPS座標によりモバイル装置の位置)及び/又は画像情報(例えば、モバイル装置の視界内で検出されるオブジェクトに関する情報)を提供しても良い。それに応じて、サーバは、モバイル装置に、サーバに提供された位置情報及び/又は画像情報に基づき、1又は複数の仮想オブジェクトを送信しても良い。一実施形態では、モバイル装置19は、1又は複数の仮想オブジェクトを受信するために特定のファイルフォーマットを指定しても良く、サーバ15は、モバイル装置19に、特定のファイルフォーマットのファイルに埋め込まれた1又は複数の仮想オブジェクトを送信しても良い。
幾つかの実施形態では、仮想ポインタは、モバイル装置19のエンドユーザに表示され、2次装置(例えば、携帯電話機、又は動き及び/又は方位情報をHMDに供給する能力を備えた他の装置)に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御されても良い。仮想ポインタを用いて、エンドユーザは、拡張現実環境内の仮想オブジェクトを選択し操作し、拡張現実環境内の現実世界オブジェクトを選択し、及び/又はHMDのグラフィカルユーザインタフェースを制御できる(例えば、エンドユーザは、アプリケーションを選択し、仮想オブジェクトをドラッグアンドドロップし、又は拡張現実環境の部分をズームできる)。仮想ポインタが選択可能な仮想又は現実世界オブジェクトを指す(又はそれにオーバレイする)場合、HMDは、オブジェクトが選択可能であるというフィードバックをエンドユーザに供給しても良い(例えば、振動、音、又は仮想指示子が、選択可能オブジェクトに関連付けられた追加情報が利用可能であることをユーザに警告するために用いられても良い)。幾つかの例では、拡張現実環境内の仮想ポインタの初期位置は、エンドユーザが見つめている特定の方向及び/又はエンドユーザが現在注目している又は最近注目していた特定のオブジェクトに基づき決定されても良い。
図2Aは、第2のモバイル装置5と通信するモバイル装置19の一実施形態を示す。モバイル装置19は、透視HMDを有しても良い。図示のように、モバイル装置19は、有線接続6を介してモバイル装置5と通信する。しかしながら、モバイル装置19は、無線接続を介してモバイル装置5と通信しても良い。モバイル装置5は、数値計算処理タスク(例えば、仮想オブジェクトのレンダリング)をオフロードするために、並びにモバイル装置19で拡張現実環境を提供するために使用され得る仮想オブジェクト及び他のデータ情報を格納するために、モバイル装置19により用いられても良い。モバイル装置5は、モバイル装置5に関連付けられた動き及び/又は方位情報も、モバイル装置19に提供しても良い。一例では、動き情報は、モバイル装置5に関連付けられた速度又は加速度を有しても良く、方位情報は、特定の座標系又は参照フレームの周りの回転情報を提供するオイラー角を有しても良い。幾つかの例では、モバイル装置5は、モバイル装置5に関連付けられた動き及び/又は方位情報を取得するために、IMU(inertial measurement unit)のような動き及び方位センサを有しても良い。
図2Bは、図1のモバイル装置19のような、HMDの一部の一実施形態を示す。HMD200の右側のみが示される。HMD200は、右こめかみ202、鼻梁204、眼鏡216、及び眼鏡フレーム214を有する。右こめかみ202は、処理装置236と通信するキャプチャ装置213(例えば、前面カメラ及び/又はマイクロフォン)を有する。キャプチャ装置213は、デジタル画像及び/又はビデオを記録する1又は複数のカメラを有しても良く、視覚記録を処理装置236へ送信しても良い。1又は複数のカメラは、色情報、IR情報、及び/又は深さ情報をキャプチャしても良い。キャプチャ装置213は、音を記録する1又は複数のマイクロフォンを有しても良く、音声記録を処理装置236へ送信しても良い。
右こめかみ202は、生体センサ220、視線追跡システム221、イヤフォン230、動き及び方位センサ238、GPS受信機232、電源239、及び無線インタフェース237を有し、これらは全て処理装置236と通信する。生体センサ220は、HMD200のエンドユーザに関連付けられた脈拍又は心拍を決定する1又は複数の電極と、HMD200のエンドユーザに関連付けられた体温を決定する温度センサと、を有しても良い。一実施形態では、生体センサ220は、エンドユーザのこめかみを押圧する脈拍数測定センサを有する。動き及び方位センサ238は、3軸磁気計、3軸ジャイロ、及び/又は3軸加速度計を有しても良い。一実施形態では、動き及び方位センサ238は、IMU(inertial measurement unit)を有しても良い。GPS受信機は、HMD200に関連付けられたGPS位置を決定しても良い。処理装置236は、1又は複数のプロセッサと、該1又は複数のプロセッサで実行されるコンピュータ可読命令を格納するメモリと、を有しても良い。メモリは、1又は複数のプロセッサで実行される他の種類のデータも格納しても良い。
一実施形態では、視線追跡システム221は、内向きカメラを有しても良い。別の実施形態では、視線追跡システム221は、視線追跡光源及び関連する視線追跡IRセンサを有しても良い。一実施形態では、視線追跡光源は、おおよそ所定のIR波長又は波長の範囲を放射する赤外発光ダイオード(light emitting diode:LED)又はレーザ(例えば、VCSEL)のような1又は複数の赤外(IR)放射体を有しても良い。幾つかの実施形態では、視線追跡センサは、閃光位置を追跡するIRカメラ又はIR位置感応検出器(position sensitive detector:PSD)を有しても良い。視線追跡システムに関する更なる情報は、米国特許第7,401,920号、名称「Head Mounted Eye Tracking and Display System」、2008年7月22日発行、及び米国特許出願第13/245,700号(マイクロソフト代理人管理番号第333604.01号)、名称「Integrated Eye Tracking and Display System」、2011年9月26日出願、から分かる。
一実施形態では、眼鏡216は、透過ディスプレイを有しても良く、それにより、処理装置236により生成された画像は、透過ディスプレイに投影され及び/又は表示されても良い。キャプチャ装置213は、キャプチャ装置213によりキャプチャされた視界がHMD200のエンドユーザにより見える視界と一致するように、較正されても良い。イヤフォン230は、仮想オブジェクトの投影画像に関連付けられた音を出力するために用いられても良い。幾つかの実施形態では、HMD200は、前面カメラによりキャプチャされた視界に関連付けられた立体情報から深さを得るために、2以上の前面カメラ(例えば、各こめかみに1つ)を有しても良い。2以上の前面カメラは、3D、IR、及び/又はRGBカメラを有しても良い。深さ情報は、動き技術からの深さを利用して単一カメラから取得されても良い。例えば、2つの画像が、異なる時点において空間内の2つの異なる地点に関連付けられた単一のカメラから取得されても良い。次に、空間内の2つの異なる地点に関する位置情報が与えられると、パララックス計算が実行されても良い。
幾つかの実施形態では、HMD200は、角膜中心、眼球回転中心、又は瞳孔中心のような1又は複数の人間の目の要素に関して注視検出要素及び3次元座標系を用いて、エンドユーザの目の各々について注視検出を実行しても良い。注視検出は、エンドユーザが視界内のどこに注目しているかを識別するために用いられても良い。注視検出要素の例は、閃光生成発光体、及び集められた閃光を提示するデータをキャプチャするセンサを有し得る。幾つかの例では、カメラの中心は、平面の幾何学を用いて2つの閃光に基づき決定できる。角膜中心は、瞳孔中心と眼球回転中心とをリンク付け、特定の注視又は視角においてエンドユーザの目の光軸を決定する固定位置として扱われても良い。
図2Cは、注視点へと延在する注視ベクトルが離れた瞳孔間距離(inter−pupillary distance:IPD)を揃えるために用いられる、HMD2の一部の一実施形態を示す。HMD2は、図1のモバイル装置19のようなモバイル装置の一例である。図示のように、注視ベクトル180l及び180rは、エンドユーザから離れた注視点で交わる(つまり、注視ベクトル180l及び180rは、エンドユーザが遠くのオブジェクトを見つめているとき、交わらない)。眼球160l及び160rの眼球モデルは、グルストランドの模型眼に基づき、各目について図示される。各眼球は、回転中心166を有する球面としてモデル化され、中心164を有する球面としてモデル化された角膜168を有する。角膜168は眼球と共に回転し、眼球の回転中心166は、固定点として扱われる。角膜168は、その中心に瞳孔162を有する虹彩170をカバーする。各角膜の表面172に、閃光174及び176がある。
図2Cに示すように、センサ検出領域139(つまり、それぞれ139l及び139r)は、眼鏡フレーム115の範囲内の各表示光学系14の光軸に揃えられる。一例では、検出領域に関連付けられたセンサは、フレーム115の左側に発光体153a及び153bによりそれぞれ生成された閃光174l及び176lを表す画像データ、及びフレーム115の右側に発光体153c及び153dによりそれぞれ生成された閃光174r及び176rを表すデータをキャプチャできる1又は複数のカメラを有しても良い。眼鏡フレーム115の中のディスプレイ光学系14l及び14rを通じてユーザの視界は、現実オブジェクト190、192及び仮想オブジェクト182、184の両方を含む。
回転中心166から角膜中心164を通り瞳孔162へと形成される軸178は、目の光軸を有する。注視ベクトル180は、瞳孔162の中心を通り窩から延在する視線又は視軸として表されても良い。幾つかの実施形態では、光軸が決定され、注視ベクトルとして選択される視軸を得るためにユーザ較正を通じて小さな補正が決定される。各エンドユーザについて、仮想オブジェクトは、異なる水平及び垂直位置にある多数の所定位置の各々で、ディスプレイ装置により表示されても良い。光軸は、各位置にあるオブジェクトの表示中に各目のために計算されても良く、光線は、該位置からユーザの目へと延在するとしてモデル化される。水平及び垂直成分を有する注視オフセット角は、モデル化された光線に揃えるために光軸がどれだけ移動されなければならないかに基づき、決定されても良い。異なる位置から、水平又は垂直成分を有する平均注視オフセット角は、各計算した光軸に適用されるべき小さな補正として選択できる。幾つかの実施形態では、水平成分のみが、注視オフセット角補正のために用いられる。
図2Cに示すように、注視ベクトル180l及び180rは、それらが眼球から注視点における視界へと延びるとき互いに近付くので、完全に平行ではない。各ディスプレイ光学系14で、注視ベクトル180は、センサ検出領域139が中心に置かれる光軸と交差するように見える。この構成では、光軸は、瞳孔間距離(inter−pupillary distance:IPD)と揃えられる。エンドユーザが真っ直ぐ前を見ているとき、測定されたIPDは、遠いIPDとしても表される。
図2Dは、注視点へと延在する注視ベクトルが近い瞳孔間距離(inter−pupillary distance:IPD)を揃えるために用いられる、HMD2の一部の一実施形態を示す。HMD2は、図1のモバイル装置19のようなモバイル装置の一例である。図示のように、左目の角膜168lは右へ又はエンドユーザの鼻に向けて回転され、右目の角膜168rは左へ又はエンドユーザの鼻へ向けて回転される。両方の瞳孔は、エンドユーザから特定距離の範囲内にある現実オブジェクト194を注視している。各目からの注視ベクトル180l及び180rは、現実オブジェクト194が位置するパナムの融合領域195に入る・パナムの融合領域は、人間の視覚のような双眼視覚システムの中の単一像の領域である。注視ベクトル180l及び180rの交差は、エンドユーザが現実オブジェクト194を見ていることを示す。このような距離において、眼球が内向きに回転するので、それらの瞳孔間距離は近いIPDまで減少する。近いIPDは、遠いIPDより短く、標準的に約4mmである。近いIPD距離基準(例えば、エンドユーザから4フィートより少ない位置の注視点)は、ディスプレイ光学系14のIPD配置を近いIPDの配置に切り替える又は調整するために用いられても良い。近いIPDでは、各ディスプレイ光学系14はエンドユーザの鼻に向けて移動されても良い。したがって、光軸、及び検出領域139は、検出領域139ln及び139rnにより表されるように、鼻に向けて数ミリメートル移動する。
HMDのエンドユーザのIPDの決定及びディスプレイ光学系の調整についての更なる情報は、米国特許出願番号第13/250,878号(マイクロソフト代理人管理番号第334505.01号)、名称「Personal Audio/Visual System」、2011年9月30日出願、から分かる。
図2Eは、注視検出要素を含む可動ディスプレイ光学システムを有するHMD2の一部の一実施形態を示す。各目のレンズとして見えるものは、各目のディスプレイ光学系14(つまり、14l及び14r)を表す。ディスプレイ光学系は、HMDのレンズを通じて見える実際の直接現実世界ビューに仮想コンテンツをシームレスに融合する透過レンズ及び光学要素(例えば、ミラー、フィルタ)を有する。ディスプレイ光学系14は、通常、歪みのないビューを提供するために光が通常一直線にされる透過レンズの中心にある光軸を有する。例えば、アイケア専門家がエンドユーザの顔に通常の眼鏡対を掛けるとき、眼鏡は、通常は適合して、各瞳孔がそれぞれのレンズの中心又は光軸に揃う位置でエンドユーザの鼻の上に乗り、結果として、概して、明確な又は歪みの内ビューのために平行になった光がエンドユーザの目に到達する。
図2Eに示すように、少なくとも1つのセンサの検出領域139r、139lは、それぞれのディスプレイ光学系14r、14lの光軸に揃えられる。したがって、検出領域139r、139lの中心は、光軸に沿って光をキャプチャしている。ディスプレイ光学系14がエンドユーザの瞳孔に揃えられる場合、それぞれのセンサ134の各検出領域139は、エンドユーザの瞳孔に揃えられる。検出領域139の反射光は、1又は複数の光学要素を介して、カメラの実際の画像センサ134へ転送される。画像センサ134は、図示の実施形態では、フレーム115の内側にあるとして破線により示される。
一実施形態では、少なくとも1つのセンサ134は、可視光カメラ(例えば、RGBカメラ)であっても良い。一例では、光学要素又は光誘導要素は、部分的に透過し部分的に反射する可視光反射ミラーを有する。可視光カメラは、エンドユーザの瞳孔の画像データを提供する。一方で、IR光検出器152は、スペクトルのIR部分の反射である閃光をキャプチャする。可視光カメラが使用される場合、仮想画像の反射は、カメラによりキャプチャされる目のデータの中に現れ得る。画像フィルタリング技術は、望ましい場合には、仮想画像反射を除去するために用いられても良い。IRカメラは、目の仮想画像反射に反応しない。
別の実施形態では、少なくとも1つのセンサ134(つまり、134l及び134r)は、IRカメラ又は位置敏感型検出器(position sensitive detector:PSD)であり、これらにIR放射が向けられても良い。目から反射されたIR放射は、発光体153の入射放射から、他のIR発光体(図示しない)、又は目から反射された周囲IR放射からであっても良い。幾つかの例では、センサ134は、RGB及びIRカメラの組合せであっても良く、光誘導要素は、可視光反射又は迂回要素、及びIR放射反射又は迂回要素を有しても良い。幾つかの例では、センサ134は、システム13のレンズ内に埋め込まれても良い。追加で、画像フィルタリング技術は、ユーザに対して邪魔なものを減少させるために、カメラをユーザ視界内に混合させるために適用されても良い。
図2Eに示すように、発光体153の4個のセットは、光検出器152と対にされ、バリア154により分離されて、発光体153により生成される入射光と光検出器152で受信される反射光との間の干渉を回避する。図中の不要な混乱を避けるため、図中の番号は、代表の対に関して示される。各発光体は、所定の波長の近くの光の細いビームを生成する赤外線(IR)発光体であっても良い。各光検出器は、所定の波長の近くの光をキャプチャするよう選択されても良い。赤外線は、近赤外線も有しても良い。発光体又は光検出器の波長ドリフトが存在し得る、又は波長の近くの小さい範囲が許容可能であり得るので、発光体及び光検出器は、生成及び検出のために波長の近くの許容範囲を有しても良い。センサがIRカメラ又はIR位置敏感型検出器(PSD)である幾つかの実施形態では、光検出器は、追加データキャプチャ装置を有しても良く、発光体の動作、例えば波長ドリフト、ビーム幅変化、等をモニタするために用いられても良い。光検出器は、センサ134のような可視光カメラにより閃光データを提供しても良い。
図2Eに示すように、各ディスプレイ光学系14及び該ディスプレイ光学系14の各目の方を向いている注視検出要素(例えば、カメラ134及びその検出領域139、発光体153、及び光検出器152のような)の配置は、可動内側フレーム部分117l、117rに位置する。本例では、ディスプレイ調整機構は、内側フレーム部分117に取り付けられるシャフト205を有する1又は複数のモータ203を有する。内側フレーム部分117は、モータ203により駆動されるシャフト205の誘導及び力の下で、フレーム115の範囲内を左から右へ又は逆にスライドする。幾つかの実施形態では、1つのモータ203が両方の内側フレームを駆動しても良い。
図2Fは、注視検出要素を含む可動ディスプレイ光学システムを有するHMD2の一部の代替の実施形態を示す。図示のように、各ディスプレイ光学系14は、別個のフレーム115l、115rの中に封入される。フレーム部分の各々は、モータ203により別個に移動されても良い。可動ディスプレイ光学系を備えるHMDについての更なる詳細は、米国特許出願番号第13/250,878号(マイクロソフト代理人管理番号第334505.01号)、名称「Personal Audio/Visual System」、2011年9月30日出願、から分かる。
図2Gは、フレーム115の眼鏡テンプル102を有するHMD2の一部の側面図の一実施形態を示す。フレーム115の前に、ビデオ及び静止画像をキャプチャできる前面ビデオカメラ113がある。幾つかの実施形態では、前面カメラ113は、可視光又はRGBカメラと共に深さカメラを有しても良い。一例では、深さカメラは、IR発光送信機と、可視画像センサの前のホットミラーのような熱反射表面とを有しても良い。熱反射表面は、可視光を通過させ、発光体により送信された波長範囲内の又は所定の波長近くの反射IR放射をCCD又は他の種類の深さセンサへ向ける。他の種類の可視光カメラ(例えば、RGBカメラ又は画像センサ)及び深さカメラも使用できる。深さカメラに関する更なる情報は、米国特許出願番号第12/813,675号(マイクロソフト代理人管理番号第329566.01号)、2010年6月11日出願、から分かる。カメラからのデータは、画像セグメント化及び/又はエッジ検出技術を通じてオブジェクトを識別する目的で処理するために、制御回路136へ送信されても良い。
テンプル102の内に、又はテンプル102に取り付けられて、イヤフォン130、慣性センサ132、GPS送信機144、及び温度センサ138がある。一実施形態では、慣性センサ132は、3軸磁気計、3軸ジャイロ、及び3軸加速度計を有する。慣性センサは、HMD2の位置、方位、及び急加速を検知する。これらの動きから、頭部位置が決定されても良い。
幾つかの例では、HMD2は、1又は複数の仮想オブジェクトを有する1又は複数の画像を生成できる画像生成ユニットを有しても良い。幾つかの実施形態では、マイクロディスプレイは、画像生成ユニットとして用いられても良い。図示のように、マイクロディスプレイ組立体173は、光処理要素及び可変焦点調整器135を有する。光処理要素の一例は、マイクロディスプレイユニット120である。他の例は、レンズシステム122の1又は複数のレンズ及び表面124のような1又は複数の反射要素のような1又は複数の光要素を有する。レンズシステム122は、単一レンズ又は複数のレンズを有しても良い。
テンプル102に取り付けられ又はその内側に、マイクロディスプレイユニット120は、画像ソースを有し、仮想オブジェクトの画像を生成する。マイクロディスプレイユニット120は、光学的にレンズシステム122及び反射表面124に揃えられる。光学的な整列は、光軸133又は1又は複数の光軸を含む光経路133に沿っても良い。マイクロディスプレイユニット120は、レンズシステム122を通じて仮想オブジェクトの画像を投影する。レンズシステム122は画像光を反射表面124に向けても良い。可変焦点調整器135は、マイクロディスプレイ組立体の光経路内の1又は複数の光処理要素の間の位置ずれ、又はマイクロディスプレイ組立体の中の要素の光パワーを変更する。レンズの光パワーは、その焦点長の逆数(つまり、1/焦点長)として定められる。したがって、一方の変化は他方に影響を与える。焦点長の変化は、マイクロディスプレイ組立体173により生成される画像に焦点の合った視界の領域に変化を生じる。
位置ずれ変化を行うマイクロディスプレイ組立体173の一例では、位置ずれ変化は、レンズシステム122及びマイクロディスプレイ120のような少なくとも1つの光処理要素を支持するアーマチャ137の範囲内で誘導される。アーマチャ137は、選択された位置ずれ又は光パワーを達成するために、要素の物理的移動中に光経路133に沿って整列を一定に保つのを助ける。幾つかの例では、調整器135は、レンズシステム122のレンズのような1又は複数の光学要素をアーマチャ137内で移動させても良い。他の例では、アーマチャは、光処理要素の周辺領域内に溝又は空間を有しても良く、アーマチャは、光処理要素を移動することなく、要素、例えばマイクロディスプレイ120の上をスライドする。レンズシステム122のようなアーマチャ内の別の要素が取り付けられ、システム122又はその中のレンズが移動するアーマチャ137と共にスライド又は移動できるようにする。位置ずれ範囲は、標準的に、数ミリメートル(mm)程度である。一例では、範囲は1〜2mmである。他の例では、アーマチャ137は、位置ずれ以外の他の物理パラメータの調整を含む焦点調整技術のためにレンズシステム122にサポートを提供しても良い。このようなパラメータの一例は、偏光である。
マイクロディスプレイ組立体の焦点距離の調整に関する更なる情報は、米国特許第12/941,825号(マイクロソフト代理人管理番号第330434.01号)、名称「Automatic Variable Virtual Focus for Augmented Reality Displays」、2010年11月8日出願、から分かる。
一実施形態では、調整器135は、圧電モータのようなアクチュエータであっても良い。アクチュエータの他の技術が用いられても良く、このような技術の幾つかの例は、コイルの形状をしている音声コイル及び永久磁石、磁気歪要素、及び電気歪み要素である。
幾つかの異なる画像生成技術は、マイクロディスプレイ120を実施するために用いられても良い。一例では、マイクロディスプレイ120は、光源が光学活性材料により調節され及び白色光でバックライトされる透過投影技術を用いて実施できる。これらの技術は、通常、強力なバックライト及び光エネルギ密度を有するLCD型ディスプレイを用いて実施される。マイクロディスプレイ120は、外部光が反射され光学活性材料により調節される反射技術を用いても実施できる。発光は、技術に依存して白色光源又はRGB光源により前方照明されても良い。DLP(Digital light processing)、LCOS(liquid crystal on silicon)及びQualcomm, Inc.のMirasol(登録商標)ディスプレイ技術は、全て、殆どのエネルギが調整済み構造から反射されるので効率的な反射型技術の例であり、本願明細書に記載のシステムで用いることができる。追加で、マイクロディスプレイ120は、光がディスプレイにより生成される放射技術を用いて実施できる。例えば、Micro vision, Inc.のPicoP(商標)エンジンは、透過型要素として動作する極小スクリーン上の進路を取る又は目に直接ビームを向ける(例えばレーザ)微細ミラーによりレーザ信号を発する。
図2Hは、マイクロディスプレイ組立体の3次元調整のサポートを提供するHMD2の一部の側面図の一実施形態を示す。上述の図2Gに示した番号の幾つかは、本図では混乱を避けるために削除された。ディスプレイシステム14が3つの次元のうちの任意の次元で移動される幾つかの実施形態では、反射表面124により表される光学要素及びマイクロディスプレイ組立体173の他の要素は、ディスプレイ光学系への仮想画像の光の光経路133を維持するために移動されても良い。本例のXYZ移送機構は、モータ203により表される1又は複数のモータと、マイクロディスプレイ組立体173の要素の動きを制御する制御回路136の制御下にあるシャフト205と、を有する。使用できるモータの一例は、圧電モータである。図示の例では、1つのモータがアーマチャ137に取り付けられ、可変焦点調整器135を移動し、並びに、別の代表モータ203は反射要素124の動きを制御する。
図3は、キャプチャ装置20及びコンピューティング環境12を含むコンピューティングシステム10の一実施形態を示す。幾つかの実施形態では、キャプチャ装置20及びコンピューティング環境12は、単一のモバイルコンピューティング装置の中に統合されても良い。単一の統合されたモバイルコンピューティング装置は、図1のモバイル装置19のようなモバイル装置を有しても良い。一例では、キャプチャ装置20及びコンピューティング環境12は、HMDに統合されても良い。他の実施形態では、キャプチャ装置20は、図2Aのモバイル装置19のような第1のモバイル装置に統合されても良く、コンピューティング環境12は図2Aのモバイル装置5のような、第1のモバイル装置と通信する第2のモバイル装置に統合されても良い。
一実施形態では、キャプチャ装置20は、画像及びビデオをキャプチャする1又は複数の画像センサを有しても良い。画像センサは、CCD画像センサ又はCMOS画像センサを有しても良い。幾つかの実施形態では、キャプチャ装置20は、IR CMOS画像センサを有しても良い。キャプチャ装置20は、例えば飛行時間、構造光、立体画像、等を含む任意の適切な技術により深さ値を含み得る深さ画像を有する深さ情報と共にビデオをキャプチャするよう構成される深さセンサ(又は深さ感知カメラ)を有しても良い。
キャプチャ装置20は、画像カメラコンポーネント32を有しても良い。一実施形態では、画像カメラコンポーネント32は、シーンの深さ画像をキャプチャし得る深さカメラを有しても良い。深さ画像は、キャプチャされたシーンの2次元(2D)ピクセル領域を有しても良い。ここで、3Dピクセル領域内の各ピクセルは、例えばセンチメートル、ミリメートル、等で、画像カメラコンポーネント32からキャプチャされたシーンの中のオブジェクトまでの距離のような深さ値を表しても良い。
画像カメラコンポーネント32は、IR光コンポーネント34、3次元(3D)カメラ36、キャプチャ領域の深さ画像をキャプチャするために用いることができるRGBカメラ38を有しても良い。例えば、飛行時間分析では、キャプチャ装置20のIR光コンポーネント34は、キャプチャ領域に赤外光を放射しても良く、次に、例えば3Dカメラ36及び/又はRGBカメラ38を用いてキャプチャ領域内の1又は複数のオブジェクトの表面からの後方散乱光を検出するためにセンサを用いても良い。幾つかの実施形態では、パルス赤外光が用いられても良く、出射光パルスと対応する入来光パルスとの間の時間が測定されて、キャプチャ装置20からキャプチャ領域内の1又は複数のオブジェクト上の特定の場所まで物理的距離を決定するために用いられても良い。追加で、出射光波の位相は、位相シフトを決定するために、入来光波の位相と比較されても良い。位相シフトは、次に、キャプチャ装置から1又は複数のオブジェクトに関連する特定の場所までの物理的距離を決定するために用いられても良い。
別の例では、キャプチャ装置20は、深さ情報をキャプチャするために構造光を用いても良い。このような分析では、パターン光(つまり、グリッドパターン又はストライプパターンのような知られているパターンとして表示される光)は、例えばIR光コンポーネント34によりキャプチャ領域に投影されても良い。キャプチャ領域内の1又は複数のオブジェクト(又は目標)の表面に当たると、パターンは応答して変形され得る。このようなパターンの変形は、例えば3Dカメラ36及び/又はRGBカメラ38によりキャプチャされ、キャプチャ装置から1又は複数のオブジェクトの特定の場所までの物理的距離を決定するために分析されても良い。キャプチャ装置20は、平行光を生成する光学機器を有しても良い。幾つかの実施形態では、レーザプロジェクタは、構造光パターンを生成するために用いられても良い。光プロジェクタは、レーザ、レーザダイオード、及び/又はLEDを有しても良い。
幾つかの実施形態では、2以上の異なるカメラが統合キャプチャ装置に組み込まれても良い。例えば、深さカメラ及びビデオカメラ(例えば、RGBビデオカメラ)は、共通のキャプチャ装置に組み込まれても良い。幾つかの実施形態では、同じ又は異なる種類の2以上の別個のキャプチャ装置は、協調して使用されても良い。例えば、深さカメラ及び別個のビデオカメラが用いられても良く、2個のビデオカメラが用いられても良く、2個の深さカメラが用いられても良く、2個のRGBカメラが用いられても良く、又は任意の組合せ及び数のカメラが用いられても良い。一実施形態では、キャプチャ装置20は、深さ情報を生成するために決定され得る視覚立体データを得るために異なる角度からキャプチャ領域を見ることができる2以上の物理的に別個のカメラを有しても良い。深さは、単色、赤外線、RGB、又は任意の他の種類の検出器であっても良い複数の検出器を用いて画像をキャプチャすることにより、及びパララックス計算を実行することにより、決定されても良い。他の種類の深さ画像センサも、深さ画像を生成するために使用できる。
図3に示すように、キャプチャ装置20は、1又は複数のマイクロフォン40を有しても良い。1又は複数のマイクロフォン40の各々は、音を受信し電気信号に変換できるトランスデューサ又はセンサを有しても良い。1又は複数のマイクロフォンは、1又は複数のマイクロフォンが所定のレイアウトに配置されても良いマイクロフォンアレイを有しても良い。
キャプチャ装置20は、画像カメラコンポーネント32と有効に通信できるプロセッサ42を有しても良い。プロセッサ42は、標準的なプロセッサ、専用プロセッサ、マイクロプロセッサ、等を有しても良い。プロセッサ42は、フィルタ又はプロファイルを格納し、画像を受信し分析し、特定の状況が生じているか否かを決定する命令、又は他の適切な命令を有し得る命令を実行しても良い。理解されるべきことに、少なくとも幾つかの画像分析及び/又は目標分析、並びに追跡動作は、キャプチャ装置20のような1又は複数のキャプチャ装置の中に含まれるプロセッサにより実行されても良い。
キャプチャ装置20は、プロセッサ42により実行され得る命令、3Dカメラ又はRGBカメラによりキャプチャされた画像又は画像のフレーム、フィルタ又はプロファイル、又は任意の他の適切な情報、画像、等を格納できるメモリ44を有しても良い。一例では、メモリ44は、RAM(random access memory)、ROM(read only memory)、キャッシュ、フラッシュメモリ、ハードディスク、又は任意の他の適切な記憶コンポーネントを有しても良い。図示のように、メモリ44は、画像キャプチャコンポーネント32及びプロセッサ42と通信する別個のコンポーネントであっても良い。別の実施形態では、メモリ44は、プロセッサ42及び/又は画像キャプチャコンポーネント32に統合されても良い。他の実施形態では、キャプチャ装置20のコンポーネント32、34、36、38、40、42及び44のうちの一部又は全部は、単一の筐体に収容されても良い。
キャプチャ装置20は、通信リンク46を介してコンピューティング環境12と通信しても良い。通信リンク46は、例えばUSB接続、FireWire(登録商標)、Ethrenet(登録商標)ケーブル接続、等を含む接続有線接続、及び/又は無線802.11b、g、a又はn接続のような無線接続であっても良い。コンピューティング環境12は、例えば通信リンク46を介してシーンをキャプチャするときを決定するために用いることができるキャプチャ装置20にクロックを供給しても良い。一実施形態では、キャプチャ装置20は、例えば3Dカメラ36及び/又はRGBカメラ38によりキャプチャされる画像を、通信リンク46を介してコンピューティング環境12に提供しても良い。
図3に示すように、コンピューティング環境12は、アプリケーション196と通信する画像及びオーディオ処理エンジン194を有する。アプリケーション196は、オペレーティングシステムアプリケーション又はゲームアプリケーションのような他のコンピューティングアプリケーションを有しても良い。画像及びオーディオ処理エンジン194は、仮想データエンジン197、オブジェクト及びジェスチャ認識エンジン190、構造データ198、処理ユニット191、及びメモリユニット192、を有し、これらは全て互いに通信する。画像及びオーディオ処理エンジン194は、キャプチャ装置20から受信したビデオ、画像、及びオーディオデータを処理する。オブジェクトの検出及び/又は追跡を支援するために、画像及びオーディオ処理エンジン194は、構造データ198と、オブジェクト及びジェスチャ認識エンジン190とを利用しても良い。仮想データエンジン197は、仮想オブジェクトを処理し、仮想オブジェクトの位置及び方位を、メモリユニット192に格納された現実世界環境の種々のマップに関連付けて登録する。
処理ユニット191は、オブジェクト、顔、及び音声認識アルゴリズムを実行する1又は複数のプロセッサを有しても良い。一実施形態では、画像及びオーディオ処理エンジン194は、画像又はビデオデータにオブジェクト認識及び顔認識技術を適用しても良い。例えば、オブジェクト認識は、特定のオブジェクト(例えば、サッカーボール、車、人々、又はランドマーク)を検出するために用いられても良く、顔認識は、特定の人物の顔を検出するために用いられても良い。画像及びオーディオ処理エンジン194は、オーディオデータにオーディオ及び音声認識技術を適用しても良い。例えば、オーディオ認識は、特定の音を検出するために用いられても良い。検出されるべき特定の顔、音声、音、及びオブジェクトは、メモリユニット192に含まれる1又は複数のメモリに格納されても良い。処理ユニット191は、本願明細書で議論する処理を実行するために、メモリユニット192に格納されたコンピュータ可読命令を実行しても良い。
画像及びオーディオ処理エンジン194は、オブジェクト認識を実行する間、構造データ198を利用しても良い。構造データ198は、追跡されるべき目標及び/又はオブジェクトに関する構造情報を有しても良い。例えば、人間の骨格モデルは、身体部分を認識するのを助けるために格納されても良い。別の例では、構造データ198は、1又は複数の無生物オブジェクトを認識するのを助けるために、1又は複数の無生物オブジェクトに関する構造情報を有しても良い。
画像及びオーディオ処理エンジン194は、ジェスチャ認識を実行する間、オブジェクト及びジェスチャ認識エンジン190を利用しても良い。一例では、オブジェクト及びジェスチャ認識エンジン190は、それぞれ骨格モデルにより実行され得るジェスチャに関する情報を有するジェスチャフィルタの集合を有しても良い。オブジェクト及びジェスチャ認識エンジン190は、骨格モデルの形式のキャプチャ装置20によりキャプチャされたデータ及びそれに関連する動きを、ジェスチャライブラリの中のジェスチャフィルタと比較して、(該骨格モデルにより表される)ユーザが1又は複数のジェスチャを実行したときを識別しても良い。一例では、画像及びオーディオ処理エンジン194は、骨格モデルの動きを解釈すること及び特定のジェスチャのオブジェクト及びジェスチャの実行を検出することを助けるために、認識エンジン190を用いても良い。
幾つかの実施形態では、追跡中の1又は複数のオブジェクトは、IR逆反射マーカのような1又は複数のマーカで補強されて、オブジェクト検出及び/又は追跡を向上しても良い。平面基準画像、符号化ARマーカ、QRコード(登録商標)、及び/又はバーコードは、オブジェクト検出及び/又は追跡を向上するために使用できる。1又は複数のオブジェクト及び/又はジェスチャを検出すると、画像及びオーディオ処理エンジン194は、アプリケーション196に、検出した各オブジェクト又はジェスチャの識別表示、並びに適切な場合には対応する位置及び/又は方位を報告しても良い。
オブジェクトの検出及び追跡に関する更なる情報は、米国特許出願番号第12/641,788号(マイクロソフト代理人管理番号第328322.01号)、「Motion Detection Using Depth Images」、2009年12月18日出願、及び米国特許出願番号第12/475,308号(マイクロソフト代理人管理番号第326705.01号)、「Device for Identifying and Tracking Multiple Humans over Time」、から分かる。これら両方の出願は、参照することによりそれらの全体が本願明細書に組み込まれる。オブジェクト及びジェスチャ認識エンジン190に関する更なる情報は、米国特許出願番号第12/422,661号(マイクロソフト代理人管理番号第325987.02号)、「Gesture Recognizer System Architecture」、2009年4月13日出願、から分かる。ジェスチャ認識に関する更なる情報は、米国特許出願番号第12/391,150号(マイクロソフト代理人管理番号第326082.02号)、「Standard Gestures」、2009年2月23日出願、及び米国特許出願番号第12/474,655号(マイクロソフト代理人管理番号第327160.01号)、「Gesture Tool」、2009年5月29日出願、から分かる。
図4〜6は、仮想ポインタがHMDのエンドユーザに表示され、2次装置に関連付けられた動き及び/又は方位情報を用いてエンドユーザにより制御され得る、種々の拡張現実環境の種々の実施形態を示す。仮想ポインタを用いて、エンドユーザは、拡張現実環境内の仮想オブジェクトを選択し操作し、拡張現実環境内の現実世界オブジェクトを選択し、及び/又はHMDのグラフィカルユーザインタフェースを制御できる(例えば、エンドユーザは、アプリケーションを選択し、仮想オブジェクトをドラッグアンドドロップし、又は拡張現実環境の部分をズームできる)。
図4は、図1のモバイル装置19のようなHMDを装着しているエンドユーザに見えるような拡張現実環境410の一実施形態を示す。図示のように、拡張現実環境410は、仮想ポインタ32、仮想ボール25、及び仮想モンスター27により拡張されている。拡張現実環境410は、椅子16を有する現実世界オブジェクトも含む。仮想ポインタ32を用いて、エンドユーザは、仮想ボール25及び仮想モンスター27のような仮想オブジェクトを選択し操作でき、椅子16のような現実世界オブジェクトを選択できる。幾つかの例では、エンドユーザは、オブジェクトに関連する追加情報を取得し表示するために、拡張現実環境410内のオブジェクト(現実の又は仮想の)を選択しても良い。エンドユーザは、拡張現実環境410内で仮想オブジェクトを動かし、再配置し、及び/又はドラッグアンドドロップしても良い。幾つかの実施形態では、仮想ポインタが選択可能な仮想又は現実世界オブジェクトを指す(又はそれにオーバレイする)場合、HMDは、オブジェクトが選択可能であるというフィードバックをエンドユーザに供給しても良い(例えば、振動、音、又は仮想指示子が、選択可能オブジェクトに関連付けられた追加情報が利用可能であることをユーザに警告するために用いられても良い)。一実施形態では、拡張現実環境410内の仮想ポインタ32の初期位置は、エンドユーザが注視している特定の方向に基づき決定されても良い。
図5は、図1のモバイル装置19のようなHMDを装着しているエンドユーザに見えるような拡張現実環境410の一実施形態を示す。図示のように、拡張現実環境410は、仮想ポインタ32、仮想ボール25、及び仮想モンスター27により拡張されている。拡張現実環境410は、椅子16を有する現実世界オブジェクトも含む。一実施形態では、拡張現実環境内の仮想ポインタの初期位置は、エンドユーザが見つめている特定の方向及び/又はエンドユーザが現在注目している又は最近注目していた特定のオブジェクトに基づき決定されても良い。幾つかの例では、仮想ポインタ32の初期位置は、エンドユーザの注視方向に最も近い仮想オブジェクトに関連付けられても良い。他の例では、仮想ポインタ32の初期位置は、所与の時間期間内(例えば、最近30秒以内)に最も注目されていた、拡張現実環境410内の特定のオブジェクト(現実又は仮想)に関連付けられても良い。
図6は、図1のモバイル装置19のようなHMDを装着しているエンドユーザに見えるような拡張現実環境410の一実施形態を示す。図示のように、拡張現実環境410は、仮想ポインタ32、仮想ボール25、及び仮想モンスター27により拡張されている。拡張現実環境410は、椅子16を有する現実世界オブジェクトも含む。一実施形態では、拡張現実環境410の一部26は、仮想ポインタ32の位置に基づき、拡大(又はズームイン)されても良い。拡張現実環境410のズームイン部分26は、拡張現実環境410内の現実及び/又は仮想オブジェクトの選択を向上するために、仮想ポインタ32と組み合わせて用いられても良い。幾つかの実施形態では、仮想ポインタ32の制御は、2次装置(例えば、装置に関連する動き及び/又は方位情報をHMDに提供できるモバイル装置又は他の装置)の動きに対応しても良い。幾つかの例では、2次装置は、HMDのエンドユーザの腕、手、及び/又は指の動きに関連する動き及び/又は方位情報を提供できるIMUの可能なリング、腕時計、ブレスレット、又はリストバンドを有しても良い。
図7Aは、2次装置を用いて拡張現実環境を制御する方法の一実施形態を示すフローチャートである。一実施形態では、図7Aの処理は、図1のモバイル装置19のようなモバイル装置により実行されても良い。
ステップ702で、HMDと2次装置との間のリンクが確立される。2次装置は、HMDに動き及び/又は方位情報を提供する能力を備える携帯電話機又は他のモバイル装置(例えば、IMUの可能なリング又はリストバンド)を有しても良い。一実施形態では、リンクは、HMDに認証証明(credentials)を提供した2次装置と確立されても良い。HMDは、Wi−Fi接続又はBluetooth(登録商標)接続のような無線接続を介して2次装置と通信しても良い。
ステップ704で、HMDの仮想ポインタモードに対応するトリガイベントが検出される。仮想ポインタモードは、HMDのエンドユーザに、HMDのエンドユーザに提供される拡張現実環境内の仮想ポインタを制御させ、及び拡張現実環境内の現実オブジェクト及び/又は仮想オブジェクトを選択し操作させても良い。仮想ポインタは、拡張現実環境内でエンドユーザに表示されても良い仮想矢印、仮想カーソル、又は仮想ガイドを有しても良い。幾つかの例では、仮想ポインタは、拡張現実環境に投影される仮想光線の端を有しても良い。
一実施形態では、トリガイベントは、エンドユーザからの音声コマンド(例えば、ユーザが「仮想ポインタオン」と言う)を検出すると、検出されても良い。別の実施形態では、トリガイベントは、2次装置に関連する特定の動き又はジェスチャ(例えば、2次装置を振る)を検出すると、検出されても良い。トリガイベントは、HMDのエンドユーザにより行われる音声コマンド及び物理的動き(例えば、2次装置のボタンを押下する)の組み合わせに基づき検出されても良い。幾つかの例では、トリガイベントは、エンドユーザが特定のジェスチャ(例えば、仮想ポインタモードに関連付けられた手のジェスチャ)を実行するのを検出すると、検出されても良い。
ステップ706で、初期仮想ポインタ位置が決定される。一実施形態では、初期仮想ポインタ位置は、エンドユーザの注視方向(例えば、エンドユーザが見ている拡張現実環境内の特定の領域)に基づき決定されても良い。別の実施形態では、初期仮想ポインタ位置は、エンドユーザが注視している特定の方向及び/又はエンドユーザが現在注目している若しくは最近注目していた特定のオブジェクト(例えば、エンドユーザが最近30秒以内に最も注目していた特定のオブジェクト)に基づき決定されても良い。幾つかの例では、1つより多い仮想ポインタがエンドユーザに表示されても良い。ここで、仮想ポインタの各々は、異なる色又はシンボルに関連付けられる。エンドユーザは、仮想ポインタのうちの1つを識別する音声コマンドを発することにより、仮想ポインタのうちの1つを選択しても良い。初期仮想ポインタ位置を決定する処理の一実施形態は、図7Bを参照して後述する。
ステップ708で、2次装置の初期方位が決定される。一実施形態では、初期方位は、2次装置によりHMDに提供される方位情報に基づき、HMDにより決定されても良い。続いて、2次装置の方位変化は、初期方位に対して行われても良い。別の実施形態では、初期方位は、2次装置自体により決定されても良い。ここで、相対方位変化がHMDに提供されても良い。初期方位は、HMDにより提供される基準フレームに対する方位に対応しても良い。幾つかの例では、HMDは、2次装置からHMDへ送信された方位情報のドリフトエラー又は累積エラーを補正するために、特定の時間期間の後(例えば、30秒後)に、2次装置をリセット又は再較正しても良い。
ステップ710で、更新された方位情報は、2次装置から取得される。方位情報は、2次装置から無線接続を介してHMDへ送信されても良い。ステップ712で、2次装置の方位がタイムアウト期間内に閾範囲内で変化したか否かが決定される。2次装置の方位がタイムアウト期間内に閾範囲内で変化した場合、ステップ716が実行される。或いは、2次装置の方位がタイムアウト期間内に閾範囲内で変化していない場合、ステップ714が実行される。2次装置の方位がタイムアウト期間内に閾範囲内で変化したか否かを決定する処理の一実施形態は、図7Cを参照して記載される。
ステップ714で、仮想ポインタモードが無効にされる。幾つかの例では、仮想ポインタモードは、2次装置に関連する方位変化が有効方位変化に対して許容される閾範囲の外側であるために、無効にされても良い。一例では、方位変化は、エンドユーザが2次装置を彼らのポケットに入れて歩き出し又は走り出したために、閾範囲により許容されるより大きくなる可能性がある。別の例では、方位変化は、エンドユーザが2次装置をテーブルの上に置いたために、タイムアウト期間(例えば、2分)より長い間、閾範囲より小さくなる可能性がある。
ステップ716で、仮想ポインタ位置は、2次装置の方位変化に基づき更新される。ステップ718で、仮想ポインタ位置に基づくフィードバックは、HMDのエンドユーザに提供される。一実施形態では、フィードバックは、触覚フィードバックを有しても良い。一例では、フィードバックは、仮想ポインタ位置が拡張現実環境の中の選択可能なオブジェクトに関連付けられている場合、2次装置の振動を有しても良い。別の実施形態では、フィードバックは、仮想ポインタ位置が選択可能なオブジェクトに関連付けられた位置又は領域に対応する場合、拡張現実環境の中の該選択可能なオブジェクトの協調(又は他の視覚的指示)を有しても良い。フィードバックは、仮想ポインタ位置が拡張現実環境の中の選択可能なオブジェクトにオーバレイしている場合、オーディオ信号又は音(例えば、ビープ音)も有しても良い。
ステップ720で、HMDの拡張現実環境は、仮想ポインタ位置に基づき更新される。更新された拡張現実環境は、HMDによりエンドユーザに表示されても良い。一実施形態では、拡張現実環境は、更新された仮想ポインタ位置に仮想ポインタを移動することにより、更新されても良い。別の実施形態では、拡張現実環境は、(例えば、2次装置を振ることにより)選択可能なオブジェクトの選択及び仮想ポインタ位置が選択可能なオブジェクトに関連付けられた拡張現実環境の領域内にあることに応答して、拡張現実環境の中の選択可能なオブジェクトに関連付けられた追加情報を提供することにより、更新されても良い。追加情報は、図1のサーバ15のような補足情報サーバから取得されても良い。幾つかの例では、(仮想ポインタ位置により)仮想ポインタが選択可能なオブジェクトに近くなるとき、仮想ポインタの動きは、選択精度を向上するためにゆっくりになっても良い。ステップ720が実行された後、ステップ710が実行される。
図7Bは、初期仮想ポインタ位置を決定する処理の一実施形態を説明するフローチャートである。図7Bに示す処理は、図7Aのステップ706を実施する処理の一例である。一実施形態では、図7Bの処理は、図1のモバイル装置19のようなモバイル装置により実行されても良い。
ステップ742で、HMDのエンドユーザに関連付けられた注視方向が決定される。注視方向は、注視検出技術を用いて決定されても良く、拡張現実環境の中の空間内の点又は領域に対応しても良い。ステップ744で、HMDの視界に関連付けられた第1の画像セットが取得される。第1の画像セットは、カラー及び/又は深さ画像を有しても良い。第1の画像セットは、図2Bのキャプチャ装置213のようなキャプチャ装置を用いてキャプチャされても良い。
ステップ746で、視界の中の1又は複数の選択可能なオブジェクトは、第1の画像セットに基づき識別される。1又は複数の選択可能なオブジェクトは、第1の画像セットにオブジェクト及び/又は画像認識技術を適用することにより識別されても良い。1又は複数の選択可能なオブジェクトは、仮想オブジェクト(例えば、仮想モンスター)及び/又は現実世界オブジェクト(例えば、椅子)を有しても良い。1又は複数の選択可能なオブジェクトは、追加情報が取得され拡張現実環境の中のエンドユーザに表示され得るオブジェクトに関連付けられても良い。幾つかの例では、拡張現実環境の中のオブジェクトを選択する能力は、HMDで動作するアプリケーションの状態に依存しても良い(例えば、アプリケーションロジックは、アプリケーションが特定の状態にあるとき、特定の種類の仮想オブジェクトの選択のみを許可しても良い)。
ステップ748で、1又は複数の選択可能なオブジェクトのうちの、注視方向に最も近い1つの選択可能なオブジェクトが決定される。一実施形態では、選択可能なオブジェクトは、注視方向に最も近い、拡張現実環境の中の位置に関連付けられた仮想オブジェクトを有する。ステップ750で、選択可能なオブジェクトに関連付けられた仮想ポインタ位置が決定される。仮想ポインタ位置は、選択可能なオブジェクトの中心点に対応しても良い。ステップ752で、仮想ポインタ位置は出力される。
図7Cは、2次装置の方位がタイムアウト期間内に閾範囲内で変化したか否かを決定する処理の一実施形態を説明するフローチャートである。図7Cに示す処理は、図7Aのステップ712を実施する処理の一例である。一実施形態では、図7Cの処理は、図1のモバイル装置19のようなモバイル装置により実行されても良い。
ステップ762で、更新された方位情報は、2次装置から取得される。2次装置は、HMDのエンドユーザの手に持たれる携帯電話機又はハンドヘルド電子装置を有しても良い。ステップ764で、2次装置に関連付けられた方位変化は、更新された方位情報に基づき決定される。一実施形態では、方位変化は、2次装置の方位に関連付けられた1又は複数のオイラー角の変化に対応する。
ステップ766で、方位変化が上限閾基準より大きいか否かが決定される。一実施形態では、上限閾基準は、500ミリ秒の時間期間の範囲内で、30度より大きい方位変化に対応しても良い。方位変化が上限閾基準より大きいと決定された場合、ステップ768が実行される。ステップ768で、無効な方位変化が出力される(例えば、方位変化は、過度であると考えられ、方位変化の信頼できる指示であると考えられない)。或いは、方位変化が上限閾基準より大きくないと決定された場合、ステップ770が実行される。ステップ770で、方位変化が下限閾基準より小さいか否かが決定される。一実施形態では、下限閾基準は、50ミリ秒の時間期間の範囲内で、1度より小さい方位変化に対応しても良い。方位変化が下限閾基準より小さい場合、ステップ722が実行される。ステップ772で、無効な方位変化が出力される(例えば、方位変化は、ノイズであると考えられ、方位変化の信頼できる指示であると考えられない)。或いは、方位変化が下限閾基準より小さくないと決定された場合、ステップ774が実行される。ステップ774で、有効な方位変化が出力される。有効な方位変化が検出された場合、方位変化は拡張現実環境の中の仮想ポインタ位置を更新するために用いられても良い。
図8は、2次装置を用いて拡張現実環境を制御する方法の代替の実施形態を示すフローチャートである。一実施形態では、図8の処理は、図1のモバイル装置19のようなモバイル装置により実行されても良い。
ステップ802で、HMDの仮想ポインタモードに対応するトリガイベントが検出される。仮想ポインタモードは、HMDのエンドユーザに、エンドユーザに提供される拡張現実環境内の仮想ポインタを制御させ、及び拡張現実環境内の現実及び/又は仮想オブジェクトを選択し操作させても良い。仮想ポインタは、拡張現実環境内でエンドユーザに表示されても良い仮想矢印、仮想カーソル、又は仮想ガイドを有しても良い。幾つかの例では、仮想ポインタは、拡張現実環境に投影される仮想光線の端を有しても良い。
一実施形態では、トリガイベントは、エンドユーザからの音声コマンド(例えば、ユーザが「仮想ポインタを有効にする」と言う)を検出すると、検出されても良い。別の実施形態では、トリガイベントは、2次装置に関連する特定の動き又はジェスチャ(例えば、2次装置を振る)を検出すると、検出されても良い。トリガイベントは、HMDのエンドユーザにより行われる音声コマンド及び物理的動き(例えば、2次装置のボタンを押下する)の組み合わせに基づき検出されても良い。幾つかの例では、トリガイベントは、エンドユーザが特定のジェスチャ(例えば、仮想ポインタモードに関連付けられた手のジェスチャ)を実行するのを検出すると、検出されても良い。
ステップ804で、2次装置に関連付けられた初期方位が決定される。一実施形態では、初期方位は、2次装置によりHMDに提供される方位情報に基づき、HMDにより決定されても良い。続いて、2次装置の方位変化は、初期方位に対して行われても良い。別の実施形態では、初期方位は、2次装置自体により決定されても良い。ここで、相対方位変化がHMDに提供されても良い。初期方位は、HMDにより提供される基準フレームに対する方位に対応しても良い。幾つかの例では、HMDは、2次装置からHMDへ送信された方位情報のドリフトエラー又は累積エラーを補正するために、特定の時間期間の後(例えば、30秒後)に、2次装置をリセット又は再較正しても良い。
ステップ806で、HMDのエンドユーザに関連付けられた注視方向が決定される。注視方向は、注視検出技術を用いて決定されても良く、拡張現実環境の中の空間内の点又は領域に対応しても良い。ステップ808で、初期仮想ポインタ位置は、注視方向に基づき決定される。一実施形態では、初期仮想ポインタ位置は、エンドユーザの注視方向(例えば、エンドユーザが見ている拡張現実環境内の特定の領域へ向かう)に基づき決定されても良い。幾つかの例では、1つより多い仮想ポインタが注視方向に基づきエンドユーザに表示されても良い。ここで、仮想ポインタの各々は、異なる色又はシンボルに関連付けられる。エンドユーザは、仮想ポインタのうちの1つを識別する音声コマンドを発することにより、仮想ポインタのうちの1つ(例えば、青矢印)を選択しても良い。
ステップ810で、更新された方位情報は、2次装置から取得される。更新された方位情報は、2次装置から無線接続を介してHMDへ送信されても良い。方位情報は、絶対方位情報又は特定の基準フレームに対する相対方位情報に対応しても良い。ステップ812で、方位変化が選択基準を満たすか否かが決定される。一実施形態では、選択基準は、2次装置を振ることを含む。別の実施形態では、選択基準は、特定の方位変化又は一連の方位変化(例えば、エンドユーザは、彼らのモバイル装置を水平位置から垂直位置へ動かし、3秒の時間期間の範囲内で水平位置に戻す)を有しても良い。方位変化が選択基準を満たすと決定された場合、ステップ814が実行される。
ステップ814で、HMDの拡張現実環境は、ユーザ選択に基づき更新される。拡張現実環境は、ユーザ選択及び拡張現実環境内の仮想ポインタ位置の位置の両方に基づき更新されても良い。一例では、エンドユーザは、拡張現実環境の中の選択可能なオブジェクトに対応する位置に仮想ポインタを移動し、(例えば、選択基準が満たされるように彼らのモバイル装置を振ることにより)選択ジェスチャを実行しても良い。仮想ポインタ位置とユーザ選択との組み合わせは、選択可能なオブジェクトに関連付けられた追加情報を取得させ、拡張現実環境の中でエンドユーザに表示させる。
或いは、方位変化が選択基準を満たさないと決定された場合、ステップ816が実行される。ステップ816は、仮想ポインタ位置は、更新された方位情報に基づき更新される。一実施形態では、仮想ポインタに関連付けられた仮想ポインタ感度は、仮想ポインタ位置に基づき調整されても良い。一例では、仮想ポインタ感度(例えば、どのレートで、2次装置の方位変化が仮想ポインタ位置の変化に変換するか)は、仮想ポインタ位置が選択可能なオブジェクトから特定の距離範囲内に来た場合、減少されても良い。ステップ818で、HMDの拡張現実環境は、更新された仮想ポインタ位置に基づき更新される。更新された拡張現実環境は、HMDによりエンドユーザに表示されても良い。拡張現実環境は、拡張現実環境の中の更新された仮想ポインタ位置を移動し表示するために、更新されても良い。ステップ818が実行された後、ステップ810が実行される。
開示の技術の一実施形態は、HMDの仮想ポインタモードに対応するトリガイベントを検出するステップと、トリガイベントを検出するステップに応答して、初期仮想ポインタ位置を決定するステップと、HMDと通信する2次装置から方位情報を取得するステップと、方位情報に基づき仮想ポインタ位置を更新するステップと、仮想ポインタ位置に対応する拡張現実環境の中の仮想ポインタを表示するステップと、を有する。
開示の技術の一実施形態は、メモリと、該メモリと通信する1又は複数のプロセッサと、該1又は複数のプロセッサと通信する透過ディスプレイと、を有する。メモリは、電子装置と通信する2次装置に関連付けられた初期方位を格納する。1又は複数のプロセッサは、仮想ポインタモードに対応するトリガイベントを検出し、該トリガイベントの検出に応答して、初期仮想ポインタ位置を決定する。1又は複数のプロセッサは、2次装置から方位情報を取得し、方位情報及び初期方位に基づき仮想ポインタ位置を更新する。透過ディスプレイは、仮想ポインタ位置に対応する仮想ポインタを含む拡張現実環境を表示する。
開示の技術の一実施形態は、HMDの仮想ポインタモードに対応するトリガイベントを検出するステップと、HMDのエンドユーザに関連付けられた注視方向を決定するステップと、注視方向に基づき初期仮想ポインタ位置を決定するステップと、2次装置から更新された方位情報を取得するステップと、更新された方位情報に基づき仮想ポインタ位置を更新するステップと、仮想ポインタ位置に対応する拡張現実環境の中の仮想ポインタを表示するステップと、選択基準が満たされたことを決定するステップと、選択基準及び仮想ポインタ位置に基づき、更新された拡張現実環境を表示するステップと、を有する。
図9は、図1のモバイル装置19のようなモバイル装置8300の一実施形態のブロック図である。モバイル装置は、ラップトップコンピュータ、ポケットコンピュータ、携帯電話機、パーソナルデジタルアシスタント、無線受信機/送信機技術を統合されたハンドヘルドメディアデバイス、を有しても良い。
モバイル装置8300は、1まのプロセッサ8312と、メモリ8310と、を有する。メモリ8310は、アプリケーション8330と、不揮発性記憶装置8340と、を有する。メモリ8310は、不揮発性及び揮発性メモリを含む任意の種々のメモリ記憶媒体の種類であり得る。モバイル装置オペレーティングシステムは、モバイル装置8300の異なる動作を扱い、電話の発呼及び着呼、テキストメッセージング、音声メールのチェック、等のような動作のためにユーザインタフェースを有しても良い。アプリケーション8330は、写真及び/又はビデオのカメラアプリケーション、アドレス帳、カレンダアプリケーション、メディアプレイヤ、インターネットブラウザ、ゲーム、アラームアプリケーション、及び他のアプリケーションのような任意の種類のプログラムであり得る。メモリ8310の中の不揮発性記憶装置コンポーネント8340は、音楽、写真、連絡先データ、スケジュールデータ、及び他のファイルのようなデータを有しても良い。
1又は複数のプロセッサ8312は、透過ディスプレイ8309と通信する。透過ディスプレイ8309は、現実世界環境に関連付けられた1又は複数の仮想オブジェクトを表示しても良い。1又は複数のプロセッサ8312は、アンテナ8302に結合されるRF送信機/受信機8306と、赤外線送信機/受信機8308と、GPS(global positioning service)受信機8365と、及び加速度計及び/又は磁気計を有しても良い動き/方位センサ8314とも通信する。RF送信機/受信機8308は、Bluetooth(登録商標)又はIEEE802.11標準のような種々の無線技術標準により無線通信を可能にしても良い。加速度計は、モバイル装置に組み込まれて、ユーザにジェスチャを通じてコマンドを入力させるインテリジェントユーザインタフェースアプリケーション、及びモバイル装置が回転されたときポートレートからランドスケープに表示を自動的に変更できる方位アプリケーションのようなアプリケーションを可能にする。加速度計は、例えば、半導体チップに構築された(マイクロメートルの寸法の)微細な機械装置である微小電気機械システム(micro−electromechanical system:MEMS)により提供できる。加速度方向は、方位、振動、及び衝撃と共に、検知できる。1又は複数のプロセッサ8312は、鳴動器/振動器8316、ユーザインタフェースキーパッド/スクリーン8318、スピーカ8320、マイクロフォン8322、カメラ8324、光センサ8326、及び温度センサ8328と更に雄心する。ユーザインタフェースキーパッド/スクリーンは、タッチスクリーンディスプレイを有しても良い。
1又は複数のプロセッサ8312は、無線信号の送信及び受信を制御する。送信モード中、1又は複数のプロセッサ8312は、マイクロフォン8322から音声信号を、又は他のデータ信号を、RF送信機/受信機8306に供給する。送信機/受信機8306は、アンテナ8302を通じて信号を送信する。鳴動器/振動器8316は、入ってくる呼、テキストメッセージ、カレンダリマインダ、アラームクロックリマインダ、又は他の通知をユーザに伝達するために用いられる。受信モード中、RF送信機/受信機8306は、音声信号又はデータ信号をアンテナ8302を通じてリモートステーションから受信する。受信した音声信号は、スピーカ8320に供給され、他の受信したデータ信号は適切に処理される。
追加で、物理コネクタ8388は、バッテリ8304を再充電する目的で、ACアダプタ又は給電ドッキングステーションのような外部電源にモバイル装置8300を接続するために用いられても良い。物理コネクタ8388は、外部コンピューティング装置へのデータ接続として用いられても良い。データデータ接続は、モバイル装置データを別の装置のコンピューティングデータに同期させるような動作を可能にする。
開示の技術は、多数の他の汎用目的の又は特定目的のコンピューティングシステム環境又は構成で動作可能である。本技術と共に使用するのに適するコンピューティングシステム、環境及び/又は構成の良く知られた例は、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルド若しくはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上述のシステム若しくは装置のうちの任意のものを含む分散型コンピューティング環境、等を含むが、これらに限定されない。
開示の技術は、コンピュータにより実行されるプログラムモジュールのようなコンピュータ実行可能命令の一般的文脈で説明された。概して、本願明細書に記載のようなソフトウェア及びプログラムモジュールは、特定のタスクを実行し又は特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、及び他の種類の構造を含む。ハードウェア又はハードウェアとソフトウェアの組合せは、本願明細書に記載のようにソフトウェアモジュールを置換しても良い。
開示の技術は、タスクが通信ネットワークを通じて接続されるリモート処理装置により実行される分散型コンピューティング環境で実施されても良い。分散型コンピューティング環境では、プログラムモジュールは、メモリ記憶装置を含むローカル及びリモートの両方のコンピュータ記憶媒体に置かれても良い。
本願明細書の目的のために、開示の技術に関連する各処理は、連続して及び1又は複数のコンピューティング装置により実行されても良い。処理の中の各ステップは、他のステップで使用されるのと同一の又は異なるコンピューティング装置により実行されても良い。各ステップは、必ずしも単一のコンピューティング装置により実行される必要はない。
本願明細書の目的のために、明細書中の「実施形態」、「一実施形態」、「幾つかの実施形態」又は「別の実施形態」への言及は、異なる実施形態を記載するために用いられ、必ずしも同一の実施形態を言及しない。
本願明細書の目的のために、接続は、直接接続又は(例えば、別の部分を介して)間接接続であり得る。
本願明細書の目的のために、用語オブジェクトの「セット」は、オブジェクトのうちの1又は複数のオブジェクトの「セット」を言及する。
本発明の主題は構造的特徴及び/又は方法論的動作に特有の言葉で記載されたが、本発明の主題は、特許請求の範囲に定められる上述の特定の特徴又は動作に限定されないことが理解されるべきである。むしろ、上述の特定の特徴及び動作は、特許請求の範囲の実施の例示的携帯として開示されたものである。

Claims (10)

  1. HMDに関連付けられた拡張現実環境を制御する方法であって、
    前記HMDの仮想ポインタモードに対応するトリガイベントを検出するステップと、
    トリガイベントを検出する前記ステップに応答して、初期仮想ポインタ位置を決定するステップと、
    前記HMDと通信する2次装置から方位情報を取得するステップと、
    前記方位情報に基づき前記仮想ポインタ位置を更新するステップと、
    前記仮想ポインタ位置に対応する前記拡張現実環境の中の仮想ポインタを表示するステップと、
    を有する方法。
  2. 初期仮想ポインタ位置を決定する前記ステップは、前記HMDのエンドユーザに関連付けられた注視方向を決定し、前記注視方向に基づき前記初期仮想ポインタ位置を設定するステップを有する、
    請求項1に記載の方法。
  3. 初期仮想ポインタ位置を決定する前記ステップは、前記HMDのエンドユーザに関連付けられた注視方向を決定するステップと、前記HMDの視界の中の1又は複数の選択可能オブジェクトを識別するステップと、前記1又は複数の選択可能オブジェクトのうち、前記注視方向に最も近い選択可能オブジェクトを決定するステップと、前記拡張現実環境の中で、前記選択可能オブジェクトの位置に基づき前記初期仮想ポインタ位置を設定するステップと、を有する、
    請求項1に記載の方法。
  4. 前記仮想ポインタ位置が前記1又は複数の選択可能オブジェクトに関連付けられた、前記拡張現実環境の中の1又は複数の領域に対応する場合、前記エンドユーザにフィードバックを提供するステップ、
    を更に有する請求項3に記載の方法。
  5. 前記フィードバックは、前記2次装置の振動を有する、
    請求項4に記載の方法。
  6. 拡張現実環境を表示する電子装置であって、
    メモリであって、前記メモリは、前記電子装置と通信する2次装置に関連付けられた初期方位を格納する、メモリと、
    前記メモリと通信する1又は複数のプロセッサであって、前記1又は複数のプロセッサは、仮想ポインタモードに対応するトリガイベントを検出し、前記トリガイベントの検出に応答して初期仮想ポインタ位置を決定し、前記1又は複数のプロセッサは、前記2次装置から方位情報を取得し、前記方位情報及び前記初期方位に基づき前記仮想ポインタ位置を更新する、1又は複数のプロセッサと、
    前記1又は複数のプロセッサと通信する透過ディスプレイであって、前記透過ディスプレイは、前記仮想ポインタ位置に対応する仮想ポインタを含む前記拡張現実環境を表示する、透過ディスプレイと、
    を有する電子装置。
  7. 前記1又は複数のプロセッサは、前記電子装置のエンドユーザに関連付けられた注視方向を決定し、前記注視方向に基づき前記初期仮想ポインタ位置を設定することにより、前記初期仮想ポインタ位置を決定する、
    請求項6に記載の電子装置。
  8. 前記1又は複数のプロセッサは、前記電子装置のエンドユーザに関連付けられた注視方向を決定し、前記電子装置の視界の中の1又は複数の選択可能オブジェクトを識別し、前記1又は複数の選択可能オブジェクトのうち、前記注視方向に最も近い選択可能オブジェクトを決定し、前記拡張現実環境の中で、前記選択可能オブジェクトの位置に基づき前記初期仮想ポインタ位置を設定することにより、前記初期仮想ポインタ位置を決定する、
    請求項6に記載の電子装置。
  9. 前記1又は複数のプロセッサは、前記仮想ポインタ位置が前記1又は複数の選択可能オブジェクトに関連付けられた前記拡張現実環境の中の1又は複数の領域に対応する場合、前記エンドユーザにフィードバックを提供する、
    請求項8に記載の電子装置。
  10. 前記電子装置はHMDを有し、前記2次装置はモバイル装置を有する、請求項6乃至9のいずれか一項に記載の電子装置。
JP2015545488A 2012-11-30 2013-11-30 Imuを用いた直接ホログラム操作 Withdrawn JP2015536514A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/691,445 2012-11-30
US13/691,445 US20140152558A1 (en) 2012-11-30 2012-11-30 Direct hologram manipulation using imu
PCT/US2013/072524 WO2014085789A1 (en) 2012-11-30 2013-11-30 Direct hologram manipulation using imu

Publications (1)

Publication Number Publication Date
JP2015536514A true JP2015536514A (ja) 2015-12-21

Family

ID=49817282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015545488A Withdrawn JP2015536514A (ja) 2012-11-30 2013-11-30 Imuを用いた直接ホログラム操作

Country Status (11)

Country Link
US (1) US20140152558A1 (ja)
EP (1) EP2926223A1 (ja)
JP (1) JP2015536514A (ja)
KR (1) KR20150092165A (ja)
CN (1) CN105009039A (ja)
AU (1) AU2013351980A1 (ja)
BR (1) BR112015011713A2 (ja)
CA (1) CA2889563A1 (ja)
MX (1) MX2015006874A (ja)
RU (1) RU2015120560A (ja)
WO (1) WO2014085789A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038763A1 (en) * 2016-08-25 2018-03-01 Oculus Vr, Llc Array detector for depth mapping
JP2019512726A (ja) * 2016-03-11 2019-05-16 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 眼球モデルを生成するための角膜球追跡
JP2019531550A (ja) * 2016-06-13 2019-10-31 株式会社ソニー・インタラクティブエンタテインメント 仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移
JP2019537287A (ja) * 2017-09-18 2019-12-19 ルーシッド ラブス インコーポレイテッド ヘッドマウントディスプレイ装置
US10614577B1 (en) 2016-03-11 2020-04-07 Facebook Technologies, Llc Eye tracking system with single point calibration
JP2021128795A (ja) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP7080448B1 (ja) 2021-03-08 2022-06-06 裕行 池田 端末装置

Families Citing this family (215)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US20150277120A1 (en) 2014-01-21 2015-10-01 Osterhout Group, Inc. Optical configurations for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
CN103905709A (zh) * 2012-12-25 2014-07-02 联想(北京)有限公司 一种控制电子设备的方法及电子设备
KR20140090552A (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9619021B2 (en) 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US9489772B2 (en) * 2013-03-27 2016-11-08 Intel Corporation Environment actuation by one or more augmented reality elements
WO2014205422A2 (en) 2013-06-20 2014-12-24 Parshionikar Uday Systems, methods, apparatuses, computer readable medium for controlling electronic devices
DE102013013698B4 (de) * 2013-08-16 2024-10-02 Audi Ag Verfahren zum Betreiben einer elektronischen Datenbrille
JP6237000B2 (ja) * 2013-08-29 2017-11-29 セイコーエプソン株式会社 頭部装着型表示装置
US10740979B2 (en) 2013-10-02 2020-08-11 Atheer, Inc. Method and apparatus for multiple mode interface
US10163264B2 (en) * 2013-10-02 2018-12-25 Atheer, Inc. Method and apparatus for multiple mode interface
US9658688B2 (en) * 2013-10-15 2017-05-23 Microsoft Technology Licensing, Llc Automatic view adjustment
US20150193979A1 (en) * 2014-01-08 2015-07-09 Andrej Grek Multi-user virtual reality interaction environment
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9366868B2 (en) 2014-09-26 2016-06-14 Osterhout Group, Inc. See-through computer display systems
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9310610B2 (en) 2014-01-21 2016-04-12 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US12105281B2 (en) 2014-01-21 2024-10-01 Mentor Acquisition One, Llc See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US12112089B2 (en) 2014-02-11 2024-10-08 Mentor Acquisition One, Llc Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US20150309534A1 (en) 2014-04-25 2015-10-29 Osterhout Group, Inc. Ear horn assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US20150339855A1 (en) * 2014-05-20 2015-11-26 International Business Machines Corporation Laser pointer selection for augmented reality devices
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9766806B2 (en) * 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
US10216357B2 (en) * 2014-07-16 2019-02-26 Sony Corporation Apparatus and method for controlling the apparatus
US20160027218A1 (en) * 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
US9934573B2 (en) * 2014-09-17 2018-04-03 Intel Corporation Technologies for adjusting a perspective of a captured image for display
US10320437B2 (en) * 2014-10-24 2019-06-11 Usens, Inc. System and method for immersive and interactive multimedia generation
KR101930657B1 (ko) 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9911232B2 (en) 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
CN108139876B (zh) * 2015-03-04 2022-02-25 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的系统和方法
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
CN107209483A (zh) * 2015-03-20 2017-09-26 华为技术有限公司 智能交互方法、设备及系统
US9779554B2 (en) 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
JP2016218268A (ja) * 2015-05-21 2016-12-22 セイコーエプソン株式会社 可搬型表示装置、表示システム、表示方法
US9746675B2 (en) 2015-05-28 2017-08-29 Microsoft Technology Licensing, Llc Alignment based view matrix tuning
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US9836117B2 (en) 2015-05-28 2017-12-05 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality
US11252399B2 (en) 2015-05-28 2022-02-15 Microsoft Technology Licensing, Llc Determining inter-pupillary distance
US9658686B2 (en) 2015-05-28 2017-05-23 Microsoft Technology Licensing, Llc Motion based view matrix tuning
US9520002B1 (en) 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
US10409443B2 (en) 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
TWI735205B (zh) 2015-07-23 2021-08-01 光程研創股份有限公司 製造光偵測器之方法
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
ES2765280T3 (es) 2015-08-04 2020-06-08 Artilux Inc Aparato sensor de luz de germanio-silicio
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
WO2017022291A1 (ja) * 2015-08-06 2017-02-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
KR102641655B1 (ko) * 2015-10-20 2024-02-27 매직 립, 인코포레이티드 3차원 공간에서 가상 객체들 선택
KR102400900B1 (ko) 2015-10-26 2022-05-23 엘지전자 주식회사 시스템
CN105427865A (zh) * 2015-11-04 2016-03-23 百度在线网络技术(北京)有限公司 基于人工智能的智能机器人的语音控制系统以及方法
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
EP3171302A1 (en) * 2015-11-18 2017-05-24 F. Hoffmann-La Roche AG A method for generating an entry for an electronic laboratory journal
US10921979B2 (en) * 2015-12-07 2021-02-16 Huawei Technologies Co., Ltd. Display and processing methods and related apparatus
US10304247B2 (en) 2015-12-09 2019-05-28 Microsoft Technology Licensing, Llc Third party holographic portal
CN105395252A (zh) * 2015-12-10 2016-03-16 哈尔滨工业大学 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置
US11010972B2 (en) 2015-12-11 2021-05-18 Google Llc Context sensitive user interface activation in an augmented and/or virtual reality environment
EP3398165B1 (en) * 2015-12-28 2023-02-01 Artilux Inc. Eye gesture tracking
CN105527711A (zh) * 2016-01-20 2016-04-27 福建太尔电子科技股份有限公司 带增强现实的智能眼镜
JP2019505926A (ja) * 2016-02-05 2019-02-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
EP3236336B1 (en) * 2016-04-21 2019-03-27 Nokia Technologies Oy Virtual reality causal summary content
CN105955461A (zh) * 2016-04-25 2016-09-21 乐视控股(北京)有限公司 一种交互界面管理方法和系统
CN105975057A (zh) * 2016-04-25 2016-09-28 乐视控股(北京)有限公司 一种多界面交互方法和装置
US10198874B2 (en) * 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US9983697B1 (en) 2016-05-18 2018-05-29 Meta Company System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US10303323B2 (en) 2016-05-18 2019-05-28 Meta Company System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
US10586391B2 (en) * 2016-05-31 2020-03-10 Accenture Global Solutions Limited Interactive virtual reality platforms
US10140776B2 (en) 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points
TWI743148B (zh) * 2016-07-15 2021-10-21 光程研創股份有限公司 眼動追蹤的電腦實施方法、眼動追蹤系統及裝置
DE102016113060A1 (de) * 2016-07-15 2018-01-18 Beckhoff Automation Gmbh Verfahren zum Steuern eines Objekts
EP3497676B1 (en) 2016-08-11 2024-07-17 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
US10234935B2 (en) 2016-08-11 2019-03-19 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
US10185401B2 (en) * 2016-09-29 2019-01-22 Intel Corporation Determination of cursor position on remote display screen based on bluetooth angle of arrival
US10617956B2 (en) * 2016-09-30 2020-04-14 Sony Interactive Entertainment Inc. Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space
US10302482B2 (en) 2016-10-07 2019-05-28 Microsoft Technology Licensing, Llc Dynamic sensor performance adjustment
USD840395S1 (en) 2016-10-17 2019-02-12 Osterhout Group, Inc. Head-worn computer
US10311543B2 (en) 2016-10-27 2019-06-04 Microsoft Technology Licensing, Llc Virtual object movement
CN107015637B (zh) * 2016-10-27 2020-05-05 阿里巴巴集团控股有限公司 虚拟现实场景下的输入方法和装置
US9983684B2 (en) 2016-11-02 2018-05-29 Microsoft Technology Licensing, Llc Virtual affordance display at virtual target
EP3539087B1 (en) * 2016-11-14 2022-11-02 Logitech Europe S.A. A system for importing user interface devices into virtual/augmented reality
WO2018106542A1 (en) 2016-12-05 2018-06-14 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
US10664049B2 (en) 2016-12-09 2020-05-26 Nvidia Corporation Systems and methods for gaze tracking
US10452133B2 (en) 2016-12-12 2019-10-22 Microsoft Technology Licensing, Llc Interacting with an environment using a parent device and at least one companion device
US10275943B2 (en) * 2016-12-13 2019-04-30 Verizon Patent And Licensing Inc. Providing real-time sensor based information via an augmented reality application
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10242654B2 (en) * 2017-01-25 2019-03-26 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations
KR102403719B1 (ko) * 2017-02-22 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2018170482A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
CN107085489A (zh) * 2017-03-21 2017-08-22 联想(北京)有限公司 一种控制方法及电子设备
CN110622110B (zh) 2017-03-23 2024-02-23 交互数字Ce专利控股公司 提供沉浸式现实内容的方法和装置
CN106873783A (zh) * 2017-03-29 2017-06-20 联想(北京)有限公司 信息处理方法、电子设备及输入装置
US10168789B1 (en) 2017-05-31 2019-01-01 Meta Company Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations
US10747386B2 (en) 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
EP3639083A4 (en) * 2017-06-14 2021-01-27 Hewlett-Packard Development Company, L.P. DISPLAY SETTINGS
US10514801B2 (en) 2017-06-15 2019-12-24 Microsoft Technology Licensing, Llc Hover-based user-interactions with virtual objects within immersive environments
US10325409B2 (en) 2017-06-16 2019-06-18 Microsoft Technology Licensing, Llc Object holographic augmentation
EP3616035B1 (en) * 2017-06-19 2024-04-24 Apple Inc. Augmented reality interface for interacting with displayed maps
CN107390871A (zh) * 2017-07-21 2017-11-24 上海白泽网络科技有限公司 增强现实设备的控制方法和系统
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
IT201700085213A1 (it) * 2017-07-26 2019-01-26 Renata Falconi Dispositivo per la realtà virtuale.
KR102368661B1 (ko) * 2017-07-26 2022-02-28 매직 립, 인코포레이티드 사용자 인터페이스 디바이스들의 표현들을 이용한 뉴럴 네트워크 트레이닝
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
US10386938B2 (en) * 2017-09-18 2019-08-20 Google Llc Tracking of location and orientation of a virtual controller in a virtual reality system
US10777007B2 (en) 2017-09-29 2020-09-15 Apple Inc. Cooperative augmented reality map interface
WO2019067899A1 (en) 2017-09-29 2019-04-04 Apple Inc. CONTROLLING EXTERNAL DEVICES USING REALITY INTERFACES
US11966793B1 (en) 2017-10-18 2024-04-23 Campfire 3D, Inc. Systems and methods to extend an interactive space across multiple platforms
US10600255B2 (en) 2017-11-03 2020-03-24 Marxent Labs, LLC Technologies for composing a virtual reality setting in a mobile computing environment
WO2019104309A1 (en) * 2017-11-27 2019-05-31 Marxent Labs, LLC Technologies for networked virtual content in a mobile computing environment
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US10964030B2 (en) 2018-02-12 2021-03-30 Samsung Electronics Co., Ltd. Device and method with pose estimator based on current predicted motion state array
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
JP6975341B2 (ja) 2018-02-23 2021-12-01 アーティラックス・インコーポレイテッド 光検出装置およびその光検出方法
EP3534240A1 (de) * 2018-03-01 2019-09-04 CMORE Automotive GmbH Verfahren und vorrichtung zur daten-annotation
JP7212062B2 (ja) 2018-04-08 2023-01-24 アーティラックス・インコーポレイテッド 光検出装置
US11093103B2 (en) * 2018-04-09 2021-08-17 Spatial Systems Inc. Augmented reality computing environments-collaborative workspaces
US10852816B2 (en) * 2018-04-20 2020-12-01 Microsoft Technology Licensing, Llc Gaze-informed zoom and pan with manual speed control
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
WO2019236588A1 (en) 2018-06-04 2019-12-12 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3d space based on mapping and navigation to a precise poi destination using a smart laser pointer device
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
EP3867734B1 (en) * 2018-10-17 2025-06-18 Qualcomm Incorporated Mobile platform as a physical interface for interaction
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
TWI728515B (zh) * 2019-01-24 2021-05-21 宏達國際電子股份有限公司 頭戴式顯示裝置
US11137874B2 (en) 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Ergonomic mixed reality information delivery system for dynamic workflows
CN111643885A (zh) * 2019-04-18 2020-09-11 成都奇天幻影数字娱乐有限公司 一种基于imu的虚拟现实转向控制方法
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3987380B1 (en) 2019-06-18 2024-10-16 Pupil Labs GmbH Systems and methods for determining one or more parameters of a user's eye
KR102592653B1 (ko) * 2019-07-01 2023-10-23 엘지전자 주식회사 Ar 모드 및 vr 모드를 제공하는 xr 디바이스 및 그 제어 방법
JP7150894B2 (ja) * 2019-10-15 2022-10-11 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
US11493989B2 (en) * 2019-11-08 2022-11-08 Magic Leap, Inc. Modes of user interaction
KR102249423B1 (ko) * 2019-11-22 2021-05-07 주식회사 모소 혼합현실 장치
WO2021164867A1 (en) 2020-02-19 2021-08-26 Pupil Labs Gmbh Eye tracking module and head-wearable device
US11227444B2 (en) 2020-03-09 2022-01-18 International Business Machines Corporation Virtual reality content adaptation
WO2021236170A1 (en) 2020-05-18 2021-11-25 Google Llc Low-power semi-passive relative six-degree-of-freedom tracking
US11734929B2 (en) * 2021-12-07 2023-08-22 Marxent Labs Llc Enhanced product visualization technology with web-based augmented reality user interface features
US12288303B2 (en) * 2021-12-27 2025-04-29 Koninklijke Kpn N.V. Rendering a virtual object in spatial alignment with a pose of an electronic device
EP4202611A1 (en) * 2021-12-27 2023-06-28 Koninklijke KPN N.V. Rendering a virtual object in spatial alignment with a pose of an electronic device
US12242666B2 (en) 2022-04-08 2025-03-04 Meta Platforms Technologies, Llc Artificial reality input using multiple modalities
WO2024048912A1 (ko) * 2022-08-29 2024-03-07 삼성전자주식회사 전자 장치의 입력에 기반하여 웨어러블 장치를 제어하기 위한 전자 장치 및 그 방법
EP4521203A1 (en) 2022-08-29 2025-03-12 Samsung Electronics Co., Ltd. Electronic device for controlling wearable device on basis of input by electronic device, and method thereof

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7746321B2 (en) * 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
US20060109242A1 (en) * 2004-11-19 2006-05-25 Simpkins Daniel S User interface for impaired users
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
KR100735566B1 (ko) * 2006-04-17 2007-07-04 삼성전자주식회사 이동 통신 단말기를 포인터로 이용하는 시스템 및 그 방법
US7969418B2 (en) * 2006-11-30 2011-06-28 Cherif Atia Algreatly 3-D computer input device and method
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
WO2008149991A1 (ja) * 2007-06-08 2008-12-11 Sony Corporation 情報処理装置、入力装置、情報処理システム、情報処理方法及びプログラム
JP5440176B2 (ja) * 2007-12-07 2014-03-12 ソニー株式会社 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法
US20090158222A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Interactive and dynamic screen saver for use in a media system
JP5251482B2 (ja) * 2008-12-18 2013-07-31 セイコーエプソン株式会社 入力装置およびデータ処理システム
US8515707B2 (en) * 2009-01-07 2013-08-20 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter
US8896527B2 (en) * 2009-04-07 2014-11-25 Samsung Electronics Co., Ltd. Multi-resolution pointing system
US20100309097A1 (en) * 2009-06-04 2010-12-09 Roni Raviv Head mounted 3d display
US9681112B2 (en) * 2009-11-05 2017-06-13 Lg Electronics Inc. Image display apparatus and method for controlling the image display apparatus
US20110199296A1 (en) * 2010-02-18 2011-08-18 Simpson Samuel K Single wrist user input system
US20120206335A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
JP5743416B2 (ja) * 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US8706170B2 (en) * 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
EP2506118A1 (en) * 2011-03-29 2012-10-03 Sony Ericsson Mobile Communications AB Virtual pointer
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8194036B1 (en) * 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US20150185971A1 (en) * 2011-11-09 2015-07-02 Google Inc. Ring-Based User-Interface
US20130139082A1 (en) * 2011-11-30 2013-05-30 Google Inc. Graphical Interface Having Adjustable Borders
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
US8947322B1 (en) * 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
US8947323B1 (en) * 2012-03-20 2015-02-03 Hayes Solos Raffle Content display methods

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512726A (ja) * 2016-03-11 2019-05-16 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 眼球モデルを生成するための角膜球追跡
US10614577B1 (en) 2016-03-11 2020-04-07 Facebook Technologies, Llc Eye tracking system with single point calibration
JP7209041B2 (ja) 2016-03-31 2023-01-19 マジック リープ, インコーポレイテッド 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP2021128795A (ja) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
US12051167B2 (en) 2016-03-31 2024-07-30 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
KR20220121922A (ko) * 2016-03-31 2022-09-01 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들
KR102551198B1 (ko) 2016-03-31 2023-07-03 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들
US11657579B2 (en) 2016-03-31 2023-05-23 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
JP2019531550A (ja) * 2016-06-13 2019-10-31 株式会社ソニー・インタラクティブエンタテインメント 仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移
WO2018038763A1 (en) * 2016-08-25 2018-03-01 Oculus Vr, Llc Array detector for depth mapping
US11102467B2 (en) 2016-08-25 2021-08-24 Facebook Technologies, Llc Array detector for depth mapping
JP2019537287A (ja) * 2017-09-18 2019-12-19 ルーシッド ラブス インコーポレイテッド ヘッドマウントディスプレイ装置
JP2022136951A (ja) * 2021-03-08 2022-09-21 裕行 池田 端末装置
WO2022190406A1 (ja) * 2021-03-08 2022-09-15 裕行 池田 端末装置
JP7080448B1 (ja) 2021-03-08 2022-06-06 裕行 池田 端末装置

Also Published As

Publication number Publication date
CA2889563A1 (en) 2014-06-05
AU2013351980A1 (en) 2015-05-07
CN105009039A (zh) 2015-10-28
EP2926223A1 (en) 2015-10-07
KR20150092165A (ko) 2015-08-12
MX2015006874A (es) 2016-01-12
US20140152558A1 (en) 2014-06-05
BR112015011713A2 (pt) 2017-07-11
RU2015120560A (ru) 2016-12-20
WO2014085789A1 (en) 2014-06-05

Similar Documents

Publication Publication Date Title
JP2015536514A (ja) Imuを用いた直接ホログラム操作
US10643389B2 (en) Mechanism to give holographic objects saliency in multiple spaces
US9384737B2 (en) Method and device for adjusting sound levels of sources based on sound source priority
US9728010B2 (en) Virtual representations of real-world objects
US9442567B2 (en) Gaze swipe selection
US9105210B2 (en) Multi-node poster location
US9035970B2 (en) Constraint based information inference
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
US20140160157A1 (en) People-triggered holographic reminders
US9395543B2 (en) Wearable behavior-based vision system
US9508195B2 (en) Management of content in a 3D holographic environment
KR102213725B1 (ko) 모바일 디바이스 착용 시의 머리 움직임 추적
US9696547B2 (en) Mixed reality system learned input and functions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161110

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170510