[go: up one dir, main page]

JP7213899B2 - 視線に基づく拡張現実環境のためのインターフェース - Google Patents

視線に基づく拡張現実環境のためのインターフェース Download PDF

Info

Publication number
JP7213899B2
JP7213899B2 JP2020573181A JP2020573181A JP7213899B2 JP 7213899 B2 JP7213899 B2 JP 7213899B2 JP 2020573181 A JP2020573181 A JP 2020573181A JP 2020573181 A JP2020573181 A JP 2020573181A JP 7213899 B2 JP7213899 B2 JP 7213899B2
Authority
JP
Japan
Prior art keywords
augmented reality
determining
user
hmd
reality object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020573181A
Other languages
English (en)
Other versions
JPWO2020006002A5 (ja
JP2021528786A (ja
Inventor
ブルーメ ヴァルター
ケー.サウスワース マイケル
エヌ.アヴァリ シルヴァ ジェニファー
アール.シルヴァ ジョナサン
Original Assignee
センティエーアール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by センティエーアール インコーポレイテッド filed Critical センティエーアール インコーポレイテッド
Publication of JP2021528786A publication Critical patent/JP2021528786A/ja
Publication of JPWO2020006002A5 publication Critical patent/JPWO2020006002A5/ja
Application granted granted Critical
Publication of JP7213899B2 publication Critical patent/JP7213899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

この開示は、仮想的、拡張された、あるいは現実環境と混合された表示の操作に関する。
この出願は、2018年6月27日に出願された米国仮出願第62/690,834号の優先権の利益を主張し、これは、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
医療行為及び外科手術の分野において、医師は、片手または両手を積極的に使用して様々な手順の形態を制御する。多くの場合、手には手袋がされて、滅菌野内にある。しばしば医師の手は外科的な装置の操作に占められている。これらの理由により、医師にとって手に基づく相互作用を使って他の装置を操作することは困難な場合がある。3次元画像等の補助情報は、しばしば医師に医療用表示装置上に提供される。従来の医療用表示装置は、医師に提供される3D情報の表示方向やスケールの制御にマウス、タッチパッド、またはジョイスティックの手による操作が必要になる。3Dオブジェクトを従来の2Dで表示する場合、医師は通常オブジェクトの方向を制御するためにマウスジェスチャを使うことが考えられる。表示されたオブジェクトや情報の向きや規模を、手の使用を抑えた直感的な方法により制御できる手段を提供することが望ましい。
処理システムは、視線方向または頭部の位置を使用して、2Dまたは3D空間におけるオブジェクトの表示を操作する。オブジェクトを、仮想現実(VR)、拡張現実(AR)、または複合現実(MR)などの人工現実環境において提示し得る。他の実施形態では、オブジェクトはコンピュータ等のクライアントデバイスの(例えば、2D)表示装置上に提供され得る。オブジェクトは、仮想オブジェクト、つまり、実際のオブジェクトの仮想表現である場合がある。ここで使用されるように、視線方向は、少なくともユーザが見ている方向を示すユーザの頭部の向きによって判断される。処理システムは、ユーザにより着用されたヘッドマウントデバイス(HMD)に捕捉されたセンサのデータに基づく頭部の位置及び方向の情報を使って視線方向を判断してもよい。また、処理システムは、ユーザの瞳孔の方向を示す情報を単独または頭部の方向及び位置と組み合わせて使って視線方向を判断してもよい。
処理ユニットは、ユーザに表示するための拡張現実グラフィックを提供し、拡張現実グラフィックは、表示された他のオブジェクトに重ねられる。処理ユニットは、拡張現実グラフィックと相互に作用することにより、ユーザが表示されたオブジェクトを操作することを有効にする。例えば、拡張現実グラフィックは円環形状を有している。ユーザの視線が円環形状に向いていることの検出に応答し、処理システムは表示されたオブジェクトを回転する。回転の軸は、ユーザの視線方向と円環形状との交差位置に基づくから、処理システムは、表示されたオブジェクトの向きを直感的に制御するための知覚的なキューを提供することが可能になる。
いくつかの実施形態において、処理システムは、異なるユーザにより着用される多様なHMDにわたって表示されたオブジェクトの操作を組み合わせる、または同期させる。さらに、処理システムは、拡張現実グラフィックをクライアントのデバイスに登録するようにしてもよい。いったん登録されると、処理システムは、ユーザと拡張現実グラフィックとの相互作用に従ってクライアントデバイスに表示されるオブジェクトを変更するための情報をクライアントのデバイスに送信するようにしてもよい。例えば、処理システムは、拡張現実グラフィックとの相互作用を使用して、電気的な表示装置のマウスに基づく(または他のタッチに基づく)方向の制御を模倣する。したがって、処理システムは、ソースコンピューティングシステムにハードウェアまたはソフトウェアの変更を必要とせずに、様々なコンピューティングシステムとの互換性を持ち得る。
一実施形態において、方法は、ユーザに装着されたヘッドマウントデバイス(HMD)により表示するために拡張現実オブジェクトを提供することを含む。この方法は、さらに、HMDにより平面上に表示し、拡張現実オブジェクトに重ねるために拡張現実グラフィックを提供することを含む。この方法は、さらに、HMDのセンサにより捕捉されたセンサデータを使ってユーザの視線方向を決定することを含む。この方法は、さらに、視線方向が平面上の拡張現実グラフィックと交差し、少なくとも所定の期間交差し続けるとの決定に応答し、視線方向と平面上の拡張現実グラフィックとの交差位置を決定すること、及び、HMDにより表示するために所定の期間中の交差位置に従って拡張現実オブジェクトの変更版を提供することを含む。
いくつかの実施形態において、この方法は、さらに、交差位置を使って回転軸を決定することを含み、ここで、表示用の拡張現実オブジェクトの変更版を提供することは、所定の期間の間、回転軸を中心に拡張現実オブジェクトを回転することを含む。いくつかの実施形態において、拡張現実グラフィックは拡張現実オブジェクトに位置合わせされた中心を有する円環形状を有し、ここで、回転軸を決定することは、中心と交差位置との間の平面上のベクトルを決定すること、及び、平面上のベクトルと直交する軸を回転軸とするように決定することを含む。いくつかの実施形態において、拡張現実グラフィックは、平面の水平または垂直の軸に位置合わせされた複数のセクションを有し、ここで、回転軸を決定することは、交差位置が複数のセクションの一つの中にあるかを決定すること、及び平面のセクションに位置合わせされた水平または垂直の軸を回転軸に決定することを含む。
いくつかの実施形態において、この方法は、さらに、交差位置が拡張現実オブジェクトの拡大レベルに関連付けられたユーザ入力に対応することを決定することを含み、ここで、表示用の拡張現実オブジェクトの変更版を提供することは、所定の期間中、拡張現実オブジェクトの拡大レベルを増加または減少することを含む。いくつかの実施形態において、この方法は、異なるユーザに装着された異なるHMDにより表示するために拡張現実オブジェクトの異なる光景を提供すること、及び異なるHMDにより表示するための拡張現実オブジェクトの異なる光景を、拡張現実オブジェクトの変更版に従って変更することをさらに含む。
いくつかの実施形態において、センサにより捕捉されたセンサデータを使ったユーザの視線方向を決定することは、センサデータを使った頭部の向きを決定すること、センサデータを使った瞳孔の向きを決定すること及び、頭部の向きと瞳孔の向きとの差異が閾値以下であるとの決定をすることを含む。HMDは、頭部の向きを決定するためのセンサデータを捕捉する少なくとも一つの移動センサ及び、瞳孔の向きを決定するためのセンサデータを捕捉する少なくとも一つのイメージセンサを備えてもよい。
一実施形態において、方法は、ユーザに装着されたヘッドマウントデバイス(HMD)により表示するための拡張現実グラフィックを提供することを含み、拡張現実グラフィックは平面上に表示され、クライアントデバイスの表示装置により提供されるオブジェクトに重ねられる。この方法は、さらに、HMDのセンサによって捕捉されたセンサデータを使ってユーザの視線方向を決定することを含む。この方法は、さらに、視線方向が平面上の拡張現実オブジェクトと交差し、少なくとも所定の期間交差し続けるとの決定に応答し、視線方向と平面上の拡張現実グラフィックとの交差位置を決定すること、及び表示装置内のオブジェクトを所定の期間内の交差位置に従って変更するための命令をクライアントデバイスに送ることを含む。
いくつかの実施形態において、この方法は、さらに、ユーザがユーザジェスチャを実行したと決定することを含み、ここで、表示装置内のオブジェクトを変更することは、ユーザジェスチャに基づく。いくつかの実施形態において、ユーザジェスチャは、ユーザの目または手の動きである。いくつかの実施形態において、ユーザジェスチャは、ユーザの指を使って実行されるピンチ動作であり、ここで、表示装置内のオブジェクトを変更することは、表示装置内のオブジェクトの拡大レベルを変更することを含む。いくつかの実施形態において、クライアントデバイスに命令を送ることは、平面に関するユーザの視線方向を命令に変換することであって、この命令がクライアントデバイスの型式と互換性を有することと、命令を安全なネットワークを介してクライアントデバイスに送信することを含む、
いくつかの実施形態において、コンピュータが読み取り可能な非一過性記憶媒体は、一つまたは複数のプロセッサにより実行されると、一つまたは複数のプロセッサが、ここで説明されたどのような方法に含まれる工程をも実行する命令を保存する。
開示された実施形態は、詳細な説明、添付の特許請求の範囲、および添付の図(または図面)からより容易に明らかになる利点及び特徴を有する。以下、図の簡単な説明をする。
図1は、一実施形態に関する処理システムのためのシステム環境の一例を示す図である。 図2Aは、複数の実施形態のオブジェクトに重ねて表示される拡張現実グラフィックスの例を示す図である。 図2Bは、複数の実施形態のオブジェクトに重ねて表示される拡張現実グラフィックスの例を示す図である。 図3は、一実施形態に関する回転軸の一例を示す図である。 図4Aは、様々な実施形態に関する拡張現実グラフィックスの例を示す図である。 図4Bは、様々な実施形態に関する拡張現実グラフィックスの例を示す図である。 図5は、一実施形態に関するマウス動作を使った回転制御のための処理のフローチャートである。 図6は、一実施形態に関する拡張現実環境の表示を変更するための処理のフローチャートである。 図7Aは、一実施形態に関する拡張現実環境におけるユーザの視野の例のシーケンスを説明する図である。 図7Bは、一実施形態に関する拡張現実環境におけるユーザの視野の例のシーケンスを説明する図である。 図7Cは、一実施形態に関する拡張現実環境におけるユーザの視野の例のシーケンスを説明する図である。 図8Aは、一実施形態に関する拡張現実グラフィックスの例を示す図である。 図8Bは、一実施形態に関する拡張現実グラフィックスの例を示す図である。 図8Cは、一実施形態に関する拡張現実グラフィックスの例を示す図である。 図8Dは、一実施形態に関する拡張現実グラフィックスの例を示す図である。
I.システム環境の例
図1は、一実施形態による処理システム100の例示的なシステム環境を示す。図1に示すシステム環境は、処理システム100、一または複数のヘッドマウントデバイス(HMD)110、及び一または複数のクライアントデバイス120を含み、これらは、ネットワーク130、例えば、インターネット、WIFI、BLUETOOTH(登録商標)、または別のタイプの有線または無線ネットワークにより接続されてもよい。他の一実施形態は、異なる、または追加される構成要素をシステム環境に含めることができる。図1の様々な構成要素によって実行される機能は、異なる実施形態において変化する場合がある。すなわち、処理システム100は、サーバーまたはクラウド上で実行してもよい。他の実施形態においては、いくつかまたは全ての処理システム100の機能を、一または複数のHMD110またはクライアントデバイス120上で実行してもよい。
処理システム100は、HMD110またはクライアントデバイス120によるグラフィックスまたはオブジェクトの表示のための情報を提供する。処理システム100は、センサデータまたはHMD110若しくはクライアントデバイス120からのユーザ入力を処理してユーザの視線方向を決定してもよい。視線方向を使用し、処理システム100は、他のタイプの適切な変更のうち、例えば、オブジェクトを回転させる、オブジェクトの位置を移動する、またはオブジェクトの拡大レベルを変更することにより、表示されたオブジェクトを変更してもよい。いくつかの実施形態では、処理システム100は、ユーザの視線方向が、例えばユーザにより装着されたHMD110に表示された拡張現実グラフィックと交差し、そして、少なくとも所定の期間交差し続けるとの決定に応答し、表示されたオブジェクトを操作するユーザの意図を決定するようにしてもよい。
HMD110は、例えば、局所化された環境において、視線方向を決定するために使用されるセンサデータを捕捉するように構成される。いくつかの実施形態において、HMD110は、複数の移動センサ、例えば加速度計、ジャイロスコープ、または移動データを捕捉する慣性測定ユニット(IMU)を含む。移動データは、HMD110(または処理システム100)により、頭部の位置の情報を決定することに使用されてもよく、この情報は視線方向を示す。さらに、HMD110は、目の方向の情報を捕捉する複数のセンサを含んでもよい。例えば、HMD110は、一または複数のタイプのイメージセンサを用いて、HMD110を装着しているユーザの目を撮像してもよい。画像処理技術は、目の画像から目の向きの情報を抽出するために実行され得る(例えば、鏡面反射に基づく)。いくつかの実施形態では、処理システム100は、ユーザの頭部の向き及び瞳孔の向きが処理システム100により計算された視線方向と一致すると判定する。その一致は、仮想オブジェクトとの相互作用に関しては、より確実にユーザの意図を示すことがあるためである。他の実施形態では、目の位置及び方向、または頭部の位置及び方向のどちらかがユーザの意図の決定に用いられる。処理システム100は、HMD110の側のイメージセンサによって捕捉されたデータを用いて、まぶたを閉じているか開いているか、まばたきをしているか等の表情や目の動きを検出することができる。
さらに、HMD110は、他の情報を捕捉するイメージセンサを含んでもよい。例えば、イメージセンサは、HMD110が装着されている間のユーザの視野を捕捉する。処理システム100は、画像処理技術を用いて、ユーザがユーザの視野でジェスチャを実行しているかどうか、例えば、ユーザが手を振っているのか、またはユーザの顔の前で手または腕の別の動きを実行しているのかを決定してもよい。拡張現実オブジェクトはユーザの視野内に提供されるため、拡張現実オブジェクトと相互に作用するためのユーザのジェスチャもまたイメージセンサの視野内にあってもよい。HMD110は、ユーザの目線または視野におけるHMD110と他のオブジェクトとの間の距離を決定するために用いられる一つまたは複数の深度センサを含んでもよい。
いくつかの実施形態では、HMD110は、電子的な表示装置を含む。電子的な表示装置は、人工的な現実環境を表示してもよい。さらに、電子的な表示装置は、ユーザに音声を提供するためのスピーカーのような他のフィードバック機構、または触覚フィードバック機構を含んでもよい。他の実施形態では、HMD110は、グラフィックを提供するプロジェクタを含んでもよい(電子的な表示装置に代えて)。HMD110としては、MICROSOFT(登録商標)、HOLOLENSTM(商標)が例示されるが、他のタイプのヘッドマウントデバイスがシステムに含まれてもよいことに注意すべきである。
クライアントデバイス120は、ユーザ入力を受け、ユーザの表示装置情報を提供することが可能なコンピュータ装置である。一実施形態において、クライアントデバイス120は、デスクトップまたはラップトップのような従来のコンピュータシステムである。
あるいは、クライアントデバイス110は、タブレット、スマートフォン、携帯電話、ウェアラブルデバイスまたは他の適切な形式の装置であってもよい。クライアントデバイス120は、2Dまたは3Dで対象物を表示する電子デバイスを含んでもよい。クライアントデバイス120は、マウス、キーボード、タッチスクリーン、ジェスチャ、ユーザの体の他の動作等のようなユーザの入力をデバイスから受けてもよい。さらに、または代わりに、クライアントデバイス120は、表示されたオブジェクトを変更するためのユーザの入力または他の情報を処理システム100またはHMD110から受け取ってもよい。いくつかの実施形態では、クライアントデバイス110は、処理システム100またはHMD110がクライアントデバイス110に登録されることの決定に応答し、クライアントデバイス110により表示されたオブジェクトを操作することを処理システム100またはHMD110に許可する。
図2A及び図2Bは、様々な実施形態によるオブジェクトの表示に重なった拡張現実グラフィックスの例を示す。図2Aに示した例において、HMD110は拡張現実グラフィック2及び拡張現実オブジェクト3を表示する。例えば、拡張現実オブジェクト3は、患者の臓器(例えば心臓)の3D表現であり、ユーザは、その臓器に関する処置の準備または処置の実行をする医師である。拡張現実グラフィック2は、部分的に透明または半透明であってもよく、ユーザが拡張現実グラフィック2の背後にある拡張現実オブジェクト3をユーザの視点から知覚できることを可能にする。拡張現実グラフィック2は、円環形状を有していてもよく、拡張現実オブジェクト3の位置(例えば中心)に位置合わせされていてもよい。
いくつかの実施形態では、処理システム100は、拡張現実オブジェクト3を表示するための基準位置を決定する。すなわち、臓器の参照位置は、手術室内の患者の体の上に位置している。処理システム100は、拡張現実グラフィック2を、HMD110と、基準位置にある拡張現実オブジェクト3との間の平面に表示することを決定してもよい。さらに、その平面は、ユーザの視線方向と直交、あるいは略直交してもよい。拡張現実オブジェクト3は、基準位置の中心位置に留まっても(または固定されても)よい。したがって、ユーザの視線方向が頭部または目の動きにより変化すると、処理システム100は、拡張現実グラフィック2の位置を更新して視線方向を追跡(例えば、直交または中心を維持する)するが、ユーザから見た拡張現実オブジェクト3の位置は維持する。例えば、ユーザが拡張現実オブジェクト3から目を反らした場合、HMD110は拡張現実オブジェクト3をユーザの周辺視野に表示してもよい。
図2Bで説明されている例は、HMD110は拡張現実グラフィック7を表示し、クライアントデバイス120はオブジェクトを表示する。例えば、クライアントデバイス120は、モニタを備えたコンピュータ装置である。一実施形態では、処理システム100は、HMD110を装着しているユーザの視線方向6を用いて、回転軸及び回転量(例えば角度、またはラジアン)を計算する9。処理システム100は、この回転の情報をクライアントデバイス120に提供して更新し10、表示されているオブジェクトの新たな向きを表現する。したがって、処理システム100は、ユーザに、マウス、キーボードまたはタッチスクリーンのような入力デバイスに接触しなければならないのとは反対に、クライアントデバイス120の表示装置をハンズフリーまたはタッチフリーの方式で操作することを可能にし得る。いくつかの実施形態では、処理システム100はユーザにクライアントデバイス120の表示装置を無菌環境で操作することを可能にする。例えば、手のジェスチャの使用は、ユーザにより着用または取り扱われる手袋やその他の機器の無菌性を損なう入力装置への手の接触を必要とすることがない。
処理システム100は、クライアントデバイス120の位置または向きの少なくとも一つを使って拡張現実オブジェクト3を表示するための基準位置を決定してもよい。一実施形態において、処理システム100は、登録処理中にクライアントデバイス120の位置または向きを決定してもよい。例えば、処理システム100は、クライアントデバイス120、またはクライアントデバイス120のモニタ上に表示された画像(例えばユーザインターフェースボタン)と交差する視線方向6を検出する。他の例として、HMD110のイメージセンサがクライアントデバイス120により画像表示されたイメージを捕捉する。処理システム100は、グラフィックの有無またはグラフィックからの情報(例えばQRコードやバーコード)を識別するために、任意の数のイメージ処理または立体認識技術を用いてもよい。検出に応答し、処理システム100はHND110をクライアントデバイス120に登録する。
いくつかの実施形態では、処理システム100は、HMD110によって捕捉された視線方向6または他のセンサのデータ(例えば深度情報)を使ってHMD110に対するクライアントデバイス120の位置または向きを決定することが可能である。いくつかの実施形態では、処理システム100は、ユーザからの身分証明(例えばログイン識別またはパスワード)の受信にさらに応答し、HMD110をクライアントデバイス120に登録する。ユーザは、HMD110またはクライアントデバイス120を経由して身分証明を入力してもよい。いくつかの実施形態では、処理システム100は、登録のためのクライアントデバイスのモニタの境界を決定する。この境界は、他のグラフィックまたは参照位置を形成するために使用されてもよい。
II 拡張現実グラフィックを用いた制御例
図3は、一実施形態による回転軸の例を説明している。図3で説明されている例において、拡張現実グラフィック300は円環形状である。円環形状は、内径R1と外径R2とによって規定される厚さを有している。他の実施形態では、拡張現実グラフィック300は、異なるタイプの形状または属性(例えば、色やサイズ等)を有してもよい。HMD110は、2D平面、例えば、図3に示す座標系のX-Y平面におけるz=0に拡張現実グラフィック300を表示する。いくつかの実施形態では、拡張現実グラフィック300が厚さ(例えばz軸における)を有し、HMD110により3Dで表示されてもよい。HMD110は、また、拡張現実グラフィック300と同一の平面にマーカ310を表示する。処理システム100は、HMD110を装着しているユーザの視線方向と平面との交差位置を決定することにより、マーカ310の位置を決定する。ユーザの頭部、または目が移動すると、処理システム100は、その移動を追跡するために、マーカ310の位置をリアルタイムで更新してもよい。視線方向を使ったマーカ310の操作は、マウス動作を使うコンピュータのカーソルの操作に類似することがある。
処理システム100は、検出されたユーザの拡張現実グラフィック300との相互作用を使い、表示、例えば、HMD110によって表示された拡張現実オブジェクトを変更することが可能である。変更は、1つまたは複数の回転、ズーム、平行移動、または表示されたオブジェクトに対する他のタイプの変化、変更または変形が含まれる場合がある。いくつかの実施形態では、マーカ310(ユーザの視線方向に基づく)が拡張現実グラフィック300と少なくとも閾値の期間交差するとの決定に応答し、処理システム100は、ユーザが表示を操作することを意図していると決定する。閾値期間は、10~1000ミリ秒(または異なる持続時間)であってもよく、ユーザの視線方向が実際に表示を操作する意図なく瞬間的に拡張現実グラフィック300と交差することの発生を除外するために処理システム100によって使用される。処理システム100は、ユーザの目の方向がユーザの視線方向の閾値角度θ度以内であるとの決定に応答して表示を操作する意図を決定してもよく、その結果、処理システム100は、所定の期間の閾値が満たされたと決定してもよい。
いくつかの実施形態では、マーカ310が円環形状の本体と交差することの決定に応答し、処理システム100は、回転軸を中心としてオブジェクトを回転させることによってオブジェクトの表示を操作することを決定する。円環の本体は、内径R1と外径R2との間の領域を含むものであってもよい。円環の形状は、円環の平面上の球体(例えば球体の断面)の端部を見ることにより、ユーザが仮想的な球体を回転させているという知覚をユーザに提供し得る。拡張現実グラフィック300は表示されたオブジェクト上に重ねられてもよいので、拡張現実グラフィック300は、表示されたオブジェクトの直感的な制御を提供することが可能である。処理システム100は、表示されたユーザの視線方向が円環と交差し続ける期間オブジェクトを回転し続けてもよい。ユーザの視線方向がもはや円環と交差していないとの決定に応答し、処理システム100は、表示されたオブジェクトの回転を停止(または他の変更)してもよい。処理システム100は、予め決定された速度でオブジェクトの表示を回転するようにしてもよい。速度は、一定、またはユーザの(例えば連続的な)視線の持続に基づいて増加するように(例えば次第に)変化するものであってもよい。さらに、処理システム100は、例えば加速または減速するために、ユーザの制御に基づいて速度を調整してもよい。
図3に示される実施形態において、処理システム100は、HMD110を装着しているユーザの視線方向と円環との交差位置を使って回転軸を決定する。処理システム100は、保存または校正処理してからの情報に基づくことがある、ユーザの頭部の位置、
Figure 0007213899000001
を決定し、例えば、部屋の参照3D座標系を基準にしてユーザの頭部の位置を特定する。処理システム100は、同様の3次元座標系におけるユーザの視線方向の単位ベクトル、
Figure 0007213899000002
を決定するためにHMD110からのセンサデータを使う。処理システム100は、視線方向を表現するベクトル
Figure 0007213899000003
を計算するために単位ベクトルとユーザの頭部の位置を用いる。
図3の実施形態では、円環はX-Y平面の(0,0,0)を中心にしている。
z=0であり、
Figure 0007213899000004
であるから、処理システム100は、平面と反対の方向を向いているユーザの視線方向に対応し、t≧0と決定する。他の実施形態では、円環は、例えば原点と異なる他の座標の点を中心にするものであってもよい。処理システム100は、t<0の値が、平面の側に向かい、この平面と交差するユーザの視線方向に対応すると決定する。処理システム100は、視線方向と平面との交差位置を、以下のように決定する。
Figure 0007213899000005
処理システム100は、マーカ310の交差位置と円環の中心点との間のベクトルを決定する。処理システム100は、交差位置と中心点との間のベクトルと交差する単位ベクトル330を使って円環の平面における回転軸320を決定する。処理システム100は、
Figure 0007213899000006
以下の行列式(3×3により行列標記)を使って決定してもよい。処理システム100は、HMD110または他のクライアントデバイス120に表示されているオブジェクトの表示を更新するために回転の増加分を使用する。
Figure 0007213899000007
図4A及び図4Bは、様々な実施形態の拡張現実グラフィックスの例を説明する。図4Aから図4Bで説明した実施形態では、拡張現実グラフィック400は、4つの所定のセクションを伴う円環である。セクションは、XまたはY軸と位置合わせされる。図4Aにおいて、セクションは長方形形状で示されているが、他の実施形態においては、図4Bに示すように、セクションは異なる形状、サイズ等を有するものであってもよい。ユーザの視線方向が一つのセクションの1つの領域と交差したとの決定に応答し、処理システム100は、上記処理において、X軸またはY軸を、
Figure 0007213899000008
を用いることに代えて回転軸として使用すると決定してもよい。すなわち、左のセクションと右のセクションは、ユーザの観点から、それぞれ左方向と右方向のY軸を中心とする回転に対応する。さらに、上のセクションと下のセクションは、ユーザの観点から、それぞれ上方向と下方向のX軸を中心とした回転に対応する。セクションは、回転軸の大まかな制御を提供するものであってもよく、このセクションの外側の円環の一部は、回転軸の高精度な制御を提供するものであってもよい。ユーザは、特定のタスクに対応するため、大まかな制御と高精度な制御との間で切り替えを行うことが可能である。
図4Aから図4Bの実施形態は、さらに拡張現実グラフィックス420を含み、これは表示されたオブジェクトの他の属性の変更に用いられてもよい。例えば、ユーザの視線方向が“+”の画像と交差するとの決定に応答し、処理システム100は、表示されたオブジェクトの拡大レベルを上げる。さらに、ユーザの視線方向が“-”の画像と交差するとの決定に応答し、処理システム100は、表示されたオブジェクトの拡大レベルを下げる。いくつかの実施形態では、処理システム100は、検出されたユーザの他の動作に基づいて、表示されたオブジェクトの属性を変更してもよい。例えば、ユーザがピンチ動作(例えば、2本またはそれ以上の指を各々近づける、または遠ざける動作)を行っているとの決定に応答し、処理システム100は、表示されたオブジェクトの拡大レベルを変更する。
III 処理の手順の例
図5は、マウス動作を使用して回転を制御するための実施形態の処理500のフローチャートである。処理システム100は、処理500を用いて、HMD110を装着しているユーザに対し、マウスやキーボードといった別個の入力装置を必要とすることなく、クライアントデバイス120の制御を提供してもよい。処理システム100は、例えば、回転軸、回転量といった回転情報を、図3に関する上記処理を使って決定する510。処理システム100は、HMD110に登録されている可能性があるクライアントデバイス120上に表示されたオブジェクトを識別する520。処理システム100は、回転情報をクライアントデバイス120と互換性のある命令に変換する530。例えば、クライアントデバイス120は、ワイヤレスユニバーサルシリアルバス(USB)マウスを介してユーザ入力を受信することができるコンピュータである。したがって、命令は、2次元平面上の(X,Y)座標位置、ボタンの押下、スクロールホイールの動きまたはマウスの動きといった基本的なマウスの命令であってもよい。処理システム100は、1つまたは複数の異なる演算方法を使ってクライアントデバイス120のインターフェースとなる入力装置の形式に依存する回転情報を変換してもよい530。例えば、キーボードはマウスと異なる制御を含んでいる。
処理システム100は、表示されたオブジェクトを変更するためのクライアントデバイス120への命令を送信する540。上記のワイアレスマウスの実施形態において、クライアントデバイス120は、USBを経由してワイアレスレシーバ(またはトランシーバ)と結合されてもよい。処理システム100は、例えば、BLUETOOH(登録商標)を介して、命令を無線受信機に送信することができる。いくつかの実施形態において、処理システム100は、他のタイプのネットワーク接続、例えば、安全なまたは暗号化された通信のための仮想プライベートネットワーク(VPN)を介してクライアントデバイス120に命令を送信する。クライアントデバイス120は、表示されたオブジェクトを変更するための受信した命令を処理するマイクロソフト(登録商標)リモートデスクトップのようなソフトウェアを有するものであってもよい。
いくつかの実施形態において、処理システム100は、表示されたオブジェクトをユーザの視線方向及びユーザの他のジェスチャを使って操作する。ユーザインターフェースに表示されたコンピュータの制御を模したマウスの例に続いて、処理システム100は、特定のジェスチャ(例えば、まばたき、頭部のうなずき、または手の動き)をマウスクリックと関連付けてもよい。画面上に表示されたアイテムを選択するためにマウスが使用されるとき、ユーザは、マウスカーソルをアイテムに移動させ、マウスボタンをクリックしてもよい。一実施形態において、HMD110を装着したユーザは、マーカ(例えば、図3に示したマーカ300)をアイテムに移動して、アイテムを選択するための特定のジェスチャを行ってもよい。マウスのシナリオと対照的に、HMD110のシナリオは、ハンズフリーまたはタッチフリーであってもよい。
図6は、一実施形態による拡張現実環境の変更のための処理600のフローチャートである。図7A、図7B及び図7Cは、一実施形態による拡張現実環境における連続するユーザの視野の例を説明する。図6に示す処理600を用いる場合の例は、図7Aから図7Cにより後に説明する。
処理システム100は、ユーザに装着されたHMD110の表示装置により表示するために拡張現実オブジェクト730を提供する610。図7Aに示す例では、拡張現実オブジェクト730は立方体である。処理システム100は、拡張現実(AR)グラフィック740(例えば円環の形状を有している)を、HMD110により平面上に表示するために提供し620、拡張現実オブジェクト730に重ねる(例えば、取り囲む)。また、図7Aは、ユーザの視線方向710と平面との交差位置を示すマーカ720を示している。図7Aに示す拡張現実オブジェクト730及び拡張現実グラフィック740は、ユーザから見られている。図7Aにおいて、ユーザは、視線方向710を基準にして右方向を見ていて、そのためにマーカ720は拡張現実グラフィック740の右側を向く。
処理システム100は、HMD110のセンサによって捕捉されたセンサデータを使ってユーザの視線方向750を決定する630。図7Aにおけるユーザの位置と図7Bの位置との間で、ユーザはユーザの視線方向を右側から左側に向かって移動させる。このように、処理システム100は、図7Bの視線方向750が、図7Aに示す視線方向710と異なっていると決定する。さらに、処理システム100は、マーカ720の位置を拡張現実グラフィック740の左側に更新する。
処理システム100は、視線方向750が平面上の拡張現実グラフィック740と交差し、所定の期間交差し続けると決定する640。図7Bに示すように、マーカ720は拡張現実グラフィック740の円環の本体と交差する。処理システム100は、また、視線方向750が、例えば、Y軸を中心とした左方向への回転の粗い制御に対応して、拡張現実グラフィック740の特定のセクションと交差すると決定してもよい。
決定640に応答し、処理システム100は、視線方向750と平面上の拡張現実グラフィック740との交差位置を決定する650。交差位置は、(例えば、その中心点が)マーカ720によって示される。また、決定640に応答し、処理システム100は、所定の期間中の交差位置の位置に従って、HMD110により表示するための拡張現実オブジェクト730の変更版を提供する660。図7Bに示すように、処理システム100は、ユーザの視点から左に向かって拡張現実オブジェクト730を回転させることにより、表示されている拡張現実オブジェクト730を変更する。特に、図7Aから図7Bでは、立方体の影のついた面がユーザの側に向かって移動している。処理システム100は、ユーザの視線方向750が仮想現実グラフィック740と交差し続けるとの決定に応答し、拡張現実オブジェクト730を回転することを継続してもよい。図7Cに例を示すように、ユーザの視線方向は図7Bに示すものと同じであり続ける。したがって、処理システム100は、拡張現実オブジェクト730を、Y軸を中心に左に回転させ続ける。
いくつかの実施形態では、処理600は、交差位置を使って回転軸を決定することを含む。例えば、図3に示すように、処理システム100は、円環の中心と交差位置との間の拡張現実グラフィック740の平面上のベクトルを決定してもよい。処理システム100は、平面上でベクトルと直交する軸を回転軸に決定する。拡張現実グラフィック740は、平面の水平または垂直軸、例えば図7Aから図7Cに示すそれぞれX軸及びY軸に位置合わせされたセクションを有してもよい。処理システム100は、交差位置の位置が1つのセクションの中にあることに応答し、水平または垂直の軸をそれぞれ回転軸に使うことを決定してもよく、例えば、図7B、図7CにY軸を使用することが示されている。
多様なHMD110を備える実施形態では、処理システム100は、多様なHMD110にわたって表示を整合させてもよい。例えば、処理システム100は、第1のHMD110を装着している第1のユーザに拡張現実オブジェクトの光景を提供する。処理システム100は、第2のHMD110を装着している第2のユーザに、同じ拡張現実オブジェクトの異なる光景を提供する。第2のユーザは、第1のユーザと異なる位置にいる。すなわち、二人のユーザは、部屋の異なる側にいて、部屋の中心に表示された拡張現実オブジェクトの方を見ている。部屋に表示されている拡張現実オブジェクトに対するHMD110の距離または向きを使い、処理システム100は、二人のユーザの異なる光景を決定することができる。さらに、処理システム100は、拡張現実オブジェクトを操作するための拡張現実グラフィックを、どのような数のユーザに提供するものであってもよい。ユーザの一人が仮想現実オブジェクトを操作したとの決定に応答し、処理システム100は、システムにおける1人または複数のユーザによって知覚される同一の拡張現実オブジェクトの表示された光景を変更してもよい。他の実施形態では、処理システム100は、複数のHMD110の表示を同期させて、複数のHMD110のそれぞれが、ユーザの相対的な位置とは無関係に、ユーザによって知覚されるオブジェクトの同じ光景を提供してもよい。
図7Aから図7Cの例は、拡張現実オブジェクト730を説明する目的で立方体を示している。しかしながら、他の実施形態では、処理システム100は、他のタイプの形状または属性を有する表示用のオブジェクトを提供してもよい。様々な実施形態では、表示されるオブジェクトは、生物の生理学的な機能を示し、これについては以下にさらに説明する。
IV インターフェース表示の例
図8A、図8B、図8C及び図8Dは、本実施形態の拡張現実グラフィックスの例を示す。HMD110または別のタイプの表示装置は、図8Aから図8Dに示すように、器官内の曲率、勾配、チャネル、または空洞などの3D特徴を含むオブジェクトを表示してもよい。処理システム100は、人または動物に対する介入処置のため、1または複数の医師により使用されてもよい。例えば、患者の心臓に対して手術(または別のタイプの手術)を実施している間、処理システム100は、心臓を表す拡張現実オブジェクトを提供してもよい。上記の実施形態は、医師が手術を行うのを支援するために、拡張現実オブジェクトのハンズフリーまたはタッチフリーの制御を提供することができる。例えば、医師は、心臓の標的となる部位または心房に器具を導くことを助けるため、視覚化された心臓の回転または拡大レベルの調整を望むことがある。
図8Aから図8Dに示す実施形態において、処理システム100は、1つまたは複数の器具(例えば、カテーテル)を表すグラフィックスを提供するとともに、医師が手術または観察している器官内での器具の相対的及び/または内部の位置及び/または向きを表すグラフィックを提供してもよい。さらに、処理システム100は、医師の処置の実行または観察を支援するために操作部位上のマーカ(例えば、図8Aから図8Dに示す円形または球状の)のような他のグラフィックスを提供してもよい。医師の手は器具の操作によって占有され、表示装置または入力装置(例えば、マウスまたはキーボード)に触れることで無菌性が損なわれるので、ハンズフリーまたはタッチフリーの制御が有利であることが考えられる。
図8Aから図8Dの実施形態において、処理システム100は、円形800で示されるユーザの視線方向を追跡してもよい。図8Aに示すように、処理システム100は、視線方向が円環の拡張現実グラフィックのセクション(例えば“<<”記号)と交差するとの決定に応答し、表示されたオブジェクトを、軸を中心として回転してもよい。図8Cに示すように、処理システム100は、視線方向が円環の拡張現実グラフィックの異なるセクションと交差するとの決定に応答し、表示されたオブジェクトを異なる軸を中心にして回転してもよい。図8Dに示すように、処理システム100は、ユーザ入力(例えば“+”記号)と交差するとの決定に応答し、表示されているオブジェクトの拡大レベルを変更してもよい。
V.追加の検討事項
本発明の実施形態の前述の説明は例示を目的とするものであり、本発明を網羅的に、または形状を正確に限定して開示するものではない。関連技術の当業者は、上記の開示に照らして多くの変更および変形が可能であることを理解することができる。
この説明のいくつかの部分では、情報に対する操作のアルゴリズム及び記号表現の観点から本発明の実施形態を説明している。これらのアルゴリズムの説明および表現は、データ処理技術における当業者によって一般的に用いられ、彼らの仕事の趣旨を効果的に他の当業者に伝える。これらのオペレーションは、機能的、計算的、または論理的に説明されている一方で、コンピュータプログラム、または等価電気回路、マイクロコードなどによって実装されると理解される。さらに、一般性を損なうことなく、これらの操作の配置をモジュールと呼ぶことが便利であることも証明されている。説明された操作およびその関連モジュールは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組み合わせで具体化されてもよい。
本明細書で説明される任意のステップ、オペレーション、またはプロセスは、単独または他のデバイスと組み合わせることで、1つ若しくは複数のハードウェアまたはソフトウェアモジュールで実行または実装されてよい。一実施形態では、ソフトウェアモジュールは、コンピュータプログラムコードを含むコンピュータ読み取り可能な非一過性記憶媒体を含むコンピュータプログラム製品を用いて実装され、このコンピュータプログラム製品は、記載されたステップ、操作、またはプロセスのいずれかまたは全てを実行するためにコンピュータプロセッサによって実行されることができる。
また、本発明の実施形態は、本明細書で説明されるコンピューティングプロセスによって製造される製品に関する場合がある。このような製品は、コンピューティングプロセスから生じる情報を含むことができ、ここで、情報は、非一時的で有形のコンピュータ読み取り可能な非一過性記憶媒体に格納され、本明細書で説明されるコンピュータプログラム製品、または他のデータの組み合わせの任意の実施形態を含むものであってもよい。
最後に、明細書で使用される文言は、主に読みやすさと教育目的のために選択されたものであり、本発明の主題を描写または制限するために選択されていない場合がある。したがって、本発明の範囲は、この詳細な説明によってではなく、むしろ、これに基づく出願に係る請求項によって限定されることが意図されている。したがって、本発明の実施形態の開示は、以下の特許請求の範囲に記載されている本発明の範囲を例示することを意図しているが、これを限定するものではない。

Claims (19)

  1. システムであって、
    ユーザにより装着されたヘッドマウントデバイス(HMD)であって、センサと、命令が保存されたコンピュータが読み取り可能な非一過性記憶媒体と、を含む前記HMDを備え、
    1つまたは複数のプロセッサにより実行されたとき、前記命令は、前記1つまたは複数のプロセッサに、
    前記HMDによる表示のために拡張現実オブジェクトを提供させ、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示し、
    前記HMDによる表示のために拡張現実グラフィックを、前記HMDを装着した前記ユーザの視点から見た前記拡張現実オブジェクトと前記HMDとの間の平面上に提供させ、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示させ、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有し、
    前記センサにより捕捉されたセンサデータを用いて前記ユーザの視線方向を決定させ、
    前記視線方向が、前記平面の上で前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けるとの決定に応答し、
    前記所定の期間中の前記部分に従って、前記HMDによる表示のための前記拡張現実オブジェクトの拡張または回転のレベルを変更させる、
    システム。
  2. 前記コンピュータが読み取り可能な非一過性記憶媒体は、前記1つまたは複数のプロセッサにより実行されたとき、
    前記1つまたは複数のプロセッサに、
    前記交差点を用いて回転軸を決定する、命令をさらに記憶し、
    表示用の前記拡張現実オブジェクトの変更版を提供することは、前記拡張現実オブジェクトを、前記所定の期間中に前記回転軸を中心にして回転させることを含む、請求項1に記載のシステム。
  3. 前記拡張現実グラフィックは、円環形状を有し、前記回転軸の決定は、
    前記中心と前記交差点との間の前記平面の上のベクトルを決定する、
    前記平面の上の前記ベクトルと直交する軸を前記回転軸に決定する、ことを含む、請求項2に記載のシステム。
  4. 前記複数の部分は、前記平面の水平または垂直の軸に位置合わせされ、前記回転軸の決定は、
    前記部分と位置合わせされた前記平面の水平または垂直な軸を前記回転軸に決定することを含む、請求項2に記載のシステム。
  5. 前記コンピュータが読み取り可能な非一過性記憶媒体は、前記1つまたは複数のプロセッサにより実行されたとき、
    前記1つまたは複数のプロセッサに、
    異なるユーザに装着される異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を提供させ、
    前記拡張現実オブジェクトの変更版に従って、異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を変更させる、
    命令をさらに記憶する、請求項1に記載のシステム。
  6. 方法であって、
    ユーザに装着されたヘッドマウントデバイス(HMD)により表示される拡張現実オブジェクトを提供し、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示することと、
    前記HMDによる表示のために拡張現実グラフィックを、前記HMDを装着したユーザの視点から見た前記拡張現実オブジェクトと前記HMDとの間の平面上に提供させ、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示させ、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有することと、
    前記HMDのセンサにより捕捉されたセンサデータを用い、ユーザの視線方向を決定することと、
    前記視線方向が、前記平面の上の前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けると決定することに応答することと、
    前記所定の期間中の前記部分に従って、前記HMDによる表示のための前記拡張現実オブジェクトの拡張または回転のレベルを変更することと、を備える方法。
  7. 前記交差点を用いて回転軸を決定することをさらに備え、
    表示用の前記拡張現実オブジェクトの変更版を提供することは、前記所定の期間中、前記回転軸を中心にして前記拡張現実オブジェクトを回転することを含む、請求項6に記載の方法。
  8. 前記拡張現実グラフィックは、円環形状を有し、前記回転軸の決定は、
    前記中心と前記交差点との間の前記平面の上のベクトルを決定することと、
    前記平面の上の前記ベクトルと直交する軸を前記回転軸に決定することと、を含む、請求項7に記載の方法。
  9. 前記複数の部分は、前記平面の水平または垂直の軸に位置合わせされ、前記回転軸の決定は、
    前記部分に位置合わせされた前記平面の水平または垂直の軸を前記回転軸に決定することと、を含む、請求項7に記載の方法。
  10. 異なるユーザに装着された異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を提供することと、
    前記拡張現実オブジェクトの変更版に従って、異なる前記HMDにより表示するための前記拡張現実オブジェクトを変更することと、をさらに備える、請求項6に記載の方法。
  11. 前記センサにより捕捉されたセンサデータを用いた前記ユーザの前記視線方向を決定することは、
    前記センサデータを用いて頭部の向きを決定することと、
    前記センサデータを用いて瞳孔の向きを決定することと、
    前記頭部の向きと前記瞳孔の向きとの差異が閾値以下であると決定することと、を含む、請求項6に記載の方法。
  12. 方法であって、
    ユーザに装着されたヘッドマウントデバイス(HMD)により表示するための拡張現実グラフィックを提供することであって、前記拡張現実グラフィックは、クライアントデバイスの表示装置により提供された拡張現実オブジェクトと、HMDを装着した前記ユーザの視点との間の平面の上に表示され、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示し、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示され、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有することと、
    前記HMDのセンサによって捕捉されたセンサデータを用いて前記ユーザの視線方向を決定することと、
    前記視線方向が前記平面の上の前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けるとの決定に応答することと、
    クライアントデバイスに対して表示装置内の前記拡張現実オブジェクトの拡大または回転のレベルを、前記所定の期間中の前記部分に従って変更する命令を送ることと、を備える、方法。
  13. 前記ユーザが実行したユーザジェスチャを決定することであって、前記表示装置内の前記拡張現実オブジェクトの変更は、前記ユーザジェスチャに基づくことをさらに備える、請求項12に記載の方法。
  14. 前記ユーザジェスチャは、前記ユーザの目または手の動きである、請求項13に記載の方法。
  15. 前記ユーザジェスチャは前記ユーザの指を使って行われるピンチ動作である、請求項13に記載の方法。
  16. 前記クライアントデバイスに命令を送ることは、
    前記平面に関する前記ユーザの前記視線方向を命令に変換することであって、前記命令が前記クライアントデバイスの型式と互換性を有すること、及び
    前記命令を安全なネットワークを介して前記クライアントデバイスに送信することを含む、請求項12に記載の方法。
  17. 前記拡張現実グラフィックの少なくとも一部は、ユーザの視点から前記拡張現実オブジェクトと重ならないように表示される、請求項6に記載の方法。
  18. 前記センサによって捕捉されたセンサデータを用いて前記ユーザの前記視線方向を決定することは、
    前記センサデータを用いて頭の向きを決定することと、
    前記センサデータを用いて瞳の向きを決定することと、
    前記頭の向きを前記瞳の向きとの差が閾値以下であることを決定することと、を含む、請求項1に記載のシステム。
  19. 前記センサによって捕捉されたセンサデータを用いて前記ユーザの前記視線方向を決定することは、
    前記センサデータを用いて頭の向きを決定することと、
    前記センサデータを用いて瞳の向きを決定することと、
    前記頭の向きを前記瞳の向きとの差が閾値以下であることを決定することと、を含む、請求項12に記載の方法。
JP2020573181A 2018-06-27 2019-06-25 視線に基づく拡張現実環境のためのインターフェース Active JP7213899B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862690834P 2018-06-27 2018-06-27
US62/690,834 2018-06-27
PCT/US2019/039076 WO2020006002A1 (en) 2018-06-27 2019-06-25 Gaze based interface for augmented reality environment

Publications (3)

Publication Number Publication Date
JP2021528786A JP2021528786A (ja) 2021-10-21
JPWO2020006002A5 JPWO2020006002A5 (ja) 2022-07-04
JP7213899B2 true JP7213899B2 (ja) 2023-01-27

Family

ID=68985564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020573181A Active JP7213899B2 (ja) 2018-06-27 2019-06-25 視線に基づく拡張現実環境のためのインターフェース

Country Status (8)

Country Link
US (2) US11199898B2 (ja)
EP (1) EP3814829A4 (ja)
JP (1) JP7213899B2 (ja)
KR (1) KR20210059697A (ja)
AU (1) AU2019294617B2 (ja)
CA (1) CA3105192A1 (ja)
IL (1) IL279705B1 (ja)
WO (1) WO2020006002A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180247712A1 (en) 2017-02-24 2018-08-30 Masimo Corporation System for displaying medical monitoring data
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
CN107223082B (zh) * 2017-04-21 2020-05-12 深圳前海达闼云端智能科技有限公司 一种机器人控制方法、机器人装置及机器人设备
EP3622529A1 (en) 2017-05-08 2020-03-18 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
JP2021182174A (ja) * 2018-08-07 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US10891792B1 (en) 2019-01-31 2021-01-12 Splunk Inc. Precise plane detection and placement of virtual objects in an augmented reality environment
WO2021104300A1 (zh) * 2019-11-25 2021-06-03 京东方科技集团股份有限公司 健康管理系统以及用于其的人体信息显示方法和人体模型生成方法
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US10921882B1 (en) * 2019-12-26 2021-02-16 Jie Li Human-machine interaction method, system and apparatus for controlling an electronic device
US11922581B2 (en) 2020-05-08 2024-03-05 Coviden Lp Systems and methods of controlling an operating room display using an augmented reality headset
CN116719452A (zh) 2020-09-25 2023-09-08 苹果公司 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法
EP4213482A4 (en) * 2020-12-16 2024-03-20 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR TRANSMITTING SEVERAL PARTS OF APPLICATION DATA WITH LOW LATENCY
WO2023153611A1 (ko) * 2022-02-11 2023-08-17 삼성전자주식회사 객체의 영상을 획득하는 방법 및 장치
JP2023143437A (ja) * 2022-03-25 2023-10-06 富士フイルム株式会社 制御装置、制御方法、及び制御プログラム
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US12169598B2 (en) * 2022-09-19 2024-12-17 Snap Inc. AR glasses as IoT remote control
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
JP2024052410A (ja) * 2022-09-30 2024-04-11 富士フイルム株式会社 プロセッサ、情報処理方法、及び情報処理プログラム
WO2024186838A2 (en) * 2023-03-05 2024-09-12 Walker Stanley A system for an independent recursive virtual world with a voice controlled interface
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US20130154913A1 (en) 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US20150153571A1 (en) 2013-12-01 2015-06-04 Apx Labs, Llc Systems and methods for providing task-based instructions
US20160004306A1 (en) 2010-07-23 2016-01-07 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US20160140766A1 (en) 2012-12-12 2016-05-19 Sulon Technologies Inc. Surface projection system and method for augmented reality
JP2018005517A (ja) 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
WO2018051592A1 (ja) 2016-09-14 2018-03-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2297704B1 (en) * 2008-04-14 2014-04-09 Google, Inc. Panning using virtual surfaces
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface
US11278353B2 (en) * 2016-03-16 2022-03-22 Synaptive Medical Inc. Trajectory alignment system and methods
US9094677B1 (en) * 2013-07-25 2015-07-28 Google Inc. Head mounted display device with automated positioning
US9696798B2 (en) * 2014-04-09 2017-07-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Eye gaze direction indicator
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
CN107613897B (zh) * 2015-10-14 2021-12-17 外科手术室公司 扩增实境的外科导航
US10667981B2 (en) * 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
US10133345B2 (en) * 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
CN108463765A (zh) * 2016-04-08 2018-08-28 谷歌有限责任公司 基于姿势信息在头戴式显示装置处编码图像数据
US10429647B2 (en) * 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
US20180033198A1 (en) * 2016-07-29 2018-02-01 Microsoft Technology Licensing, Llc Forward direction determination for augmented reality and virtual reality
US10664049B2 (en) * 2016-12-09 2020-05-26 Nvidia Corporation Systems and methods for gaze tracking
US10692287B2 (en) * 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
WO2018217951A1 (en) * 2017-05-24 2018-11-29 Camplex, Inc. Surgical visualization systems and displays
US10861236B2 (en) * 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160004306A1 (en) 2010-07-23 2016-01-07 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US20130154913A1 (en) 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US20160140766A1 (en) 2012-12-12 2016-05-19 Sulon Technologies Inc. Surface projection system and method for augmented reality
US20150153571A1 (en) 2013-12-01 2015-06-04 Apx Labs, Llc Systems and methods for providing task-based instructions
JP2018005517A (ja) 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
WO2018051592A1 (ja) 2016-09-14 2018-03-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
IL279705B1 (en) 2024-12-01
IL279705A (en) 2021-03-01
JP2021528786A (ja) 2021-10-21
US20200004328A1 (en) 2020-01-02
EP3814829A1 (en) 2021-05-05
US20220075449A1 (en) 2022-03-10
KR20210059697A (ko) 2021-05-25
US11829526B2 (en) 2023-11-28
US11199898B2 (en) 2021-12-14
AU2019294617B2 (en) 2025-02-06
EP3814829A4 (en) 2022-03-23
CA3105192A1 (en) 2020-01-02
WO2020006002A1 (en) 2020-01-02
AU2019294617A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7213899B2 (ja) 視線に基づく拡張現実環境のためのインターフェース
US11507336B2 (en) Augmented reality display sharing
CN107771309B (zh) 处理三维用户输入的方法
EP4111291A1 (en) Hand gesture input for wearable system
US10475251B2 (en) Method and apparatus for multiple mode interface
TW202101172A (zh) 用於人工實境系統的手臂視線驅動的使用者介面元件閘控
Lu et al. Immersive manipulation of virtual objects through glove-based hand gesture interaction
US20130050069A1 (en) Method and system for use in providing three dimensional user interface
TW202105129A (zh) 具有用於閘控使用者介面元件的個人助理元件之人工實境系統
TW202101170A (zh) 用於人工實境系統的角點識別手勢驅動的使用者介面元件閘控
US11055926B2 (en) Method and apparatus for multiple mode interface
US20230013860A1 (en) Methods and systems for selection of objects
EP4135583A1 (en) System and method for augmented reality data interaction for ultrasound imaging
JP7631274B2 (ja) 制御装置、制御方法、プログラム
EP4468118A1 (en) System, method, and computer program for controlling a user interface
JP2024154673A (ja) 処理装置、制御方法、プログラム
US20160004318A1 (en) System and method of touch-free operation of a picture archiving and communication system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7213899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150