JP7213899B2 - 視線に基づく拡張現実環境のためのインターフェース - Google Patents
視線に基づく拡張現実環境のためのインターフェース Download PDFInfo
- Publication number
- JP7213899B2 JP7213899B2 JP2020573181A JP2020573181A JP7213899B2 JP 7213899 B2 JP7213899 B2 JP 7213899B2 JP 2020573181 A JP2020573181 A JP 2020573181A JP 2020573181 A JP2020573181 A JP 2020573181A JP 7213899 B2 JP7213899 B2 JP 7213899B2
- Authority
- JP
- Japan
- Prior art keywords
- augmented reality
- determining
- user
- hmd
- reality object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Description
医療行為及び外科手術の分野において、医師は、片手または両手を積極的に使用して様々な手順の形態を制御する。多くの場合、手には手袋がされて、滅菌野内にある。しばしば医師の手は外科的な装置の操作に占められている。これらの理由により、医師にとって手に基づく相互作用を使って他の装置を操作することは困難な場合がある。3次元画像等の補助情報は、しばしば医師に医療用表示装置上に提供される。従来の医療用表示装置は、医師に提供される3D情報の表示方向やスケールの制御にマウス、タッチパッド、またはジョイスティックの手による操作が必要になる。3Dオブジェクトを従来の2Dで表示する場合、医師は通常オブジェクトの方向を制御するためにマウスジェスチャを使うことが考えられる。表示されたオブジェクトや情報の向きや規模を、手の使用を抑えた直感的な方法により制御できる手段を提供することが望ましい。
図1は、一実施形態による処理システム100の例示的なシステム環境を示す。図1に示すシステム環境は、処理システム100、一または複数のヘッドマウントデバイス(HMD)110、及び一または複数のクライアントデバイス120を含み、これらは、ネットワーク130、例えば、インターネット、WIFI、BLUETOOTH(登録商標)、または別のタイプの有線または無線ネットワークにより接続されてもよい。他の一実施形態は、異なる、または追加される構成要素をシステム環境に含めることができる。図1の様々な構成要素によって実行される機能は、異なる実施形態において変化する場合がある。すなわち、処理システム100は、サーバーまたはクラウド上で実行してもよい。他の実施形態においては、いくつかまたは全ての処理システム100の機能を、一または複数のHMD110またはクライアントデバイス120上で実行してもよい。
あるいは、クライアントデバイス110は、タブレット、スマートフォン、携帯電話、ウェアラブルデバイスまたは他の適切な形式の装置であってもよい。クライアントデバイス120は、2Dまたは3Dで対象物を表示する電子デバイスを含んでもよい。クライアントデバイス120は、マウス、キーボード、タッチスクリーン、ジェスチャ、ユーザの体の他の動作等のようなユーザの入力をデバイスから受けてもよい。さらに、または代わりに、クライアントデバイス120は、表示されたオブジェクトを変更するためのユーザの入力または他の情報を処理システム100またはHMD110から受け取ってもよい。いくつかの実施形態では、クライアントデバイス110は、処理システム100またはHMD110がクライアントデバイス110に登録されることの決定に応答し、クライアントデバイス110により表示されたオブジェクトを操作することを処理システム100またはHMD110に許可する。
図3は、一実施形態による回転軸の例を説明している。図3で説明されている例において、拡張現実グラフィック300は円環形状である。円環形状は、内径R1と外径R2とによって規定される厚さを有している。他の実施形態では、拡張現実グラフィック300は、異なるタイプの形状または属性(例えば、色やサイズ等)を有してもよい。HMD110は、2D平面、例えば、図3に示す座標系のX-Y平面におけるz=0に拡張現実グラフィック300を表示する。いくつかの実施形態では、拡張現実グラフィック300が厚さ(例えばz軸における)を有し、HMD110により3Dで表示されてもよい。HMD110は、また、拡張現実グラフィック300と同一の平面にマーカ310を表示する。処理システム100は、HMD110を装着しているユーザの視線方向と平面との交差位置を決定することにより、マーカ310の位置を決定する。ユーザの頭部、または目が移動すると、処理システム100は、その移動を追跡するために、マーカ310の位置をリアルタイムで更新してもよい。視線方向を使ったマーカ310の操作は、マウス動作を使うコンピュータのカーソルの操作に類似することがある。
z=0であり、
図5は、マウス動作を使用して回転を制御するための実施形態の処理500のフローチャートである。処理システム100は、処理500を用いて、HMD110を装着しているユーザに対し、マウスやキーボードといった別個の入力装置を必要とすることなく、クライアントデバイス120の制御を提供してもよい。処理システム100は、例えば、回転軸、回転量といった回転情報を、図3に関する上記処理を使って決定する510。処理システム100は、HMD110に登録されている可能性があるクライアントデバイス120上に表示されたオブジェクトを識別する520。処理システム100は、回転情報をクライアントデバイス120と互換性のある命令に変換する530。例えば、クライアントデバイス120は、ワイヤレスユニバーサルシリアルバス(USB)マウスを介してユーザ入力を受信することができるコンピュータである。したがって、命令は、2次元平面上の(X,Y)座標位置、ボタンの押下、スクロールホイールの動きまたはマウスの動きといった基本的なマウスの命令であってもよい。処理システム100は、1つまたは複数の異なる演算方法を使ってクライアントデバイス120のインターフェースとなる入力装置の形式に依存する回転情報を変換してもよい530。例えば、キーボードはマウスと異なる制御を含んでいる。
図8A、図8B、図8C及び図8Dは、本実施形態の拡張現実グラフィックスの例を示す。HMD110または別のタイプの表示装置は、図8Aから図8Dに示すように、器官内の曲率、勾配、チャネル、または空洞などの3D特徴を含むオブジェクトを表示してもよい。処理システム100は、人または動物に対する介入処置のため、1または複数の医師により使用されてもよい。例えば、患者の心臓に対して手術(または別のタイプの手術)を実施している間、処理システム100は、心臓を表す拡張現実オブジェクトを提供してもよい。上記の実施形態は、医師が手術を行うのを支援するために、拡張現実オブジェクトのハンズフリーまたはタッチフリーの制御を提供することができる。例えば、医師は、心臓の標的となる部位または心房に器具を導くことを助けるため、視覚化された心臓の回転または拡大レベルの調整を望むことがある。
本発明の実施形態の前述の説明は例示を目的とするものであり、本発明を網羅的に、または形状を正確に限定して開示するものではない。関連技術の当業者は、上記の開示に照らして多くの変更および変形が可能であることを理解することができる。
Claims (19)
- システムであって、
ユーザにより装着されたヘッドマウントデバイス(HMD)であって、センサと、命令が保存されたコンピュータが読み取り可能な非一過性記憶媒体と、を含む前記HMDを備え、
1つまたは複数のプロセッサにより実行されたとき、前記命令は、前記1つまたは複数のプロセッサに、
前記HMDによる表示のために拡張現実オブジェクトを提供させ、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示し、
前記HMDによる表示のために拡張現実グラフィックを、前記HMDを装着した前記ユーザの視点から見た前記拡張現実オブジェクトと前記HMDとの間の平面上に提供させ、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示させ、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有し、
前記センサにより捕捉されたセンサデータを用いて前記ユーザの視線方向を決定させ、
前記視線方向が、前記平面の上で前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けるとの決定に応答し、
前記所定の期間中の前記部分に従って、前記HMDによる表示のための前記拡張現実オブジェクトの拡張または回転のレベルを変更させる、
システム。 - 前記コンピュータが読み取り可能な非一過性記憶媒体は、前記1つまたは複数のプロセッサにより実行されたとき、
前記1つまたは複数のプロセッサに、
前記交差点を用いて回転軸を決定する、命令をさらに記憶し、
表示用の前記拡張現実オブジェクトの変更版を提供することは、前記拡張現実オブジェクトを、前記所定の期間中に前記回転軸を中心にして回転させることを含む、請求項1に記載のシステム。 - 前記拡張現実グラフィックは、円環形状を有し、前記回転軸の決定は、
前記中心と前記交差点との間の前記平面の上のベクトルを決定する、
前記平面の上の前記ベクトルと直交する軸を前記回転軸に決定する、ことを含む、請求項2に記載のシステム。 - 前記複数の部分は、前記平面の水平または垂直の軸に位置合わせされ、前記回転軸の決定は、
前記部分と位置合わせされた前記平面の水平または垂直な軸を前記回転軸に決定することを含む、請求項2に記載のシステム。 - 前記コンピュータが読み取り可能な非一過性記憶媒体は、前記1つまたは複数のプロセッサにより実行されたとき、
前記1つまたは複数のプロセッサに、
異なるユーザに装着される異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を提供させ、
前記拡張現実オブジェクトの変更版に従って、異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を変更させる、
命令をさらに記憶する、請求項1に記載のシステム。 - 方法であって、
ユーザに装着されたヘッドマウントデバイス(HMD)により表示される拡張現実オブジェクトを提供し、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示することと、
前記HMDによる表示のために拡張現実グラフィックを、前記HMDを装着したユーザの視点から見た前記拡張現実オブジェクトと前記HMDとの間の平面上に提供させ、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示させ、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有することと、
前記HMDのセンサにより捕捉されたセンサデータを用い、ユーザの視線方向を決定することと、
前記視線方向が、前記平面の上の前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けると決定することに応答することと、
前記所定の期間中の前記部分に従って、前記HMDによる表示のための前記拡張現実オブジェクトの拡張または回転のレベルを変更することと、を備える方法。 - 前記交差点を用いて回転軸を決定することをさらに備え、
表示用の前記拡張現実オブジェクトの変更版を提供することは、前記所定の期間中、前記回転軸を中心にして前記拡張現実オブジェクトを回転することを含む、請求項6に記載の方法。 - 前記拡張現実グラフィックは、円環形状を有し、前記回転軸の決定は、
前記中心と前記交差点との間の前記平面の上のベクトルを決定することと、
前記平面の上の前記ベクトルと直交する軸を前記回転軸に決定することと、を含む、請求項7に記載の方法。 - 前記複数の部分は、前記平面の水平または垂直の軸に位置合わせされ、前記回転軸の決定は、
前記部分に位置合わせされた前記平面の水平または垂直の軸を前記回転軸に決定することと、を含む、請求項7に記載の方法。 - 異なるユーザに装着された異なる前記HMDにより表示するための前記拡張現実オブジェクトの異なる光景を提供することと、
前記拡張現実オブジェクトの変更版に従って、異なる前記HMDにより表示するための前記拡張現実オブジェクトを変更することと、をさらに備える、請求項6に記載の方法。 - 前記センサにより捕捉されたセンサデータを用いた前記ユーザの前記視線方向を決定することは、
前記センサデータを用いて頭部の向きを決定することと、
前記センサデータを用いて瞳孔の向きを決定することと、
前記頭部の向きと前記瞳孔の向きとの差異が閾値以下であると決定することと、を含む、請求項6に記載の方法。 - 方法であって、
ユーザに装着されたヘッドマウントデバイス(HMD)により表示するための拡張現実グラフィックを提供することであって、前記拡張現実グラフィックは、クライアントデバイスの表示装置により提供された拡張現実オブジェクトと、HMDを装着した前記ユーザの視点との間の平面の上に表示され、前記拡張現実オブジェクトは、医療処置のために患者の一部を表示し、前記拡張現実グラフィックは前記拡張現実オブジェクトに重ねて表示され、前記拡張現実グラフィックは、前記拡張現実オブジェクトの表示の拡大または回転のレベルを制御する複数の部分を含み、前記拡張現実グラフィックが前記拡張現実オブジェクトの少なくとも一部を囲み、前記拡張現実オブジェクトに整合する中心部を有することと、
前記HMDのセンサによって捕捉されたセンサデータを用いて前記ユーザの視線方向を決定することと、
前記視線方向が前記平面の上の前記拡張現実グラフィックの複数の部分のうちの1つの部分と交差し、少なくとも所定の期間交差点において交差し続けるとの決定に応答することと、
クライアントデバイスに対して表示装置内の前記拡張現実オブジェクトの拡大または回転のレベルを、前記所定の期間中の前記部分に従って変更する命令を送ることと、を備える、方法。 - 前記ユーザが実行したユーザジェスチャを決定することであって、前記表示装置内の前記拡張現実オブジェクトの変更は、前記ユーザジェスチャに基づくことをさらに備える、請求項12に記載の方法。
- 前記ユーザジェスチャは、前記ユーザの目または手の動きである、請求項13に記載の方法。
- 前記ユーザジェスチャは前記ユーザの指を使って行われるピンチ動作である、請求項13に記載の方法。
- 前記クライアントデバイスに命令を送ることは、
前記平面に関する前記ユーザの前記視線方向を命令に変換することであって、前記命令が前記クライアントデバイスの型式と互換性を有すること、及び
前記命令を安全なネットワークを介して前記クライアントデバイスに送信することを含む、請求項12に記載の方法。 - 前記拡張現実グラフィックの少なくとも一部は、ユーザの視点から前記拡張現実オブジェクトと重ならないように表示される、請求項6に記載の方法。
- 前記センサによって捕捉されたセンサデータを用いて前記ユーザの前記視線方向を決定することは、
前記センサデータを用いて頭の向きを決定することと、
前記センサデータを用いて瞳の向きを決定することと、
前記頭の向きを前記瞳の向きとの差が閾値以下であることを決定することと、を含む、請求項1に記載のシステム。 - 前記センサによって捕捉されたセンサデータを用いて前記ユーザの前記視線方向を決定することは、
前記センサデータを用いて頭の向きを決定することと、
前記センサデータを用いて瞳の向きを決定することと、
前記頭の向きを前記瞳の向きとの差が閾値以下であることを決定することと、を含む、請求項12に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862690834P | 2018-06-27 | 2018-06-27 | |
US62/690,834 | 2018-06-27 | ||
PCT/US2019/039076 WO2020006002A1 (en) | 2018-06-27 | 2019-06-25 | Gaze based interface for augmented reality environment |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021528786A JP2021528786A (ja) | 2021-10-21 |
JPWO2020006002A5 JPWO2020006002A5 (ja) | 2022-07-04 |
JP7213899B2 true JP7213899B2 (ja) | 2023-01-27 |
Family
ID=68985564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573181A Active JP7213899B2 (ja) | 2018-06-27 | 2019-06-25 | 視線に基づく拡張現実環境のためのインターフェース |
Country Status (8)
Country | Link |
---|---|
US (2) | US11199898B2 (ja) |
EP (1) | EP3814829A4 (ja) |
JP (1) | JP7213899B2 (ja) |
KR (1) | KR20210059697A (ja) |
AU (1) | AU2019294617B2 (ja) |
CA (1) | CA3105192A1 (ja) |
IL (1) | IL279705B1 (ja) |
WO (1) | WO2020006002A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180247712A1 (en) | 2017-02-24 | 2018-08-30 | Masimo Corporation | System for displaying medical monitoring data |
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
CN107223082B (zh) * | 2017-04-21 | 2020-05-12 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
EP3622529A1 (en) | 2017-05-08 | 2020-03-18 | Masimo Corporation | System for pairing a medical system to a network controller by use of a dongle |
JP2021182174A (ja) * | 2018-08-07 | 2021-11-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10891792B1 (en) | 2019-01-31 | 2021-01-12 | Splunk Inc. | Precise plane detection and placement of virtual objects in an augmented reality environment |
WO2021104300A1 (zh) * | 2019-11-25 | 2021-06-03 | 京东方科技集团股份有限公司 | 健康管理系统以及用于其的人体信息显示方法和人体模型生成方法 |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
US10921882B1 (en) * | 2019-12-26 | 2021-02-16 | Jie Li | Human-machine interaction method, system and apparatus for controlling an electronic device |
US11922581B2 (en) | 2020-05-08 | 2024-03-05 | Coviden Lp | Systems and methods of controlling an operating room display using an augmented reality headset |
CN116719452A (zh) | 2020-09-25 | 2023-09-08 | 苹果公司 | 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法 |
EP4213482A4 (en) * | 2020-12-16 | 2024-03-20 | Samsung Electronics Co., Ltd. | METHOD AND DEVICE FOR TRANSMITTING SEVERAL PARTS OF APPLICATION DATA WITH LOW LATENCY |
WO2023153611A1 (ko) * | 2022-02-11 | 2023-08-17 | 삼성전자주식회사 | 객체의 영상을 획득하는 방법 및 장치 |
JP2023143437A (ja) * | 2022-03-25 | 2023-10-06 | 富士フイルム株式会社 | 制御装置、制御方法、及び制御プログラム |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12169598B2 (en) * | 2022-09-19 | 2024-12-17 | Snap Inc. | AR glasses as IoT remote control |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
JP2024052410A (ja) * | 2022-09-30 | 2024-04-11 | 富士フイルム株式会社 | プロセッサ、情報処理方法、及び情報処理プログラム |
WO2024186838A2 (en) * | 2023-03-05 | 2024-09-12 | Walker Stanley | A system for an independent recursive virtual world with a voice controlled interface |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US20150153571A1 (en) | 2013-12-01 | 2015-06-04 | Apx Labs, Llc | Systems and methods for providing task-based instructions |
US20160004306A1 (en) | 2010-07-23 | 2016-01-07 | Telepatheye Inc. | Eye-wearable device user interface and augmented reality method |
US20160140766A1 (en) | 2012-12-12 | 2016-05-19 | Sulon Technologies Inc. | Surface projection system and method for augmented reality |
JP2018005517A (ja) | 2016-06-30 | 2018-01-11 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
WO2018051592A1 (ja) | 2016-09-14 | 2018-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2297704B1 (en) * | 2008-04-14 | 2014-04-09 | Google, Inc. | Panning using virtual surfaces |
US8611015B2 (en) * | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US11278353B2 (en) * | 2016-03-16 | 2022-03-22 | Synaptive Medical Inc. | Trajectory alignment system and methods |
US9094677B1 (en) * | 2013-07-25 | 2015-07-28 | Google Inc. | Head mounted display device with automated positioning |
US9696798B2 (en) * | 2014-04-09 | 2017-07-04 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Eye gaze direction indicator |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10186086B2 (en) * | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
CN107613897B (zh) * | 2015-10-14 | 2021-12-17 | 外科手术室公司 | 扩增实境的外科导航 |
US10667981B2 (en) * | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
CN108463765A (zh) * | 2016-04-08 | 2018-08-28 | 谷歌有限责任公司 | 基于姿势信息在头戴式显示装置处编码图像数据 |
US10429647B2 (en) * | 2016-06-10 | 2019-10-01 | Facebook Technologies, Llc | Focus adjusting virtual reality headset |
US20180033198A1 (en) * | 2016-07-29 | 2018-02-01 | Microsoft Technology Licensing, Llc | Forward direction determination for augmented reality and virtual reality |
US10664049B2 (en) * | 2016-12-09 | 2020-05-26 | Nvidia Corporation | Systems and methods for gaze tracking |
US10692287B2 (en) * | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
WO2018217951A1 (en) * | 2017-05-24 | 2018-11-29 | Camplex, Inc. | Surgical visualization systems and displays |
US10861236B2 (en) * | 2017-09-08 | 2020-12-08 | Surgical Theater, Inc. | Dual mode augmented reality surgical system and method |
-
2019
- 2019-06-25 IL IL279705A patent/IL279705B1/en unknown
- 2019-06-25 EP EP19824567.2A patent/EP3814829A4/en active Pending
- 2019-06-25 WO PCT/US2019/039076 patent/WO2020006002A1/en unknown
- 2019-06-25 AU AU2019294617A patent/AU2019294617B2/en active Active
- 2019-06-25 JP JP2020573181A patent/JP7213899B2/ja active Active
- 2019-06-25 CA CA3105192A patent/CA3105192A1/en active Pending
- 2019-06-25 KR KR1020217002660A patent/KR20210059697A/ko active Pending
- 2019-06-26 US US16/453,027 patent/US11199898B2/en active Active
-
2021
- 2021-11-12 US US17/524,981 patent/US11829526B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160004306A1 (en) | 2010-07-23 | 2016-01-07 | Telepatheye Inc. | Eye-wearable device user interface and augmented reality method |
US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US20160140766A1 (en) | 2012-12-12 | 2016-05-19 | Sulon Technologies Inc. | Surface projection system and method for augmented reality |
US20150153571A1 (en) | 2013-12-01 | 2015-06-04 | Apx Labs, Llc | Systems and methods for providing task-based instructions |
JP2018005517A (ja) | 2016-06-30 | 2018-01-11 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
WO2018051592A1 (ja) | 2016-09-14 | 2018-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
IL279705B1 (en) | 2024-12-01 |
IL279705A (en) | 2021-03-01 |
JP2021528786A (ja) | 2021-10-21 |
US20200004328A1 (en) | 2020-01-02 |
EP3814829A1 (en) | 2021-05-05 |
US20220075449A1 (en) | 2022-03-10 |
KR20210059697A (ko) | 2021-05-25 |
US11829526B2 (en) | 2023-11-28 |
US11199898B2 (en) | 2021-12-14 |
AU2019294617B2 (en) | 2025-02-06 |
EP3814829A4 (en) | 2022-03-23 |
CA3105192A1 (en) | 2020-01-02 |
WO2020006002A1 (en) | 2020-01-02 |
AU2019294617A1 (en) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7213899B2 (ja) | 視線に基づく拡張現実環境のためのインターフェース | |
US11507336B2 (en) | Augmented reality display sharing | |
CN107771309B (zh) | 处理三维用户输入的方法 | |
EP4111291A1 (en) | Hand gesture input for wearable system | |
US10475251B2 (en) | Method and apparatus for multiple mode interface | |
TW202101172A (zh) | 用於人工實境系統的手臂視線驅動的使用者介面元件閘控 | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
US20130050069A1 (en) | Method and system for use in providing three dimensional user interface | |
TW202105129A (zh) | 具有用於閘控使用者介面元件的個人助理元件之人工實境系統 | |
TW202101170A (zh) | 用於人工實境系統的角點識別手勢驅動的使用者介面元件閘控 | |
US11055926B2 (en) | Method and apparatus for multiple mode interface | |
US20230013860A1 (en) | Methods and systems for selection of objects | |
EP4135583A1 (en) | System and method for augmented reality data interaction for ultrasound imaging | |
JP7631274B2 (ja) | 制御装置、制御方法、プログラム | |
EP4468118A1 (en) | System, method, and computer program for controlling a user interface | |
JP2024154673A (ja) | 処理装置、制御方法、プログラム | |
US20160004318A1 (en) | System and method of touch-free operation of a picture archiving and communication system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220624 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7213899 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |