JP2019141620A - 三次元物体上の注視点決定方法及び装置 - Google Patents
三次元物体上の注視点決定方法及び装置 Download PDFInfo
- Publication number
- JP2019141620A JP2019141620A JP2019071195A JP2019071195A JP2019141620A JP 2019141620 A JP2019141620 A JP 2019141620A JP 2019071195 A JP2019071195 A JP 2019071195A JP 2019071195 A JP2019071195 A JP 2019071195A JP 2019141620 A JP2019141620 A JP 2019141620A
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- scene
- objects
- subject
- end point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 210000001508 eye Anatomy 0.000 claims abstract description 96
- 210000003128 head Anatomy 0.000 claims abstract description 59
- 238000013507 mapping Methods 0.000 claims description 32
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 238000012800 visualization Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 2
- 238000007493 shaping process Methods 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 13
- 230000026683 transduction Effects 0.000 description 9
- 238000010361 transduction Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
注視される点を決定する有力な手法としては、アイトラッカーについて定められた仮想シーン面と注視方向とを交差させることが考えられる。WO2010/083853A1は、この目的のため、例えば本棚への取付けなど、特定の場所に固定された作動時のIRマーカの使用が開示されている。これらのマーカの所在は、二つのラインセンサの最大強度を検出することにより二つの直交角度を検出する二つの直交IRライン検出器を使用して、頭部装着カメラにより得られる「参照」画像として機能する「試験シーン」について最初に検出される。IRソースの検出角は、参照画像の場所に対応する。マーカの角度は、異なる場所から頭部装着カメラで撮影される、後に検出されたシーンについて検出される。これにより、後のシーン画像におけるIRソースの場所が検出される。頭部装着カメラが異なる場所にあるときには、後で撮影される画像(シーン画像)で検出されるIRソースの場所を、試験画像(参照画像)のIR光源の場所に変換するマッピングとして「透視投影」が決定される。この変換により、シーン画像について後で決定される注視点もまた、試験画像の対応(実際の)注視点に変換することができる。
この目的のため、WO2010/083853A1に開示された従来技術は、最大出射角を検出する直交IRライン検出器によってその場所が検出可能である人工マーカとしてIRソースを使用している。
前記装置は、
前記参照画像における複数の特徴とそれらの位置とを識別するため、前記参照画像の特徴検出アルゴリズムを実行するモジュールと、
前記シーン画像の前記複数の特徴と、それらの位置とを再識別するため、前記シーン画像の前記特徴検出アルゴリズムを実行するモジュールと、
前記参照画像と前記シーン画像において検出された前記複数の特徴の場所に基づき、前記シーン画像と前記参照画像間の点の位置を変換する、点変換マッピングを決定するモジュールと、
前記点変換マッピングを使用して、前記シーン画像で決定された注視点を前記参照画像の対応点にマッピングするモジュールと、を備える。
従って本発明の目的は、三次元空間の任意の三次元物体の注視端点を決定できる方法を提供することにある。
アイトラッカー及びヘッドトラッカーという三次元表示を用いることで、二次元面の注視点だけでなく、被験者が注視する物体及び/又は三次元の注視端点を決定することができる。
頭部装着アイトラッカー及び頭部装着シーンカメラは、このような装置の便利な実践である。更に、アイトラッカーが頭部に装着される場合、ヘッドトラッカーもまた自動的にアイトラッカーの位置/方位を提供する。シーンカメラの場合も同様である。ヘッドトラッカーにより決定された頭部の位置(場所と方位)により、アイトラッカーの座標系において頭部装着アイトラッカーにより決定された注視方向に基づき、ヘッドトラッカーの参照座標系の対応注視方向を決定することができる。ヘッドトラッカーにより決定された頭部の場所と方位を利用して、アイトラッカーの座標系からヘッドトラッカーの座標系へと注視方向を変換する簡単な変換によって上記を実行することができる。ヘッドトラッカーにより提供される位置により、所定の構成を通してアイトラッカーの位置も自動的に提供される。この構成において、アイトラッカーは、例えば、装着フレームを介して頭部に固定され、頭部との間に空間が形成される。
このように、非静止シーンについてもオンライン計測を実施することができる。
これらは、計測された注視端点の可視化の実施に最適な手法である。
一実施例において、注視端点の決定について定められ、そして、一実施例では、平面ではなく、三次元空間の一般物体に対する注視端点のマッピングについて定められている。更に、一実施例では、被験者が三次元空間のどの物体を注視しているかを決定することができる。
他の実施例において、物体の三次元表現では、三次元の物体表面をメッシュで表現するなど、より高い細分性による高精度な表現が使用される。原理上、システムを同様に操作することができる。注視点が更に高精度で決定され、三次元で表現された物体の表面上又は近くに存在する場合、このシステムは被験者が注視している物体を決定するだけでなく、ユーザが注視する物体の位置も決定することができる。
すなわちこの手法では、「実世界」の物体を示す三次元構造として決定され、交差された注視方向に基づき、三次元物体上での注視端点を決定することができる。一実施例において、このように決定された注視端点は、シーンの任意の画像において、対応位置へマッピングすることができる。更に、このように、注視される物体を識別する課題が、物体/物体の一部の名前付けに帰着する。これは、この手法において、注視方向とユーザが注視している物体とが交差しているため、その注視物体が直接提供されるからである。
これは、注視点を決定するための非常に新規な手法である。各画像について手動で物体を指定する必要があるため、シーンの画像上の注視点を把握することとは大きく異なる。
シーンカメラによって撮影されたシーン画像への注視端点のマッピングを実行することができる。このため、カメラの位置とパラメータを使用した、三次元構造の二次元シーン画像へのマッピングを実行する任意の三次元投影方法を使用することができる。このように、注視が三次元構造にヒットする場所を、シーンカメラで撮影されたシーン画像の対応場所へとマッピングすることができる。図2は、三次元構造のシーン画像へのマッピング工程(例えば、三次元投影によって実行される)を説明するステップb)を示し、その下部に、マッピング工程の概略が示されている。
‐ 磁気ヘッドトラッカー、又は
‐ 光学ヘッドトラッカー、
‐ 三次元構造検出器(又はシーン内の物体)についてET(又は単眼自体)の位置及び方位を計測することができる任意の種類の装置
‐ 三次元スキャナー(レーザスキャナー、構造化ライトスキャナーなど)
‐ ステレオカメラシステム
‐ 単眼カメラシステム(視覚SLAM)
‐ 手動計測
手動計測について、例えば建物の平面図は、施工計画により事前に把握されているか、特定の「手動計測」によって平面が把握されている。実際の構造を決定することなく、事前に計測され、格納された三次元構造データを「取得」又は「読み込む」装置に、三次元構造検出器を組み入れることができる。
そうでなければ、オフライン(初期)三次元検出と興味の物体(物体トラッカーの補助として)のトラッキングとの組み合わせを使用することができる。スーパーマーケットの棚のように経時的に不変の静止シーンについては、この構造を一度事前に計測することができる。
・注視端点は、シーンカメラ画像から分離される。物体の画像ではなく、注視が物体にマッピングされる。シーンカメラを有するETについて、参照モデル物体からシーンカメラ画像の画像面へと注視を再マッピングすることができる。このことは、注視点がシーン画像から逸脱した場合でも適用される。
・注視端点は幾何学的に正しく算出されるため、無視差ではないアイトラッカーが使用されている場合でも、注視マッピングで視差のエラーは発生しない。
・両眼転導を利用して複数の物体が注視経路と交差するように、複数の関連物体が整列されている背景のシーンにおいても、実際にどの物体が注視されているかを識別することが可能である。注視方向が,別の物体の前方に位置する物体と交差し、両眼転導による二つの注視点の交点が後方の物体に存在する場合、実際の注視点は、後方の物体であると仮定できる。
・注視データを新たに可視化することができる。
・ 時間及び/又は参加者について集計
・ 物体表面(例:ヒートマップ)
・ 空間での注視射線、空間での物体、マッピングされた注視データにより加工された物体(ヒートマップ、フォーカスマップなど)の三次元視覚化
・ シーン画像に投影された物体の自動輪郭、重心など
・ 物体の周囲をフライスルーするような動的な視覚化
・ 任意のシーン画像/シーン動画の注視データの集計(参加者のシーンカメラからの動画は特例)
Claims (20)
- 被験者の両眼の注視方向を決定するためのアイトラッカーと、
参照座標系における前記被験者のヘッド及び/又は前記アイトラッカーの場所と方位を含む位置を決定するための被験者トラッカーと、
前記参照座標系における座標を介して、三次元位置及び/又は構造を通して実世界の複数の物体を表示してシーンの三次元構造表示を提供する、三次元シーン構造検出器と、
注視端点プロセッサと、を備え、
前記注視端点プロセッサは、
前記被験者の両眼の前記注視方向と前記位置の交点に基づいて前記参照座標系における注視端点を決定し、
前記注視端点と前記複数の物体との間の複数のそれぞれの距離を決定し、
そして、前記注視端点と前記複数の物体との間の前記それぞれの距離に基づいて、被験者が前記複数の物体のうちのどの物体を注視しているのかを決定する、ことを特徴とするシステム。 - 前記被験者が注視している、複数の物体の内の前記物体が、前記注視端点と前記物体との間の最小の距離を有する物体を抽出することによって、決定されることを特徴とする、請求項1に記載のシステム。
- 前記アイトラッカーは前記注視端点の確率分布を決定するためのものあり、前記注視端点プロセッサは、それぞれの確率前記注視端点の確率分布に基づいて、前記複数の物体の内の1つ以上の物体が、被験者の両眼の注視している複数の物体の内のどの物体であるという、それぞれの確率を決定するためのものである、ことを特徴とする請求項1に記載のシステム。
- さらに、任意の視点からのシーンの画像を取得するためのシーンカメラと、
前記シーンの画像の画像面へと前記参照座標系における前記注視端点をマッピングするマッピングプロセッサとを備え、
前記シーンカメラの位置は、いくつかの位置決定または物体トラッキング機構により知られまたは決定され、前記シーンカメラの画像上に前記参照座標系の前記注視端点の投影を実行することによって前記マッピングが達成されることを特徴とする、請求項1に記載のシステム。 - さらに、前記三次元構造表示に基づく任意の視点からの前記シーンの画像を生成するためのシーン画像生成装置と、
前記シーンの画像の画像面上の前記参照座標系に前記注視端点をマッピングするマッピングプロセッサと、を備え、
前記シーンの画像の前記画像面上に前記参照座標系の前記注視端点の投影を実行することによって前記マッピングが達成されることを特徴とする、請求項1に記載のシステム。 - 前記アイトラッカーは頭部装着アイトラッカーを備えており、及び/又は前記シーンカメラは、頭部装着シーンカメラを備えていることを特徴とする、請求項4に記載のシステム。
- 前記三次元シーン構造検出器は前記シーンの物体の三次元構造及び位置、または前記参照座標系におけるそれらの幾何学的表面構造を決定して、前記シーンの三次元構造表示を取得するようになっており、そして、前記三次元シーン構造検出器は、
カメラと組合わせ可能なレーザスキャナー、
光源出射構造化ライトを有する光学スキャナー、
ステレオカメラシステム、
超音波検出器、及び
三次元物体を検出する任意の機械実装のうちの少なくとも一つを備えていることを特徴とする、請求項1に記載のシステム。 - 三次元注視端点は、複数の異なるシーンカメラによって取られた1つ以上のシーン画像及び/又は異なる視点から取られたシーン画像にマッピングされ、
三次元注視端点は、複数の異なる被験者について同じシーン画像にマッピングされ、及び/又は
三次元注視端点は、同じシーン画像にマッピングされるか、あるいは経時的に集計されることを特徴とする、請求項1に記載のシステム。 - 前記マッピングされた経時的三次元注視端点は、対応するビューの頻度又は異なる被験者で識別されている、累積されたビューの時間と共に三次元注視端点を視覚化することによって前記シーン画像において可視化されることを特徴とする、請求項8に記載のシステム。
- 前記可視化は、
ヒートマップと、
フォーカスマップと、
注視の重心と、
ビューの時間の自動形状化と、の一つ以上を使用することを特徴とする、請求項9に記載のシステム。 - 前記三次元シーン構造検出器は、三次元シーンが静止していなくても、前記アイトラッカー及びヘッドトラッカーを使用して、リアルタイムの注視点検出を可能とする前記三次元構造を繰り返し決定し、又は前記三次元シーン構造検出器は、前記三次元構造を一回決定し、物体トラッカーは、シーン内の一つ以上の物体の動きをトラッキングすることで、トラッキングされた物体と経時的にトラッキングされた注視方向を利用して、経時的に注視点決定を可能とすることを特徴とする、請求項1に記載のシステム。
- 前記三次元シーン構造検出器は、一つ以上のシーンカメラと、前記一つ以上のカメラの画像に基づき、前記三次元構造を算出するための視覚ローカライゼーション及びマッピングプロセッサを備え、及び/又は
前記視覚ローカライゼーション及びマッピングプロセッサは、視覚SLAM(視覚同期ローカライゼーション及びマッピング)アルゴリズムを使用して、前記三次元構造及び/又はシーンカメラの位置を算出することを特徴とする、請求項1に記載のシステム。 - さらに、一台以上のシーンカメラを備えており、該一台以上のシーンカメラの画像は、一つ又は複数のシーン画像として使用されるパノラマ又は多重視点画像など一つ以上のより大きな画像と組み合わせられ、及び/又は前記三次元シーン構造検出器は、参照座標系のシーンの物体の三次元構造及び位置を使用して、事前に決定されたシーンの三次元構造表示を提供することを特徴とする、請求項1に記載のシステム。
- アイトラッカーを用いて被験者の両眼の注視方向を決定し、
該被験者のヘッド及び/又は参照座標系におけるアイトラッカーの場所と方位を含む位置を決定し、
前記参照座標系における座標を介して、三次元位置及び/又は構造を通して実世界の複数の物体を表示してシーンの三次元構造を表示し、
前記被験者の両眼の前記注視方向と前記位置の交点に基づいて前記参照座標系における注視端点を決定し、
前記注視端点と前記複数の物体との間の複数のそれぞれの距離を決定し、そして、
前記注視端点と前記複数の物体との間の前記それぞれの距離に基づいて、被験者が前記複数の物体のうちのどの物体を注視しているのかを決定する、ことを特徴とする方法。 - 前記被験者が注視している、複数の物体の内の前記物体が、前記注視端点と前記物体との間の最小の距離を有する物体を抽出することによって、決定されることを特徴とする、請求項14に記載の方法。
- 前記注視端点の確率分布を決定し、それぞれの確率前記注視端点の確率分布に基づいて、前記複数の物体の内の1つ以上の物体が、被験者の両眼の注視している複数の物体の内のどの物体であるという、それぞれの確率を決定することをさらに含む、ことを特徴とする請求項14に記載の方法。
- 前記注視端点が前記シーンの前記三次元構造表示の空間内にある、請求項1に記載のシステム。
- 前記注視端点プロセッサが、前記注視端点と前記参照座標系の座標との間の複数の距離を決定することによって、前記注視端点と前記複数の物体との間の前記複数のそれぞれの距離を決定するように構成されている請求項1に記載のシステム。
- 前記注視端点プロセッサがさらに、前記注視端点に基づいて被験者が注視している物体の場所を決定するように構成されている、請求項1に記載のシステム。
- 前記注視端点に基づいて被験者が注視している物体の場所を決定することを更に含む、請求項14に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12184725.5A EP2709060B1 (en) | 2012-09-17 | 2012-09-17 | Method and an apparatus for determining a gaze point on a three-dimensional object |
EP12184725.5 | 2012-09-17 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015531598A Division JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019141620A true JP2019141620A (ja) | 2019-08-29 |
JP6690041B2 JP6690041B2 (ja) | 2020-04-28 |
Family
ID=47010238
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015531598A Active JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
JP2019071195A Active JP6690041B2 (ja) | 2012-09-17 | 2019-04-03 | 三次元物体上の注視点決定方法及び装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015531598A Active JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
Country Status (6)
Country | Link |
---|---|
US (5) | US10223808B2 (ja) |
EP (1) | EP2709060B1 (ja) |
JP (2) | JP6808320B2 (ja) |
CN (1) | CN104685541B (ja) |
IN (1) | IN2015DN01984A (ja) |
WO (1) | WO2014041188A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023189218A1 (ja) * | 2022-04-01 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記録媒体 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
CN106258010B (zh) * | 2014-02-04 | 2019-11-22 | 弗劳恩霍夫应用研究促进协会 | 2d图像分析器 |
JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
US20180133593A1 (en) * | 2014-08-07 | 2018-05-17 | Fove, Inc. | Algorithm for identifying three-dimensional point-of-gaze |
US10228766B2 (en) * | 2014-09-12 | 2019-03-12 | Microsoft Technology Licensing, Llc | Enhanced Display Rotation |
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
WO2016139662A1 (en) * | 2015-03-01 | 2016-09-09 | Improved Vision Systems (I.V.S.) Ltd. | A system and method for measuring ocular motility |
US10761601B2 (en) | 2015-03-23 | 2020-09-01 | Controlrad Systems Inc. | Eye tracking system including an eye tracker camera and a positioning camera |
WO2016179825A1 (zh) * | 2015-05-14 | 2016-11-17 | 中国科学院深圳先进技术研究院 | 基于三维场景的导航方法 |
GB2539009A (en) | 2015-06-03 | 2016-12-07 | Tobii Ab | Gaze detection method and apparatus |
US9829976B2 (en) * | 2015-08-07 | 2017-11-28 | Tobii Ab | Gaze direction mapping |
US10444972B2 (en) | 2015-11-28 | 2019-10-15 | International Business Machines Corporation | Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries |
JP2017129898A (ja) * | 2016-01-18 | 2017-07-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
TWI589150B (zh) * | 2016-03-04 | 2017-06-21 | 液態三維系統有限公司 | 3d自動對焦顯示方法及其系統 |
US11579686B2 (en) * | 2016-03-07 | 2023-02-14 | Apple Inc. | Method and device for carrying out eye gaze mapping |
US10063560B2 (en) * | 2016-04-29 | 2018-08-28 | Microsoft Technology Licensing, Llc | Gaze-based authentication |
WO2017208227A1 (en) | 2016-05-29 | 2017-12-07 | Nova-Sight Ltd. | Display system and method |
EP3455702B1 (en) * | 2016-06-16 | 2020-08-05 | Apple Inc. | Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product |
WO2018055618A1 (en) | 2016-09-23 | 2018-03-29 | Novasight Ltd. | Screening apparatus and method |
WO2018076202A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
CN108338798B (zh) * | 2017-01-25 | 2020-11-06 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN106840167B (zh) * | 2017-02-23 | 2019-12-20 | 周良辰 | 基于街景地图的目标物地理位置的二维量测算方法 |
CN107223082B (zh) * | 2017-04-21 | 2020-05-12 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
CN108965687B (zh) * | 2017-05-22 | 2021-01-29 | 阿里巴巴集团控股有限公司 | 拍摄方向识别方法、服务器及监控方法、系统及摄像设备 |
CN107369205B (zh) * | 2017-07-04 | 2020-10-16 | 东南大学 | 一种移动终端城市二三维联动显示方法 |
CN107392853B (zh) * | 2017-07-13 | 2020-05-26 | 河北中科恒运软件科技股份有限公司 | 双摄像头视频融合畸变校正与视点微调整方法及系统 |
US10853965B2 (en) * | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
CN107504917B (zh) * | 2017-08-17 | 2020-02-21 | 深圳市异方科技有限公司 | 一种三维尺寸测量方法及装置 |
KR102495359B1 (ko) | 2017-10-27 | 2023-02-02 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치 |
US11310472B2 (en) * | 2017-11-16 | 2022-04-19 | Sony Interactive Entertainment Inc. | Information processing device and image generation method for projecting a subject image onto a virtual screen |
US11455986B2 (en) | 2018-02-15 | 2022-09-27 | DMAI, Inc. | System and method for conversational agent via adaptive caching of dialogue tree |
WO2019161198A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for speech understanding via integrated audio and visual based speech recognition |
WO2019161241A1 (en) * | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for identifying a point of interest based on intersecting visual trajectories |
US11308312B2 (en) | 2018-02-15 | 2022-04-19 | DMAI, Inc. | System and method for reconstructing unoccupied 3D space |
CN110320997B (zh) | 2018-03-30 | 2022-05-17 | 托比股份公司 | 用于确定注视关注目标的对物体映射的多线迹注视 |
TWI719343B (zh) | 2018-08-28 | 2021-02-21 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
WO2020068459A1 (en) * | 2018-09-28 | 2020-04-02 | Apple Inc. | Sensor fusion eye tracking |
CN109491508B (zh) * | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
SE543121C2 (en) | 2019-02-04 | 2020-10-13 | Tobii Ab | Method and system for determining a current gaze direction |
SE1950580A1 (en) * | 2019-05-15 | 2020-10-13 | Tobii Ab | Method and system for dwell-less, hands-free interaction with a selectable object |
CN112013844B (zh) * | 2019-05-31 | 2022-02-11 | 北京小米智能科技有限公司 | 建立室内环境地图的方法及装置 |
US11181978B2 (en) | 2019-06-17 | 2021-11-23 | Hemy8 Sa | System and method for gaze estimation |
US11487968B2 (en) * | 2019-12-16 | 2022-11-01 | Nvidia Corporation | Neural network based facial analysis using facial landmarks and associated confidence values |
EP3839411B1 (fr) * | 2019-12-17 | 2023-08-23 | John Cockerill Defense SA | Système intelligent pour le contrôle de fonctions dans une tourelle de véhicule de combat |
CN112364765B (zh) * | 2020-11-11 | 2024-12-31 | 京东方科技集团股份有限公司 | 一种人眼运动注视点检测方法及装置 |
CN112509007B (zh) * | 2020-12-14 | 2024-06-04 | 科大讯飞股份有限公司 | 真实注视点定位方法以及头戴式视线跟踪系统 |
GB2603947A (en) * | 2021-02-22 | 2022-08-24 | Nokia Technologies Oy | Method and apparatus for depth estimation relative to a mobile terminal |
CN113553920B (zh) * | 2021-07-02 | 2024-06-04 | 黑芝麻智能科技(上海)有限公司 | 注视方向特征采集方法、装置、计算机设备和存储介质 |
JP7640427B2 (ja) * | 2021-10-01 | 2025-03-05 | 株式会社日立製作所 | 注視位置分析システム及び注視位置分析方法 |
SE2250674A1 (en) | 2022-06-03 | 2023-12-04 | Tobii Ab | Method of estimating a three-dimensional position of an object |
US12056276B1 (en) | 2023-04-27 | 2024-08-06 | Meta Platforms Technologies, Llc | Eye tracking based on vergence |
SE546818C2 (en) * | 2023-07-05 | 2025-02-25 | Tobii Ab | A method and a system for determining gaze convergence distance for a user of an eye tracking system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005071041A (ja) * | 2003-08-22 | 2005-03-17 | Nissan Motor Co Ltd | 運転者視対象検出装置及び運転者視対象検出システム |
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2007286995A (ja) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | 注目度計測装置及び注目度計測システム |
WO2011003303A1 (en) * | 2009-07-10 | 2011-01-13 | Peking University | Image manipulation based on tracked eye movement |
JP2012050837A (ja) * | 2004-04-01 | 2012-03-15 | William C Torch | 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法 |
JP2012128661A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
JP2012170546A (ja) * | 2011-02-18 | 2012-09-10 | Nippon Hoso Kyokai <Nhk> | 視線位置推定システム及び視線位置推定プログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0862096A3 (en) * | 1996-12-06 | 1999-05-19 | Nippon Telegraph And Telephone Corporation | Method and system for producing computer generated holograms realizing real time holographic video production and display |
JPH10326071A (ja) * | 1997-03-27 | 1998-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体 |
WO2000015858A1 (en) | 1998-09-14 | 2000-03-23 | Kulicke & Soffa Investments, Inc. | Wire-bonding alloy composites |
US7046924B2 (en) * | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
JP5044237B2 (ja) * | 2006-03-27 | 2012-10-10 | 富士フイルム株式会社 | 画像記録装置、画像記録方法、および画像記録プログラム |
JP2007319187A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 動作補助装置及びその制御方法 |
US8781162B2 (en) * | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
EP2242419B1 (en) * | 2008-02-14 | 2016-01-13 | Nokia Technologies Oy | Device and method for determining gaze direction |
CN201307266Y (zh) * | 2008-06-25 | 2009-09-09 | 韩旭 | 双目视线跟踪装置 |
CN101419672B (zh) * | 2008-12-03 | 2010-09-08 | 中国科学院计算技术研究所 | 一种同步采集人脸图像和注视视角的装置及方法 |
WO2010102037A2 (en) * | 2009-03-03 | 2010-09-10 | The Ohio State University | Gaze tracking measurement and training system and method |
JP5590487B2 (ja) * | 2010-07-30 | 2014-09-17 | 公立大学法人広島市立大学 | 視線計測方法及び視線計測装置 |
US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
JP2013008365A (ja) * | 2011-06-23 | 2013-01-10 | Ailive Inc | 運動感知型機器を用いる遠隔制御 |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9116926B2 (en) * | 2012-12-20 | 2015-08-25 | Google Inc. | Sharing photos |
-
2012
- 2012-09-17 EP EP12184725.5A patent/EP2709060B1/en active Active
-
2013
- 2013-09-17 US US14/428,608 patent/US10223808B2/en active Active
- 2013-09-17 WO PCT/EP2013/069236 patent/WO2014041188A1/en active Application Filing
- 2013-09-17 IN IN1984DEN2015 patent/IN2015DN01984A/en unknown
- 2013-09-17 JP JP2015531598A patent/JP6808320B2/ja active Active
- 2013-09-17 CN CN201380048140.XA patent/CN104685541B/zh active Active
-
2019
- 2019-03-03 US US16/290,934 patent/US10699439B2/en active Active
- 2019-04-03 JP JP2019071195A patent/JP6690041B2/ja active Active
-
2020
- 2020-05-20 US US16/878,932 patent/US11676302B2/en active Active
-
2023
- 2023-02-17 US US18/111,099 patent/US11948332B2/en active Active
-
2024
- 2024-02-20 US US18/581,765 patent/US20240233178A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005071041A (ja) * | 2003-08-22 | 2005-03-17 | Nissan Motor Co Ltd | 運転者視対象検出装置及び運転者視対象検出システム |
JP2012050837A (ja) * | 2004-04-01 | 2012-03-15 | William C Torch | 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法 |
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2007286995A (ja) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | 注目度計測装置及び注目度計測システム |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
WO2011003303A1 (en) * | 2009-07-10 | 2011-01-13 | Peking University | Image manipulation based on tracked eye movement |
JP2012128661A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
JP2012170546A (ja) * | 2011-02-18 | 2012-09-10 | Nippon Hoso Kyokai <Nhk> | 視線位置推定システム及び視線位置推定プログラム |
Non-Patent Citations (2)
Title |
---|
LI SUN, ET AL.: ""EYEWATCHME-3D Hand and Object Tracking for Inside Out Activity Analysis"", COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS, JPN7017001415, 20 June 2009 (2009-06-20), pages 9 - 16, ISSN: 0004089741 * |
天野 英晴, エンサイクロペディア 情報処理 (改訂4版) ENCYCLOPEDIA OF INFORMATION PROCESSING, vol. 第4版, JPN6019030328, 2002, pages 182 - 185, ISSN: 0004089742 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023189218A1 (ja) * | 2022-04-01 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN104685541B (zh) | 2019-03-05 |
JP6690041B2 (ja) | 2020-04-28 |
US11676302B2 (en) | 2023-06-13 |
IN2015DN01984A (ja) | 2015-08-14 |
US20190272650A1 (en) | 2019-09-05 |
US20200334858A1 (en) | 2020-10-22 |
US11948332B2 (en) | 2024-04-02 |
US10699439B2 (en) | 2020-06-30 |
US20150243036A1 (en) | 2015-08-27 |
CN104685541A (zh) | 2015-06-03 |
US20240233178A1 (en) | 2024-07-11 |
US10223808B2 (en) | 2019-03-05 |
EP2709060B1 (en) | 2020-02-26 |
JP6808320B2 (ja) | 2021-01-06 |
US20230206494A1 (en) | 2023-06-29 |
WO2014041188A1 (en) | 2014-03-20 |
EP2709060A1 (en) | 2014-03-19 |
JP2015528359A (ja) | 2015-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (ja) | 三次元物体上の注視点決定方法及び装置 | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
CN112102389B (zh) | 确定实物至少一部分的3d重构件的空间坐标的方法和系统 | |
CN106535806B (zh) | 来自多端口视角的手术场景的定量三维成像 | |
JP5467303B1 (ja) | 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体 | |
EP3076892B1 (en) | A medical optical tracking system | |
US20180046874A1 (en) | System and method for marker based tracking | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
US11107270B2 (en) | Medical scene model | |
JP2024501897A (ja) | 術前画像データを手術シーンなどのシーンの術中画像データにレジストレーションする方法およびシステム | |
JP2014509535A (ja) | 注視点マッピング方法および装置 | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
Hua et al. | A testbed for precise registration, natural occlusion and interaction in an augmented environment using a head-mounted projective display (HMPD) | |
JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 | |
JP2016122380A (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
Liu et al. | A portable projection mapping device for medical augmented reality in single-stage cranioplasty | |
WO2022129646A1 (en) | Virtual reality environment | |
CN114327072A (zh) | 真实人物和mr虚拟环境中虚拟物体的动作触发交互方法 | |
TWI823740B (zh) | 主動式互動導覽系統以及主動式互動導覽方法 | |
CN118565338A (zh) | Ar设备的尺寸测量方法、ar设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190603 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190805 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190827 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6690041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |