JP2024090620A - Subject identification device, gaze detection device, subject identification method, and subject identification program - Google Patents
Subject identification device, gaze detection device, subject identification method, and subject identification program Download PDFInfo
- Publication number
- JP2024090620A JP2024090620A JP2022206616A JP2022206616A JP2024090620A JP 2024090620 A JP2024090620 A JP 2024090620A JP 2022206616 A JP2022206616 A JP 2022206616A JP 2022206616 A JP2022206616 A JP 2022206616A JP 2024090620 A JP2024090620 A JP 2024090620A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- eyeball
- corneal
- corneal curvature
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は、被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムに関する。 The present invention relates to a subject identification device, a gaze detection device, a subject identification method, and a subject identification program.
光源で検出光を発光して被験者の眼球に照射し、検出光が照射された眼球の画像を取得し、取得した画像における瞳孔の像と検出光の反射像とに基づいて、瞳孔中心及び角膜曲率中心を算出し、角膜曲率中心から瞳孔中心へ向かうベクトルを被験者の視線方向として検出する視線検出装置が知られている(例えば、特許文献1参照)。 A gaze detection device is known that emits detection light from a light source and irradiates the subject's eyeball, acquires an image of the eyeball irradiated with the detection light, calculates the pupil center and corneal curvature center based on the image of the pupil in the acquired image and the reflected image of the detection light, and detects the vector from the corneal curvature center to the pupil center as the gaze direction of the subject (see, for example, Patent Document 1).
上記のような視線検出装置では、同一の被験者が複数回の検出を行う場合、2回目以降の検出において1回目のデータを利用することがある。例えば被験者と当該被験者の1回目のデータとを対応付けておき、被験者を自動的に特定することができれば、1回目のデータを自動的に抽出することができる。この場合、被験者を精度よく特定することが求められる。 In the above-mentioned gaze detection device, when the same subject performs detection multiple times, the data from the first detection may be used in the second and subsequent detections. For example, if the subject and the first data of the subject are associated with each other and the subject can be automatically identified, the first data can be automatically extracted. In this case, it is required to identify the subject with high accuracy.
本発明は、上記に鑑みてなされたものであり、被験者を精度よく特定することが可能な被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムを提供することを目的とする。 The present invention has been made in consideration of the above, and aims to provide a subject identification device, gaze detection device, subject identification method, and subject identification program that are capable of identifying subjects with high accuracy.
本発明に係る被験者特定装置は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、前記検出光が照射された眼球の画像を撮像する撮像部と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する角膜曲率算出部と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、新たに生成された角膜曲率テーブルである生成テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて前記被験者を特定する照合部とを備える。 The subject identification device according to the present invention includes a plurality of light sources that emit detection light and irradiate it on at least one eyeball of the subject; an imaging unit that captures an image of the eyeball irradiated with the detection light; a corneal curvature calculation unit that detects the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the corneal curvature of the subject at the detected position; a table generation unit that generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at a plurality of different positions on the subject's eyeball; and a matching unit that matches the generated table, which is the newly generated corneal curvature table, with a stored table, which is a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifies the subject based on the matching result.
本発明に係る視線検出装置は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、前記検出光が照射された眼球の画像を撮像する撮像部と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて前記被験者の角膜曲率を算出する角膜曲率算出部と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、前記被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部と、新たに生成された角膜曲率テーブルである生成テーブルと、前記記憶部に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部と、前記被験者の視線を算出する視線処理部とを備え、前記視線処理部は、前記生成テーブルと前記記憶テーブルとが対応していると判定された場合に、前記記憶テーブルに対応付けられた前記被験者情報を用いて前記被験者の視線を算出する。 The gaze detection device according to the present invention includes a plurality of light sources that emit detection light and irradiate it on at least one eyeball of a subject; an imaging unit that captures an image of the eyeball irradiated with the detection light; a corneal curvature calculation unit that detects the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the corneal curvature of the subject based on the detected position; a table generation unit that generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at different positions on the subject's eyeball; a storage unit that stores subject information, which is information on the subject, in association with the corneal curvature table; a comparison unit that determines whether the newly generated corneal curvature table corresponds to the memory table, which is the corneal curvature table stored in the memory unit; and a gaze processing unit that calculates the gaze of the subject. When it is determined that the generated table corresponds to the memory table, the gaze processing unit calculates the gaze of the subject using the subject information associated with the memory table.
本発明に係る被験者特定方法は、光源から検出光を発光して被験者の少なくとも一方の眼球に照射することと、前記検出光が照射された眼球の画像を撮像することと、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出することと、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定することとを含む。 The subject identification method according to the present invention includes emitting detection light from a light source and irradiating it onto at least one eyeball of a subject, capturing an image of the eyeball irradiated with the detection light, detecting from the captured image the position of a corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light, and calculating the corneal curvature of the subject at the detected position, generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvatures calculated at multiple different positions on the subject's eyeball, comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.
本発明に係る被験者特定プログラムは、光源から検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、前記検出光が照射された眼球の画像を撮像する処理と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する処理と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定する処理とをコンピュータに実行させる。 The subject identification program of the present invention causes a computer to execute the following processes: emitting detection light from a light source and irradiating it on at least one eyeball of a subject; capturing an image of the eyeball irradiated with the detection light; detecting, from the captured image, the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light, and calculating the corneal curvature of the subject at the detected position; generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvatures calculated at multiple different positions on the subject's eyeball; and comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.
本発明によれば、被験者を精度よく特定することが可能となる。 The present invention makes it possible to identify subjects with high accuracy.
以下、本発明に係る被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Below, embodiments of a subject identification device, gaze detection device, subject identification method, and subject identification program according to the present invention will be described with reference to the drawings. Note that the present invention is not limited to these embodiments. Furthermore, the components in the following embodiments include those that are replaceable and easy for a person skilled in the art, or those that are substantially the same.
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。 In the following explanation, a three-dimensional global coordinate system is set up to explain the positional relationships of each part. The direction parallel to the first axis of the specified plane is the X-axis direction, the direction parallel to the second axis of the specified plane that is perpendicular to the first axis is the Y-axis direction, and the direction parallel to the third axis that is perpendicular to both the first and second axes is the Z-axis direction. The specified plane includes the XY plane.
[被験者特定装置、視線検出装置]
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す図である。本実施形態に係る視線検出装置100は、被験者の視線を検出し、検出結果を出力する。視線検出装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する。
[Subject Identification Device, Gaze Detection Device]
1 is a diagram showing an example of a
図1に示すように、視線検出装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。
As shown in FIG. 1, the
表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。ヘッドマウント型ディスプレイの場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。
The
画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、光源部(光源)21及び撮像部22を有する。
The
光源部21は、被験者の眼球EBに検出光を射出する。光源部21は、互いに異なる位置に配置される第1光源21A及び第2光源21Bを有する。第1光源21A及び第2光源21Bは、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。光源部21は、撮像部22のフレーム同期信号に同期するように検出光を射出する。光源部21は、単一の光源で構成されてもよい。
The
撮像部22は、被験者の左右の眼球EBを撮像することで画像データを生成する。撮像部22は、被験者の視線を検出する方法に応じた各種カメラを有する。本実施形態のように、被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮像部22は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。撮像部22は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮像部22は、第1カメラ22A及び第2カメラ22Bを有するステレオカメラの構成である。第1カメラ22A及び第2カメラ22Bは、互いに異なる撮像位置に配置される。第1カメラ22A及び第2カメラ22Bにより取得される画像データは、例えば8ビットの値(0~255)で設定される輝度を有する画素が2次元状に配列された構成である。輝度は、値が小さいほど暗く、値が大きいほど明るいことを示す。輝度の値が0の画素は、画像データに黒色として表示される。輝度の値が255の画素は、画像データに白色として表示される。第1カメラ22A及び第2カメラ22Bは、例えば同一の解像度を有する。この場合、第1カメラ22A及び第2カメラ22Bにより取得される画像データは、縦横の画素数が互いに等しくなる。撮像部22は、単一のカメラで構成されてもよい。
The
コンピュータシステム30は、視線検出装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。
The
出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。
The
本実施形態に係る視線検出装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。
In the
図2は、視線検出装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、撮像制御部31と、位置検出部32と、角膜曲率算出部33と、テーブル生成部34と、照合部35と、視線処理部36と、記憶部37とを有する。なお、コンピュータシステム30のうち撮像制御部31、位置検出部32、角膜曲率算出部33、テーブル生成部34及び照合部35と、上記した画像取得装置20とにより、本実施形態に係る被験者特定装置70が構成される。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が視線検出装置100の外部に設けられてもよい。
2 is a functional block diagram showing an example of the
撮像制御部31は、光源部21及び撮像部22を制御する。撮像制御部31は、光源部21の第1光源21A及び第2光源21Bのそれぞれについて、検出光の射出のタイミング、射出時間等を制御する。撮像制御部31は、撮像部22の第1カメラ22A及び第2カメラ22Bについて、撮像のタイミング等を制御する。撮像制御部31は、撮像部22のフレーム同期信号と同期して、第1光源21A及び第2光源21Bから検出光を射出させる。本実施形態において、撮像制御部31は、例えばフレーム同期信号の周期ごとに、第1光源21A及び第2光源21Bに交互に検出光を射出させる。撮像制御部31は、画像取得装置20により取得される画像データを取得する。撮像制御部31は、取得した画像データを記憶部37に記憶する。
The
位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、検出光が照射された被験者の眼球の瞳孔の中心を示す瞳孔中心の位置データを検出する。また、位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、検出光が照射された被験者の眼球の角膜反射の中心を示す角膜反射中心の位置データを検出する。位置検出部32は、被験者の左右それぞれの眼球について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、光源部21からの検出光による角膜反射中心の位置を算出する。角膜反射中心は、それぞれの検出光による角膜反射像の中心である。また、位置検出部32は、撮像部22の第1カメラ22A及び第2カメラ22Bの2つのカメラで撮像された画像データに基づいて、三角測量法により被験者と撮像部22との距離(以下、カメラ被験者間距離と表記する)を検出する。位置検出部32は、検出した瞳孔中心、角膜反射中心の位置及びカメラ被験者間距離を記憶部37に記憶する。
The
角膜曲率算出部33は、撮像された画像データから、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する。本実施形態において、角膜曲率算出部33は、角膜曲率として、被験者の角膜曲率半径を算出することができる。なお、角膜曲率算出部33は、角膜曲率として、被験者の角膜の曲率を算出してもよい。
The corneal
テーブル生成部34は、被験者の眼球における異なる複数の位置で算出される角膜曲率半径に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する。本実施形態において、テーブル生成部34は、被験者の眼球上の位置と、角膜曲率半径との関係を示す角膜曲率テーブルを生成する。角膜曲率テーブルの詳細については、後述する。
The
テーブル生成部34は、生成した角膜曲率テーブルTを、被験者を示す被験者情報に対応付けて記憶部37に記憶させる。被験者情報は、被験者を特定するための被験者特定情報と、被験者のガンマ角情報とを含む。被験者特定情報は、例えば被験者を特定するための番号、被験者の氏名等が挙げられる。ガンマ角情報は、被験者の眼球の角膜曲率中心と瞳孔中心とを結ぶ直線と、被験者の視線とのズレであるガンマ角の情報である。ガンマ角の詳細については、後述する。
The
照合部35は、テーブル生成部34で新たに生成された角膜曲率テーブル(以下、「生成テーブル」と表記する)と、記憶部37に記憶された角膜曲率テーブル(以下、「記憶テーブル」と表記する)とを照合し、照合結果に基づいて被験者を特定する。照合部35は、生成テーブルと記憶テーブルとが対応しているか否かを判定する。照合部35は、生成テーブルと記憶テーブルとが対応していると判定した場合、記憶テーブルと対応付けて記憶される被験者特定情報を参照し、当該被験者特定情報に基づいて被験者を特定する。
The
視線処理部36は、被験者の視線を算出する。視線処理部36は、撮像部22により撮像された画像データに基づいて、被験者の瞳孔中心の位置を検出する。瞳孔中心は、瞳孔の中心である。視線処理部36は、算出した瞳孔中心の位置と、光源部21の位置と、位置検出部32により算出された角膜反射中心の位置と、予め算出又は設定される角膜曲率半径の値と、ガンマ角の値とに基づいて、被験者の眼球EBの視線ベクトルを視線として検出する。
The
記憶部37は、コンピュータシステム30の各部における処理を行うための各種データやプログラムを記憶する。記憶部37は、例えば表示部11に表示させる画像についてのデータを記憶する。記憶部37は、撮像制御部31によって取得された画像データ、位置検出部32によって算出された瞳孔中心の位置及び角膜反射中心の位置、テーブル生成部34により算出された角膜曲率テーブル、当該角膜曲率テーブルと対応付けた被験者情報(被験者特定情報、ガンマ角情報)等の各種情報を記憶する。
The
また、記憶部37は、光源部21から検出光を発光して被験者の少なくとも一方の眼球EBに照射する処理と、検出光が照射された眼球EBの画像を撮像する処理と、撮像された画像から、検出光が照射された眼球EBにおける角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する処理と、被験者の眼球EBにおける異なる複数の位置で算出される角膜曲率に基づいて、眼球EB上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定する処理とをコンピュータに実行させる被験者特定プログラムを記憶する。
The
また、記憶部37は、光源部21から検出光を発光して被験者の少なくとも一方の眼球EBに照射する処理と、検出光が照射された眼球EBの画像を撮像する処理と、撮像された画像から、検出光が照射された眼球EBにおける角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する処理と、被験者の眼球EBにおける異なる複数の位置で算出される角膜曲率に基づいて、眼球EB上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者の情報である被験者特定に対応付けて記憶部に記憶された角膜曲率テーブルとが対応しているか否かを判定する処理と、被験者の視線を算出する処理とをコンピュータに実行させ、被験者の視線を算出する処理では、新たに生成された角膜曲率テーブルと記憶部に記憶される角膜曲率テーブルとが対応していると判定された場合に、記憶部に記憶される角膜曲率テーブルに対応付けられた被験者情報を用いて被験者の視線を算出する視線検出プログラムを記憶する。
The
図3は、本実施形態の視線検出装置100において被験者の視線を検出する原理を模式的に示す図である。以降、被験者の右側の眼球EB(右眼ER)について説明するが、左側の眼球EB(左眼EL)についても同様の説明が可能である。本実施形態では、被験者の眼球EBにおける瞳孔中心112と角膜曲率中心110とを結ぶ直線130を求め、当該直線130の三次元ベクトルを視線として検出する。
Figure 3 is a diagram showing a schematic diagram of the principle of detecting the gaze of a subject in the
図3に示すように、第1光源21A及び第2光源21Bの一方(例えば、第1光源21A)から被験者の眼球EBに検出光を照射する。被験者の眼球EBの角膜上には、検出光による角膜反射像120が形成される。被験者の眼球EBを撮像部22で撮像することにより、角膜反射像120が形成された眼球EBの画像データを取得できる。当該画像データには、被験者の瞳孔の画像も含まれている。したがって、当該画像データに基づいて、被験者の眼球EBの瞳孔中心112の位置と角膜反射中心125の位置とを算出することができる。瞳孔中心112は、被験者の瞳孔の中心を示す。角膜反射中心125は、角膜反射像120の中心を示す。このとき、第1カメラ22A及び第2カメラ22Bの2つのカメラを用いることで、三角測量法により被験者の瞳孔中心112及び角膜反射中心125の位置を算出できる。
As shown in FIG. 3, detection light is irradiated onto the subject's eye EB from one of the first
被験者の眼球EBにおいて、角膜曲率中心110は、角膜反射像120を形成した光源である第1光源21Aと、当該角膜反射像120の角膜反射中心125とを結ぶ直線123上の位置である。具体的には、角膜曲率中心110の位置は、直線123上のうち、角膜反射中心125から第1光源21Aとは反対方向について角膜曲率半径rに対応する距離だけ離れた位置である。したがって、角膜反射中心125の位置を算出した場合、角膜曲率半径rの値に基づいて、角膜曲率中心110の位置を算出することができる。角膜曲率半径rの値は、例えば予め設定された値を用いてもよいし、後述する測定等により算出した値を用いてもよいし、後述の角膜曲率テーブルに基づく値を用いてもよい。
In the subject's eye EB, the
瞳孔中心112の位置と角膜曲率中心110の位置とを求めることにより、当該瞳孔中心112と角膜曲率中心110とを通る直線130を算出することができる。そして、この直線130の三次元ベクトルを、被験者の視線として算出することができる。なお、視線ベクトルを検出した後、直線130(視線ベクトル)と表示部11との交点を示す注視点の位置を検出することができる。
By determining the positions of the
ここで、角膜曲率算出部33により角膜曲率半径を算出する原理の一例について説明する。図4及び図5は、光源部21からの検出光が被験者の眼球EBに照射される状態を模式的に示す図である。以降、被験者の右側の眼球EB(右眼ER)について説明するが、左側の眼球EB(左眼EL)についても同様の説明が可能である。また、図4及び図5では、撮像部22として第1カメラ22Aのみを示し、第2カメラ22Bについては省略しているが、実際には第1カメラ22A及び第2カメラ22Bの両方が配置される。
Here, an example of the principle of calculating the corneal curvature radius by the corneal
図4及び図5に示すように、第1光源21A及び第2光源21Bから眼球EBに検出光が照射された場合、眼球EBの角膜には角膜反射像が形成される。ここで、第1光源21Aの角膜反射像120Aの中心が第1角膜反射中心121である。また、第2光源21Bの角膜反射像120Bの中心が第2角膜反射中心122である。
As shown in Figures 4 and 5, when the eye EB is irradiated with detection light from the first
図5に示すように、撮像部22と被験者との距離が変化することに伴い、第1角膜反射中心121と第2角膜反射中心122との中心間距離dが変化する。例えば、撮像部22と被験者の眼球EBとの距離であるカメラ被験者間距離がx1となる場合(位置P1)の中心間距離d1と、カメラ被験者間距離がx1よりも大きいx2となる場合(位置P2)の中心間距離d2との間には、d1>d2が成立する。
As shown in FIG. 5, the center-to-center distance d between the first
図6は、光源部、撮像部及び被験者の眼球の位置関係の一例を示す図である。図6に示すように、第1光源21Aと撮像部22との距離をa、第2光源21Bと撮像部22との距離をb、撮像部22と被験者との間のカメラ被験者間距離をx、眼球EBに検出される第1角膜反射中心121と第2角膜反射中心122との距離をd、角膜曲率半径をrとする。この例において、カメラ被験者間距離xは、撮像部22と被験者の眼球EBの角膜曲率中心110との間の距離とする。なお、カメラ被験者間距離xは、例えば第1カメラ22A及び第2カメラ22Bの2つのカメラで撮像された画像データに基づいて三角測量法により検出される値を用いることができる。ここで、r<<xであることから、角膜曲率中心110及び第1光源21Aを通る直線L1と角膜曲率中心110及び第1角膜反射中心121を通る直線L2とがなす角度と、角膜曲率中心110及び撮像部22を通る直線L3と上記直線L2とがなす角度とが同等であると近似することができる。以下、この角度をθ1とする。同様に、角膜曲率中心110及び第2光源21Bを通る直線L4と角膜曲率中心110及び第1角膜反射中心121を通る直線L5とがなす角度と、角膜曲率中心110及び撮像部22を通る直線L3と上記直線L5とがなす角度とが同等であると近似することができる。以下、この角度をθ2とする。
6 is a diagram showing an example of the positional relationship between the light source unit, the imaging unit, and the subject's eyeball. As shown in FIG. 6, the distance between the first
この場合において、以下の式1から式3が成立する。
θ1=arctan(a/x)/2 ・・・(式1)
θ2=arctan(b/x)/2 ・・・(式2)
d=r・sinθ1+r・sinθ2 ・・・(式3)
In this case, the following
θ1=arctan(a/x)/2 (Equation 1)
θ2=arctan(b/x)/2 (Equation 2)
d=r·sinθ1+r·sinθ2 (Equation 3)
図7は、撮像部22により撮像された眼球EBの画像データの一例を示す図である。図7に示すように、本実施形態においては、第1光源21Aから検出光を眼球EBに照射した状態で撮像した場合の画像データIM1と、第2光源21Bから検出光を眼球EBに照射した状態で撮像した場合の画像データIM2とが別個の画像データとして取得される。画像データIM1には、第1光源21Aからの検出光による角膜反射像(以下、第1角膜反射像120Aと表記する)が映っている。画像データIM2には、第2光源21Bからの検出光による角膜反射像(以下、第2角膜反射像120Bと表記する)が映っている。本実施形態では、第1光源21Aと第2光源21Bとを異なるタイミングで点灯させる。このため、第1角膜反射像120A及び第2角膜反射像120Bの映り方としては、一方の画像データIM1には第1角膜反射像120Aのみが映り、他方の画像データIM2には第2角膜反射像120Bのみが映る。位置検出部32は、取得された第1画像データ及び第2画像データに基づいて、第1角膜反射中心121及び第2角膜反射中心122の位置を算出する。
Figure 7 is a diagram showing an example of image data of the eyeball EB captured by the
角膜曲率算出部33は、画像データIM1に含まれる第1角膜反射中心121と、画像データIM2に含まれる第2角膜反射中心122との距離(撮像素子の画素数)d´(pixel)から、第1角膜反射中心121と第2角膜反射中心122との実際の距離d(mm)を算出する。なお、図7では、第1角膜反射中心121及び第2角膜反射中心122の位置を判別しやすくするため、黒色の点で示しているが、実際には黒色の点は存在しない。
The corneal
ここで、撮像部22を構成するレンズの焦点距離をf、撮像部22を構成する撮像素子の画素間距離(ピッチ)をpとすると、以下の式4が成立する。
Here, if the focal length of the lens that constitutes the
d´=(f・d/x)/p ・・・(式4) d' = (f d/x)/p ... (Equation 4)
上記の式1から式4をd´について解くと、
d´=r・(sin(arctan(a/x)/2)
+sin(arctan(b/x)/2))・f/(p・x)・・・(式5)
となる。
Solving the
d'=r·(sin(arctan(a/x)/2)
+ sin(arctan(b/x)/2))·f/(p·x) ... (Equation 5)
It becomes.
式5において、例えばa、b=100(mm)、f=12(mm)、x=600(mm)、p=0.0048(mm/pixel)とすると、以下の式6のようなxとd´との関係式が求められる。 In Equation 5, for example, if a, b = 100 (mm), f = 12 (mm), x = 600 (mm), and p = 0.0048 (mm/pixel), the relationship between x and d' can be obtained as shown in Equation 6 below.
d´=r・(2・sin(arctan(100/600)/2))・12
/(0.0048・600)
=r・α (ただし、αは定数) ・・・(式6)
d' = r * (2 * sin(arctan(100/600)/2)) * 12
/(0.0048.600)
= r α (where α is a constant) ... (Equation 6)
角膜曲率算出部33は、上記の式6を用いることにより、中心間距離d´に基づいて角膜曲率半径rを算出することができる。
The corneal
図8は、本実施形態で用いられる角膜曲率テーブルの一例を示す模式図である。図8に示すように、角膜曲率テーブルTでは、被験者の眼球を正面から見た場合において瞳孔中心112の位置を中心としたグリッドGが設定される。グリッドGは、仮想直線により格子状に形成される。グリッドGは、例えば横方向をX方向とし、縦方向をY方向とすることができる。角膜曲率テーブルTでは、グリッドGを構成する仮想直線で格子状に区画される部位Gaにより、角膜上の位置が規定される。1つの部位Gaごとに、角膜上の1つの位置が規定される。各部位Gaは、例えばX座標及びY座標により規定することができる。角膜曲率テーブルTは、被験者ごとに生成される。
Figure 8 is a schematic diagram showing an example of a corneal curvature table used in this embodiment. As shown in Figure 8, in the corneal curvature table T, a grid G is set with its center at the position of the
図8の一部に、グリッドGを拡大して示す。角膜曲率テーブルTは、グリッドGで区画される1つの部位Gaごとに、算出した角膜曲率半径が対応付けられたデータである。図4のグリッドGでは、同一の角膜曲率半径を同一の色で示している。グリッドGの拡大図に示す例において、グリッドGの部位Gaに対応付けられる角膜曲率半径は、被験者の瞳孔中心112を中心として、同心円状に広がるにつれて段階的に大きくなっている。
A portion of Figure 8 shows an enlarged view of grid G. Corneal curvature table T is data in which a calculated corneal radius of curvature is associated with each area Ga defined by grid G. In grid G in Figure 4, the same corneal radius of curvature is shown in the same color. In the example shown in the enlarged view of grid G, the corneal radius of curvature associated with area Ga of grid G increases stepwise as it spreads out in concentric circles around the subject's
図9は、角膜曲率テーブルTの生成過程の一例を模式的に示す図である。図9に示すように、被験者の眼球EBに角膜反射を形成した状態で視線(眼球EB)が移動した場合、角膜上における第1角膜反射中心121及び第2角膜反射中心122の位置が相対的に移動する。図9では、第2角膜反射中心122の位置がグリッドGの部位Gaを跨いで移動する場合を例に挙げて説明する。なお、第1角膜反射中心121の位置が移動する場合も同様の説明が可能である。角膜曲率算出部33は、角膜上における第2角膜反射中心122の位置が図9に示す軌跡122RでグリッドGの部位Gaを跨いで移動する場合、部位Gaごとに角膜曲率半径の値を算出する。また、テーブル生成部34は、算出した値を当該部位Gaに対応付けて記憶する。なお、角膜曲率算出部33により同一の部位Gaにおいて角膜曲率半径の値が複数回算出された場合、テーブル生成部34は、複数回の算出結果の平均値を角膜曲率半径の値として対応付けてもよい。このように、テーブル生成部34は、生成した角膜曲率テーブルTを更新することができる。テーブル生成部34は、例えば上記の処理を所定時間行うことにより、図8に示す角膜曲率テーブルTを生成することができる。
Figure 9 is a diagram showing a schematic example of a process for generating a corneal curvature table T. As shown in Figure 9, when the line of sight (eyeball EB) moves while a corneal reflex is formed on the subject's eyeball EB, the positions of the first
なお、図8に示す角膜曲率テーブルTにおいて、一部の部位Gaについては、上記手順によらなくても角膜曲率半径を算出することができる。図10は、眼球EBを正面から見た一例を模式的に示す図である。図10には、瞳孔114、虹彩116及びその付近における角膜曲率半径を示す近似円C1~C3が示されている。図10に示すように、一般的に人の眼球EBの角膜曲率半径は、正面から見た場合には瞳孔中心112を中心に同心円状になだらかに変化する。つまり、瞳孔中心112から離れるにつれて近似円の径が徐々に大きくなる。また、近似円に沿った部分の角膜曲率半径は、当該近似円の一周に亘ってほぼ等しくなっている。このため、テーブル生成部34は、角膜曲率テーブルTのグリッドGのうち角膜曲率半径の値が算出されなかった部位Gaに対して、瞳孔中心112を中心に角膜曲率半径が同心円状に大きくなるように、かつ同心円に沿った部位Gaの角膜曲率半径が同一となるように補間処理を行うことで、全ての部位Gaについて角膜曲率半径を算出することができる。
In the corneal curvature table T shown in FIG. 8, the corneal curvature radius can be calculated for some areas Ga without following the above procedure. FIG. 10 is a schematic diagram showing an example of an eyeball EB viewed from the front. FIG. 10 shows approximate circles C1 to C3 indicating the corneal curvature radius of the
図11は、テーブル生成部34による補間処理の一例を模式的に示す図である。図11に示すように、テーブル生成部34は、補間処理として、グリッドGに瞳孔中心112を中心とした径が異なる複数の同心円を設定し、複数の同心円で区画される複数の領域について同一の領域に存在する部位Ga同士の角膜曲率半径が同一の値となるように角膜曲率テーブルTを補間することができる。また、テーブル生成部34は、同心円の径が大きくなるほど角膜曲率半径の値が大きくなるように角膜曲率テーブルTを補間することができる。図11では、テーブル生成部34が3つの仮想の同心円を設定する場合を例に挙げている。以下、最も径が小さい仮想円を第1仮想円と表記し、2番目に径が小さい仮想円を第2仮想円と表記し、最も径が大きい仮想円を第3仮想円と表記する。第1仮想円から第3仮想円は、例えば上記した近似円C1~C3に対応する。図11に示すように、テーブル生成部34は、第1仮想円の内側の領域に位置する部位Ga同士が同値となり、第1仮想円と第2仮想円との間の領域に位置する部位Ga同士が同値となり、第2仮想円と第3仮想円との間の領域に位置する部位Ga同士が同値となり、第3仮想円の外側の領域に位置する部位Ga同士が同値となるように、角膜曲率半径を補間することができる。テーブル生成部34による角膜曲率テーブルTの生成は、いわゆる従来のキャリブレーション動作とは異なり、被験者が予め指定された特定の位置を注視する必要が無く、被験者が撮像部22で撮像可能な範囲にいる状態であれば実行可能である。
FIG. 11 is a diagram showing an example of the interpolation process by the
図12は、ガンマ角情報の一例を模式的に示す図である。図12の上段に示すように、眼球EBにおいて、網膜117の物理的な中心118と網膜視野中心119とが同一である場合、瞳孔中心112と、角膜曲率中心110と、網膜視野中心119とが同一直線上に存在する。この場合、角膜曲率中心110と瞳孔中心112とを結ぶ直線130と、角膜曲率中心110と網膜視野中心119とを結ぶ直線129とが等しくなる。直線130は、被験者の瞳孔の向きを示す。直線130は、視線検出装置100において検出する視線ベクトルに相当する直線である。直線129は、被験者の網膜117の網膜視野中心119に映る像の方向、すなわち被験者の実際の視線を示す。
Figure 12 is a diagram showing an example of gamma angle information. As shown in the upper part of Figure 12, in the case where the
これに対して、図12の下段に示すように、網膜117の物理的な中心118と網膜視野中心119とがずれた位置に存在する場合、瞳孔中心112と、角膜曲率中心110と、網膜視野中心119とが同一直線上に存在しない。この場合、角膜曲率中心110と瞳孔中心112とを結ぶ直線130が、角膜曲率中心110と網膜視野中心119とを結ぶ直線129に対して傾いた状態となる。この直線129と直線130との傾き角度、すなわち視線検出装置100で検出する視線ベクトルに相当する直線130と、被験者の実際の視線に相当する直線129とがなす角度がガンマ角γである。ガンマ角γは、個人に特有の値となっている。
In contrast, as shown in the lower part of Figure 12, when the
図13は、キャリブレーションによりガンマ角を計測する原理を模式的に示す図である。図13に示すように、キャリブレーション開始時に表示部11上の目標物12を注視するように被験者に指示する。被験者が目標物12を注視した状態において、例えば光源部21の第1光源21Aから検出光を照射する。第1光源21Aと被験者の眼球EBに形成される角膜反射中心121とを結ぶ直線と、角膜曲率半径の値とに基づいて角膜曲率中心110を求める。角膜曲率中心110と瞳孔中心112とを結ぶ直線130が被験者の瞳孔の向きである。また、本キャリブレーションにおいては、角膜曲率中心110と目標物12とを結ぶ直線129が被験者の視線である。この場合、直線130と直線129とがなす角度γをガンマ角として算出することができる。
Figure 13 is a diagram showing the principle of measuring the gamma angle by calibration. As shown in Figure 13, the subject is instructed to gaze at the
被験者の瞳孔の向き(直線130)に対してガンマ角γの補正を加えることで、精度よく視線ベクトルを算出することができる。このように、ガンマ角γの計測は、被験者が目標物12を注視する等、被験者の自覚的な動作によって得ることができる。したがって、被験者及び測定者の負担を考えた場合、キャリブレーションにより正しいガンマ角γの値が得られた場合には、当該被験者の次回以降の視線検出時にも上記で得られたガンマ角γの値を再利用することが望ましい。尚、上記説明では、視線検出装置100で検出する視線ベクトルに相当する直線130と、被験者の実際の視線に相当する直線129とがなす角度を被験者を上から見た場合の平面的な角度として説明したが、実際には被験者を横から見た場合の角度も含めて3次元的な角度としてガンマ角γを算出する。
By correcting the gamma angle γ with respect to the direction of the subject's pupil (straight line 130), the gaze vector can be calculated with high accuracy. In this way, the gamma angle γ can be measured by the subject's conscious action, such as by the subject gazing at the
図14は、生成テーブルと記憶テーブルとを照合する処理の一例を模式的に示す図である。図14に示す例は、生成テーブルT1と、記憶テーブルT2、T3を用いる場合を示している。なお、図14に示す生成テーブルT1及び記憶テーブルT2、T3は、説明を簡略化するため、グリッドGをX方向及びY方向のそれぞれについて5つずつ、すなわち5×5のグリッドGである場合を例に挙げて説明する。X軸、Y軸の各数値は、瞳孔中心に対応する部位Gaを原点とした場合のX座標、Y座標をそれぞれ示している。グリッドGの数は、5×5に限定されない。また、図14では、グリッドGの部位Gaに対応付ける値として、角膜曲率半径の逆数に基づく値(曲率の値)を用いている。なお、図14において、グリッドGの部位Gaに対応付ける値として、角膜曲率半径を用いた場合でも同様の説明が可能である。 Figure 14 is a diagram showing a schematic example of a process for matching a generated table with a stored table. The example shown in Figure 14 shows a case where a generated table T1 and stored tables T2 and T3 are used. In order to simplify the explanation, the generated table T1 and stored tables T2 and T3 shown in Figure 14 are explained using an example where there are five grids G in each of the X direction and Y direction, that is, a 5 x 5 grid G. The numerical values on the X axis and Y axis respectively indicate the X coordinate and the Y coordinate when the part Ga corresponding to the pupil center is set as the origin. The number of grids G is not limited to 5 x 5. In addition, in Figure 14, a value based on the inverse of the corneal curvature radius (curvature value) is used as the value associated with the part Ga of the grid G. In addition, the same explanation can be made even if the corneal curvature radius is used as the value associated with the part Ga of the grid G in Figure 14.
図14に示すように、照合部35は、新たに生成された生成テーブルT1を取得する。照合部35は、取得した生成テーブルT1が記憶テーブルT2、T3と対応するか否かを判定する。この場合、照合部35は、生成テーブルT1を、記憶テーブルT2、T3とそれぞれ照合する。
As shown in FIG. 14, the
照合部35は、例えば生成テーブルT1と、記憶テーブルT2、T3とについて、2次元配列の全ての値の差分を算出し、当該差分の和βに基づいて対応関係を判定することができる。ここで、生成テーブルT1の各部位Gaの曲率の値をA(x、y)とし、記憶テーブルT2、T3の各部位Gaの曲率の値をB(x、y)とする。ただし、xはX座標、yはY座標を示す。この場合、以下の式7によって差分の和βを算出することができる。
The
β=|A(-2,-2)-B(-2,-2)|
+|A(-2,-2)-B(-2,-1)|+
+……
+|A(2,2)-B(2,2)| (式7)
β = |A(-2,-2)-B(-2,-2)|
+ | A (-2,-2) - B (-2,-1) | +
+……
+ |A(2,2)-B(2,2)| (Equation 7)
ここで、実際の曲率の計測においては、完全一致する場合はほとんどなく、一定の誤差が生じる。このため、差分の和βが閾値以下の場合、生成テーブルT1と記憶テーブルT2、T3が対応するとみなすことができる。 In actual curvature measurements, there are almost no cases where the measurements match perfectly, and a certain amount of error occurs. For this reason, if the sum of the differences β is equal to or less than a threshold value, it can be assumed that the generated table T1 corresponds to the stored tables T2 and T3.
図14において、生成テーブルT1と記憶テーブルT2との差分の和βは、6.58である。また、生成テーブルT1と記憶テーブルT3との差分の和βは、2.34である。 In FIG. 14, the sum β of the differences between generated table T1 and stored table T2 is 6.58. Also, the sum β of the differences between generated table T1 and stored table T3 is 2.34.
例えば、閾値を3.0とした場合、照合部35は、差分の和βが閾値3.0よりも大きい記憶テーブルT2については、生成テーブルT1とは対応しないと判定することができる。また、照合部35は、差分の和βが閾値3.0以下の記憶テーブルT3については、生成テーブルT1と対応すると判定することができる。
For example, if the threshold value is set to 3.0, the
この場合、視線処理部36は、照合部35により生成テーブルT1と対応すると判定された記憶テーブルT3について、当該記憶テーブルT3に対応付けられる被験者情報のうち被験者特定情報を参照し、当該被験者特定情報により被験者を特定する。
In this case, for the memory table T3 that is determined by the
また、視線処理部36は、当該生成テーブルT1に係る被験者の視線を算出する際、照合部35により生成テーブルT1と対応すると判定された記憶テーブルT3について、当該記憶テーブルT3に対応付けられる被験者情報のうちガンマ角情報を参照し、当該ガンマ角情報に基づいたガンマ角γを用いて被験者の視線を算出する。
When calculating the gaze of the subject related to the generated table T1, the
また、例えば閾値を1.0とした場合、照合部35は、差分の和βが閾値1.0よりも大きい記憶テーブルT2、T3の両者について、生成テーブルT1とは対応しないと判定することができる。
Furthermore, for example, if the threshold value is set to 1.0, the
この場合、生成テーブルT1と対応する記憶テーブルが存在しないことになる。このため、照合部35は、生成テーブルT1を記憶部37に記憶させる。これにより、生成テーブルTは、記憶部37において新たな記憶テーブルとして記憶される。また、視線処理部36は、キャリブレーションにより当該被験者のガンマ角γの算出を行い、算出したガンマ角γを含むガンマ角情報を新たな記憶テーブル(T1)に対応付けて記憶部37に記憶させる。
In this case, there is no memory table corresponding to the generated table T1. Therefore, the
[被験者特定方法、視線検出方法]
次に、本実施形態に係る視線検出装置100を用いた被験者特定方法及び視線検出方法の一例を説明する。図15は、本実施形態に係る被験者特定方法及び視線検出方法の一例を示すフローチャートである。図15に示すように、まず、テーブル生成部34は、被験者の眼球における異なる複数の位置で算出される角膜曲率半径に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブル(生成テーブル)を生成する(ステップS101)。
[Subject Identification Method, Gaze Detection Method]
Next, an example of a subject identification method and a gaze detection method using the
次に、照合部35は、生成テーブルと、記憶部37に記憶される角膜曲率テーブル(記憶テーブル)とを照合する(ステップS102)。照合部35は、照合結果に基づいて、生成テーブルに対応する記憶テーブルが存在するか否かを判定する(ステップS103)。
Next, the
ステップS103において、生成テーブルに対応する記憶テーブルが存在すると判定した場合(ステップS103のYes)、照合部35は、判定された記憶テーブルに対応付けられた被験者情報のうち被験者特定情報に基づいて被験者を特定する(ステップS104)。
If it is determined in step S103 that a storage table corresponding to the generated table exists (Yes in step S103), the
一方、ステップS103において、生成テーブルに対応する記憶テーブルが存在しないと判定した場合(ステップS103のNo)、照合部35は、当該生成テーブルを新たな記憶テーブルとして記憶部37に記憶させる(ステップS105)。
On the other hand, if it is determined in step S103 that there is no storage table corresponding to the generated table (No in step S103), the
視線処理部36は、キャリブレーションにより被験者のガンマ角γを計測させる(ステップS106)。視線処理部36は、計測したガンマ角γを新たな記憶テーブルに対応付けて記憶させる(ステップS107)。
The line-of-
ステップS104の処理が行われた場合、視線処理部36は、特定された被験者の記憶テーブルに対応付けられた被験者情報のガンマ角情報に含まれるガンマ角γを取得して(ステップS105)、視線の算出を行う(ステップS110)。一方、ステップS107の処理が行われた場合、視線処理部36は、計測したガンマ角γを取得して(ステップS109)、視線の算出を行う(ステップS110)。
When the processing of step S104 is performed, the line-of-
図16は、本実施形態に係る視線検出方法における視線検出処理の一例を示すフローチャートである。図16に示すように、視線検出処理では、光源部21の第1光源21A又は第2光源21Bの一方から検出光を射出して眼球EBを照明し(ステップS201)、撮像部22の第1カメラ22A及び第2カメラ22Bの両方で眼球EBを撮像する(ステップS202)。位置検出部32は、取得された眼球EBの画像データに基づいて、瞳孔中心112の位置及び角膜反射中心125の位置を検出する(ステップS203)。位置検出部32は、三角測量法等により、瞳孔中心112及び角膜反射中心125の各位置を世界座標(グローバル座標系)に変換する(ステップS204)。
Figure 16 is a flowchart showing an example of the gaze detection process in the gaze detection method according to this embodiment. As shown in Figure 16, in the gaze detection process, detection light is emitted from either the first
視線処理部36は、第1光源21A及び第2光源21Bのうち検出光を射出した光源の位置と、瞳孔中心112の位置と、角膜反射中心125の位置と、角膜曲率半径rとに基づいて、角膜曲率中心110の位置を算出する(ステップS205)。この場合、視線処理部36は、検出光を射出した光源の位置と、角膜反射中心125とを結ぶ直線123を求める。視線処理部36は、求めた直線123上において、角膜反射中心125から眼球EBの内側に対して角膜曲率半径rに相当する距離だけ離れた位置を角膜曲率中心110の位置として求める。
The line-of-
視線処理部36は、瞳孔中心112と角膜曲率中心110とを結ぶ直線130を求め、ステップS105又はステップS109により取得したガンマ角γにより直線130の傾きを補正することにより、当該直線130の三次元ベクトルを視線ベクトルとして算出する(ステップS206)。
The line of
以上のように、本実施形態に係る被験者特定装置70は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の第1光源21A及び第2光源21Bと、検出光が照射された眼球の画像を撮像する撮像部22と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出する角膜曲率算出部33と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部34と、新たに生成された角膜曲率テーブルである生成テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて被験者を特定する照合部35とを備える。
As described above, the
また、本実施形態に係る被験者特定方法は、第1光源21A及び第2光源21Bから検出光を発光して被験者の少なくとも一方の眼球に照射することと、検出光が照射された眼球の画像を撮像することと、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出することと、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定することとを含む。
The subject identification method according to this embodiment includes emitting detection light from the first
また、本実施形態に係る被験者特定プログラムは、第1光源21A及び第2光源21Bから検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、検出光が照射された眼球の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出する処理と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定する処理とをコンピュータに実行させる。
The subject identification program according to this embodiment causes a computer to execute the following processes: emitting detection light from the first
この構成によれば、角膜曲率テーブルを生成し、新たに生成された生成テーブルと、記憶部37に記憶される記憶テーブルとを照合して、照合結果に基づいて、記憶テーブルに対応付けられた被験者特定情報により被験者を特定することができる。角膜曲率テーブルは被験者によって異なる情報、すなわち被験者固有の情報である。したがって、被験者固有の情報を用いることで、被験者を精度よく特定することができる。
According to this configuration, a corneal curvature table is generated, the newly generated table is compared with a memory table stored in the
本実施形態に係る視線検出装置100は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の第1光源21A及び第2光源21Bと、検出光が照射された眼球の画像を撮像する撮像部22と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する角膜曲率算出部33と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部34と、被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部37と、新たに生成された角膜曲率テーブルである生成テーブルと、記憶部37に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部35と、被験者の視線を算出する視線処理部36とを備え、視線処理部36は、生成テーブルと記憶テーブルとが対応していると判定された場合に、記憶テーブルに対応付けられた被験者情報を用いて被験者の視線を算出する。
The
この構成によれば、照合部35において生成テーブルと記憶テーブルとが対応していると判定された場合、被験者の視線の算出において、記憶テーブルに対応付けられた被験者情報が用いられる。これにより、被験者情報を適切に取得することができるため、被験者および操作者の負担を軽減し、視線検出装置100の性能を向上させることができる。
According to this configuration, if the
本実施形態に係る視線検出装置100において、被験者情報は、被験者の眼球の角膜曲率中心と瞳孔中心とを結ぶ直線と被験者の視線とのズレであるガンマ角の情報を含む。
In the
この構成によれば、被験者の自覚的な動作が必要な計測によって得ることが可能なガンマ角の情報を被験者情報として用いることができるため、ガンマ角の再計測の手間を省くことが可能となる。これにより、被験者および操作者の負担を軽減し、視線検出装置100の性能を向上させることができる。
With this configuration, gamma angle information that can be obtained through measurements that require the subject's conscious actions can be used as subject information, making it possible to eliminate the need to remeasure the gamma angle. This reduces the burden on the subject and the operator and improves the performance of the
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、被験者情報としてガンマ角γを用いる場合を例に挙げて説明したが、この構成に限定されない。例えば、表示部11の異なる箇所に補正用注視点を順に表示し、被験者に当該補正用注視点を注視させて被験者の注視点の位置を計測し、計測結果に基づいて被験者の視線を補正するための被験者固有の補正データを生成し、当該補正データを被験者情報として用いてもよい。この場合、補正データの生成は、例えばキャリブレーションとして行うことができる。
The technical scope of the present invention is not limited to the above-described embodiment, and appropriate modifications can be made without departing from the spirit of the present invention. For example, the above-described embodiment has been described with reference to an example in which gamma angle γ is used as subject information, but the present invention is not limited to this configuration. For example, correction gaze points are displayed in sequence at different locations on the
EB…眼球、G…グリッド、Ga…部位、IM1,IM2…画像データ、r…角膜曲率半径、x…カメラ被験者間距離、T…角膜曲率テーブル、T1…生成テーブル、T2,T3…記憶テーブル、10…表示装置、11…表示部、12…目標物、20…画像取得装置、21…光源部、21A…第1光源、21B…第2光源、22…撮像部、22A…第1カメラ、22B…第2カメラ、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…撮像制御部、32…位置検出部、33…角膜曲率算出部、34…テーブル生成部、35…照合部、36…視線処理部、37…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、70…被験者特定装置、100…視線検出装置、110…角膜曲率中心、112…瞳孔中心、114…瞳孔、116…虹彩、117…網膜、118…網膜の物理的な中心、119…網膜視野中心、120…角膜反射像、120A…第1角膜反射像、120B…第2角膜反射像、121…第1角膜反射中心、122…第2角膜反射中心、122R…軌跡、125…角膜反射中心 EB...eyeball, G...grid, Ga...area, IM1, IM2...image data, r...corneal radius of curvature, x...camera-subject distance, T...corneal curvature table, T1...generated table, T2, T3...storage table, 10...display device, 11...display unit, 12...target, 20...image acquisition device, 21...light source unit, 21A...first light source, 21B...second light source, 22...imaging unit, 22A...first camera, 22B...second camera, 30...computer system, 30A...arithmetic processing unit, 30B...storage unit, 30C...computer program, 31...imaging control unit, 32...position detection unit, 33... Corneal curvature calculation unit, 34...table generation unit, 35...matching unit, 36...gaze processing unit, 37...storage unit, 40...output device, 50...input device, 60...input/output interface device, 70...subject identification device, 100...gaze detection device, 110...corneal curvature center, 112...pupil center, 114...pupil, 116...iris, 117...retina, 118...physical center of retina, 119...retinal visual field center, 120...corneal reflection image, 120A...first corneal reflection image, 120B...second corneal reflection image, 121...first corneal reflection center, 122...second corneal reflection center, 122R...trajectory, 125...corneal reflection center
Claims (5)
前記検出光が照射された眼球の画像を撮像する撮像部と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する角膜曲率算出部と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、
新たに生成された角膜曲率テーブルである生成テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて前記被験者を特定する照合部と
を備える被験者特定装置。 A plurality of light sources that emit detection light and irradiate at least one eye of the subject;
an imaging unit that captures an image of the eyeball irradiated with the detection light;
a corneal curvature calculation unit that detects a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculates a corneal curvature of the subject at the detected position;
a table generating unit configured to generate a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
a comparison unit that compares a generated table, which is a newly generated corneal curvature table, with a stored table, which is a corneal curvature table stored in a storage unit in correspondence with subject identification information for identifying the subject, and identifies the subject based on a comparison result.
前記検出光が照射された眼球の画像を撮像する撮像部と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて前記被験者の角膜曲率を算出する角膜曲率算出部と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、
前記被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部と、
新たに生成された角膜曲率テーブルである生成テーブルと、前記記憶部に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部と、
前記被験者の視線を算出する視線処理部と
を備え、
前記視線処理部は、前記生成テーブルと前記記憶テーブルとが対応していると判定された場合に、前記記憶テーブルに対応付けられた前記被験者情報を用いて前記被験者の視線を算出する
視線検出装置。 A plurality of light sources that emit detection light and irradiate at least one eye of the subject;
an imaging unit that captures an image of the eyeball irradiated with the detection light;
a corneal curvature calculation unit that detects a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculates a corneal curvature of the subject based on the detected position;
a table generating unit configured to generate a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
a storage unit that stores subject information, which is information about the subject, in association with a corneal curvature table;
a comparison unit that determines whether or not a generated table, which is a newly generated corneal curvature table, corresponds to a stored table, which is a corneal curvature table stored in the storage unit;
a gaze processing unit that calculates the gaze of the subject,
When it is determined that the generated table and the stored table correspond to each other, the gaze processing unit calculates the gaze of the subject using the subject information associated with the stored table.
請求項2に記載の視線検出装置。 The gaze detection device according to claim 2 , wherein the subject information includes information on a gamma angle that is a deviation between a line connecting a center of corneal curvature and a center of a pupil of the subject's eyeball and the gaze of the subject.
前記検出光が照射された眼球の画像を撮像することと、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出することと、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、
新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定することと
を含む被験者特定方法。 Emitting detection light from a light source and irradiating at least one eyeball of the subject;
capturing an image of the eyeball irradiated with the detection light;
detecting a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculating a corneal curvature of the subject at the detected position;
generating a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on a comparison result.
前記検出光が照射された眼球の画像を撮像する処理と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する処理と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、
新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定する処理と
をコンピュータに実行させる被験者特定プログラム。 A process of emitting detection light from a light source and irradiating at least one eyeball of the subject;
A process of capturing an image of the eyeball irradiated with the detection light;
detecting a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculating a corneal curvature of the subject at the detected position;
A process of generating a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvature calculated at a plurality of different positions on the eyeball of the subject;
A subject identification program that causes a computer to execute a process of comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022206616A JP2024090620A (en) | 2022-12-23 | 2022-12-23 | Subject identification device, gaze detection device, subject identification method, and subject identification program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022206616A JP2024090620A (en) | 2022-12-23 | 2022-12-23 | Subject identification device, gaze detection device, subject identification method, and subject identification program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024090620A true JP2024090620A (en) | 2024-07-04 |
Family
ID=91714974
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022206616A Pending JP2024090620A (en) | 2022-12-23 | 2022-12-23 | Subject identification device, gaze detection device, subject identification method, and subject identification program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024090620A (en) |
-
2022
- 2022-12-23 JP JP2022206616A patent/JP2024090620A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2649932A1 (en) | Method for detecting point of gaze and device for detecting point of gaze | |
| US20030123027A1 (en) | System and method for eye gaze tracking using corneal image mapping | |
| US12507888B2 (en) | Eye-gaze detecting device, eye-gaze detecting method, and computer-readable storage medium | |
| JP7046347B2 (en) | Image processing device and image processing method | |
| JP7593008B2 (en) | Distance calculation device, distance calculation method, and distance calculation program | |
| US11890057B2 (en) | Gaze detection apparatus, gaze detection method, and gaze detection program | |
| JP2019146915A (en) | Evaluation device, evaluation method, and evaluation program | |
| JP6555707B2 (en) | Pupil detection device, pupil detection method, and pupil detection program | |
| JP2015046111A (en) | Viewpoint detection device and viewpoint detection method | |
| US11241152B2 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
| JP2024090620A (en) | Subject identification device, gaze detection device, subject identification method, and subject identification program | |
| US11653831B2 (en) | Visual performance examination device, visual performance examination method, and computer program | |
| US10996747B2 (en) | Line-of-sight detection device, line-of-sight detection method, and medium | |
| WO2022038814A1 (en) | Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program | |
| US20250298128A1 (en) | Gaze detection device, gaze detection method, and storage medium | |
| WO2019181272A1 (en) | Evaluation device, evaluation method, and evaluation program | |
| JP7263959B2 (en) | Eyeball detection device, sight line detection device, eyeball detection method, and eyeball detection program | |
| JP2019169080A (en) | Line of sight detection device, line of sight detection method and line of sight detection program | |
| JP2025147390A (en) | Corneal curvature radius calculation device, gaze detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program | |
| JP2017146987A (en) | Viewpoint detection apparatus and viewpoint detection method | |
| WO2023008023A1 (en) | Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program | |
| JP2023019690A (en) | Visual line detection device, visual line detection method, and visual line detection program | |
| JP2023019659A (en) | Visual line detection device, visual line detection method, and visual line detection program | |
| WO2022044395A1 (en) | Sight line detection device, sight line detection method, and sight line detection program | |
| WO2021131335A1 (en) | Corneal reflex detection device, line-of-sight detection device, corneal reflex detection method, and corneal reflex detection program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250930 |