[go: up one dir, main page]

JP2024090620A - Subject identification device, gaze detection device, subject identification method, and subject identification program - Google Patents

Subject identification device, gaze detection device, subject identification method, and subject identification program Download PDF

Info

Publication number
JP2024090620A
JP2024090620A JP2022206616A JP2022206616A JP2024090620A JP 2024090620 A JP2024090620 A JP 2024090620A JP 2022206616 A JP2022206616 A JP 2022206616A JP 2022206616 A JP2022206616 A JP 2022206616A JP 2024090620 A JP2024090620 A JP 2024090620A
Authority
JP
Japan
Prior art keywords
subject
eyeball
corneal
corneal curvature
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022206616A
Other languages
Japanese (ja)
Inventor
修二 箱嶋
Shuji Hakojima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022206616A priority Critical patent/JP2024090620A/en
Publication of JP2024090620A publication Critical patent/JP2024090620A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Collating Specific Patterns (AREA)

Abstract

To specify a subject with high accuracy.SOLUTION: A subject specification device includes a plurality of light sources for emitting detection light to irradiate at least one eyeball of a subject with the light, an imaging part for imaging an image of the eyeball to which the detection light is emitted, a cornea curvature calculation part for detecting the position of a corneal reflection center showing the center of corneal reflection in the eyeball with the detection light emitted from the picked-up image, and calculating a cornea curvature of the subject at the detected position, a table generation part for generating a cornea curvature table showing a relation between a position on the eyeball and the cornea curvature on the basis of cornea curvatures calculated at a plurality of different positions in the eyeball of the subject, and a collation part for collating a generation table being a newly generated cornea curvature table with a storage table being a cornea curvature table stored in a storage part in association with the subject specification information for specifying the subject, and specifying the subject on the basis of a collation result.SELECTED DRAWING: Figure 2

Description

本発明は、被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムに関する。 The present invention relates to a subject identification device, a gaze detection device, a subject identification method, and a subject identification program.

光源で検出光を発光して被験者の眼球に照射し、検出光が照射された眼球の画像を取得し、取得した画像における瞳孔の像と検出光の反射像とに基づいて、瞳孔中心及び角膜曲率中心を算出し、角膜曲率中心から瞳孔中心へ向かうベクトルを被験者の視線方向として検出する視線検出装置が知られている(例えば、特許文献1参照)。 A gaze detection device is known that emits detection light from a light source and irradiates the subject's eyeball, acquires an image of the eyeball irradiated with the detection light, calculates the pupil center and corneal curvature center based on the image of the pupil in the acquired image and the reflected image of the detection light, and detects the vector from the corneal curvature center to the pupil center as the gaze direction of the subject (see, for example, Patent Document 1).

特許第4649319号公報Patent No. 4649319

上記のような視線検出装置では、同一の被験者が複数回の検出を行う場合、2回目以降の検出において1回目のデータを利用することがある。例えば被験者と当該被験者の1回目のデータとを対応付けておき、被験者を自動的に特定することができれば、1回目のデータを自動的に抽出することができる。この場合、被験者を精度よく特定することが求められる。 In the above-mentioned gaze detection device, when the same subject performs detection multiple times, the data from the first detection may be used in the second and subsequent detections. For example, if the subject and the first data of the subject are associated with each other and the subject can be automatically identified, the first data can be automatically extracted. In this case, it is required to identify the subject with high accuracy.

本発明は、上記に鑑みてなされたものであり、被験者を精度よく特定することが可能な被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムを提供することを目的とする。 The present invention has been made in consideration of the above, and aims to provide a subject identification device, gaze detection device, subject identification method, and subject identification program that are capable of identifying subjects with high accuracy.

本発明に係る被験者特定装置は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、前記検出光が照射された眼球の画像を撮像する撮像部と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する角膜曲率算出部と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、新たに生成された角膜曲率テーブルである生成テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて前記被験者を特定する照合部とを備える。 The subject identification device according to the present invention includes a plurality of light sources that emit detection light and irradiate it on at least one eyeball of the subject; an imaging unit that captures an image of the eyeball irradiated with the detection light; a corneal curvature calculation unit that detects the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the corneal curvature of the subject at the detected position; a table generation unit that generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at a plurality of different positions on the subject's eyeball; and a matching unit that matches the generated table, which is the newly generated corneal curvature table, with a stored table, which is a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifies the subject based on the matching result.

本発明に係る視線検出装置は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、前記検出光が照射された眼球の画像を撮像する撮像部と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて前記被験者の角膜曲率を算出する角膜曲率算出部と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、前記被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部と、新たに生成された角膜曲率テーブルである生成テーブルと、前記記憶部に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部と、前記被験者の視線を算出する視線処理部とを備え、前記視線処理部は、前記生成テーブルと前記記憶テーブルとが対応していると判定された場合に、前記記憶テーブルに対応付けられた前記被験者情報を用いて前記被験者の視線を算出する。 The gaze detection device according to the present invention includes a plurality of light sources that emit detection light and irradiate it on at least one eyeball of a subject; an imaging unit that captures an image of the eyeball irradiated with the detection light; a corneal curvature calculation unit that detects the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the corneal curvature of the subject based on the detected position; a table generation unit that generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at different positions on the subject's eyeball; a storage unit that stores subject information, which is information on the subject, in association with the corneal curvature table; a comparison unit that determines whether the newly generated corneal curvature table corresponds to the memory table, which is the corneal curvature table stored in the memory unit; and a gaze processing unit that calculates the gaze of the subject. When it is determined that the generated table corresponds to the memory table, the gaze processing unit calculates the gaze of the subject using the subject information associated with the memory table.

本発明に係る被験者特定方法は、光源から検出光を発光して被験者の少なくとも一方の眼球に照射することと、前記検出光が照射された眼球の画像を撮像することと、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出することと、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定することとを含む。 The subject identification method according to the present invention includes emitting detection light from a light source and irradiating it onto at least one eyeball of a subject, capturing an image of the eyeball irradiated with the detection light, detecting from the captured image the position of a corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light, and calculating the corneal curvature of the subject at the detected position, generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvatures calculated at multiple different positions on the subject's eyeball, comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.

本発明に係る被験者特定プログラムは、光源から検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、前記検出光が照射された眼球の画像を撮像する処理と、撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する処理と、前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定する処理とをコンピュータに実行させる。 The subject identification program of the present invention causes a computer to execute the following processes: emitting detection light from a light source and irradiating it on at least one eyeball of a subject; capturing an image of the eyeball irradiated with the detection light; detecting, from the captured image, the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light, and calculating the corneal curvature of the subject at the detected position; generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvatures calculated at multiple different positions on the subject's eyeball; and comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.

本発明によれば、被験者を精度よく特定することが可能となる。 The present invention makes it possible to identify subjects with high accuracy.

図1は、本実施形態に係る視線検出装置の一例を模式的に示す図である。FIG. 1 is a diagram illustrating an example of a gaze detection device according to the present embodiment. 図2は、視線検出装置の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating an example of a gaze detection device. 図3は、本実施形態の視線検出装置において被験者の視線を検出する原理を模式的に示す図である。FIG. 3 is a diagram showing a schematic diagram of the principle of detecting the gaze of a subject in the gaze detection device of this embodiment. 図4は、光源部からの検出光が被験者の眼球に照射される状態を模式的に示す図である。FIG. 4 is a diagram showing a schematic diagram of a state in which detection light from a light source unit is irradiated onto the eyeball of a subject. 図5は、光源部からの検出光が被験者の眼球に照射される状態を模式的に示す図である。FIG. 5 is a diagram showing a schematic diagram of a state in which detection light from a light source unit is irradiated onto the eyeball of a subject. 図6は、光源部、撮像部及び被験者の眼球の位置関係の一例を示す図である。FIG. 6 is a diagram showing an example of the positional relationship between the light source unit, the image capturing unit, and the eyeball of the subject. 図7は、撮像部により撮像された眼球の画像データの一例を示す図である。FIG. 7 is a diagram showing an example of image data of an eyeball captured by the imaging unit. 図8は、本実施形態で用いられる角膜曲率テーブルの一例を示す模式図である。FIG. 8 is a schematic diagram showing an example of a corneal curvature table used in this embodiment. 図9は、角膜曲率テーブルの生成過程の一例を模式的に示す図である。FIG. 9 is a diagram illustrating an example of a process for generating a corneal curvature table. 図10は、眼球を正面から見た一例を模式的に示す図である。FIG. 10 is a diagram showing an example of an eyeball viewed from the front. 図11は、テーブル生成部による補間処理の一例を模式的に示す図である。FIG. 11 is a diagram illustrating an example of the interpolation process performed by the table generating unit. 図12は、ガンマ角情報の一例を模式的に示す図である。FIG. 12 is a diagram illustrating an example of gamma angle information. 図13は、キャリブレーションによりガンマ角を計測する原理を模式的に示す図である。FIG. 13 is a diagram showing a schematic diagram of the principle of measuring the gamma angle by calibration. 図14は、生成テーブルと記憶テーブルとを照合する処理の一例を模式的に示す図である。FIG. 14 is a diagram illustrating an example of a process for checking a generated table against a stored table. 図15は、本実施形態に係る被験者特定方法及び視線検出方法の一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of a subject identification method and a gaze detection method according to this embodiment. 図16は、本実施形態に係る視線検出方法における視線検出処理の一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the gaze detection process in the gaze detection method according to the present embodiment.

以下、本発明に係る被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Below, embodiments of a subject identification device, gaze detection device, subject identification method, and subject identification program according to the present invention will be described with reference to the drawings. Note that the present invention is not limited to these embodiments. Furthermore, the components in the following embodiments include those that are replaceable and easy for a person skilled in the art, or those that are substantially the same.

以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。 In the following explanation, a three-dimensional global coordinate system is set up to explain the positional relationships of each part. The direction parallel to the first axis of the specified plane is the X-axis direction, the direction parallel to the second axis of the specified plane that is perpendicular to the first axis is the Y-axis direction, and the direction parallel to the third axis that is perpendicular to both the first and second axes is the Z-axis direction. The specified plane includes the XY plane.

[被験者特定装置、視線検出装置]
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す図である。本実施形態に係る視線検出装置100は、被験者の視線を検出し、検出結果を出力する。視線検出装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する。
[Subject Identification Device, Gaze Detection Device]
1 is a diagram showing an example of a gaze detection device 100 according to the present embodiment. The gaze detection device 100 according to the present embodiment detects the gaze of a subject and outputs the detection result. The gaze detection device 100 detects the gaze based on, for example, the position of the subject's pupil and the position of the corneal reflection.

図1に示すように、視線検出装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。 As shown in FIG. 1, the gaze detection device 100 includes a display device 10, an image acquisition device 20, a computer system 30, an output device 40, an input device 50, and an input/output interface device 60. The display device 10, the image acquisition device 20, the computer system 30, the output device 40, and the input device 50 communicate data via the input/output interface device 60. The display device 10 and the image acquisition device 20 each have a drive circuit (not shown).

表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。ヘッドマウント型ディスプレイの場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。 The display device 10 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OLED). In this embodiment, the display device 10 has a display unit 11. The display unit 11 displays information such as images. The display unit 11 is substantially parallel to the XY plane. The X-axis direction is the left-right direction of the display unit 11, the Y-axis direction is the up-down direction of the display unit 11, and the Z-axis direction is the depth direction perpendicular to the display unit 11. The display device 10 may be a head-mounted display device. In the case of a head-mounted display, a configuration such as the image acquisition device 20 is arranged in a head-mounted module.

画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、光源部(光源)21及び撮像部22を有する。 The image acquisition device 20 acquires image data of the subject's left and right eyes EB and transmits the acquired image data to the computer system 30. The image acquisition device 20 has a light source unit (light source) 21 and an imaging unit 22.

光源部21は、被験者の眼球EBに検出光を射出する。光源部21は、互いに異なる位置に配置される第1光源21A及び第2光源21Bを有する。第1光源21A及び第2光源21Bは、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。光源部21は、撮像部22のフレーム同期信号に同期するように検出光を射出する。光源部21は、単一の光源で構成されてもよい。 The light source unit 21 emits detection light to the subject's eye EB. The light source unit 21 has a first light source 21A and a second light source 21B arranged at different positions. The first light source 21A and the second light source 21B include an LED (light emitting diode) light source and can emit near-infrared light with a wavelength of, for example, 850 nm. The light source unit 21 emits detection light in synchronization with a frame synchronization signal of the imaging unit 22. The light source unit 21 may be composed of a single light source.

撮像部22は、被験者の左右の眼球EBを撮像することで画像データを生成する。撮像部22は、被験者の視線を検出する方法に応じた各種カメラを有する。本実施形態のように、被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮像部22は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。撮像部22は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮像部22は、第1カメラ22A及び第2カメラ22Bを有するステレオカメラの構成である。第1カメラ22A及び第2カメラ22Bは、互いに異なる撮像位置に配置される。第1カメラ22A及び第2カメラ22Bにより取得される画像データは、例えば8ビットの値(0~255)で設定される輝度を有する画素が2次元状に配列された構成である。輝度は、値が小さいほど暗く、値が大きいほど明るいことを示す。輝度の値が0の画素は、画像データに黒色として表示される。輝度の値が255の画素は、画像データに白色として表示される。第1カメラ22A及び第2カメラ22Bは、例えば同一の解像度を有する。この場合、第1カメラ22A及び第2カメラ22Bにより取得される画像データは、縦横の画素数が互いに等しくなる。撮像部22は、単一のカメラで構成されてもよい。 The imaging unit 22 generates image data by capturing images of the subject's left and right eyeballs EB. The imaging unit 22 has various cameras according to the method of detecting the subject's gaze. In the case of a method of detecting the gaze based on the position of the subject's pupil and the position of the corneal reflection, as in this embodiment, the imaging unit 22 has an infrared camera, and has an optical system that can transmit near-infrared light with a wavelength of 850 [nm], for example, and an imaging element that can receive the near-infrared light. The imaging unit 22 outputs a frame synchronization signal. The period of the frame synchronization signal can be, for example, 20 [msec], but is not limited to this. The imaging unit 22 is configured as a stereo camera having a first camera 22A and a second camera 22B. The first camera 22A and the second camera 22B are arranged at different imaging positions. The image data acquired by the first camera 22A and the second camera 22B is configured in such a way that pixels having a luminance set by, for example, an 8-bit value (0 to 255) are arranged two-dimensionally. The smaller the luminance value, the darker the image, and the larger the luminance value, the brighter the image. A pixel with a brightness value of 0 is displayed as black in the image data. A pixel with a brightness value of 255 is displayed as white in the image data. The first camera 22A and the second camera 22B have, for example, the same resolution. In this case, the image data acquired by the first camera 22A and the second camera 22B have the same number of pixels in both the vertical and horizontal directions. The imaging unit 22 may be configured with a single camera.

コンピュータシステム30は、視線検出装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。 The computer system 30 controls the overall operation of the gaze detection device 100. The computer system 30 includes an arithmetic processing unit 30A and a storage device 30B. The arithmetic processing unit 30A includes a microprocessor such as a CPU (central processing unit). The storage device 30B includes a memory or storage such as a ROM (read only memory) and a RAM (random access memory). The arithmetic processing unit 30A performs arithmetic processing according to a computer program 30C stored in the storage device 30B.

出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。 The output device 40 includes a display device such as a flat panel display. The output device 40 may also include a printing device. The input device 50 generates input data when operated. The input device 50 includes a keyboard or a mouse for a computer system. The input device 50 may also include a touch sensor provided on the display unit of the output device 40, which is a display device.

本実施形態に係る視線検出装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。 In the gaze detection device 100 according to this embodiment, the display device 10 and the computer system 30 are separate devices. The display device 10 and the computer system 30 may be integrated. For example, the gaze detection device 100 may include a tablet-type personal computer. In this case, the tablet-type personal computer may be equipped with a display device, an image acquisition device, a computer system, an input device, an output device, etc.

図2は、視線検出装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、撮像制御部31と、位置検出部32と、角膜曲率算出部33と、テーブル生成部34と、照合部35と、視線処理部36と、記憶部37とを有する。なお、コンピュータシステム30のうち撮像制御部31、位置検出部32、角膜曲率算出部33、テーブル生成部34及び照合部35と、上記した画像取得装置20とにより、本実施形態に係る被験者特定装置70が構成される。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が視線検出装置100の外部に設けられてもよい。 2 is a functional block diagram showing an example of the gaze detection device 100. As shown in FIG. 2, the computer system 30 has an image capture control unit 31, a position detection unit 32, a corneal curvature calculation unit 33, a table generation unit 34, a matching unit 35, a gaze processing unit 36, and a memory unit 37. The image capture control unit 31, the position detection unit 32, the corneal curvature calculation unit 33, the table generation unit 34, and the matching unit 35 of the computer system 30, and the image acquisition device 20 described above constitute the subject identification device 70 according to this embodiment. The functions of the computer system 30 are performed by the calculation processing device 30A and the storage device 30B (see FIG. 1). Some functions of the computer system 30 may be provided outside the gaze detection device 100.

撮像制御部31は、光源部21及び撮像部22を制御する。撮像制御部31は、光源部21の第1光源21A及び第2光源21Bのそれぞれについて、検出光の射出のタイミング、射出時間等を制御する。撮像制御部31は、撮像部22の第1カメラ22A及び第2カメラ22Bについて、撮像のタイミング等を制御する。撮像制御部31は、撮像部22のフレーム同期信号と同期して、第1光源21A及び第2光源21Bから検出光を射出させる。本実施形態において、撮像制御部31は、例えばフレーム同期信号の周期ごとに、第1光源21A及び第2光源21Bに交互に検出光を射出させる。撮像制御部31は、画像取得装置20により取得される画像データを取得する。撮像制御部31は、取得した画像データを記憶部37に記憶する。 The imaging control unit 31 controls the light source unit 21 and the imaging unit 22. The imaging control unit 31 controls the timing and emission time of the detection light for each of the first light source 21A and the second light source 21B of the light source unit 21. The imaging control unit 31 controls the imaging timing for the first camera 22A and the second camera 22B of the imaging unit 22. The imaging control unit 31 causes the first light source 21A and the second light source 21B to emit the detection light in synchronization with the frame synchronization signal of the imaging unit 22. In this embodiment, the imaging control unit 31 causes the first light source 21A and the second light source 21B to alternately emit the detection light, for example, for each period of the frame synchronization signal. The imaging control unit 31 acquires image data acquired by the image acquisition device 20. The imaging control unit 31 stores the acquired image data in the storage unit 37.

位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、検出光が照射された被験者の眼球の瞳孔の中心を示す瞳孔中心の位置データを検出する。また、位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、検出光が照射された被験者の眼球の角膜反射の中心を示す角膜反射中心の位置データを検出する。位置検出部32は、被験者の左右それぞれの眼球について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。位置検出部32は、撮像部22で撮像された被験者の眼球の画像データに基づいて、光源部21からの検出光による角膜反射中心の位置を算出する。角膜反射中心は、それぞれの検出光による角膜反射像の中心である。また、位置検出部32は、撮像部22の第1カメラ22A及び第2カメラ22Bの2つのカメラで撮像された画像データに基づいて、三角測量法により被験者と撮像部22との距離(以下、カメラ被験者間距離と表記する)を検出する。位置検出部32は、検出した瞳孔中心、角膜反射中心の位置及びカメラ被験者間距離を記憶部37に記憶する。 The position detection unit 32 detects the position data of the pupil center indicating the center of the pupil of the subject's eyeball irradiated with the detection light based on the image data of the subject's eyeball imaged by the imaging unit 22. The position detection unit 32 also detects the position data of the corneal reflection center indicating the center of the corneal reflection of the subject's eyeball irradiated with the detection light based on the image data of the subject's eyeball imaged by the imaging unit 22. The position detection unit 32 detects the position data of the pupil center and the position data of the corneal reflection center for each of the subject's left and right eyes. The position detection unit 32 calculates the position of the corneal reflection center by the detection light from the light source unit 21 based on the image data of the subject's eyeball imaged by the imaging unit 22. The corneal reflection center is the center of the corneal reflection image by each detection light. The position detection unit 32 also detects the distance between the subject and the imaging unit 22 (hereinafter referred to as the camera-subject distance) by triangulation based on the image data captured by the two cameras, the first camera 22A and the second camera 22B of the imaging unit 22. The position detection unit 32 stores the detected pupil center, corneal reflection center positions, and camera-subject distance in the memory unit 37.

角膜曲率算出部33は、撮像された画像データから、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する。本実施形態において、角膜曲率算出部33は、角膜曲率として、被験者の角膜曲率半径を算出することができる。なお、角膜曲率算出部33は、角膜曲率として、被験者の角膜の曲率を算出してもよい。 The corneal curvature calculation unit 33 detects the position of the corneal reflection center, which indicates the center of the corneal reflection in the eyeball irradiated with the detection light, from the captured image data, and calculates the corneal curvature of the subject based on the detected position. In this embodiment, the corneal curvature calculation unit 33 can calculate the corneal curvature radius of the subject as the corneal curvature. The corneal curvature calculation unit 33 may also calculate the curvature of the subject's cornea as the corneal curvature.

テーブル生成部34は、被験者の眼球における異なる複数の位置で算出される角膜曲率半径に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する。本実施形態において、テーブル生成部34は、被験者の眼球上の位置と、角膜曲率半径との関係を示す角膜曲率テーブルを生成する。角膜曲率テーブルの詳細については、後述する。 The table generating unit 34 generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature radius calculated at multiple different positions on the subject's eyeball. In this embodiment, the table generating unit 34 generates a corneal curvature table indicating the relationship between the position on the subject's eyeball and the corneal curvature radius. Details of the corneal curvature table will be described later.

テーブル生成部34は、生成した角膜曲率テーブルTを、被験者を示す被験者情報に対応付けて記憶部37に記憶させる。被験者情報は、被験者を特定するための被験者特定情報と、被験者のガンマ角情報とを含む。被験者特定情報は、例えば被験者を特定するための番号、被験者の氏名等が挙げられる。ガンマ角情報は、被験者の眼球の角膜曲率中心と瞳孔中心とを結ぶ直線と、被験者の視線とのズレであるガンマ角の情報である。ガンマ角の詳細については、後述する。 The table generating unit 34 stores the generated corneal curvature table T in the storage unit 37 in association with subject information indicating the subject. The subject information includes subject identification information for identifying the subject and gamma angle information of the subject. Examples of subject identification information include a number for identifying the subject and the subject's name. The gamma angle information is information on the gamma angle, which is the deviation between the line of sight of the subject and a straight line connecting the center of the corneal curvature of the subject's eyeball and the center of the pupil. Details of the gamma angle will be described later.

照合部35は、テーブル生成部34で新たに生成された角膜曲率テーブル(以下、「生成テーブル」と表記する)と、記憶部37に記憶された角膜曲率テーブル(以下、「記憶テーブル」と表記する)とを照合し、照合結果に基づいて被験者を特定する。照合部35は、生成テーブルと記憶テーブルとが対応しているか否かを判定する。照合部35は、生成テーブルと記憶テーブルとが対応していると判定した場合、記憶テーブルと対応付けて記憶される被験者特定情報を参照し、当該被験者特定情報に基づいて被験者を特定する。 The collation unit 35 compares the corneal curvature table newly generated by the table generation unit 34 (hereinafter referred to as the "generated table") with the corneal curvature table stored in the memory unit 37 (hereinafter referred to as the "memorized table"), and identifies the subject based on the collation result. The collation unit 35 determines whether the generated table and the memorized table correspond to each other. If the collation unit 35 determines that the generated table and the memorized table correspond to each other, it refers to the subject identification information stored in association with the memorized table, and identifies the subject based on the subject identification information.

視線処理部36は、被験者の視線を算出する。視線処理部36は、撮像部22により撮像された画像データに基づいて、被験者の瞳孔中心の位置を検出する。瞳孔中心は、瞳孔の中心である。視線処理部36は、算出した瞳孔中心の位置と、光源部21の位置と、位置検出部32により算出された角膜反射中心の位置と、予め算出又は設定される角膜曲率半径の値と、ガンマ角の値とに基づいて、被験者の眼球EBの視線ベクトルを視線として検出する。 The gaze processing unit 36 calculates the gaze of the subject. The gaze processing unit 36 detects the position of the subject's pupil center based on image data captured by the imaging unit 22. The pupil center is the center of the pupil. The gaze processing unit 36 detects the gaze vector of the subject's eyeball EB as the gaze based on the calculated position of the pupil center, the position of the light source unit 21, the position of the corneal reflection center calculated by the position detection unit 32, the value of the corneal curvature radius calculated or set in advance, and the value of the gamma angle.

記憶部37は、コンピュータシステム30の各部における処理を行うための各種データやプログラムを記憶する。記憶部37は、例えば表示部11に表示させる画像についてのデータを記憶する。記憶部37は、撮像制御部31によって取得された画像データ、位置検出部32によって算出された瞳孔中心の位置及び角膜反射中心の位置、テーブル生成部34により算出された角膜曲率テーブル、当該角膜曲率テーブルと対応付けた被験者情報(被験者特定情報、ガンマ角情報)等の各種情報を記憶する。 The storage unit 37 stores various data and programs for performing processing in each part of the computer system 30. The storage unit 37 stores, for example, data on an image to be displayed on the display unit 11. The storage unit 37 stores various information such as image data acquired by the imaging control unit 31, the position of the pupil center and the position of the corneal reflection center calculated by the position detection unit 32, the corneal curvature table calculated by the table generation unit 34, and subject information (subject identification information, gamma angle information) associated with the corneal curvature table.

また、記憶部37は、光源部21から検出光を発光して被験者の少なくとも一方の眼球EBに照射する処理と、検出光が照射された眼球EBの画像を撮像する処理と、撮像された画像から、検出光が照射された眼球EBにおける角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する処理と、被験者の眼球EBにおける異なる複数の位置で算出される角膜曲率に基づいて、眼球EB上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定する処理とをコンピュータに実行させる被験者特定プログラムを記憶する。 The memory unit 37 also stores a subject identification program that causes the computer to execute the following processes: emitting detection light from the light source unit 21 and irradiating it on at least one eyeball EB of the subject; capturing an image of the eyeball EB irradiated with the detection light; detecting from the captured image the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball EB irradiated with the detection light and calculating the corneal curvature of the subject based on the detected position; generating a corneal curvature table indicating the relationship between the position on the eyeball EB and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball EB; and comparing the newly generated corneal curvature table with a corneal curvature table stored in the memory unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.

また、記憶部37は、光源部21から検出光を発光して被験者の少なくとも一方の眼球EBに照射する処理と、検出光が照射された眼球EBの画像を撮像する処理と、撮像された画像から、検出光が照射された眼球EBにおける角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する処理と、被験者の眼球EBにおける異なる複数の位置で算出される角膜曲率に基づいて、眼球EB上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者の情報である被験者特定に対応付けて記憶部に記憶された角膜曲率テーブルとが対応しているか否かを判定する処理と、被験者の視線を算出する処理とをコンピュータに実行させ、被験者の視線を算出する処理では、新たに生成された角膜曲率テーブルと記憶部に記憶される角膜曲率テーブルとが対応していると判定された場合に、記憶部に記憶される角膜曲率テーブルに対応付けられた被験者情報を用いて被験者の視線を算出する視線検出プログラムを記憶する。 The storage unit 37 also causes the computer to execute the following processes: emitting detection light from the light source unit 21 and irradiating it on at least one eyeball EB of the subject; capturing an image of the eyeball EB irradiated with the detection light; detecting the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball EB irradiated with the detection light from the captured image and calculating the corneal curvature of the subject based on the detected position; generating a corneal curvature table indicating the relationship between the position on the eyeball EB and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball EB; determining whether the newly generated corneal curvature table corresponds to the corneal curvature table stored in the storage unit in association with the subject's identification, which is information about the subject; and calculating the subject's gaze. In the process of calculating the subject's gaze, the storage unit stores a gaze detection program that calculates the subject's gaze using the subject information associated with the corneal curvature table stored in the storage unit when it is determined that the newly generated corneal curvature table corresponds to the corneal curvature table stored in the storage unit.

図3は、本実施形態の視線検出装置100において被験者の視線を検出する原理を模式的に示す図である。以降、被験者の右側の眼球EB(右眼ER)について説明するが、左側の眼球EB(左眼EL)についても同様の説明が可能である。本実施形態では、被験者の眼球EBにおける瞳孔中心112と角膜曲率中心110とを結ぶ直線130を求め、当該直線130の三次元ベクトルを視線として検出する。 Figure 3 is a diagram showing a schematic diagram of the principle of detecting the gaze of a subject in the gaze detection device 100 of this embodiment. The following describes the subject's right eye EB (right eye ER), but a similar explanation can be applied to the left eye EB (left eye EL). In this embodiment, a straight line 130 connecting the pupil center 112 and the corneal curvature center 110 of the subject's eye EB is obtained, and the three-dimensional vector of this straight line 130 is detected as the gaze.

図3に示すように、第1光源21A及び第2光源21Bの一方(例えば、第1光源21A)から被験者の眼球EBに検出光を照射する。被験者の眼球EBの角膜上には、検出光による角膜反射像120が形成される。被験者の眼球EBを撮像部22で撮像することにより、角膜反射像120が形成された眼球EBの画像データを取得できる。当該画像データには、被験者の瞳孔の画像も含まれている。したがって、当該画像データに基づいて、被験者の眼球EBの瞳孔中心112の位置と角膜反射中心125の位置とを算出することができる。瞳孔中心112は、被験者の瞳孔の中心を示す。角膜反射中心125は、角膜反射像120の中心を示す。このとき、第1カメラ22A及び第2カメラ22Bの2つのカメラを用いることで、三角測量法により被験者の瞳孔中心112及び角膜反射中心125の位置を算出できる。 As shown in FIG. 3, detection light is irradiated onto the subject's eye EB from one of the first light source 21A and the second light source 21B (for example, the first light source 21A). A corneal reflection image 120 is formed on the cornea of the subject's eye EB by the detection light. By capturing an image of the subject's eye EB with the imaging unit 22, image data of the eye EB on which the corneal reflection image 120 is formed can be obtained. The image data also includes an image of the subject's pupil. Therefore, based on the image data, the position of the pupil center 112 and the position of the corneal reflection center 125 of the subject's eye EB can be calculated. The pupil center 112 indicates the center of the subject's pupil. The corneal reflection center 125 indicates the center of the corneal reflection image 120. At this time, by using two cameras, the first camera 22A and the second camera 22B, the positions of the subject's pupil center 112 and the corneal reflection center 125 can be calculated by triangulation.

被験者の眼球EBにおいて、角膜曲率中心110は、角膜反射像120を形成した光源である第1光源21Aと、当該角膜反射像120の角膜反射中心125とを結ぶ直線123上の位置である。具体的には、角膜曲率中心110の位置は、直線123上のうち、角膜反射中心125から第1光源21Aとは反対方向について角膜曲率半径rに対応する距離だけ離れた位置である。したがって、角膜反射中心125の位置を算出した場合、角膜曲率半径rの値に基づいて、角膜曲率中心110の位置を算出することができる。角膜曲率半径rの値は、例えば予め設定された値を用いてもよいし、後述する測定等により算出した値を用いてもよいし、後述の角膜曲率テーブルに基づく値を用いてもよい。 In the subject's eye EB, the corneal curvature center 110 is a position on a straight line 123 that connects the first light source 21A, which is the light source that formed the corneal reflection image 120, and the corneal reflection center 125 of the corneal reflection image 120. Specifically, the position of the corneal curvature center 110 is a position on the straight line 123 that is a distance away from the corneal reflection center 125 in the direction opposite to the first light source 21A, which corresponds to the corneal curvature radius r. Therefore, when the position of the corneal reflection center 125 is calculated, the position of the corneal curvature center 110 can be calculated based on the value of the corneal curvature radius r. The value of the corneal curvature radius r may be, for example, a preset value, a value calculated by measurements or the like described below, or a value based on a corneal curvature table described below.

瞳孔中心112の位置と角膜曲率中心110の位置とを求めることにより、当該瞳孔中心112と角膜曲率中心110とを通る直線130を算出することができる。そして、この直線130の三次元ベクトルを、被験者の視線として算出することができる。なお、視線ベクトルを検出した後、直線130(視線ベクトル)と表示部11との交点を示す注視点の位置を検出することができる。 By determining the positions of the pupil center 112 and the corneal curvature center 110, it is possible to calculate a straight line 130 passing through the pupil center 112 and the corneal curvature center 110. Then, the three-dimensional vector of this straight line 130 can be calculated as the subject's line of sight. After detecting the line of sight vector, it is possible to detect the position of the gaze point indicating the intersection of the line of sight vector 130 (line of sight vector) and the display unit 11.

ここで、角膜曲率算出部33により角膜曲率半径を算出する原理の一例について説明する。図4及び図5は、光源部21からの検出光が被験者の眼球EBに照射される状態を模式的に示す図である。以降、被験者の右側の眼球EB(右眼ER)について説明するが、左側の眼球EB(左眼EL)についても同様の説明が可能である。また、図4及び図5では、撮像部22として第1カメラ22Aのみを示し、第2カメラ22Bについては省略しているが、実際には第1カメラ22A及び第2カメラ22Bの両方が配置される。 Here, an example of the principle of calculating the corneal curvature radius by the corneal curvature calculation unit 33 will be described. Figures 4 and 5 are schematic diagrams showing the state in which detection light from the light source unit 21 is irradiated onto the subject's eyeball EB. The subject's right eyeball EB (right eye ER) will be described below, but a similar description can be made for the left eyeball EB (left eye EL). Also, in Figures 4 and 5, only the first camera 22A is shown as the imaging unit 22, and the second camera 22B is omitted, but in reality both the first camera 22A and the second camera 22B are arranged.

図4及び図5に示すように、第1光源21A及び第2光源21Bから眼球EBに検出光が照射された場合、眼球EBの角膜には角膜反射像が形成される。ここで、第1光源21Aの角膜反射像120Aの中心が第1角膜反射中心121である。また、第2光源21Bの角膜反射像120Bの中心が第2角膜反射中心122である。 As shown in Figures 4 and 5, when the eye EB is irradiated with detection light from the first light source 21A and the second light source 21B, a corneal reflection image is formed on the cornea of the eye EB. Here, the center of the corneal reflection image 120A of the first light source 21A is the first corneal reflection center 121. Also, the center of the corneal reflection image 120B of the second light source 21B is the second corneal reflection center 122.

図5に示すように、撮像部22と被験者との距離が変化することに伴い、第1角膜反射中心121と第2角膜反射中心122との中心間距離dが変化する。例えば、撮像部22と被験者の眼球EBとの距離であるカメラ被験者間距離がx1となる場合(位置P1)の中心間距離d1と、カメラ被験者間距離がx1よりも大きいx2となる場合(位置P2)の中心間距離d2との間には、d1>d2が成立する。 As shown in FIG. 5, the center-to-center distance d between the first corneal reflection center 121 and the second corneal reflection center 122 changes as the distance between the imaging unit 22 and the subject changes. For example, d1>d2 holds between the center-to-center distance d1 when the camera-to-subject distance, which is the distance between the imaging unit 22 and the subject's eyeball EB, is x1 (position P1) and the center-to-center distance d2 when the camera-to-subject distance is x2 (position P2), which is larger than x1.

図6は、光源部、撮像部及び被験者の眼球の位置関係の一例を示す図である。図6に示すように、第1光源21Aと撮像部22との距離をa、第2光源21Bと撮像部22との距離をb、撮像部22と被験者との間のカメラ被験者間距離をx、眼球EBに検出される第1角膜反射中心121と第2角膜反射中心122との距離をd、角膜曲率半径をrとする。この例において、カメラ被験者間距離xは、撮像部22と被験者の眼球EBの角膜曲率中心110との間の距離とする。なお、カメラ被験者間距離xは、例えば第1カメラ22A及び第2カメラ22Bの2つのカメラで撮像された画像データに基づいて三角測量法により検出される値を用いることができる。ここで、r<<xであることから、角膜曲率中心110及び第1光源21Aを通る直線L1と角膜曲率中心110及び第1角膜反射中心121を通る直線L2とがなす角度と、角膜曲率中心110及び撮像部22を通る直線L3と上記直線L2とがなす角度とが同等であると近似することができる。以下、この角度をθ1とする。同様に、角膜曲率中心110及び第2光源21Bを通る直線L4と角膜曲率中心110及び第1角膜反射中心121を通る直線L5とがなす角度と、角膜曲率中心110及び撮像部22を通る直線L3と上記直線L5とがなす角度とが同等であると近似することができる。以下、この角度をθ2とする。 6 is a diagram showing an example of the positional relationship between the light source unit, the imaging unit, and the subject's eyeball. As shown in FIG. 6, the distance between the first light source 21A and the imaging unit 22 is a, the distance between the second light source 21B and the imaging unit 22 is b, the camera-subject distance between the imaging unit 22 and the subject is x, the distance between the first corneal reflection center 121 and the second corneal reflection center 122 detected by the eyeball EB is d, and the corneal curvature radius is r. In this example, the camera-subject distance x is the distance between the imaging unit 22 and the corneal curvature center 110 of the subject's eyeball EB. Note that the camera-subject distance x can be, for example, a value detected by triangulation based on image data captured by two cameras, the first camera 22A and the second camera 22B. Here, since r<<x, it can be approximated that the angle formed by the straight line L1 passing through the corneal curvature center 110 and the first light source 21A and the straight line L2 passing through the corneal curvature center 110 and the first corneal reflection center 121 is equivalent to the angle formed by the straight line L3 passing through the corneal curvature center 110 and the imaging unit 22 and the straight line L2. Hereinafter, this angle will be referred to as θ1. Similarly, it can be approximated that the angle formed by the straight line L4 passing through the corneal curvature center 110 and the second light source 21B and the straight line L5 passing through the corneal curvature center 110 and the first corneal reflection center 121 is equivalent to the angle formed by the straight line L3 passing through the corneal curvature center 110 and the imaging unit 22 and the straight line L5. Hereinafter, this angle will be referred to as θ2.

この場合において、以下の式1から式3が成立する。
θ1=arctan(a/x)/2 ・・・(式1)
θ2=arctan(b/x)/2 ・・・(式2)
d=r・sinθ1+r・sinθ2 ・・・(式3)
In this case, the following formulas 1 to 3 hold true.
θ1=arctan(a/x)/2 (Equation 1)
θ2=arctan(b/x)/2 (Equation 2)
d=r·sinθ1+r·sinθ2 (Equation 3)

図7は、撮像部22により撮像された眼球EBの画像データの一例を示す図である。図7に示すように、本実施形態においては、第1光源21Aから検出光を眼球EBに照射した状態で撮像した場合の画像データIM1と、第2光源21Bから検出光を眼球EBに照射した状態で撮像した場合の画像データIM2とが別個の画像データとして取得される。画像データIM1には、第1光源21Aからの検出光による角膜反射像(以下、第1角膜反射像120Aと表記する)が映っている。画像データIM2には、第2光源21Bからの検出光による角膜反射像(以下、第2角膜反射像120Bと表記する)が映っている。本実施形態では、第1光源21Aと第2光源21Bとを異なるタイミングで点灯させる。このため、第1角膜反射像120A及び第2角膜反射像120Bの映り方としては、一方の画像データIM1には第1角膜反射像120Aのみが映り、他方の画像データIM2には第2角膜反射像120Bのみが映る。位置検出部32は、取得された第1画像データ及び第2画像データに基づいて、第1角膜反射中心121及び第2角膜反射中心122の位置を算出する。 Figure 7 is a diagram showing an example of image data of the eyeball EB captured by the imaging unit 22. As shown in Figure 7, in this embodiment, image data IM1 captured when the eyeball EB is irradiated with detection light from the first light source 21A, and image data IM2 captured when the eyeball EB is irradiated with detection light from the second light source 21B are acquired as separate image data. The image data IM1 shows a corneal reflection image (hereinafter referred to as the first corneal reflection image 120A) due to the detection light from the first light source 21A. The image data IM2 shows a corneal reflection image (hereinafter referred to as the second corneal reflection image 120B) due to the detection light from the second light source 21B. In this embodiment, the first light source 21A and the second light source 21B are turned on at different times. Therefore, the first corneal reflection image 120A and the second corneal reflection image 120B are reflected in one image data IM1 only the first corneal reflection image 120A, and in the other image data IM2 only the second corneal reflection image 120B. The position detection unit 32 calculates the positions of the first corneal reflection center 121 and the second corneal reflection center 122 based on the acquired first image data and second image data.

角膜曲率算出部33は、画像データIM1に含まれる第1角膜反射中心121と、画像データIM2に含まれる第2角膜反射中心122との距離(撮像素子の画素数)d´(pixel)から、第1角膜反射中心121と第2角膜反射中心122との実際の距離d(mm)を算出する。なお、図7では、第1角膜反射中心121及び第2角膜反射中心122の位置を判別しやすくするため、黒色の点で示しているが、実際には黒色の点は存在しない。 The corneal curvature calculation unit 33 calculates the actual distance d (mm) between the first corneal reflection center 121 and the second corneal reflection center 122 from the distance (number of pixels of the image sensor) d' (pixels) between the first corneal reflection center 121 included in the image data IM1 and the second corneal reflection center 122 included in the image data IM2. Note that in FIG. 7, the first corneal reflection center 121 and the second corneal reflection center 122 are shown as black dots to make the positions easier to distinguish, but in reality there are no black dots.

ここで、撮像部22を構成するレンズの焦点距離をf、撮像部22を構成する撮像素子の画素間距離(ピッチ)をpとすると、以下の式4が成立する。 Here, if the focal length of the lens that constitutes the imaging unit 22 is f and the distance (pitch) between pixels of the imaging element that constitutes the imaging unit 22 is p, the following equation 4 holds.

d´=(f・d/x)/p ・・・(式4) d' = (f d/x)/p ... (Equation 4)

上記の式1から式4をd´について解くと、
d´=r・(sin(arctan(a/x)/2)
+sin(arctan(b/x)/2))・f/(p・x)・・・(式5)
となる。
Solving the above equations 1 to 4 for d' gives
d'=r·(sin(arctan(a/x)/2)
+ sin(arctan(b/x)/2))·f/(p·x) ... (Equation 5)
It becomes.

式5において、例えばa、b=100(mm)、f=12(mm)、x=600(mm)、p=0.0048(mm/pixel)とすると、以下の式6のようなxとd´との関係式が求められる。 In Equation 5, for example, if a, b = 100 (mm), f = 12 (mm), x = 600 (mm), and p = 0.0048 (mm/pixel), the relationship between x and d' can be obtained as shown in Equation 6 below.

d´=r・(2・sin(arctan(100/600)/2))・12
/(0.0048・600)
=r・α (ただし、αは定数) ・・・(式6)
d' = r * (2 * sin(arctan(100/600)/2)) * 12
/(0.0048.600)
= r α (where α is a constant) ... (Equation 6)

角膜曲率算出部33は、上記の式6を用いることにより、中心間距離d´に基づいて角膜曲率半径rを算出することができる。 The corneal curvature calculation unit 33 can calculate the corneal curvature radius r based on the center-to-center distance d' by using the above formula 6.

図8は、本実施形態で用いられる角膜曲率テーブルの一例を示す模式図である。図8に示すように、角膜曲率テーブルTでは、被験者の眼球を正面から見た場合において瞳孔中心112の位置を中心としたグリッドGが設定される。グリッドGは、仮想直線により格子状に形成される。グリッドGは、例えば横方向をX方向とし、縦方向をY方向とすることができる。角膜曲率テーブルTでは、グリッドGを構成する仮想直線で格子状に区画される部位Gaにより、角膜上の位置が規定される。1つの部位Gaごとに、角膜上の1つの位置が規定される。各部位Gaは、例えばX座標及びY座標により規定することができる。角膜曲率テーブルTは、被験者ごとに生成される。 Figure 8 is a schematic diagram showing an example of a corneal curvature table used in this embodiment. As shown in Figure 8, in the corneal curvature table T, a grid G is set with its center at the position of the pupil center 112 when the subject's eyeball is viewed from the front. The grid G is formed in a lattice shape by virtual straight lines. For example, the horizontal direction of the grid G can be the X direction and the vertical direction can be the Y direction. In the corneal curvature table T, positions on the cornea are defined by areas Ga partitioned in a lattice shape by the virtual straight lines that make up the grid G. One position on the cornea is defined for each area Ga. Each area Ga can be defined by, for example, the X coordinate and the Y coordinate. The corneal curvature table T is generated for each subject.

図8の一部に、グリッドGを拡大して示す。角膜曲率テーブルTは、グリッドGで区画される1つの部位Gaごとに、算出した角膜曲率半径が対応付けられたデータである。図4のグリッドGでは、同一の角膜曲率半径を同一の色で示している。グリッドGの拡大図に示す例において、グリッドGの部位Gaに対応付けられる角膜曲率半径は、被験者の瞳孔中心112を中心として、同心円状に広がるにつれて段階的に大きくなっている。 A portion of Figure 8 shows an enlarged view of grid G. Corneal curvature table T is data in which a calculated corneal radius of curvature is associated with each area Ga defined by grid G. In grid G in Figure 4, the same corneal radius of curvature is shown in the same color. In the example shown in the enlarged view of grid G, the corneal radius of curvature associated with area Ga of grid G increases stepwise as it spreads out in concentric circles around the subject's pupil center 112.

図9は、角膜曲率テーブルTの生成過程の一例を模式的に示す図である。図9に示すように、被験者の眼球EBに角膜反射を形成した状態で視線(眼球EB)が移動した場合、角膜上における第1角膜反射中心121及び第2角膜反射中心122の位置が相対的に移動する。図9では、第2角膜反射中心122の位置がグリッドGの部位Gaを跨いで移動する場合を例に挙げて説明する。なお、第1角膜反射中心121の位置が移動する場合も同様の説明が可能である。角膜曲率算出部33は、角膜上における第2角膜反射中心122の位置が図9に示す軌跡122RでグリッドGの部位Gaを跨いで移動する場合、部位Gaごとに角膜曲率半径の値を算出する。また、テーブル生成部34は、算出した値を当該部位Gaに対応付けて記憶する。なお、角膜曲率算出部33により同一の部位Gaにおいて角膜曲率半径の値が複数回算出された場合、テーブル生成部34は、複数回の算出結果の平均値を角膜曲率半径の値として対応付けてもよい。このように、テーブル生成部34は、生成した角膜曲率テーブルTを更新することができる。テーブル生成部34は、例えば上記の処理を所定時間行うことにより、図8に示す角膜曲率テーブルTを生成することができる。 Figure 9 is a diagram showing a schematic example of a process for generating a corneal curvature table T. As shown in Figure 9, when the line of sight (eyeball EB) moves while a corneal reflex is formed on the subject's eyeball EB, the positions of the first corneal reflection center 121 and the second corneal reflection center 122 on the cornea move relatively. In Figure 9, an example is given in which the position of the second corneal reflection center 122 moves across the portion Ga of the grid G. A similar explanation can be given for the case in which the position of the first corneal reflection center 121 moves. When the position of the second corneal reflection center 122 on the cornea moves across the portion Ga of the grid G on the locus 122R shown in Figure 9, the corneal curvature calculation unit 33 calculates the value of the corneal curvature radius for each portion Ga. In addition, the table generation unit 34 stores the calculated value in association with the portion Ga. In addition, if the corneal curvature calculation unit 33 calculates the value of the corneal curvature radius multiple times at the same area Ga, the table generation unit 34 may associate the average value of the multiple calculation results as the value of the corneal curvature radius. In this way, the table generation unit 34 can update the generated corneal curvature table T. The table generation unit 34 can generate the corneal curvature table T shown in FIG. 8 by performing the above process for a predetermined period of time, for example.

なお、図8に示す角膜曲率テーブルTにおいて、一部の部位Gaについては、上記手順によらなくても角膜曲率半径を算出することができる。図10は、眼球EBを正面から見た一例を模式的に示す図である。図10には、瞳孔114、虹彩116及びその付近における角膜曲率半径を示す近似円C1~C3が示されている。図10に示すように、一般的に人の眼球EBの角膜曲率半径は、正面から見た場合には瞳孔中心112を中心に同心円状になだらかに変化する。つまり、瞳孔中心112から離れるにつれて近似円の径が徐々に大きくなる。また、近似円に沿った部分の角膜曲率半径は、当該近似円の一周に亘ってほぼ等しくなっている。このため、テーブル生成部34は、角膜曲率テーブルTのグリッドGのうち角膜曲率半径の値が算出されなかった部位Gaに対して、瞳孔中心112を中心に角膜曲率半径が同心円状に大きくなるように、かつ同心円に沿った部位Gaの角膜曲率半径が同一となるように補間処理を行うことで、全ての部位Gaについて角膜曲率半径を算出することができる。 In the corneal curvature table T shown in FIG. 8, the corneal curvature radius can be calculated for some areas Ga without following the above procedure. FIG. 10 is a schematic diagram showing an example of an eyeball EB viewed from the front. FIG. 10 shows approximate circles C1 to C3 indicating the corneal curvature radius of the pupil 114, iris 116 and their vicinity. As shown in FIG. 10, the corneal curvature radius of a human eyeball EB generally changes gently in a concentric manner around the pupil center 112 when viewed from the front. In other words, the diameter of the approximate circle gradually increases as it moves away from the pupil center 112. Furthermore, the corneal curvature radius of the portion along the approximate circle is approximately equal around one circumference of the approximate circle. Therefore, for the regions Ga of the grid G of the corneal curvature table T for which the value of the corneal radius of curvature has not been calculated, the table generating unit 34 performs an interpolation process so that the corneal radius of curvature increases concentrically around the pupil center 112 and the corneal radius of curvature of the regions Ga along the concentric circles is the same, thereby making it possible to calculate the corneal radius of curvature for all regions Ga.

図11は、テーブル生成部34による補間処理の一例を模式的に示す図である。図11に示すように、テーブル生成部34は、補間処理として、グリッドGに瞳孔中心112を中心とした径が異なる複数の同心円を設定し、複数の同心円で区画される複数の領域について同一の領域に存在する部位Ga同士の角膜曲率半径が同一の値となるように角膜曲率テーブルTを補間することができる。また、テーブル生成部34は、同心円の径が大きくなるほど角膜曲率半径の値が大きくなるように角膜曲率テーブルTを補間することができる。図11では、テーブル生成部34が3つの仮想の同心円を設定する場合を例に挙げている。以下、最も径が小さい仮想円を第1仮想円と表記し、2番目に径が小さい仮想円を第2仮想円と表記し、最も径が大きい仮想円を第3仮想円と表記する。第1仮想円から第3仮想円は、例えば上記した近似円C1~C3に対応する。図11に示すように、テーブル生成部34は、第1仮想円の内側の領域に位置する部位Ga同士が同値となり、第1仮想円と第2仮想円との間の領域に位置する部位Ga同士が同値となり、第2仮想円と第3仮想円との間の領域に位置する部位Ga同士が同値となり、第3仮想円の外側の領域に位置する部位Ga同士が同値となるように、角膜曲率半径を補間することができる。テーブル生成部34による角膜曲率テーブルTの生成は、いわゆる従来のキャリブレーション動作とは異なり、被験者が予め指定された特定の位置を注視する必要が無く、被験者が撮像部22で撮像可能な範囲にいる状態であれば実行可能である。 FIG. 11 is a diagram showing an example of the interpolation process by the table generating unit 34. As shown in FIG. 11, the table generating unit 34 can set a plurality of concentric circles with different diameters centered on the pupil center 112 in the grid G as the interpolation process, and can interpolate the corneal curvature table T so that the corneal curvature radius of the sites Ga existing in the same region for a plurality of regions partitioned by the plurality of concentric circles is the same value. In addition, the table generating unit 34 can interpolate the corneal curvature table T so that the value of the corneal curvature radius increases as the diameter of the concentric circle increases. FIG. 11 shows an example in which the table generating unit 34 sets three virtual concentric circles. Hereinafter, the virtual circle with the smallest diameter is referred to as the first virtual circle, the virtual circle with the second smallest diameter is referred to as the second virtual circle, and the virtual circle with the largest diameter is referred to as the third virtual circle. The first to third virtual circles correspond to, for example, the above-mentioned approximate circles C1 to C3. As shown in FIG. 11, the table generating unit 34 can interpolate the corneal curvature radius so that the sites Ga located in the area inside the first virtual circle have the same value, the sites Ga located in the area between the first and second virtual circles have the same value, the sites Ga located in the area between the second and third virtual circles have the same value, and the sites Ga located in the area outside the third virtual circle have the same value. Unlike so-called conventional calibration operations, the generation of the corneal curvature table T by the table generating unit 34 does not require the subject to gaze at a specific position specified in advance, and can be executed as long as the subject is within a range that can be imaged by the imaging unit 22.

図12は、ガンマ角情報の一例を模式的に示す図である。図12の上段に示すように、眼球EBにおいて、網膜117の物理的な中心118と網膜視野中心119とが同一である場合、瞳孔中心112と、角膜曲率中心110と、網膜視野中心119とが同一直線上に存在する。この場合、角膜曲率中心110と瞳孔中心112とを結ぶ直線130と、角膜曲率中心110と網膜視野中心119とを結ぶ直線129とが等しくなる。直線130は、被験者の瞳孔の向きを示す。直線130は、視線検出装置100において検出する視線ベクトルに相当する直線である。直線129は、被験者の網膜117の網膜視野中心119に映る像の方向、すなわち被験者の実際の視線を示す。 Figure 12 is a diagram showing an example of gamma angle information. As shown in the upper part of Figure 12, in the case where the physical center 118 of the retina 117 and the retinal visual field center 119 are the same in the eyeball EB, the pupil center 112, the corneal curvature center 110, and the retinal visual field center 119 are on the same line. In this case, the line 130 connecting the corneal curvature center 110 and the pupil center 112 is equal to the line 129 connecting the corneal curvature center 110 and the retinal visual field center 119. The line 130 indicates the direction of the subject's pupil. The line 130 is a line corresponding to the gaze vector detected by the gaze detection device 100. The line 129 indicates the direction of the image reflected at the retinal visual field center 119 of the subject's retina 117, that is, the subject's actual gaze.

これに対して、図12の下段に示すように、網膜117の物理的な中心118と網膜視野中心119とがずれた位置に存在する場合、瞳孔中心112と、角膜曲率中心110と、網膜視野中心119とが同一直線上に存在しない。この場合、角膜曲率中心110と瞳孔中心112とを結ぶ直線130が、角膜曲率中心110と網膜視野中心119とを結ぶ直線129に対して傾いた状態となる。この直線129と直線130との傾き角度、すなわち視線検出装置100で検出する視線ベクトルに相当する直線130と、被験者の実際の視線に相当する直線129とがなす角度がガンマ角γである。ガンマ角γは、個人に特有の値となっている。 In contrast, as shown in the lower part of Figure 12, when the physical center 118 of the retina 117 and the retinal visual field center 119 are in offset positions, the pupil center 112, the corneal curvature center 110, and the retinal visual field center 119 are not on the same line. In this case, the line 130 connecting the corneal curvature center 110 and the pupil center 112 is inclined with respect to the line 129 connecting the corneal curvature center 110 and the retinal visual field center 119. The angle of inclination between the lines 129 and 130, that is, the angle between the line 130 corresponding to the gaze vector detected by the gaze detection device 100 and the line 129 corresponding to the subject's actual gaze, is the gamma angle γ. The gamma angle γ is a value specific to each individual.

図13は、キャリブレーションによりガンマ角を計測する原理を模式的に示す図である。図13に示すように、キャリブレーション開始時に表示部11上の目標物12を注視するように被験者に指示する。被験者が目標物12を注視した状態において、例えば光源部21の第1光源21Aから検出光を照射する。第1光源21Aと被験者の眼球EBに形成される角膜反射中心121とを結ぶ直線と、角膜曲率半径の値とに基づいて角膜曲率中心110を求める。角膜曲率中心110と瞳孔中心112とを結ぶ直線130が被験者の瞳孔の向きである。また、本キャリブレーションにおいては、角膜曲率中心110と目標物12とを結ぶ直線129が被験者の視線である。この場合、直線130と直線129とがなす角度γをガンマ角として算出することができる。 Figure 13 is a diagram showing the principle of measuring the gamma angle by calibration. As shown in Figure 13, the subject is instructed to gaze at the target 12 on the display unit 11 at the start of calibration. While the subject gazes at the target 12, detection light is emitted from, for example, the first light source 21A of the light source unit 21. The corneal curvature center 110 is obtained based on a straight line connecting the first light source 21A and the corneal reflection center 121 formed on the subject's eyeball EB and the value of the corneal curvature radius. The straight line 130 connecting the corneal curvature center 110 and the pupil center 112 is the direction of the subject's pupil. In this calibration, the straight line 129 connecting the corneal curvature center 110 and the target 12 is the subject's line of sight. In this case, the angle γ formed by the straight lines 130 and 129 can be calculated as the gamma angle.

被験者の瞳孔の向き(直線130)に対してガンマ角γの補正を加えることで、精度よく視線ベクトルを算出することができる。このように、ガンマ角γの計測は、被験者が目標物12を注視する等、被験者の自覚的な動作によって得ることができる。したがって、被験者及び測定者の負担を考えた場合、キャリブレーションにより正しいガンマ角γの値が得られた場合には、当該被験者の次回以降の視線検出時にも上記で得られたガンマ角γの値を再利用することが望ましい。尚、上記説明では、視線検出装置100で検出する視線ベクトルに相当する直線130と、被験者の実際の視線に相当する直線129とがなす角度を被験者を上から見た場合の平面的な角度として説明したが、実際には被験者を横から見た場合の角度も含めて3次元的な角度としてガンマ角γを算出する。 By correcting the gamma angle γ with respect to the direction of the subject's pupil (straight line 130), the gaze vector can be calculated with high accuracy. In this way, the gamma angle γ can be measured by the subject's conscious action, such as by the subject gazing at the target 12. Therefore, in consideration of the burden on the subject and the measurer, if a correct gamma angle γ value is obtained by calibration, it is desirable to reuse the gamma angle γ value obtained above when detecting the subject's gaze from the next time onwards. In the above explanation, the angle between the straight line 130 corresponding to the gaze vector detected by the gaze detection device 100 and the straight line 129 corresponding to the subject's actual gaze is described as a planar angle when the subject is viewed from above, but in reality, the gamma angle γ is calculated as a three-dimensional angle including the angle when the subject is viewed from the side.

図14は、生成テーブルと記憶テーブルとを照合する処理の一例を模式的に示す図である。図14に示す例は、生成テーブルT1と、記憶テーブルT2、T3を用いる場合を示している。なお、図14に示す生成テーブルT1及び記憶テーブルT2、T3は、説明を簡略化するため、グリッドGをX方向及びY方向のそれぞれについて5つずつ、すなわち5×5のグリッドGである場合を例に挙げて説明する。X軸、Y軸の各数値は、瞳孔中心に対応する部位Gaを原点とした場合のX座標、Y座標をそれぞれ示している。グリッドGの数は、5×5に限定されない。また、図14では、グリッドGの部位Gaに対応付ける値として、角膜曲率半径の逆数に基づく値(曲率の値)を用いている。なお、図14において、グリッドGの部位Gaに対応付ける値として、角膜曲率半径を用いた場合でも同様の説明が可能である。 Figure 14 is a diagram showing a schematic example of a process for matching a generated table with a stored table. The example shown in Figure 14 shows a case where a generated table T1 and stored tables T2 and T3 are used. In order to simplify the explanation, the generated table T1 and stored tables T2 and T3 shown in Figure 14 are explained using an example where there are five grids G in each of the X direction and Y direction, that is, a 5 x 5 grid G. The numerical values on the X axis and Y axis respectively indicate the X coordinate and the Y coordinate when the part Ga corresponding to the pupil center is set as the origin. The number of grids G is not limited to 5 x 5. In addition, in Figure 14, a value based on the inverse of the corneal curvature radius (curvature value) is used as the value associated with the part Ga of the grid G. In addition, the same explanation can be made even if the corneal curvature radius is used as the value associated with the part Ga of the grid G in Figure 14.

図14に示すように、照合部35は、新たに生成された生成テーブルT1を取得する。照合部35は、取得した生成テーブルT1が記憶テーブルT2、T3と対応するか否かを判定する。この場合、照合部35は、生成テーブルT1を、記憶テーブルT2、T3とそれぞれ照合する。 As shown in FIG. 14, the collation unit 35 acquires a newly generated generated table T1. The collation unit 35 determines whether the acquired generated table T1 corresponds to the stored tables T2 and T3. In this case, the collation unit 35 compares the generated table T1 with the stored tables T2 and T3, respectively.

照合部35は、例えば生成テーブルT1と、記憶テーブルT2、T3とについて、2次元配列の全ての値の差分を算出し、当該差分の和βに基づいて対応関係を判定することができる。ここで、生成テーブルT1の各部位Gaの曲率の値をA(x、y)とし、記憶テーブルT2、T3の各部位Gaの曲率の値をB(x、y)とする。ただし、xはX座標、yはY座標を示す。この場合、以下の式7によって差分の和βを算出することができる。 The collation unit 35 can calculate the differences between all values in the two-dimensional array for example between the generated table T1 and the storage tables T2 and T3, and determine the correspondence based on the sum β of the differences. Here, the curvature value of each part Ga in the generated table T1 is A(x, y), and the curvature value of each part Ga in the storage tables T2 and T3 is B(x, y), where x indicates the X coordinate and y indicates the Y coordinate. In this case, the sum β of the differences can be calculated using the following formula 7.

β=|A(-2,-2)-B(-2,-2)|
+|A(-2,-2)-B(-2,-1)|+
+……
+|A(2,2)-B(2,2)| (式7)
β = |A(-2,-2)-B(-2,-2)|
+ | A (-2,-2) - B (-2,-1) | +
+……
+ |A(2,2)-B(2,2)| (Equation 7)

ここで、実際の曲率の計測においては、完全一致する場合はほとんどなく、一定の誤差が生じる。このため、差分の和βが閾値以下の場合、生成テーブルT1と記憶テーブルT2、T3が対応するとみなすことができる。 In actual curvature measurements, there are almost no cases where the measurements match perfectly, and a certain amount of error occurs. For this reason, if the sum of the differences β is equal to or less than a threshold value, it can be assumed that the generated table T1 corresponds to the stored tables T2 and T3.

図14において、生成テーブルT1と記憶テーブルT2との差分の和βは、6.58である。また、生成テーブルT1と記憶テーブルT3との差分の和βは、2.34である。 In FIG. 14, the sum β of the differences between generated table T1 and stored table T2 is 6.58. Also, the sum β of the differences between generated table T1 and stored table T3 is 2.34.

例えば、閾値を3.0とした場合、照合部35は、差分の和βが閾値3.0よりも大きい記憶テーブルT2については、生成テーブルT1とは対応しないと判定することができる。また、照合部35は、差分の和βが閾値3.0以下の記憶テーブルT3については、生成テーブルT1と対応すると判定することができる。 For example, if the threshold value is set to 3.0, the collation unit 35 can determine that a memory table T2 in which the sum of differences β is greater than the threshold value 3.0 does not correspond to the generated table T1. The collation unit 35 can also determine that a memory table T3 in which the sum of differences β is equal to or less than the threshold value 3.0 corresponds to the generated table T1.

この場合、視線処理部36は、照合部35により生成テーブルT1と対応すると判定された記憶テーブルT3について、当該記憶テーブルT3に対応付けられる被験者情報のうち被験者特定情報を参照し、当該被験者特定情報により被験者を特定する。 In this case, for the memory table T3 that is determined by the comparison unit 35 to correspond to the generated table T1, the gaze processing unit 36 refers to the subject identification information among the subject information associated with the memory table T3, and identifies the subject based on the subject identification information.

また、視線処理部36は、当該生成テーブルT1に係る被験者の視線を算出する際、照合部35により生成テーブルT1と対応すると判定された記憶テーブルT3について、当該記憶テーブルT3に対応付けられる被験者情報のうちガンマ角情報を参照し、当該ガンマ角情報に基づいたガンマ角γを用いて被験者の視線を算出する。 When calculating the gaze of the subject related to the generated table T1, the gaze processing unit 36 refers to the gamma angle information in the subject information associated with the memory table T3 that is determined by the comparison unit 35 to correspond to the generated table T1, and calculates the gaze of the subject using the gamma angle γ based on the gamma angle information.

また、例えば閾値を1.0とした場合、照合部35は、差分の和βが閾値1.0よりも大きい記憶テーブルT2、T3の両者について、生成テーブルT1とは対応しないと判定することができる。 Furthermore, for example, if the threshold value is set to 1.0, the collation unit 35 can determine that both storage tables T2 and T3, for which the sum of differences β is greater than the threshold value 1.0, do not correspond to the generated table T1.

この場合、生成テーブルT1と対応する記憶テーブルが存在しないことになる。このため、照合部35は、生成テーブルT1を記憶部37に記憶させる。これにより、生成テーブルTは、記憶部37において新たな記憶テーブルとして記憶される。また、視線処理部36は、キャリブレーションにより当該被験者のガンマ角γの算出を行い、算出したガンマ角γを含むガンマ角情報を新たな記憶テーブル(T1)に対応付けて記憶部37に記憶させる。 In this case, there is no memory table corresponding to the generated table T1. Therefore, the collation unit 35 stores the generated table T1 in the memory unit 37. As a result, the generated table T is stored in the memory unit 37 as a new memory table. In addition, the line of sight processing unit 36 calculates the gamma angle γ of the subject by calibration, and stores the gamma angle information including the calculated gamma angle γ in the memory unit 37 in association with the new memory table (T1).

[被験者特定方法、視線検出方法]
次に、本実施形態に係る視線検出装置100を用いた被験者特定方法及び視線検出方法の一例を説明する。図15は、本実施形態に係る被験者特定方法及び視線検出方法の一例を示すフローチャートである。図15に示すように、まず、テーブル生成部34は、被験者の眼球における異なる複数の位置で算出される角膜曲率半径に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブル(生成テーブル)を生成する(ステップS101)。
[Subject Identification Method, Gaze Detection Method]
Next, an example of a subject identification method and a gaze detection method using the gaze detection device 100 according to this embodiment will be described. Fig. 15 is a flowchart showing an example of the subject identification method and the gaze detection method according to this embodiment. As shown in Fig. 15, first, the table generation unit 34 generates a corneal curvature table (generation table) indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature radii calculated at a plurality of different positions on the eyeball of the subject (step S101).

次に、照合部35は、生成テーブルと、記憶部37に記憶される角膜曲率テーブル(記憶テーブル)とを照合する(ステップS102)。照合部35は、照合結果に基づいて、生成テーブルに対応する記憶テーブルが存在するか否かを判定する(ステップS103)。 Next, the comparison unit 35 compares the generated table with the corneal curvature table (storage table) stored in the storage unit 37 (step S102). Based on the comparison result, the comparison unit 35 determines whether or not there is a storage table that corresponds to the generated table (step S103).

ステップS103において、生成テーブルに対応する記憶テーブルが存在すると判定した場合(ステップS103のYes)、照合部35は、判定された記憶テーブルに対応付けられた被験者情報のうち被験者特定情報に基づいて被験者を特定する(ステップS104)。 If it is determined in step S103 that a storage table corresponding to the generated table exists (Yes in step S103), the collation unit 35 identifies the subject based on the subject identification information among the subject information associated with the determined storage table (step S104).

一方、ステップS103において、生成テーブルに対応する記憶テーブルが存在しないと判定した場合(ステップS103のNo)、照合部35は、当該生成テーブルを新たな記憶テーブルとして記憶部37に記憶させる(ステップS105)。 On the other hand, if it is determined in step S103 that there is no storage table corresponding to the generated table (No in step S103), the collation unit 35 stores the generated table in the storage unit 37 as a new storage table (step S105).

視線処理部36は、キャリブレーションにより被験者のガンマ角γを計測させる(ステップS106)。視線処理部36は、計測したガンマ角γを新たな記憶テーブルに対応付けて記憶させる(ステップS107)。 The line-of-sight processing unit 36 measures the subject's gamma angle γ by calibration (step S106). The line-of-sight processing unit 36 stores the measured gamma angle γ in a new storage table in association with the new gamma angle γ (step S107).

ステップS104の処理が行われた場合、視線処理部36は、特定された被験者の記憶テーブルに対応付けられた被験者情報のガンマ角情報に含まれるガンマ角γを取得して(ステップS105)、視線の算出を行う(ステップS110)。一方、ステップS107の処理が行われた場合、視線処理部36は、計測したガンマ角γを取得して(ステップS109)、視線の算出を行う(ステップS110)。 When the processing of step S104 is performed, the line-of-sight processing unit 36 acquires the gamma angle γ included in the gamma angle information of the subject information associated with the memory table of the identified subject (step S105) and calculates the line of sight (step S110). On the other hand, when the processing of step S107 is performed, the line-of-sight processing unit 36 acquires the measured gamma angle γ (step S109) and calculates the line of sight (step S110).

図16は、本実施形態に係る視線検出方法における視線検出処理の一例を示すフローチャートである。図16に示すように、視線検出処理では、光源部21の第1光源21A又は第2光源21Bの一方から検出光を射出して眼球EBを照明し(ステップS201)、撮像部22の第1カメラ22A及び第2カメラ22Bの両方で眼球EBを撮像する(ステップS202)。位置検出部32は、取得された眼球EBの画像データに基づいて、瞳孔中心112の位置及び角膜反射中心125の位置を検出する(ステップS203)。位置検出部32は、三角測量法等により、瞳孔中心112及び角膜反射中心125の各位置を世界座標(グローバル座標系)に変換する(ステップS204)。 Figure 16 is a flowchart showing an example of the gaze detection process in the gaze detection method according to this embodiment. As shown in Figure 16, in the gaze detection process, detection light is emitted from either the first light source 21A or the second light source 21B of the light source unit 21 to illuminate the eyeball EB (step S201), and the eyeball EB is imaged by both the first camera 22A and the second camera 22B of the imaging unit 22 (step S202). The position detection unit 32 detects the positions of the pupil center 112 and the corneal reflection center 125 based on the acquired image data of the eyeball EB (step S203). The position detection unit 32 converts the positions of the pupil center 112 and the corneal reflection center 125 into world coordinates (global coordinate system) by triangulation or the like (step S204).

視線処理部36は、第1光源21A及び第2光源21Bのうち検出光を射出した光源の位置と、瞳孔中心112の位置と、角膜反射中心125の位置と、角膜曲率半径rとに基づいて、角膜曲率中心110の位置を算出する(ステップS205)。この場合、視線処理部36は、検出光を射出した光源の位置と、角膜反射中心125とを結ぶ直線123を求める。視線処理部36は、求めた直線123上において、角膜反射中心125から眼球EBの内側に対して角膜曲率半径rに相当する距離だけ離れた位置を角膜曲率中心110の位置として求める。 The line-of-sight processing unit 36 calculates the position of the corneal curvature center 110 based on the position of the light source that emitted the detection light, either the first light source 21A or the second light source 21B, the position of the pupil center 112, the position of the corneal reflection center 125, and the corneal curvature radius r (step S205). In this case, the line-of-sight processing unit 36 obtains a straight line 123 that connects the position of the light source that emitted the detection light and the corneal reflection center 125. The line-of-sight processing unit 36 obtains, on the obtained straight line 123, a position that is a distance equivalent to the corneal curvature radius r away from the corneal reflection center 125 toward the inside of the eyeball EB as the position of the corneal curvature center 110.

視線処理部36は、瞳孔中心112と角膜曲率中心110とを結ぶ直線130を求め、ステップS105又はステップS109により取得したガンマ角γにより直線130の傾きを補正することにより、当該直線130の三次元ベクトルを視線ベクトルとして算出する(ステップS206)。 The line of sight processing unit 36 obtains a straight line 130 connecting the pupil center 112 and the corneal curvature center 110, and calculates the three-dimensional vector of the straight line 130 as the line of sight vector by correcting the inclination of the straight line 130 using the gamma angle γ obtained in step S105 or step S109 (step S206).

以上のように、本実施形態に係る被験者特定装置70は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の第1光源21A及び第2光源21Bと、検出光が照射された眼球の画像を撮像する撮像部22と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出する角膜曲率算出部33と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部34と、新たに生成された角膜曲率テーブルである生成テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて被験者を特定する照合部35とを備える。 As described above, the subject identification device 70 according to this embodiment includes a plurality of first light sources 21A and second light sources 21B that emit detection light and irradiate it on at least one eyeball of the subject, an imaging unit 22 that captures an image of the eyeball irradiated with the detection light, a corneal curvature calculation unit 33 that detects the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the subject's corneal curvature at the detected position, a table generation unit 34 that generates a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball, and a comparison unit 35 that compares the generated table, which is the newly generated corneal curvature table, with the storage table, which is the corneal curvature table stored in the storage unit 37 in association with subject identification information for identifying the subject, and identifies the subject based on the comparison result.

また、本実施形態に係る被験者特定方法は、第1光源21A及び第2光源21Bから検出光を発光して被験者の少なくとも一方の眼球に照射することと、検出光が照射された眼球の画像を撮像することと、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出することと、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定することとを含む。 The subject identification method according to this embodiment includes emitting detection light from the first light source 21A and the second light source 21B and irradiating it onto at least one eyeball of the subject, capturing an image of the eyeball irradiated with the detection light, detecting from the captured image the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light, and calculating the corneal curvature of the subject at the detected position, generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball, comparing the newly generated corneal curvature table with the corneal curvature table stored in the memory unit 37 in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.

また、本実施形態に係る被験者特定プログラムは、第1光源21A及び第2光源21Bから検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、検出光が照射された眼球の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における被験者の角膜曲率を算出する処理と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、新たに生成された角膜曲率テーブルと、被験者を特定するための被験者特定情報に対応付けて記憶部37に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて被験者を特定する処理とをコンピュータに実行させる。 The subject identification program according to this embodiment causes a computer to execute the following processes: emitting detection light from the first light source 21A and the second light source 21B and irradiating it on at least one eyeball of the subject; capturing an image of the eyeball irradiated with the detection light; detecting from the captured image the position of the corneal reflection center indicating the center of the corneal reflection in the eyeball irradiated with the detection light and calculating the subject's corneal curvature at the detected position; generating a corneal curvature table indicating the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball; and comparing the newly generated corneal curvature table with a corneal curvature table stored in the memory unit 37 in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.

この構成によれば、角膜曲率テーブルを生成し、新たに生成された生成テーブルと、記憶部37に記憶される記憶テーブルとを照合して、照合結果に基づいて、記憶テーブルに対応付けられた被験者特定情報により被験者を特定することができる。角膜曲率テーブルは被験者によって異なる情報、すなわち被験者固有の情報である。したがって、被験者固有の情報を用いることで、被験者を精度よく特定することができる。 According to this configuration, a corneal curvature table is generated, the newly generated table is compared with a memory table stored in the memory unit 37, and the subject can be identified based on the comparison result using the subject identification information associated with the memory table. The corneal curvature table is information that differs depending on the subject, that is, information specific to the subject. Therefore, by using the subject-specific information, the subject can be identified with high accuracy.

本実施形態に係る視線検出装置100は、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の第1光源21A及び第2光源21Bと、検出光が照射された眼球の画像を撮像する撮像部22と、撮像された画像から、検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて被験者の角膜曲率を算出する角膜曲率算出部33と、被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部34と、被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部37と、新たに生成された角膜曲率テーブルである生成テーブルと、記憶部37に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部35と、被験者の視線を算出する視線処理部36とを備え、視線処理部36は、生成テーブルと記憶テーブルとが対応していると判定された場合に、記憶テーブルに対応付けられた被験者情報を用いて被験者の視線を算出する。 The gaze detection device 100 according to this embodiment includes a plurality of first light sources 21A and second light sources 21B that emit detection light and irradiate it on at least one eyeball of the subject, an imaging unit 22 that captures an image of the eyeball irradiated with the detection light, a corneal curvature calculation unit 33 that detects the position of the corneal reflection center that indicates the center of the corneal reflection in the eyeball irradiated with the detection light from the captured image and calculates the corneal curvature of the subject based on the detected position, and a corneal curvature table that indicates the relationship between the position on the eyeball and the corneal curvature based on the corneal curvature calculated at multiple different positions on the subject's eyeball. The system is equipped with a table generation unit 34 that generates a table, a storage unit 37 that stores subject information, which is information about the subject, in association with the corneal curvature table, a comparison unit 35 that determines whether the generated table, which is a newly generated corneal curvature table, corresponds to the stored table, which is a corneal curvature table stored in the storage unit 37, and a gaze processing unit 36 that calculates the subject's gaze, and when it is determined that the generated table corresponds to the stored table, the gaze processing unit 36 calculates the subject's gaze using the subject information associated with the stored table.

この構成によれば、照合部35において生成テーブルと記憶テーブルとが対応していると判定された場合、被験者の視線の算出において、記憶テーブルに対応付けられた被験者情報が用いられる。これにより、被験者情報を適切に取得することができるため、被験者および操作者の負担を軽減し、視線検出装置100の性能を向上させることができる。 According to this configuration, if the collation unit 35 determines that the generated table and the stored table correspond to each other, the subject information associated with the stored table is used in calculating the subject's gaze. This allows the subject information to be acquired appropriately, reducing the burden on the subject and the operator and improving the performance of the gaze detection device 100.

本実施形態に係る視線検出装置100において、被験者情報は、被験者の眼球の角膜曲率中心と瞳孔中心とを結ぶ直線と被験者の視線とのズレであるガンマ角の情報を含む。 In the gaze detection device 100 according to this embodiment, the subject information includes information on the gamma angle, which is the deviation between the line connecting the center of the corneal curvature of the subject's eyeball and the center of the pupil and the subject's gaze.

この構成によれば、被験者の自覚的な動作が必要な計測によって得ることが可能なガンマ角の情報を被験者情報として用いることができるため、ガンマ角の再計測の手間を省くことが可能となる。これにより、被験者および操作者の負担を軽減し、視線検出装置100の性能を向上させることができる。 With this configuration, gamma angle information that can be obtained through measurements that require the subject's conscious actions can be used as subject information, making it possible to eliminate the need to remeasure the gamma angle. This reduces the burden on the subject and the operator and improves the performance of the gaze detection device 100.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、被験者情報としてガンマ角γを用いる場合を例に挙げて説明したが、この構成に限定されない。例えば、表示部11の異なる箇所に補正用注視点を順に表示し、被験者に当該補正用注視点を注視させて被験者の注視点の位置を計測し、計測結果に基づいて被験者の視線を補正するための被験者固有の補正データを生成し、当該補正データを被験者情報として用いてもよい。この場合、補正データの生成は、例えばキャリブレーションとして行うことができる。 The technical scope of the present invention is not limited to the above-described embodiment, and appropriate modifications can be made without departing from the spirit of the present invention. For example, the above-described embodiment has been described with reference to an example in which gamma angle γ is used as subject information, but the present invention is not limited to this configuration. For example, correction gaze points are displayed in sequence at different locations on the display unit 11, the subject is asked to gaze at the correction gaze points to measure the position of the subject's gaze point, and subject-specific correction data for correcting the subject's line of sight based on the measurement results is generated, and the correction data is used as subject information. In this case, the generation of the correction data can be performed, for example, as calibration.

EB…眼球、G…グリッド、Ga…部位、IM1,IM2…画像データ、r…角膜曲率半径、x…カメラ被験者間距離、T…角膜曲率テーブル、T1…生成テーブル、T2,T3…記憶テーブル、10…表示装置、11…表示部、12…目標物、20…画像取得装置、21…光源部、21A…第1光源、21B…第2光源、22…撮像部、22A…第1カメラ、22B…第2カメラ、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…撮像制御部、32…位置検出部、33…角膜曲率算出部、34…テーブル生成部、35…照合部、36…視線処理部、37…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、70…被験者特定装置、100…視線検出装置、110…角膜曲率中心、112…瞳孔中心、114…瞳孔、116…虹彩、117…網膜、118…網膜の物理的な中心、119…網膜視野中心、120…角膜反射像、120A…第1角膜反射像、120B…第2角膜反射像、121…第1角膜反射中心、122…第2角膜反射中心、122R…軌跡、125…角膜反射中心 EB...eyeball, G...grid, Ga...area, IM1, IM2...image data, r...corneal radius of curvature, x...camera-subject distance, T...corneal curvature table, T1...generated table, T2, T3...storage table, 10...display device, 11...display unit, 12...target, 20...image acquisition device, 21...light source unit, 21A...first light source, 21B...second light source, 22...imaging unit, 22A...first camera, 22B...second camera, 30...computer system, 30A...arithmetic processing unit, 30B...storage unit, 30C...computer program, 31...imaging control unit, 32...position detection unit, 33... Corneal curvature calculation unit, 34...table generation unit, 35...matching unit, 36...gaze processing unit, 37...storage unit, 40...output device, 50...input device, 60...input/output interface device, 70...subject identification device, 100...gaze detection device, 110...corneal curvature center, 112...pupil center, 114...pupil, 116...iris, 117...retina, 118...physical center of retina, 119...retinal visual field center, 120...corneal reflection image, 120A...first corneal reflection image, 120B...second corneal reflection image, 121...first corneal reflection center, 122...second corneal reflection center, 122R...trajectory, 125...corneal reflection center

Claims (5)

検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、
前記検出光が照射された眼球の画像を撮像する撮像部と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する角膜曲率算出部と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、
新たに生成された角膜曲率テーブルである生成テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルである記憶テーブルとを照合し、照合結果に基づいて前記被験者を特定する照合部と
を備える被験者特定装置。
A plurality of light sources that emit detection light and irradiate at least one eye of the subject;
an imaging unit that captures an image of the eyeball irradiated with the detection light;
a corneal curvature calculation unit that detects a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculates a corneal curvature of the subject at the detected position;
a table generating unit configured to generate a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
a comparison unit that compares a generated table, which is a newly generated corneal curvature table, with a stored table, which is a corneal curvature table stored in a storage unit in correspondence with subject identification information for identifying the subject, and identifies the subject based on a comparison result.
検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、
前記検出光が照射された眼球の画像を撮像する撮像部と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置に基づいて前記被験者の角膜曲率を算出する角膜曲率算出部と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成するテーブル生成部と、
前記被験者の情報である被験者情報を角膜曲率テーブルに対応付けて記憶する記憶部と、
新たに生成された角膜曲率テーブルである生成テーブルと、前記記憶部に記憶された角膜曲率テーブルである記憶テーブルとが対応しているか否かを判定する照合部と、
前記被験者の視線を算出する視線処理部と
を備え、
前記視線処理部は、前記生成テーブルと前記記憶テーブルとが対応していると判定された場合に、前記記憶テーブルに対応付けられた前記被験者情報を用いて前記被験者の視線を算出する
視線検出装置。
A plurality of light sources that emit detection light and irradiate at least one eye of the subject;
an imaging unit that captures an image of the eyeball irradiated with the detection light;
a corneal curvature calculation unit that detects a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculates a corneal curvature of the subject based on the detected position;
a table generating unit configured to generate a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
a storage unit that stores subject information, which is information about the subject, in association with a corneal curvature table;
a comparison unit that determines whether or not a generated table, which is a newly generated corneal curvature table, corresponds to a stored table, which is a corneal curvature table stored in the storage unit;
a gaze processing unit that calculates the gaze of the subject,
When it is determined that the generated table and the stored table correspond to each other, the gaze processing unit calculates the gaze of the subject using the subject information associated with the stored table.
前記被験者情報は、前記被験者の眼球の角膜曲率中心と瞳孔中心とを結ぶ直線と前記被験者の視線とのズレであるガンマ角の情報を含む
請求項2に記載の視線検出装置。
The gaze detection device according to claim 2 , wherein the subject information includes information on a gamma angle that is a deviation between a line connecting a center of corneal curvature and a center of a pupil of the subject's eyeball and the gaze of the subject.
光源から検出光を発光して被験者の少なくとも一方の眼球に照射することと、
前記検出光が照射された眼球の画像を撮像することと、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出することと、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成することと、
新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定することと
を含む被験者特定方法。
Emitting detection light from a light source and irradiating at least one eyeball of the subject;
capturing an image of the eyeball irradiated with the detection light;
detecting a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculating a corneal curvature of the subject at the detected position;
generating a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvatures calculated at a plurality of different positions on the eyeball of the subject;
comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on a comparison result.
光源から検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、
前記検出光が照射された眼球の画像を撮像する処理と、
撮像された前記画像から、前記検出光が照射された眼球における角膜反射の中心を示す角膜反射中心の位置を検出し、検出した位置における前記被験者の角膜曲率を算出する処理と、
前記被験者の眼球における異なる複数の位置で算出される角膜曲率に基づいて、眼球上の位置と角膜曲率との関係を示す角膜曲率テーブルを生成する処理と、
新たに生成された前記角膜曲率テーブルと、前記被験者を特定するための被験者特定情報に対応付けて記憶部に記憶された角膜曲率テーブルとを照合し、照合結果に基づいて前記被験者を特定する処理と
をコンピュータに実行させる被験者特定プログラム。
A process of emitting detection light from a light source and irradiating at least one eyeball of the subject;
A process of capturing an image of the eyeball irradiated with the detection light;
detecting a position of a corneal reflection center indicating a center of a corneal reflection in the eyeball irradiated with the detection light from the captured image, and calculating a corneal curvature of the subject at the detected position;
A process of generating a corneal curvature table indicating a relationship between a position on the eyeball and the corneal curvature based on the corneal curvature calculated at a plurality of different positions on the eyeball of the subject;
A subject identification program that causes a computer to execute a process of comparing the newly generated corneal curvature table with a corneal curvature table stored in a storage unit in association with subject identification information for identifying the subject, and identifying the subject based on the comparison result.
JP2022206616A 2022-12-23 2022-12-23 Subject identification device, gaze detection device, subject identification method, and subject identification program Pending JP2024090620A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022206616A JP2024090620A (en) 2022-12-23 2022-12-23 Subject identification device, gaze detection device, subject identification method, and subject identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022206616A JP2024090620A (en) 2022-12-23 2022-12-23 Subject identification device, gaze detection device, subject identification method, and subject identification program

Publications (1)

Publication Number Publication Date
JP2024090620A true JP2024090620A (en) 2024-07-04

Family

ID=91714974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022206616A Pending JP2024090620A (en) 2022-12-23 2022-12-23 Subject identification device, gaze detection device, subject identification method, and subject identification program

Country Status (1)

Country Link
JP (1) JP2024090620A (en)

Similar Documents

Publication Publication Date Title
EP2649932A1 (en) Method for detecting point of gaze and device for detecting point of gaze
US20030123027A1 (en) System and method for eye gaze tracking using corneal image mapping
US12507888B2 (en) Eye-gaze detecting device, eye-gaze detecting method, and computer-readable storage medium
JP7046347B2 (en) Image processing device and image processing method
JP7593008B2 (en) Distance calculation device, distance calculation method, and distance calculation program
US11890057B2 (en) Gaze detection apparatus, gaze detection method, and gaze detection program
JP2019146915A (en) Evaluation device, evaluation method, and evaluation program
JP6555707B2 (en) Pupil detection device, pupil detection method, and pupil detection program
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
US11241152B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP2024090620A (en) Subject identification device, gaze detection device, subject identification method, and subject identification program
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
US10996747B2 (en) Line-of-sight detection device, line-of-sight detection method, and medium
WO2022038814A1 (en) Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
US20250298128A1 (en) Gaze detection device, gaze detection method, and storage medium
WO2019181272A1 (en) Evaluation device, evaluation method, and evaluation program
JP7263959B2 (en) Eyeball detection device, sight line detection device, eyeball detection method, and eyeball detection program
JP2019169080A (en) Line of sight detection device, line of sight detection method and line of sight detection program
JP2025147390A (en) Corneal curvature radius calculation device, gaze detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
JP2017146987A (en) Viewpoint detection apparatus and viewpoint detection method
WO2023008023A1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
JP2023019690A (en) Visual line detection device, visual line detection method, and visual line detection program
JP2023019659A (en) Visual line detection device, visual line detection method, and visual line detection program
WO2022044395A1 (en) Sight line detection device, sight line detection method, and sight line detection program
WO2021131335A1 (en) Corneal reflex detection device, line-of-sight detection device, corneal reflex detection method, and corneal reflex detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250930