JP7540711B2 - Automatic eye movement recording system, calculation device, calculation method and program - Google Patents
Automatic eye movement recording system, calculation device, calculation method and program Download PDFInfo
- Publication number
- JP7540711B2 JP7540711B2 JP2020207084A JP2020207084A JP7540711B2 JP 7540711 B2 JP7540711 B2 JP 7540711B2 JP 2020207084 A JP2020207084 A JP 2020207084A JP 2020207084 A JP2020207084 A JP 2020207084A JP 7540711 B2 JP7540711 B2 JP 7540711B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- subject
- eye
- gaze position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
特許法第30条第2項適用 開催日(公開日) 令和2年11月5日 集会名、開催場所 第74回日本臨床眼科学会(会期:令和2年11月5日~12月6日) WEB開催視聴システム「MICEnavi」を使用したオンライン開催 主管校 金沢大学医薬保健研究域医学系眼科学 研究発表抄録・研究発表データ公開URL < https://www.micenavi.jp/74ringan/refresh > < https://www.micenavi.jp/74ringan/search/detail_branch/id:7 > < https://www.micenavi.jp/74ringan/search/detail_session/id:10135 > < https://www.micenavi.jp/74ringan/search/detail_program/id:425 >Article 30, Paragraph 2 of the Patent Act applies Date of meeting (publication date): November 5, 2020 Name of meeting, location of meeting: 74th Japanese Society of Clinical Ophthalmology (Dates: November 5 - December 6, 2020) Held online using the online viewing system "MICEnavi" Organizing institution: Department of Medical Ophthalmology, School of Medical, Pharmaceutical and Health Sciences, Kanazawa University Research presentation abstracts and research presentation data public URL: <https://www.micenavi.jp/74ringan/refresh> <https://www.micenavi.jp/74ringan/search/detail_branch/id:7> <https://www.micenavi.jp/74ringan/search/detail_branch/id:7> <https://www.micenavi.jp/74ringan/search/detail_branch/id:7> jp/74ringan/search/detail_session/id:10135 > < https://www. micenavi. jp/74ringan/search/detail_program/id:425 >
特許法第30条第2項適用 プレプリントサーバー公開日 令和2年11月12日/令和2年11月16日 刊行物 研究論文 『Automatic Measurements of Smooth Pursuit Eye Movements by Video-Oculography and Deep Learning-Based Object Detection』 〔プレプリントサーバー MedRxiv 投稿公開URL〕(イエール大学・CSHL・BMJ共同運営) [初稿投稿] < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v1 > < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v1.full.pdf > [第2版投稿] < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v2 > < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v2.full.pdf >Article 30, paragraph 2 of the Patent Act applies. Preprint server publication date: November 12, 2020/November 16, 2020 Publication: Research paper "Automatic Measurements of Smooth Pursuit Eye Movements by Video-Oculography and Deep Learning-Based Object Detection" [Preprint server MedRxiv submission public URL] (jointly operated by Yale University, CSHL, and BMJ) [First draft submission] <https://www.medrxiv. org/content/10.1101/2020.11.09.20227736v1> <https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v1.full.pdf> [Second Edition Posted] <https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v2> <https://www.medrxiv. org/content/10.1101/2020.11.09.20227736v2. full. pdf>
本発明は、眼球運動自動記録システム、演算装置、演算方法およびプログラムに関する。 The present invention relates to an automatic eye movement recording system, a calculation device, a calculation method, and a program.
従来から、VOG(Video-oculography)ゴーグル、解析部、入力部、出力部およびデータベースから構成されている眼振解析システムが知られている(特許文献1参照)。特許文献1に記載された技術では、VOGゴーグルが、カメラとマイクと頭位センサとを備えている。VOGゴーグルは、カメラとして、ホットミラーとカメラレンズとカメラ本体とを備えている。さらに、VOGゴーグルは、撮像IC(集積回路)としてのCMOS(complementary metal-oxide semiconductor)基板と、光源としての赤外線LED(Light Emitting Diode)とを備えている。
ところで、特許文献1に記載された技術では、被験者の眼振の有無を解析することができるものの、被験者の視標追跡検査を行うことができない。
Conventionally, a nystagmus analysis system that is composed of VOG (Video-oculography) goggles, an analysis unit, an input unit, an output unit, and a database is known (see Patent Document 1). In the technology described in Patent Document 1, the VOG goggles include a camera, a microphone, and a head position sensor. The VOG goggles include a hot mirror, a camera lens, and a camera body as the camera. Furthermore, the VOG goggles include a CMOS (complementary metal-oxide semiconductor) substrate as an imaging IC (integrated circuit), and an infrared LED (Light Emitting Diode) as a light source.
Incidentally, the technique described in Patent Document 1 can analyze the presence or absence of nystagmus in a subject, but cannot perform an eye-tracking test on the subject.
また従来から、被験者の視標追跡検査を行うことができるビデオ式眼振計測装置が知られている(例えば下記URL参照)。
http://0c7.co.jp/products/interacoustics/products/vog/
Further, a video nystagmus measuring device capable of performing an eye-tracking test on a subject has been conventionally known (see, for example, the following URL).
http://0c7.co.jp/products/interacoustics/products/vog/
ところで、上述したビデオ式眼振計測装置では、視標として、ディスプレイに表示される視標が用いられるため、ビデオ式眼振計測装置が眼科診察室に設置される場合には、眼科診察室のスペースを圧迫してしまうおそれがある。
また、視標追跡検査が必要な被験者の多くは、眼球運動異常を有する子どもであるため、視標として、ディスプレイに表示される視標が用いられる場合には、被験者(子ども)が視標を追跡してくれないおそれがある。
さらに、視標として、ディスプレイに表示される視標が用いられる場合には、視標の動き等が予め設定されたものであるため、例えば被験者の状況に応じて臨機応変に視標を呈示する等の対応を行うことができない。
一方、ディスプレイに表示される視標の代わりに、実物の視標が用いられる従来技術においては、定性的な視標追跡検査を行うことができるものの、定量的な視標追跡検査を行うことができなかった。
また、視標追跡検査中の視標を撮影した動画像を構成する多数の静止画像のそれぞれに含まれる視標の位置を特定する処理が、例えば検査技師、医師などによって手動で行われる場合には、視標の位置の特定に膨大な時間を要してしまう。
However, in the above-mentioned video nystagmus measuring device, a visual target is displayed on a display screen. Therefore, when the video nystagmus measuring device is installed in an ophthalmological examination room, there is a risk that it will take up space in the ophthalmological examination room.
In addition, since many of the subjects who require eye-tracking tests are children with eye movement disorders, if an eye target displayed on a display is used as the eye target, there is a risk that the subject (child) will not be able to track the eye target.
Furthermore, when a visual target displayed on a display is used as the visual target, the movement of the visual target, etc. is preset, so it is not possible to respond flexibly, for example, by presenting the visual target in accordance with the subject's situation.
On the other hand, in the conventional technology in which a real target is used instead of a target displayed on a display, a qualitative eye-tracking test can be performed, but a quantitative eye-tracking test cannot be performed.
Furthermore, if the process of identifying the position of the optotype contained in each of the numerous still images that make up the video of the optotype captured during an eye tracking test is performed manually, for example by an examination technician or a doctor, it will take an enormous amount of time to identify the position of the optotype.
上述した問題点に鑑み、本発明は、定量的な視標追跡検査および迅速な視標の位置の特定を実現することができる眼球運動自動記録システム、演算装置、演算方法およびプログラムを提供することを目的とする。 In view of the above-mentioned problems, the present invention aims to provide an automatic eye movement recording system, a calculation device, a calculation method, and a program that can realize quantitative eye tracking testing and rapid identification of the position of the eye target.
本発明の一態様は、被験者の眼の画像である第1画像を撮影する第1撮影部と、被験者の視標追跡検査に用いられる視標を含む画像である第2画像を撮影する第2撮影部と、演算装置とを備える眼球運動自動記録システムであって、前記演算装置は、前記第1撮影部によって撮影された前記第1画像を取得する第1画像取得部と、VOG(Video-oculography)を用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、前記第2撮影部によって撮影された前記第2画像を取得する第2画像取得部と、物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、眼球運動自動記録システムである。 One aspect of the present invention is an automatic eye movement recording system including a first image capturing unit that captures a first image that is an image of the subject's eye, a second image capturing unit that captures a second image that is an image including an optotype used in an optotype tracking test of the subject, and a calculation device, the calculation device including a first image capture unit that captures the first image captured by the first image capturing unit, a gaze position measurement unit that measures the gaze position of the subject based on the first image captured by the first image capture unit by using VOG (Video-oculography), and a second image capture unit that captures the second image captured by the second image capturing unit. an acquisition unit; a two-dimensional area identification unit that uses an object recognition algorithm to identify a two-dimensional area corresponding to the visual target included in the second image acquired by the second image acquisition unit; an eye target position calculation unit that calculates the position of the visual target based on the two-dimensional area identified by the two-dimensional area identification unit; and a merging processing unit that merges the gaze position of the subject measured by the gaze position measurement unit, which is the gaze position of the subject at the time the second image acquired by the second image acquisition unit was photographed by the second photographing unit, into the second image.
本発明の一態様は、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得部と、VOGを用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得部と、物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、演算装置である。 One aspect of the present invention is a computing device including: a first image acquisition unit that acquires a first image that is an image of the subject's eye captured by a first image capture unit; a gaze position measurement unit that uses VOG to measure the gaze position of the subject based on the first image captured by the first image capture unit; a second image acquisition unit that acquires a second image that is an image including a gaze target used in an eye tracking test of the subject captured by a second image capture unit; a two-dimensional area identification unit that uses an object recognition algorithm to identify a two-dimensional area corresponding to the gaze target included in the second image captured by the second image capture unit; an eye target position calculation unit that calculates the position of the gaze target based on the two-dimensional area identified by the two-dimensional area identification unit; and a merging processing unit that merges the gaze position of the subject measured by the gaze position measurement unit, which is the gaze position of the subject at the time the second image captured by the second image capture unit was captured by the second image capture unit, into the second image.
本発明の一態様は、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを備える、演算方法である。 One aspect of the present invention is a calculation method including a first image acquisition step of acquiring a first image, which is an image of the subject's eye captured by a first image capture unit; a gaze position measurement step of measuring the gaze position of the subject based on the first image acquired in the first image acquisition step by using VOG; a second image acquisition step of acquiring a second image, which is an image including a gaze target used in an eye tracking test of the subject captured by a second image capture unit; a two-dimensional area identification step of identifying a two-dimensional area corresponding to the gaze target included in the second image acquired in the second image acquisition step by using an object recognition algorithm; an eye target position calculation step of calculating the position of the gaze target based on the two-dimensional area identified in the two-dimensional area identification step; and a merging process step of merging the gaze position of the subject measured in the gaze position measurement step, which is the gaze position of the subject at the time when the second image acquired in the second image acquisition step was captured by the second image capture unit, into the second image.
本発明の一態様は、コンピュータに、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを実行させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to execute a first image acquisition step of acquiring a first image, which is an image of the subject's eye captured by a first image capture unit; a gaze position measurement step of measuring the gaze position of the subject based on the first image captured in the first image acquisition step by using VOG; a second image acquisition step of acquiring a second image, which is an image including a gaze target used in an eye tracking test of the subject captured by a second image capture unit; a two-dimensional area identification step of identifying a two-dimensional area corresponding to the gaze target included in the second image captured in the second image acquisition step by using an object recognition algorithm; an eye target position calculation step of calculating the position of the gaze target based on the two-dimensional area identified in the two-dimensional area identification step; and a merging process step of merging the gaze position of the subject measured in the gaze position measurement step, which is the gaze position of the subject at the time when the second image captured in the second image acquisition step was captured by the second image capture unit, into the second image.
本発明によれば、定量的な視標追跡検査および迅速な視標の位置の特定を実現することができる眼球運動自動記録システム、演算装置、演算方法およびプログラムを提供することができる。 The present invention provides an automatic eye movement recording system, a calculation device, a calculation method, and a program that can realize quantitative eye tracking testing and rapid identification of the position of the eye target.
以下、図面を参照し、本発明の眼球運動自動記録システム、演算装置、演算方法およびプログラムの実施形態について説明する。 Below, we will explain the embodiments of the automatic eye movement recording system, calculation device, calculation method, and program of the present invention with reference to the drawings.
[第1実施形態]
図1は第1実施形態の眼球運動自動記録システム1の構成の一例を示す図である。
図1に示す例では、第1実施形態の眼球運動自動記録システム1が、第1撮影部11と、第2撮影部12と、演算装置13とを備えている。第1撮影部11は、被験者の眼の画像である第1画像を撮影する。第2撮影部12は、被験者の視標追跡検査に用いられる視標10(図5参照)を含む画像である第2画像を撮影する。
演算装置13は、第1画像取得部13Aと、視線位置計測部13Bと、第2画像取得部13Cと、2次元領域特定部13Dと、視標位置算出部13Eと、マージ処理部13Fと、位置ずれ量算出部13Gと、移動速度差算出部13Hとを備えている。
[First embodiment]
FIG. 1 is a diagram showing an example of the configuration of an automatic eye movement recording system 1 according to the first embodiment.
In the example shown in Fig. 1, the automatic eye movement recording system 1 of the first embodiment includes a first
The
第1画像取得部13Aは、第1撮影部11によって撮影された第1画像(被験者の眼の画像)を取得する。
視線位置計測部13Bは、VOG(Video-oculography)を用いることにより、第1画像取得部13Aによって取得された第1画像(被験者の眼の画像)に基づいて被験者の視線位置を計測する。VOGは、近赤外光を被験者の両眼に照射し、角膜反射と瞳孔の相対位置関係から被験者の視線情報を取得する技術である。VOGでは、被験者の眼球運動を数値化・可視化することができる。
The first
The gaze
第2画像取得部13Cは、第2撮影部12によって撮影された第2画像(視標10を含む画像)を取得する。
2次元領域特定部13Dは、物体認識アルゴリズムを用いることにより、第2画像取得部13Cによって取得された第2画像に含まれる視標10に対応する2次元領域10A(図10参照)を特定する。つまり、2次元領域特定部13Dは、第2画像上のどの領域が視標10に対応する2次元領域10Aであるかを特定する。
2次元領域特定部13Dは、物体認識アルゴリズムとして、SSD(Single Shot MultiBox Detector)を用いる。SSDは、画像内に含まれる物体が何であるかを予測し、物体の領域と予測値とを出力する物体認識深層学習アルゴリズムである。また、2次元領域特定部13Dによって特定される2次元領域10Aは、「バウンディングボックス」と称される矩形領域である。
図1に示す例では、2次元領域10A(バウンディングボックス)が、第2画像上の視標10を囲う矩形領域(第2画像上の視標10に外接する矩形領域)であるが、他の例では、第2画像上の視標10が、2次元領域10A(バウンディングボックス)からはみ出していてもよい。
The second
The two-dimensional
The two-dimensional
In the example shown in Figure 1, the two-dimensional region 10A (bounding box) is a rectangular region surrounding the visual target 10 on the second image (a rectangular region circumscribing the visual target 10 on the second image), but in other examples, the visual target 10 on the second image may extend beyond the two-dimensional region 10A (bounding box).
図1に示す例では、視標位置算出部13Eが、2次元領域特定部13Dによって特定された2次元領域10Aに基づいて視標10の位置(第2画像上の視標10の位置)を算出する。詳細には、視標位置算出部13Eは、視標10の位置として、バウンディングボックスの重心位置を算出する。
他の例では、視標位置算出部13Eが、移動平均、移動中央値などを用いることによって、第2画像上の視標10の位置を算出してもよい。
1, the target
In another example, the target
図1に示す例では、マージ処理部13Fが、視線位置計測部13Bによって計測された被験者の視線位置であって、第2画像取得部13Cによって取得された第2画像が第2撮影部12によって撮影された時点における被験者の視線位置を、その第2画像にマージする。その結果、第2画像上の視標10の位置と、その第2画像が撮影された時点における被験者の視線位置(視標10を追跡する被験者の視線位置)とを、第2画像上において比較できるようになる。
位置ずれ量算出部13Gは、視標位置算出部13Eによって算出された視標10の位置に対する、視線位置計測部13Bによって計測された被験者の視線位置のずれ量を算出する。
図1に示す例では、演算装置13が位置ずれ量算出部13Gを備えているが、他の例では、演算装置13が位置ずれ量算出部13Gを備えていなくてもよい(例えば、視標10の位置に対する被験者の視線位置のずれ量が、演算装置13の外部において算出されてもよい)。
1, the merging
The positional deviation
In the example shown in FIG. 1, the
図1に示す例では、移動速度差算出部13Hが、視標位置算出部13Eによって算出された視標10の位置の移動速度と、視線位置計測部13Bによって計測された被験者の視線位置の移動速度との差を算出する。
図1に示す例では、演算装置13が移動速度差算出部13Hを備えているが、他の例では、演算装置13が移動速度差算出部13Hを備えていなくてもよい(例えば、視標10の位置の移動速度と被験者の視線位置の移動速度との差が、演算装置13の外部において算出されてもよい)。
In the example shown in FIG. 1, the movement speed
In the example shown in FIG. 1, the
図2は第1実施形態の眼球運動自動記録システム1において実行される処理の一例を示すフローチャートである。
図2に示す例では、ステップS11において、第1撮影部11が、被験者の眼の画像である第1画像を撮影する。
また、ステップS12では、第2撮影部12が、被験者の視標追跡検査に用いられる視標10を含む画像である第2画像を撮影する。
次いで、ステップS13では、演算装置13が演算などの処理を実行する。
FIG. 2 is a flowchart showing an example of a process executed in the automatic eye movement recording system 1 of the first embodiment.
In the example shown in FIG. 2, in step S11, the first
Also, in step S12, the second
Next, in step S13, the
具体的には、ステップS13Aでは、第1画像取得部13Aが、ステップS11において撮影された第1画像(被験者の眼の画像)を取得する。
次いで、ステップS13Bでは、視線位置計測部13Bが、VOGを用いることにより、ステップS13Aにおいて取得された第1画像(被験者の眼の画像)に基づいて被験者の視線位置を計測する。
Specifically, in step S13A, the first
Next, in step S13B, the gaze
また、ステップS13Cでは、第2画像取得部13Cが、ステップS12において撮影された第2画像(視標10を含む画像)を取得する。
次いで、ステップS13Dでは、2次元領域特定部13Dが、物体認識アルゴリズムを用いることにより、ステップS13Cにおいて取得された第2画像に含まれる視標10に対応する2次元領域10Aを特定する。
次いで、ステップS13Eでは、視標位置算出部13Eが、ステップS13Dにおいて特定された2次元領域10Aに基づいて視標10の位置(第2画像上の視標10の位置)を算出する。
Furthermore, in step S13C, the second
Next, in step S13D, the two-dimensional
Next, in step S13E, the target
次いで、ステップS13Fでは、マージ処理部13Fが、ステップS13Bにおいて計測された被験者の視線位置であって、ステップS13Cにおいて取得された第2画像が第2撮影部12によって撮影された時点における被験者の視線位置を、その第2画像にマージする。
次いで、ステップS13Gでは、位置ずれ量算出部13Gが、ステップS13Eにおいて算出された視標10の位置に対する、ステップS13Bにおいて計測された被験者の視線位置のずれ量を算出する。
また、ステップS13Hでは、移動速度差算出部13Hが、ステップS13Eにおいて算出された視標10の位置の移動速度と、ステップS13Bにおいて計測された被験者の視線位置の移動速度との差を算出する。
Next, in step S13F, the merging
Next, in step S13G, the positional
Also, in step S13H, the movement speed
以下、実施例を示して本発明を詳細に説明するが、本発明は以下の実施例に限定されるものではなく、その要旨を逸脱しない範囲で適宜変更して実施することができる。 The present invention will be described in detail below with reference to examples, but the present invention is not limited to the following examples and can be modified as appropriate without departing from the spirit of the invention.
<実施例>
本発明者は、第1実施形態の眼球運動自動記録システム1を用いて滑動性追従眼球運動(SPEM)の評価を行った。滑動性追従眼球運動は、動く物体を中心窩付近で捉え続けるための眼球運動である(Robinson DA, J Physiol, 1965)。
眼科臨床においては、9方向むき眼位検査を行うことでSPEMから眼球運動異常をスクリーニングしているが、検者が肉眼的に判定するため、検査中の記録が残らないことや検査結果が定性的である問題を抱えている。
<Example>
The present inventors have evaluated smooth pursuit eye movement (SPEM) using the automatic eye movement recording system 1 of the first embodiment. Smooth pursuit eye movement is an eye movement for keeping a moving object in the vicinity of the fovea (Robinson DA, J Physiol, 1965).
In clinical ophthalmology, a nine-direction eye position test is used to screen for eye movement abnormalities using SPEM. However, because the examiner judges the results visually, there are problems with this, such as no records being kept during the test and the test results being qualitative.
眼球運動は近赤外光を両眼に照射し、角膜反射と瞳孔の位置関係から非侵襲的に両眼の眼位を計測するVOGを用いることで他覚的定量評価できる。先行研究において、斜視患者のSPEM速度は健常者よりも有意に遅いことが報告されている(Lions C et al., Plos one, 2013)。
VOGは実験室レベルにおいては眼球運動を他覚的定量評価する機器として頻繁に用いられているが、眼科臨床においてはまだ普及していない。その原因として、視標の動きが限定されること、即ち、プログラムされた動作を繰り返すため異常が疑われる部位を重点的に検査できないことや、検査方法が変わるため、以前の検査結果との比較が困難であることが挙げられる。
従って、眼科外来で実施されている9方向むき眼位検査と同じ方法でSPEMを他覚的定量評価する必要がある。
Eye movement can be objectively and quantitatively evaluated by using VOG, which irradiates both eyes with near-infrared light and measures the eye position of both eyes non-invasively from the corneal reflex and the positional relationship of the pupil. Previous studies have reported that the SPEM speed of strabismus patients is significantly slower than that of healthy subjects (Lions C et al., Plos one, 2013).
VOG is often used in the laboratory as a device for objective quantitative evaluation of eye movement, but it has not yet become widespread in clinical ophthalmology. The reasons for this include the fact that the movement of the visual target is limited, i.e., because programmed movements are repeated, it is not possible to focus on testing areas suspected of abnormality, and because the testing method changes, it is difficult to compare results with previous tests.
Therefore, it is necessary to objectively quantitatively evaluate SPEM using the same method as the nine-direction eye position test performed in ophthalmology outpatient clinics.
そこで本発明者は、人工知能技術である畳み込みニューラルネットワーク(CNN)に着目した。CNNは画像の各ピクセルにおける輝度値に対して複数のフィルタを掛けることにより特徴量を抽出する。
先行研究において、CNNを利用した物体検出アルゴリズムであるSSDは従来の物体検出法であるラスタースキャン法よりも2倍以上の処理速度を有すことが報告されており(Liu W et al., arXiv, 2015)、リアルタイム解析にも応用が見込める。
Therefore, the inventors have focused on convolutional neural networks (CNN), an artificial intelligence technology. CNN extracts features by applying multiple filters to the brightness values of each pixel in an image.
Previous research has reported that SSD, an object detection algorithm that uses CNN, has a processing speed more than twice as fast as the conventional raster scan method for object detection (Liu W et al., arXiv, 2015), making it promising for application in real-time analysis.
本発明者は、VOGとSSDを組み合わせたSPEM計測システムを開発し、その測定精度を評価した。 The inventors developed a SPEM measurement system that combines VOG and SSD, and evaluated its measurement accuracy.
評価の対象は屈折異常以外に眼科的疾患のない健常者11名とした。平均年齢は21.3歳、等価球面屈折度数(SE)は右眼が-2.95D、左眼が-2.70Dだった。立体視は全例が40秒だった。交代プリズム遮蔽試験は近見-3.1PD、遠見-0.9PDだった(「-」は外方偏位、「+」は内方偏位を示す)。 The subjects for the evaluation were 11 healthy subjects with no ophthalmic diseases other than refractive errors. The average age was 21.3 years, and the spherical equivalent (SE) was -2.95D for the right eye and -2.70D for the left eye. Stereopsis was 40 seconds in all subjects. The alternating prism occlusion test showed -3.1PD for near vision and -0.9PD for distance vision ("-" indicates exodeviation, "+" indicates esodeviation).
図3は実施例において第1実施形態の眼球運動自動記録システム1の一部として用いた機器を示す図である。
本実施例では、NAC Image Technology Inc.製のEMR-9を眼球運動計測用VOGとして使用した。本機器はカメラモジュールで取得した外界の映像と被験者の眼位から計算した視線位置をコントローラで結合し、測定画面に出力する。
FIG. 3 is a diagram showing devices used as part of the automatic eye movement recording system 1 of the first embodiment in the examples.
In this example, we used an EMR-9 manufactured by NAC Image Technology Inc. as the VOG for measuring eye movements. This device combines the image of the outside world captured by the camera module with the gaze position calculated from the subject's eye position using a controller, and outputs it on the measurement screen.
図4は図3に示すカメラモジュールを拡大して示した図である。
カメラモジュールは全体を水平垂直に8cm移動可能で、中央に取り付けられたシーンカメラはサンプリングレートが29.97Hz、視野角62度、中央位置をpitch方向に60度旋回可能である。
左右眼の上方に設置されたアイカメラはサンプリングレート240Hz、視野角は水平43度、垂直28.6度で、中心位置を水平方向に各眼1.3cm調整可能である。アイカメラから照射された近赤外光はハーフミラーによって反射する。ハーフミラーも調整が可能であり、垂直方向に2.5cm、pitch方向に30度回旋可能である。
FIG. 4 is an enlarged view of the camera module shown in FIG.
The entire camera module can be moved horizontally and vertically by 8 cm, and the scene camera attached in the center has a sampling rate of 29.97 Hz, a viewing angle of 62 degrees, and can be rotated 60 degrees in the pitch direction from the center position.
The eye cameras installed above the left and right eyes have a sampling rate of 240 Hz, a viewing angle of 43 degrees horizontally and 28.6 degrees vertically, and the center position can be adjusted horizontally by 1.3 cm for each eye. The near-infrared light emitted from the eye camera is reflected by a half mirror. The half mirror can also be adjusted, and can be rotated 2.5 cm vertically and 30 degrees in the pitch direction.
測定画面の左下部分および右下部分には、アイカメラの画像が表示可能であり、測定画面の左上部分には、一眼の2値化画像が表示可能である。角膜反射と瞳孔の位置関係から眼位が計算され、被験者の視線位置が計測される。計測された被験者の視線位置は、遅延時間52ms以下で、測定画面の右上部分のシーンカメラの映像に含められて表示可能である。 Images from the eye camera can be displayed in the lower left and lower right parts of the measurement screen, and a binary image of the single eye can be displayed in the upper left part of the measurement screen. The eye position is calculated from the relative positions of the corneal reflex and the pupil, and the subject's gaze position is measured. The measured gaze position of the subject can be displayed, included in the scene camera image in the upper right part of the measurement screen, with a delay time of 52 ms or less.
図5は実施例において用いた視標10を示す図である。
本実施例では、眼球運動検査(視標追跡検査)の視標10として、10cm×10cmのキャラクターの固視目標を用い、9方向むき眼位検査を視距離1.0mで実施した(視標10の視角は5.7°)。検査中、各被験者にはキャラクターの鼻を固視し続けるように指示した。
FIG. 5 is a diagram showing an optotype 10 used in the examples.
In this example, a 10 cm x 10 cm character fixation target was used as the visual target 10 for the eye movement test (eye tracking test), and a nine-direction eye position test was performed at a viewing distance of 1.0 m (the visual angle of the visual target 10 is 5.7°). During the test, each subject was instructed to keep their eyes fixed on the character's nose.
図6は実施例において用いたSSDを説明するための図である。
図6に示すように、SSDは、CNNのモデルであるVGG16に物体認識用のエクストラモジュールを追加したモデルである。SSDは、VGGネットワークの4ブロック目における3層目の畳み込み層の特徴量をソース1、最終出力層における特徴量をソース2とし、ソース2に対して特徴量が10×10、5×5、3×3、1×1になる畳み込みを行い、ソース3からソース6までの特徴量を出力する。
FIG. 6 is a diagram for explaining the SSD used in the examples.
As shown in Fig. 6, SSD is a model in which an extra module for object recognition is added to VGG16, a CNN model. In SSD, the feature of the third convolutional layer in the fourth block of the VGG network is set as source 1, and the feature of the final output layer is set as source 2. Convolution is performed on source 2 to obtain feature values of 10x10, 5x5, 3x3, and 1x1, and features from source 3 to source 6 are output.
図7は図6に示すソース1(38×38)、ソース5(3×3)およびソース6(1×1)を説明するための図である。
図6に示すVGGネットワークの4ブロック、3番目の畳み込み層から出力したソース1は、図7に示すように、特徴量マップが38×38である。ソース5は、特徴量マップが3×3であり、ソース6は、特徴量マップが1×1である。各ソースは特徴量マップの数が異なり、特徴量マップが細かいほど小さい物体の検出精度が高くなる。
FIG. 7 is a diagram for explaining source 1 (38×38), source 5 (3×3), and source 6 (1×1) shown in FIG.
Source 1, output from the third convolutional layer of the 4th block of the VGG network shown in Fig. 6, has a feature map of 38 x 38 as shown in Fig. 7. Source 5 has a feature map of 3 x 3, and source 6 has a feature map of 1 x 1. Each source has a different number of feature maps, and the finer the feature map, the higher the detection accuracy of small objects.
図8はSSDの訓練を説明するための図である。
SSDの訓練では、グランドトゥルースと呼ばれる、物体の正解位置ラベルに対して、いくつものバウンディングボックスを用意し、訓練を繰り返す内に正解のボックスに近いバウンディングボックスを学習する。
FIG. 8 is a diagram for explaining SSD training.
In SSD training, multiple bounding boxes are prepared for the correct position label of an object, called the ground truth, and a bounding box that is close to the correct box is learned as training is repeated.
本実施例では、EMR-9のシーンカメラで測定した被験者の9方向むき眼位検査中の画像500枚をデータセットとして使用した。
640×480ピクセルの全ての画像を300×300ピクセルにリサイズし、データセットをランダムに訓練用300枚選択し、訓練は100epochとした。訓練画像はランダムに輝度、コントラスト、色、カラーチャンネルを不規則に変えるスワップ、画像拡大、切り取りを実施した。
検証用データは100枚として、10epoch毎に検証データで精度を評価した。また、テストデータを100枚用意した。
In this embodiment, 500 images taken during a test of the subject's nine-direction eye position, measured with the scene camera of the EMR-9, were used as the data set.
All images of 640 × 480 pixels were resized to 300 × 300 pixels, and 300 images were randomly selected from the dataset for training. Training was performed for 100 epochs. The training images were randomly swapped to randomly change brightness, contrast, color, and color channels, and image enlargement and cropping were performed.
The verification data was 100 sheets, and the accuracy was evaluated using the verification data every 10 epochs. In addition, 100 sheets of test data were prepared.
図9はデータ解析について説明するための図である。
本実施例では、SSDの精度は75% average precision (AP75)で評価した。AP75はテストデータにおける正解のボックスに対するSSDが予測したバウンディングボックスが対象となる。
SSD予測したバウンディングボックスが正解のボックスに対して75%以上重なっており、物体のラベルも正しい場合をTrue positive(TP)とし、75%以下の重なりであればFalse positive(FP)とする。また、画像内に正解のボックスが存在するが、SSDが物体を検出しなかった場合はFalse negative(FN)とし、precisionはTPをTPとFPの合計で除した値、recallはTPをTPとFNの合計で除した値とし、横軸にrecall、縦軸にprecisionを取ったグラフの面積がAP75となる。
FIG. 9 is a diagram for explaining data analysis.
In this example, the accuracy of SSD was evaluated at 75% average precision (AP75), which is the bounding box predicted by SSD for the ground-truth box in the test data.
If the SSD predicted bounding box overlaps with the correct box by 75% or more and the label of the object is also correct, it is called True positive (TP), and if the overlap is 75% or less, it is called False positive (FP). In addition, if the correct box exists in the image but the SSD does not detect the object, it is called False negative (FN), precision is the value obtained by dividing TP by the sum of TP and FP, recall is the value obtained by dividing TP by the sum of TP and FN, and the area of the graph with recall on the horizontal axis and precision on the vertical axis is AP75.
本実施例では、統計解析は、VOGで計測した両眼の眼位(被験者の視線位置)とSSDが予測したバウンディングボックスの中心座標(重心座標)から計算した視標位置の関係および、SPEMの速度と視標の速度の関係について、simple linear regression analysisを実施した。 In this example, the statistical analysis was performed using simple linear regression analysis of the relationship between the eye position of both eyes (subject's gaze position) measured by VOG and the target position calculated from the center coordinates (center of gravity coordinates) of the bounding box predicted by SSD, and the relationship between SPEM speed and target speed.
図10は実施例の結果の代表例を示す図である。詳細には、図10は第2撮影部12によって撮影された第2画像(視標10を含む画像)に、その第2画像が撮影された時点における被験者の視線位置(視線位置計測部13Bによって計測された被験者の視線位置)がマージされたものを示す図である。
図10において、「右眼」は被験者の右眼の視線位置(視線位置計測部13Bによって計測された被験者の右眼の視線位置)を示しており、「左眼」は被験者の左眼の視線位置(視線位置計測部13Bによって計測された被験者の左眼の視線位置)を示している。
図10に示す例では、SSDが視標10を高精度で認識しており、テストデータにおけるAP75は97.7%であった。
Fig. 10 is a diagram showing a representative example of the results of the embodiment. In detail, Fig. 10 is a diagram showing a second image (an image including the visual target 10) captured by the second
In FIG. 10, "right eye" indicates the gaze position of the subject's right eye (the gaze position of the subject's right eye measured by the gaze
In the example shown in FIG. 10, the SSD recognized the visual target 10 with high accuracy, and the AP75 in the test data was 97.7%.
図11は図10に示す代表例における水平垂直眼位と視標位置との関係を可視化した図である。詳細には、図11(A)は代表例における水平眼位と視標位置との関係を示しており、図11(B)は代表例における垂直眼位と視標位置との関係を示している。
図11(A)および図11(B)において、「Dominant eye」は優位眼の視線位置を示しており、「Nondominant eye」は非優位眼の視線位置を示しており、「Target」は視標10の位置を示している。
Fig. 11 is a diagram visualizing the relationship between the horizontal and vertical eye positions and the target position in the typical example shown in Fig. 10. In detail, Fig. 11(A) shows the relationship between the horizontal eye position and the target position in the typical example, and Fig. 11(B) shows the relationship between the vertical eye position and the target position in the typical example.
11(A) and 11(B), “Dominant eye” indicates the gaze position of the dominant eye, “Nondominant eye” indicates the gaze position of the nondominant eye, and “Target” indicates the position of the visual target 10.
図12は実施例において得られた眼位(被験者の視線位置)と視標10の位置との関係を示す図である。詳細には、図12(A)は優位眼の水平眼位(横軸)と視標10の水平位置(縦軸)との関係を示しており、図12(B)は非優位眼の水平眼位(横軸)と視標10の水平位置(縦軸)との関係を示している。
図12(A)および図12(B)に示すように、両眼とも水平眼位が水平方向の視標位置と有意な正の相関があることを確認できた。
Fig. 12 is a diagram showing the relationship between the eye position (subject's gaze position) obtained in the example and the position of the visual target 10. In detail, Fig. 12(A) shows the relationship between the horizontal eye position (horizontal axis) of the dominant eye and the horizontal position (vertical axis) of the visual target 10, and Fig. 12(B) shows the relationship between the horizontal eye position (horizontal axis) of the non-dominant eye and the horizontal position (vertical axis) of the visual target 10.
As shown in Figures 12(A) and 12(B), it was confirmed that the horizontal eye position had a significant positive correlation with the horizontal target position for both eyes.
図13は実施例において得られたSPEM速度と視標速度との関係を示す図である。詳細には、図13(A)は優位眼の水平方向のSPEM速度(横軸)と水平方向の視標速度(縦軸)との関係を示しており、図13(B)は非優位眼の水平方向のSPEM速度(横軸)と水平方向の視標速度(縦軸)との関係を示している。
図13(A)および図13(B)に示すように、両眼とも水平方向のSPEM速度が水平方向の視標速度と有意な正の相関があることを確認できた。
Fig. 13 is a diagram showing the relationship between SPEM velocity and target velocity obtained in the embodiment. In detail, Fig. 13(A) shows the relationship between the horizontal SPEM velocity (horizontal axis) of the dominant eye and the horizontal target velocity (vertical axis), and Fig. 13(B) shows the relationship between the horizontal SPEM velocity (horizontal axis) of the non-dominant eye and the horizontal target velocity (vertical axis).
As shown in Figures 13(A) and 13(B), it was confirmed that the horizontal SPEM velocity had a significant positive correlation with the horizontal target velocity for both eyes.
上述したように、本実施例では、SSDが高精度で視標を検出することを確認した。VOGで検出した両眼の眼位とSSDを用いて計算した視標位置とが有意な正の相関を有することを確認した。 As described above, in this embodiment, it was confirmed that the SSD detects the visual target with high accuracy. It was confirmed that there is a significant positive correlation between the eye positions of both eyes detected by VOG and the visual target position calculated using the SSD.
第1実施形態の眼球運動自動記録システム1を用いることによって、眼科臨床における検査の方法を変更することなく、被験者の眼球運動を数値化・可視化することができる。
また、第1実施形態の眼球運動自動記録システム1を用いることによって、過去に実施した検査結果との比較を行うことができ、疾患の判定基準を明確にすることができる。
また、SSDを用いて高精度に位置を算出可能な視標10として、子どもが興味を持つ視標10を使用することにより、視標追跡検査中に被験者(子ども)が視標10を追跡してくれないおそれを抑制することができ、その結果、検査時間を短縮することができる。
By using the automatic eye movement recording system 1 of the first embodiment, the eye movement of a subject can be quantified and visualized without changing the examination method in ophthalmological clinical practice.
Furthermore, by using the automatic eye movement recording system 1 of the first embodiment, it is possible to compare the results with those of tests carried out in the past, and to clarify the criteria for diagnosing a disease.
Furthermore, by using an optotype 10 that is of interest to children as the optotype 10 whose position can be calculated with high accuracy using the SSD, it is possible to reduce the risk that the subject (child) will not track the optotype 10 during the eye tracking test, and as a result, the test time can be shortened.
[第2実施形態]
以下、本発明の眼球運動自動記録システム、演算装置、演算方法およびプログラムの第2実施形態について説明する。
第2実施形態の眼球運動自動記録システム1は、後述する点を除き、上述した第1実施形態の眼球運動自動記録システム1と同様に構成されている。従って、第2実施形態の眼球運動自動記録システム1によれば、後述する点を除き、上述した第1実施形態の眼球運動自動記録システム1と同様の効果を奏することができる。
[Second embodiment]
A second embodiment of the automatic eye movement recording system, the calculation device, the calculation method, and the program of the present invention will be described below.
Except for the points described below, the automatic eye movement recording system 1 of the second embodiment is configured similarly to the automatic eye movement recording system 1 of the above-mentioned first embodiment. Therefore, the automatic eye movement recording system 1 of the second embodiment can achieve the same effects as the automatic eye movement recording system 1 of the above-mentioned first embodiment, except for the points described below.
上述したように、第1実施形態の眼球運動自動記録システム1では、2次元領域特定部13Dが、物体認識アルゴリズムとして、SSDを用いる。
一方、第2実施形態の眼球運動自動記録システム1では、2次元領域特定部13Dが、SSD以外の物体認識アルゴリズム(例えばR-CNN、YOLO等)を用いるか、あるいは、物体検出法としてラスタースキャン法を用いる。
As described above, in the automatic eye movement recording system 1 of the first embodiment, the two-dimensional
On the other hand, in the automatic eye movement recording system 1 of the second embodiment, the two-dimensional
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態および各例に記載の構成を組み合わせてもよい。 Although an embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and appropriate modifications can be made without departing from the spirit of the present invention. The configurations described in the above-mentioned embodiments and examples may be combined.
なお、上記の実施形態における眼球運動自動記録システム1の全部または一部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、眼球運動自動記録システム1の全部または一部は、メモリおよびCPU(中央演算装置)により構成され、各システムが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
なお、眼球運動自動記録システム1の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
It should be noted that all or part of the automatic eye movement recording system 1 in the above embodiment may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.
In addition, all or part of the automatic eye movement recording system 1 may be composed of a memory and a CPU (central processing unit), and the functions of each part of each system may be realized by loading into memory and executing the programs for realizing those functions.
A program for realizing all or part of the functions of the automatic eye movement recording system 1 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to process each part. Note that the term "computer system" here includes hardware such as the OS and peripheral devices. In addition, if a WWW system is used, the term "computer system" also includes the home page providing environment (or display environment).
In addition, "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. Furthermore, "computer-readable recording medium" also includes devices that dynamically hold a program for a short period of time, such as communication lines when transmitting a program via a network such as the Internet or a communication line such as a telephone line, and devices that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in such cases. Furthermore, the above program may be one that realizes part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
1…眼球運動自動記録システム、10…視標、10A…2次元領域、11…第1撮影部、12…第2撮影部、13…演算装置、13A…第1画像取得部、13B…視線位置計測部、13C…第2画像取得部、13D…2次元領域特定部、13E…視標位置算出部、13F…マージ処理部、13G…位置ずれ量算出部、13H…移動速度差算出部 1...Automatic eye movement recording system, 10...Target, 10A...2-dimensional area, 11...First image capture unit, 12...Second image capture unit, 13...Calculation device, 13A...First image acquisition unit, 13B...Gaze position measurement unit, 13C...Second image acquisition unit, 13D...2-dimensional area identification unit, 13E...Target position calculation unit, 13F...Merge processing unit, 13G...Position deviation amount calculation unit, 13H...Movement speed difference calculation unit
Claims (8)
被験者の視標追跡検査に用いられる視標を含む画像である第2画像を撮影する第2撮影部と、
演算装置とを備える眼球運動自動記録システムであって、
前記演算装置は、
前記第1撮影部によって撮影された前記第1画像を取得する第1画像取得部と、
VOG(Video-oculography)を用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、
前記第2撮影部によって撮影された前記第2画像を取得する第2画像取得部と、
物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、
前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、
前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、
眼球運動自動記録システム。 A first image capturing unit that captures a first image which is an image of the subject's eye;
A second image capturing unit captures a second image including an eye target used in an eye tracking test of the subject;
A system for automatically recording eye movement comprising:
The computing device includes:
a first image acquisition unit that acquires the first image captured by the first imaging unit;
a gaze position measuring unit that measures a gaze position of a subject based on the first image acquired by the first image acquiring unit by using VOG (Video-oculography);
A second image acquisition unit that acquires the second image captured by the second imaging unit;
a two-dimensional area specifying unit that specifies a two-dimensional area corresponding to the visual target included in the second image acquired by the second image acquisition unit by using an object recognition algorithm;
a target position calculation unit that calculates a position of the target based on the two-dimensional area specified by the two-dimensional area specification unit;
a merging processing unit that merges the gaze position of the subject measured by the gaze position measuring unit, the gaze position of the subject at the time when the second image acquired by the second image acquiring unit was photographed by the second photographing unit, into the second image,
Automatic eye movement recording system.
請求項1に記載の眼球運動自動記録システム。 The two-dimensional region specifying unit uses SSD (Single Shot MultiBox Detector) as the object recognition algorithm.
2. The automatic eye movement recording system according to claim 1.
前記視標位置算出部は、前記視標の位置として、前記バウンディングボックスの重心位置を算出する、
請求項2に記載の眼球運動自動記録システム。 the two-dimensional region is a bounding box;
The target position calculation unit calculates a center of gravity position of the bounding box as the target position.
3. The automatic eye movement recording system according to claim 2.
前記視標位置算出部によって算出された前記視標の位置に対する、前記視線位置計測部によって計測された被験者の視線位置のずれ量を算出する位置ずれ量算出部を備える、
請求項1に記載の眼球運動自動記録システム。 The computing device includes:
a position deviation amount calculation unit that calculates a deviation amount of the gaze position of the subject measured by the gaze position measurement unit with respect to the position of the gaze target calculated by the gaze target position calculation unit,
2. The automatic eye movement recording system according to claim 1.
前記視標位置算出部によって算出された前記視標の位置の移動速度と、前記視線位置計測部によって計測された被験者の視線位置の移動速度との差を算出する移動速度差算出部を備える、
請求項1に記載の眼球運動自動記録システム。 The computing device includes:
a movement speed difference calculation unit that calculates a difference between a movement speed of the position of the visual target calculated by the visual target position calculation unit and a movement speed of the gaze position of the subject measured by the gaze position measurement unit,
2. The automatic eye movement recording system according to claim 1.
VOGを用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得部と、
物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、
前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、
前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、
演算装置。 a first image acquisition unit that acquires a first image, which is an image of the subject's eye captured by the first imaging unit;
a gaze position measuring unit that measures a gaze position of a subject based on the first image acquired by the first image acquiring unit by using a VOG;
a second image acquisition unit that acquires a second image, which is an image including an optotype used in an eye-tracking test of the subject, captured by the second imaging unit;
a two-dimensional area specifying unit that specifies a two-dimensional area corresponding to the visual target included in the second image acquired by the second image acquisition unit by using an object recognition algorithm;
a target position calculation unit that calculates a position of the target based on the two-dimensional area specified by the two-dimensional area specification unit;
a merging processing unit that merges the gaze position of the subject measured by the gaze position measuring unit, the gaze position of the subject at the time when the second image acquired by the second image acquiring unit was photographed by the second photographing unit, into the second image,
Calculation device.
VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、
物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、
前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、
前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを備える、
演算方法。 a first image acquiring step of acquiring a first image which is an image of the eye of the subject captured by a first image capturing unit;
a gaze position measuring step of measuring a gaze position of a subject based on the first image acquired in the first image acquiring step by using a VOG;
A second image acquisition step of acquiring a second image including an optotype used in an eye-tracking test of the subject, the second image being captured by the second imaging unit;
a two-dimensional area specifying step of specifying a two-dimensional area corresponding to the visual target included in the second image acquired in the second image acquiring step by using an object recognition algorithm;
a target position calculation step of calculating a position of the target based on the two-dimensional area specified in the two-dimensional area specification step;
a merging process step of merging the gaze position of the subject measured in the gaze position measuring step, the gaze position of the subject at the time when the second image acquired in the second image acquiring step was photographed by the second photographing unit, into the second image.
Calculation method.
第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、
VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、
物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、
前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、
前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを実行させるためのプログラム。 On the computer,
a first image acquiring step of acquiring a first image which is an image of the eye of the subject captured by a first image capturing unit;
a gaze position measuring step of measuring a gaze position of a subject based on the first image acquired in the first image acquiring step by using a VOG;
A second image acquisition step of acquiring a second image including an optotype used in an eye-tracking test of the subject, the second image being captured by the second imaging unit;
a two-dimensional area specifying step of specifying a two-dimensional area corresponding to the visual target included in the second image acquired in the second image acquiring step by using an object recognition algorithm;
a target position calculation step of calculating a position of the target based on the two-dimensional area specified in the two-dimensional area specification step;
a merging processing step of merging the gaze position of the subject measured in the gaze position measurement step, which is the gaze position of the subject at the time the second image acquired in the second image acquisition step was photographed by the second photographing unit, into the second image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020207084A JP7540711B2 (en) | 2020-12-14 | 2020-12-14 | Automatic eye movement recording system, calculation device, calculation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020207084A JP7540711B2 (en) | 2020-12-14 | 2020-12-14 | Automatic eye movement recording system, calculation device, calculation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022094363A JP2022094363A (en) | 2022-06-27 |
JP7540711B2 true JP7540711B2 (en) | 2024-08-27 |
Family
ID=82162579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020207084A Active JP7540711B2 (en) | 2020-12-14 | 2020-12-14 | Automatic eye movement recording system, calculation device, calculation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7540711B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7409732B1 (en) * | 2023-08-15 | 2024-01-09 | 株式会社Parafeed | Nystagmus analysis device, program, and analysis system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120290401A1 (en) | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
JP2013223713A (en) | 2012-03-21 | 2013-10-31 | Hamamatsu Univ School Of Medicine | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
JP2015211741A (en) | 2014-05-02 | 2015-11-26 | 富士通株式会社 | Gaze state determination device, gaze state determination program, and gaze state determination method |
-
2020
- 2020-12-14 JP JP2020207084A patent/JP7540711B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120290401A1 (en) | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
JP2013223713A (en) | 2012-03-21 | 2013-10-31 | Hamamatsu Univ School Of Medicine | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
JP2015211741A (en) | 2014-05-02 | 2015-11-26 | 富士通株式会社 | Gaze state determination device, gaze state determination program, and gaze state determination method |
Also Published As
Publication number | Publication date |
---|---|
JP2022094363A (en) | 2022-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12193749B2 (en) | Smartphone-based digital pupillometer | |
Mariakakis et al. | PupilScreen: using smartphones to assess traumatic brain injury | |
CN111128382B (en) | An artificial intelligence multimodal imaging analysis device | |
Wang et al. | Screening early children with autism spectrum disorder via response-to-name protocol | |
Torricelli et al. | A neural-based remote eye gaze tracker under natural head motion | |
De Almeida et al. | Computational methodology for automatic detection of strabismus in digital images through Hirschberg test | |
JP2014530730A (en) | System and method for identifying eye symptoms | |
US20180070814A1 (en) | Systems and methods for combined structure and function evaluation of retina | |
Reinhardt et al. | VertiGo–a pilot project in nystagmus detection via webcam | |
Garcia et al. | Evaluation of a Hirschberg test-based application for measuring ocular alignment and detecting strabismus | |
Kang et al. | Automated mathematical algorithm for quantitative measurement of strabismus based on photographs of nine cardinal gaze positions | |
Diego et al. | Portable anterior eye segment imaging system for teleophthalmology | |
JP7540711B2 (en) | Automatic eye movement recording system, calculation device, calculation method and program | |
Hassan et al. | A digital camera-based eye movement assessment method for NeuroEye examination | |
US20240394879A1 (en) | Eye segmentation system for telehealth myasthenia gravis physical examination | |
Qu et al. | Automatic diabetic retinopathy diagnosis using adjustable ophthalmoscope and multi-scale line operator | |
Jabbar et al. | A retinal detachment based strabismus detection through FEDCNN | |
Shah et al. | Eyedentify: A dataset for pupil diameter estimation based on webcam images | |
Li et al. | Dual-mode imaging system for early detection and monitoring of ocular surface diseases | |
Zhao et al. | A Strabismus Widespread Screening Method Based on Wearable Eye Tracker | |
CN114596623B (en) | A method for identifying nystagmus types based on optical flow | |
Temel et al. | Automated Pupillary Light Reflex Test on a Portable Platform | |
Souza et al. | Computer Vision and Eyetracking Approach for Assessing Visual Disorders in Premature Infants | |
Hassan et al. | A pilot study on video-based eye movement assessment of the neuroeye examination | |
Mariakakis et al. | Ocular symptom detection using smartphones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20201222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7540711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |