JP4452833B2 - Gaze movement detection method and gaze movement detection apparatus - Google Patents
Gaze movement detection method and gaze movement detection apparatus Download PDFInfo
- Publication number
- JP4452833B2 JP4452833B2 JP2006100344A JP2006100344A JP4452833B2 JP 4452833 B2 JP4452833 B2 JP 4452833B2 JP 2006100344 A JP2006100344 A JP 2006100344A JP 2006100344 A JP2006100344 A JP 2006100344A JP 4452833 B2 JP4452833 B2 JP 4452833B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- nostril
- subject
- frames
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 99
- 238000001514 detection method Methods 0.000 title claims description 51
- 210000001747 pupil Anatomy 0.000 claims description 100
- 230000004424 eye movement Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 description 36
- 230000004434 saccadic eye movement Effects 0.000 description 28
- 210000003128 head Anatomy 0.000 description 16
- 210000001508 eye Anatomy 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000037007 arousal Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004256 retinal image Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000004469 smooth pursuit movement Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
- 230000012043 vestibular reflex Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、対象者の視線移動を検出する視線移動検出方法及び視線移動検出装置に関するものである。 The present invention relates to a line-of-sight movement detection method and a line-of-sight movement detection device for detecting line-of-sight movement of a subject.
近年、自動車等において運転者の運転状況のモニターや、パーソナルコンピュータの視線による操作を目的として、人間の視線方向を検出する技術が開発されている。例えば、対象者の瞳孔の位置を測定する第1のカメラと、瞳孔の中心と角膜反射点間の距離及び角度を取得する第2のカメラとを用いて、対象者の視線方向を演算する技術が開示されている(下記特許文献1参照)。この技術は、対象者の瞳孔移動が検出された場合に眼球が回転したのか頭部自体が動いたのかを区別するために、瞳孔中心と角膜反射中心の相対的位置関係から視線方向を判定するものである。これは、対象者がカメラの光軸方向を見ている時には瞳孔中心と角膜反射中心の位置がほぼ一致し、対象者が眼を回転させるとその回転角に応じて瞳孔中心と角膜反射中心との間の距離が長くなるという知見に基づいている。
2. Description of the Related Art In recent years, a technology for detecting a human gaze direction has been developed for the purpose of monitoring a driver's driving situation in a car or the like and performing a gaze operation of a personal computer. For example, a technique for calculating the gaze direction of a subject using a first camera that measures the position of the pupil of the subject and a second camera that acquires the distance and angle between the center of the pupil and the corneal reflection point Is disclosed (see
一方、視線によりパーソナルコンピュータの画面上のカーソルを移動させるポインティング方法に関する技術も知られている(下記非特許文献1及び下記特許文献2〜4参照)。これらの技術はカメラによって撮像された顔画像から瞳孔を検出するものである。また、一台のカメラで対象者の瞳孔中心及び角膜反射中心の位置を得て視線ベクトルを求める装置(下記特許文献5参照)、及び2台のカメラを用いて瞳孔と鼻孔を検出することにより頭部の方向を検出する方法(下記特許文献6及び下記非特許文献2参照)も開示されている。
しかしながら、上述したように、角膜反射の中心及び瞳孔中心の位置を検出することによって視線方向を検出する場合には、検出精度を上げるために使用するカメラの解像度を比較的高くする必要があり、カメラの撮像範囲が小さくなりがちである。従って、頭が大きく動きがちな運転者をモニターする場合等において、顔全体を広い範囲で撮影する必要がある場合であっても、検出精度を確保するためには検出範囲が比較的狭い範囲に限定されてしまう。さらに、この場合に、カメラと瞳孔とを結ぶ線と視線との許容角度は、水平方向で±30〜±40度程度と比較的狭い。これは、撮影角度が大きくなると角膜反射が角膜の領域からはみ出して白目が光るようになるため、事実上角膜反射の検出が不可能となるからである。従って、対象者の視線の移動をモニターする場合で、視線方向を高い精度で検出する必要が無いときは、角膜反射を検出する意義が小さい。同様に、2台のカメラを用いて対象者の顔の特徴点の位置を検出する場合も、検出範囲が狭くなる傾向がある。 However, as described above, when detecting the line-of-sight direction by detecting the position of the center of corneal reflection and the center of the pupil, it is necessary to relatively increase the resolution of the camera used to increase the detection accuracy. The imaging range of the camera tends to be small. Therefore, when monitoring a driver whose head tends to move, even if the entire face needs to be photographed in a wide range, the detection range is set to a relatively narrow range in order to ensure detection accuracy. It will be limited. Further, in this case, the allowable angle between the line connecting the camera and the pupil and the line of sight is relatively narrow, about ± 30 to ± 40 degrees in the horizontal direction. This is because, as the imaging angle increases, the corneal reflection protrudes from the corneal region and the white eye shines, making it impossible to detect the corneal reflection in effect. Therefore, when monitoring the movement of the line of sight of the subject and there is no need to detect the line of sight with high accuracy, the significance of detecting corneal reflection is small. Similarly, when detecting the position of the feature point of the subject's face using two cameras, the detection range tends to be narrow.
これに対して、対象者の瞳孔等の目の位置をモニターして対象者の視線移動を判定することも考えられるが、頭部自体の動きが加わった場合に瞳孔位置をモニターしただけでは、その動きが視線の動きによるものか、頭部の動きによるものかを安定して判別することが困難である。 On the other hand, it is also possible to determine the eye movement of the subject by monitoring the position of the eye such as the pupil of the subject, but just by monitoring the pupil position when the movement of the head itself is added, It is difficult to stably determine whether the movement is caused by the movement of the line of sight or the movement of the head.
そこで、本発明は、かかる課題に鑑みて為されたものであり、対象者の視線移動を広い範囲で安定して検出することが可能な視線移動検出方法及び視線移動検出装置を提供することを目的とする。 Therefore, the present invention has been made in view of such problems, and provides a gaze movement detection method and a gaze movement detection apparatus that can stably detect a gaze movement of a subject in a wide range. Objective.
上記課題を解決するため、本発明の視線移動検出方法は、対象者の顔画像を撮像して該顔画像に基づいて対象者の視線移動の有無を検出する視線移動検出方法であって、対象者の顔画像を複数のフレーム分撮像して、複数のフレームのそれぞれを対象に対象者の瞳孔位置及び鼻孔位置を検出する検出ステップと、複数のフレームを対象にして検出された瞳孔位置と鼻孔位置とに基づいて、複数のフレーム中の前後のフレーム間における対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する算出ステップと、当該算出した変化量と所定の閾値とを用いて視線移動の有無を判定する判定ステップとを備える。 In order to solve the above-described problem, a gaze movement detection method of the present invention is a gaze movement detection method that captures a face image of a target person and detects the presence or absence of the gaze movement of the target person based on the face image. Detecting a face image of a person for a plurality of frames, detecting a pupil position and a nostril position of the subject for each of the plurality of frames, and a pupil position and a nostril detected for the plurality of frames Based on the position, the calculation step of calculating the amount of change in the relative position of the pupil with respect to the nostril of the subject between the previous and next frames in the plurality of frames, and the line of sight using the calculated amount of change and a predetermined threshold And a determination step for determining presence or absence of movement.
或いは、本発明の視線移動検出装置は、対象者の顔画像を撮像して該顔画像に基づいて対象者の視線移動の有無を検出する視線移動検出装置であって、対象者の顔画像を複数のフレーム分撮像して、複数のフレームのそれぞれを対象に対象者の瞳孔位置及び鼻孔位置を検出する手段と、複数のフレームを対象にして検出された瞳孔位置と鼻孔位置とに基づいて、複数のフレーム中の前後のフレーム間における対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する手段と、当該算出した変化量と所定の閾値とを用いて視線移動の有無を判定する手段とを備える。 Alternatively, the line-of-sight movement detection device of the present invention is a line-of-sight movement detection device that captures a face image of a subject and detects the presence or absence of the subject's eye movement based on the face image. Based on the means for capturing a plurality of frames, detecting the pupil position and nostril position of the subject for each of the plurality of frames, and the pupil position and nostril position detected for the plurality of frames, Means for calculating the amount of change in the relative position of the pupil with respect to the nostril of the subject between frames before and after the plurality of frames, and means for determining the presence or absence of eye movement using the calculated amount of change and a predetermined threshold value With.
このような視線移動検出方法及び視線移動検出装置によれば、対象者の顔画像を動画像として複数フレーム取得して、その複数フレーム内の瞳孔位置と鼻孔位置とを検出し、前後のフレーム間の鼻孔に対する瞳孔の相対的位置の変化を算出し、その変化の大小をもって視線移動の有無を判定するので、1台の撮像手段を使った顔画像であっても広い範囲で視線移動の有無を判定できるとともに、鼻孔位置を基準とした瞳孔位置をモニタすることで運転者等の頭自体が動きがちな対象者に関しても安定した視線移動の検出を実現することができる。 According to such a line-of-sight movement detection method and line-of-sight movement detection apparatus, a plurality of frames are acquired as moving images of the subject's face image, the pupil position and nostril position in the plurality of frames are detected, and The change in the relative position of the pupil with respect to the nostril of the subject is calculated, and the presence / absence of the eye movement is determined based on the magnitude of the change, so the presence / absence of the eye movement in a wide range can be determined even for a face image using one imaging means. In addition to being able to determine, by monitoring the pupil position based on the nostril position, it is possible to realize stable detection of gaze movement even for a subject whose head itself such as a driver tends to move.
算出ステップでは、前後のフレーム間の瞳孔位置の変化量及び鼻孔位置の変化量を求め、瞳孔位置の変化量と鼻孔位置の変化量との差分をとることによって相対的位置の変化量を算出することが好ましい。この場合、対象者の動画像を参照しながら効率的に瞳孔と鼻孔の相対的位置の変化を算出でき、視線移動検出のリアルタイム性が高くなる。 In the calculation step, the change amount of the pupil position and the change amount of the nostril position between the previous and next frames are obtained, and the change amount of the relative position is calculated by taking the difference between the change amount of the pupil position and the change amount of the nostril position. It is preferable. In this case, it is possible to efficiently calculate the change in the relative position of the pupil and nostril while referring to the moving image of the subject, and the real-time property of the eye movement detection is improved.
また、算出ステップでは、複数のフレームにわたって相対的位置の変化量を連続して算出すると共に、該変化量の移動平均値を導出し、判定ステップでは、相対的位置の変化量を移動平均値を基準にして設定した閾値と比較することによって、視線移動の有無を判定することも好ましい。こうすれば、眼球の回転角の変位の大小に応じた適切な閾値を設定することで、より精度の高い視線移動の検出が可能となる。 In the calculation step, the change amount of the relative position is continuously calculated over a plurality of frames, and the moving average value of the change amount is derived. In the determination step, the change amount of the relative position is calculated as the moving average value. It is also preferable to determine the presence or absence of eye movement by comparing with a threshold value set as a reference. In this way, it is possible to detect the movement of the line of sight with higher accuracy by setting an appropriate threshold value according to the magnitude of the displacement of the rotation angle of the eyeball.
本発明による視線移動検出方法及び視線移動検出装置によれば、対象者の視線移動を広い範囲で安定して検出することができる。 According to the line-of-sight movement detection method and line-of-sight movement detection apparatus according to the present invention, it is possible to stably detect the line-of-sight movement of a subject in a wide range.
以下、図面を参照しつつ本発明に係る視線移動検出方法及び視線移動検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of a line-of-sight movement detection method and a line-of-sight movement detection device according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.
本発明の視線移動検出方法及び視線移動検出装置は、観察対象者の目の方向(視線方向)が変わったかどうかを検出するためのものである。ここでいう視線方向とは、顔の方向を基準にした目の動きのことである。本発明は、例えば、大型トラック等の自動車に代表される乗り物内において、運転者や操縦者が運転中に覚醒状態にあるか否かを判断するために利用される。具体的には、運転者が正常に運転しているときは周囲に注意を払うため視線は頻繁に変化するが、眠気を催しているときには運転者の視線の動きが止まる傾向にあるので、視線移動の頻度に基づいて運転者の覚醒状態を判定することができる。 The line-of-sight movement detection method and line-of-sight movement detection apparatus of the present invention are for detecting whether the direction of the eye (line-of-sight direction) of the observation subject has changed. The line-of-sight direction here refers to eye movement based on the face direction. The present invention is used, for example, to determine whether a driver or a driver is in an awake state during driving in a vehicle typified by an automobile such as a large truck. Specifically, when the driver is driving normally, the gaze changes frequently to pay attention to the surroundings, but when the driver is drowsy, the driver's gaze tends to stop, so the gaze Based on the frequency of movement, the driver's arousal state can be determined.
まず、本発明にかかる視線移動検出装置1の構成について、図1を参照しながら説明する。図1は、視線移動検出装置1と対象者Aとの位置関係を示す平面図である。同図に示すように、視線移動検出装置1は、対象者Aの顔画像を撮像する1台のカメラ2と、カメラ2の前面2aの撮像レンズの光軸L1の近傍に設けられた光源3aと、カメラ2の前面2aの光軸L1から離れた位置に設けられた光源3bと、カメラ2に接続されてカメラ2において生成された画像データを処理する画像処理端末4とを備えている。この視線移動検出装置1は、本発明にかかる視線移動検出方法を実施する。
First, the configuration of the eye
カメラ2は、対象者Aの顔画像を生成できる撮像手段であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。また、カメラ2は、対象者Aの顔画像を動画像として連続して撮像することが可能とされ、その動画像を構成する複数のフレーム画像をリアルタイムで画像処理端末4に出力する。
The
光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、光源3a,3bから照射される照明光は、瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有する光であり、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。
The
なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの瞳孔及び鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の水平面に対する傾斜角20度〜30度)に設けられることが好ましい。この設置位置としては、車両内に設置される場合は運転席側のダッシュボードの下等、トラック等の座席位置が高い場合はダッシュボードの上等が考えられる。
The
画像処理端末4は、カメラ2から出力された複数のフレーム画像からなる顔画像に画像処理を施す情報処理端末であり、CPU等の演算処理装置、ROM、RAM等の記憶装置を内蔵するコンピュータ端末である。画像処理端末4は、対象者Aの視線移動の有無を検出する視線移動検出処理を実行するとともに、カメラ2による対象者Aの撮像を制御する。
The
次に、上述した各処理について説明する前に、対象者の眼球運動(眼球の回転運動)の種類について説明する。一般に、広視野のビデオカメラで顔を撮影した場合に検出可能な眼球運動としては、(1)サッカード(saccade, 跳躍性眼球運動)、(2)滑動性眼球運動(smooth pursuit movement, 随従運動)、(3)前庭性眼球運動(vestibular reflex)、(4)輻輳開散眼球運動(vergence eye movement) が存在する。 Next, before describing each processing described above, the type of eye movement (rotation movement of the eyeball) of the subject will be described. In general, eye movements that can be detected when a face is photographed with a wide-field video camera include (1) saccade, (2) smooth pursuit movement, and follow-up movement. ), (3) vestibular reflex, and (4) vergence eye movement.
サッカードは、静止した物体に対して、見たい対象を変えたいときに生じる高速のいわばステップ状の運動である。運転中であれば、前方の車を見ている間に標識が視野の周辺に見えたときに、その詳細を見るために標識を見ようとするときなどに生じる。また、滑動性眼球運動は、運動物体を見続けようとするときに生じる。この場合の眼球回転速度は、サッカードに比較して小さい。また、前庭性眼球運動は、基本的に一点を見つめているときに頭部が回転すると、頭部の回転に対してちょうど反対方向に同じ回転速度で眼球が回転し、目の網膜に投影される像がぶれないようにするための運動である。この運動は、頭部が左右に上下に平行移動した場合にも、同様に網膜像がぶれないような方向に生じる。この眼球運動もサッカードに比較して眼球回転速度は小さい。さらに、輻輳開散眼球運動は、近くのものを見るときに両目が寄り(両眼球が内向きに回転する)、遠くのものを見るときに両目が離れる方向に回転する(両眼球が外向きに回転する)。従って、この運動は、両眼が互いに反対方向に回転する運動である。この眼球運動も、ゆっくりとした動きであり、サッカードより速度が小さい。 Saccade is a high-speed, step-like motion that occurs when you want to change the object you want to see for a stationary object. If you are driving, this happens when you see the sign in the vicinity of the field of view while looking at the car ahead and you want to see the sign to see its details. Also, sliding eye movement occurs when trying to keep looking at a moving object. In this case, the eyeball rotation speed is smaller than that of the saccade. In vestibular eye movements, basically, when the head rotates while looking at one point, the eye rotates at the same rotational speed in the opposite direction to the rotation of the head and is projected onto the retina of the eye. This is an exercise to prevent the image from blurring. This movement also occurs in a direction in which the retinal image is not blurred even when the head is translated left and right up and down. This eye movement also has a lower eyeball rotation speed than saccade. In addition, the vergence eye movement moves both eyes when looking at nearby objects (both eyes rotate inward) and away when looking at distant objects (both eyes outward). To rotate). Therefore, this movement is a movement in which both eyes rotate in opposite directions. This eye movement is also a slow movement and is slower than saccade.
以上の4種類の運動は、車両の運転中に重畳して生じ、サッカード以外のそれぞれの眼球運動の中に、サッカードが度々混在する。この際、サッカード以外の比較的滑らかな運動に高速な運動であるサッカードが割り込んで生ずるため、サッカードは他の運動に比較して検出が容易である。ここで、特筆すべき点は、サッカード以外の運動は、運転中でも通常はゆっくりとした運動であるが、サッカードは、比較的高速であり、視線を動かしたときは瞳孔の瞬間的な動きとして際だって現れる点である。このサッカードは、10度程度の回転でも約40msec程度で完了するため、通常の30フレーム/秒のカメラでも2フレーム以内に収まる。従って、他の眼球運動が混在していても、回転角度がある程度以上(例えば、10度以上)であれば十分にサッカードを他の運動から判別することができ、サッカードの発生の有無は容易に判断できる。なお、ある方向から別の方向へ視線を動かすときに頭部の回転を伴う場合もあるが、このような場合であっても頭部の回転速度よりも眼球の回転速度のほうが高速であるため、サッカードは明確に現れる。 The above four types of movements are generated while driving the vehicle, and saccades are often mixed in eye movements other than saccades. At this time, since a saccade, which is a high-speed motion, is interrupted by a relatively smooth motion other than the saccade, the saccade is easier to detect than other motions. Here, it should be noted that exercises other than saccades are usually slow motions while driving, but saccades are relatively fast, and the momentary movement of the pupil when the line of sight is moved. It is a point that appears prominently. This saccade is completed in about 40 msec even with a rotation of about 10 degrees, so even a normal 30 frame / second camera can fit within 2 frames. Therefore, even if other eye movements are mixed, if the rotation angle is more than a certain degree (for example, 10 degrees or more), the saccade can be sufficiently distinguished from other movements. Easy to judge. There are cases where the head is rotated when moving the line of sight from one direction to another, but even in such a case, the rotational speed of the eyeball is faster than the rotational speed of the head. The saccade appears clearly.
上述したサッカードは、運転者が注意を向ける対象を移すときに生じることから、明らかに運転者が覚醒しているときに生じると考えられる。サッカード以外の眼球運動も覚醒状態でなければ生じないが、この場合もサッカードが混在して生じる確率が高い。例えて言えば、運転者が運転中に、前方や、バックミラー、ルームミラー、メーター等を見るときには、サッカードは必ず生じる。逆に、運転中にサッカードが生じないということは、少なくとも覚醒状態が低下していると判断してよい。 Since the saccade described above occurs when the driver shifts his / her attention, it is apparent that the saccade is generated when the driver is awake. Eye movements other than saccades do not occur unless they are awake, but in this case as well, there is a high probability that saccades coexist. For example, a saccade always occurs when a driver looks at the front, rearview mirror, room mirror, meter, etc. while driving. Conversely, if saccade does not occur during driving, it may be determined that at least the arousal state has decreased.
そこで、画像処理端末4は、以下のようにして、対象者Aの鼻孔に対する瞳孔の相対的位置の変化量(視線移動量)を算出した後、視線移動の有無を判定して運転者の覚醒状態を判断する。
Therefore, the
まず、画像処理端末4は、カメラ2を制御して対象者Aの顔画像を連続して撮像して、その結果生成された複数フレームからなる動画像を受けて、その複数フレームのそれぞれを対象に対象者Aの左右の瞳孔中心の位置及び左右の鼻孔中心の位置を検出する。図2は、画像処理装置4による対象者Aの検出状態を示す概念図である。
First, the
(瞳孔中心の検出)
画像処理端末4は、複数フレームからなる顔画像の撮像時には、光源3a,3bを交互に点灯させて、それぞれの点灯に同期したフレームを生成させることによって、明瞳孔画像及び暗瞳孔画像を得る。明瞳孔画像は、光源3aの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に明るくなっている。これに対し、暗瞳孔画像は、光源3bの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に暗くなっている。これらの2種類の画像は、2つの光源3a,3bからの照明光の照射に伴う瞳孔からの反射光の強度が異なることに起因して得られる。ここで、フィールド走査を採用するカメラの場合は、光源3a,3bをカメラ2のフィールド信号に同期させて点灯させることで、奇数フィールドと偶数フィールド間で明瞳孔画像と暗瞳孔画像とを分離してもよい。そして、明瞳孔画像と暗瞳孔画像との差分を取った後に瞳孔部分の範囲を判別する。このような差分処理を行うことで、ロバスト性の高い瞳孔の検出を行うことができる。
(Detection of pupil center)
The
その後、検出した瞳孔の輪郭を特定して、その輪郭に近似できる楕円を算出してその楕円の中心を瞳孔の中心位置として求める。また、差分処理を施されたフレーム画像を用いて、そのフレーム画像を2値化した後に重心法を用いて瞳孔中心の位置を算出してもよい。このとき、画像中に目蓋等の動く対象があると瞳孔以外も明るく写る場合があるので、重心を求める際の画像領域の広さの選択が問題となる。そこで、特開2005−348832号公報に記載にように、分離度フィルタを用いて瞳孔中心の位置を算出してもよい。すなわち、円形に近いパターンを用いて分離度が最大になる中心座標を求める。 After that, the contour of the detected pupil is specified, an ellipse that can be approximated to the contour is calculated, and the center of the ellipse is obtained as the center position of the pupil. Alternatively, the position of the pupil center may be calculated using the center of gravity method after binarizing the frame image that has been subjected to the difference processing. At this time, if there is a moving target such as an eyelid in the image, the area other than the pupil may appear brightly, so the selection of the size of the image area when obtaining the center of gravity becomes a problem. Therefore, as described in JP-A-2005-348832, the position of the pupil center may be calculated using a separability filter. That is, the center coordinate that maximizes the degree of separation is obtained using a pattern close to a circle.
(鼻孔中心の検出)
画像処理端末4は、左右の鼻孔中心の2次元座標を、上記の明瞳孔画像又は暗瞳孔画像を参照して検出する。すなわち、左右の瞳孔中心の中点を求め、それより下の位置に、対象者Aが正面を向いていたと仮定した場合に中心がほぼ鼻孔位置に一致する大ウィンドウを設定し、その大ウィンドウ内で鼻孔を検出する。そして、フレーム画像の大ウィンドウ内を対象にP−tile法により輝度が低いほうから0.8%の画素を検出し、HIGH画素及びLOW画素からなる2値化画像に変換する。その後、検出された2値化画像の膨張処理及び収縮処理(モルフォロジー処理)を繰り返し画像内の領域を明確化させた後、ラベリング処理を施して大きなほうから2つの領域を選び出し、それぞれの領域について上下左右の端点より形成される長方形の中心、縦横比、及び面積を算出する。ここで、膨張処理とは、2値画像中で対象画素の近傍の8画素の1つでもHIGH画素がある場合に、対象画素をHIGH画素に変換する処理であり、収縮処理とは、2値画像中で対象画素の近傍の8画素の1つでもLOW画素がある場合に、対象画素をLOW画素に変換する処理である。そして、縦横比が0.5より小さいか0.7より大きく、かつ、全体の画像サイズが640×240画素に対して面積が100画素より小さいか300画素より大きい場合は、鼻孔像を示す領域ではないと判断する。そうでない場合は、上記長方形の中心を中心に30×30画素の小ウィンドウを設定し、もとのフレーム画像の小ウィンドウ内を対象に、P−tile法により輝度が低いほうから5%の画素を抽出する。その後、上記のモルフォロジー処理及びラベリング処理を繰り返し、最大面積の領域を求める。その領域の面積が130画素以上か70画素以下の場合は鼻孔像でないと判断し、そうでない場合は鼻孔像であると判断し、領域の上下左右の端点より形成される長方形の中心を鼻孔の中心として求める。その結果、2つの鼻孔中心が検出されたら、それぞれの座標値の大きさから左右の鼻孔の対応関係を判断する。
(Detection of nostril center)
The
上記のように、大ウィンドウと小ウィンドウとを用いて鼻孔検出を行うと、撮像条件の異なる2つの鼻孔のそれぞれを検出するのに最適な閾値を与えることができ、確実に鼻孔を検出できる。なお、鼻孔を検出し難くするような影などが画像に写った場合の鼻孔の誤認識の防止、及び鼻孔の素早い動きへの対応を目的として、カルマンフィルタなどの予測モデルを利用して各鼻孔位置を予測して、小ウィンドウの位置を設定してもよい。 As described above, when the nostril detection is performed using the large window and the small window, an optimum threshold value can be given for detecting each of the two nostrils having different imaging conditions, and the nostril can be detected reliably. Each nostril position is predicted using a predictive model such as a Kalman filter for the purpose of preventing false recognition of the nostrils when shadows that make it difficult to detect the nostrils appear in the image and responding to quick movement of the nostrils. And the position of the small window may be set.
このような鼻孔検出時において左右どちらかの鼻孔のみしか検出できなかった場合は、距離導出ステップで実測された距離と、検出された左右の瞳孔中心の位置及び片方の鼻孔中心の位置とを用いて、他方の鼻孔中心の位置を推定する。今、右瞳孔中心の座標を(xRP,yRP)、左瞳孔中心の座標を(xLP,yLP)、右鼻孔中心の座標を(xRN,yRN)、左鼻孔中心の座標を(xLN,yLN)、予め測定しておいた左右の瞳孔中心間の距離をDP0、左右の鼻孔中心間の距離をDN0とし、左鼻孔を検出できなかった場合を考える。このときの顔画像における左右の瞳孔間の傾斜率IP、及び瞳孔中心間距離DPは、下記式(1)及び(2);
IP=(yRP−yLP)/(xRP−xLP) …(1)
DP={(xRP−xLP)2+(yRP−yLP)2}1/2 …(2)
と考えることができる。
If only one of the right and left nostrils can be detected during such nostril detection, the distance measured in the distance deriving step and the detected positions of the left and right pupil centers and the center of one nostril are used. Then, the position of the other nostril center is estimated. Now, the coordinates of the right pupil center are (x RP , y RP ), the coordinates of the left pupil center are (x LP , y LP ), the coordinates of the right nostril center are (x RN , y RN ), and the coordinates of the left nostril center are Assume that (x LN , y LN ), the distance between the left and right pupil centers measured in advance is D P0 , the distance between the left and right nostril centers is D N0 , and the left nostril cannot be detected. Ramp rate I P, and the pupil center distance D P between left and right pupils in the face image at this time, the following equation (1) and (2);
I P = (y RP −y LP ) / (x RP −x LP ) (1)
D P = {(x RP -x LP) 2 + (y RP -y LP) 2} 1/2 ... (2)
Can be considered.
ここで、左右の瞳孔中心を結ぶ線と左右の鼻孔中心を結ぶ線とは常に平行であると考えられるので、左右の鼻孔間の傾斜率IN=IPとなる。また、顔画像上の鼻孔中心間距離DNは、左右の瞳孔中心間の距離DP0、左右の鼻孔中心間の距離DN0、及び瞳孔中心間距離DPから、下記式(3);
DN=(DN0/DP0)×DP …(3)
により求まる。鼻孔中心間距離DNは下記式(4);
DN={(xRN−xLN)2+(yRN−yLN)2}1/2 …(4)
と表されるので、左の鼻孔中心の座標(xLN,yLN)は、下記式(5)及び(6);
xLN=xRN−{DN 2/(1+IN 2)}1/2 …(5)
yLN=yRN−{(DN 2.IN 2)/(1+IN 2)}1/2 …(6)
によって求めることができる。逆に右の鼻孔中心が検出されなかった場合も、下記式(7)及び(8);
xRN=xLN+{DN 2/(1+IN 2)}1/2 …(7)
yRN=yLN+{(DN 2.IN 2)/(1+IN 2)}1/2 …(8)
によって求めることができる。
Here, since the line connecting the left and right pupil centers and the line connecting the left and right nostril centers are considered to be always parallel, the slope ratio I N = I P between the left and right nostrils. Further, the nostrils center distance D N on the face image, the distance D P0 between the left and right pupil center, the distance D N0, and pupil center distance D P between the left and right nostrils center, formula (3);
D N = (D N0 / D P0 ) × D P (3)
It is obtained by. The nostril center distance DN is expressed by the following formula (4);
D N = {(x RN -x LN) 2 + (y RN -y LN) 2} 1/2 ... (4)
Therefore, the coordinates of the center of the left nostril (x LN , y LN ) are the following formulas (5) and (6);
x LN = x RN - {D
y LN = y RN - {(
Can be obtained. Conversely, when the right nostril center is not detected, the following formulas (7) and (8);
x RN = x LN + {D
y RN = y LN + {(
Can be obtained.
(視線移動量の算出)
画像処理端末4は、各フレーム画像中の前後のフレーム画像における左右の瞳孔中心の位置及び左右の鼻孔中心の位置に基づいて、対象者Aの視線移動量を計算する。この場合、一方の鼻孔に対して他方の鼻孔が大きく動くことは現実的に考えられないため、一方の鼻孔が検出できれば十分である。仮に、両方の鼻孔が検出できたときも左右どちらかの鼻孔中心の位置を視線移動の基準となる位置として選択すればよい。また、左右の鼻孔中心の位置の中点を基準としてもよい。ただし、一方の鼻孔位置から他方の鼻孔位置又は中点の位置に基準位置が切り替わってしまうと、瞳孔の相対的位置の変化が正確に検出できなくなってしまう。そこで、以下のようにして、複数のフレーム画像中の前後フレーム画像間の鼻孔中心位置の変化量DifN及び瞳孔中心位置の変化量DifPを、時間的に連続して求める。
(Calculation of eye movement)
The
具体的には、左右の鼻孔が検出されているときは、左右の鼻孔中心毎の変化量を算出する。もし、(i)両鼻孔が検出され続けているときには、前後フレーム間の各鼻孔中心の変化量を計算し、それらの平均を鼻孔中心の変化量DifNとする。(ii)片方の鼻孔のみが検出され続けているときは、検出されている側の鼻孔中心のみのフレーム間変化量を鼻孔中心の変化量DifNとする。(iii)1つ前のフレームまで両鼻孔が検出されており、現フレームになって片方の鼻孔のみが検出されるようになったとき、現フレームにおいて検出された側の鼻孔中心の座標と1つ前フレームにおける同じ側の鼻孔中心の座標との変化量を鼻孔中心の変化量DifNとする。(iv)1つ前のフレームまで片方の鼻孔のみが検出されており、現フレームで両鼻孔が検出されるようになったとき、1つ前のフレームにおいて検出されていた鼻孔中心の座標と現フレームにおける同じ側の鼻孔中心の座標との変化量を鼻孔中心の変化量DifNとする。 Specifically, when the left and right nostrils are detected, the amount of change for each center of the left and right nostrils is calculated. If (i) both nostrils continue to be detected, the amount of change in the center of each nostril between the previous and next frames is calculated, and the average of these is defined as the amount of change Dif N in the nostril center. When (ii) only one nostril is continuously detected, the inter-frame variation of only nostrils center of the side that has been detected and the variation Dif N nostril center. (Iii) When both nostrils have been detected up to the previous frame and only one of the nostrils is detected in the current frame, the coordinates of the nostril center on the side detected in the current frame and 1 One prior to the change amount of the coordinates of the nostril center on the same side as the variation Dif N nostrils center of the frame. (iv) When only one nostril is detected up to the previous frame, and both nostrils are detected in the current frame, the coordinates of the nostril center detected in the previous frame and the current nostril are detected. the variation of the coordinates of the nostril center on the same side of the frame and the variation Dif N nostril center.
一方、瞳孔中心の検出においても、片方の瞳孔が検出できなくなったり、両方の瞳孔が検出できなくなることもある。したがって、瞳孔中心の変化量DifPの算出についても鼻孔と同様のことを行う。すなわち、左右の瞳孔が検出されているときは、左右の瞳孔中心毎の変化量を算出する。(i)両瞳孔が検出され続けているときには、両瞳孔中心のそれぞれのフレーム間変化量の平均を瞳孔中心の移動量DifPとする。(ii)片方の瞳孔のみが検出され続けているときは、検出されている瞳孔中心のみのフレーム間変化量を瞳孔中心の変化量DifPとする。(iii)1つ前のフレームまで両瞳孔が検出されており、現フレームになって片方の瞳孔のみが検出されるようになったとき、現フレームにおいて検出された瞳孔中心の座標と1つ前フレームにおける同じ側の瞳孔中心の座標への変化量を瞳孔中心の変化量DifPとする。(iv)1つ前のフレームまで片方の瞳孔のみが検出されており、現フレームで両瞳孔が検出されるようになったとき、1つ前のフレームにおいて検出されていた瞳孔中心の座標と現フレームにおける同じ側の瞳孔中心の座標との変化量を瞳孔中心の変化量DifPとする。 (v)両瞳孔ともが検出されない状態が続いているときには、瞳孔中心の変化量DifPを零とすると同時に“フラグ=0”とする。(vi)1つ前のフレームで両瞳孔が検出されていなかったときに、現フレームで両方若しくは片方の瞳孔が検出できたとき、瞳孔中心の変化量DifPを零とすると同時に“フラグ=0”とする。ここで、“フラグ=0”とは、両瞳孔か片瞳孔が検出されていても瞳孔移動が無い場合と、両瞳孔とも検出されていない場合を識別するために画像処理端末4で設定するフラグであり、上記(i)〜(iv)の場合には、“フラグ=1”と設定される。
On the other hand, in the detection of the center of the pupil, one pupil may not be detected or both pupils may not be detected. Therefore, the pupil center change amount Dif P is calculated in the same manner as the nostril. That is, when the left and right pupils are detected, the amount of change for each of the left and right pupil centers is calculated. When (i) both the pupil is continuously detected, the average of each of the inter-frame variation of both the pupil center and the movement amount Dif P of the pupil center. When (ii) only one of the pupils is continuously detected, the inter-frame variation of only the pupil center is detected and the variation Dif P of the pupil center. (Iii) When both pupils are detected up to the previous frame and only one pupil is detected in the current frame, the coordinates of the center of the pupil detected in the current frame and the previous frame are detected. the amount of change to the same side of the pupil center coordinates in the frame and the variation Dif P of the pupil center. (iv) When only one pupil is detected up to the previous frame and both pupils are detected in the current frame, the coordinates of the pupil center detected in the previous frame and the current pupil center are detected. the amount of change in the pupil center coordinates of the same side of the frame and the variation Dif P of the pupil center. (v) When the state where both pupils are not detected continues, the pupil center change amount Dif P is set to zero, and at the same time, “flag = 0” is set. (Vi) When both pupils have not been detected in the previous frame and both or one of the pupils has been detected in the current frame, the change amount Dif P of the pupil center is set to zero and “flag = 0” ". Here, “flag = 0” is a flag that is set in the
なお、瞳孔の変化量算出処理において鼻孔の場合と異なるのは、(v)と(vi)であるが、これは瞬きによって、両瞳孔とも消失する場合があるからである。従って、鼻孔の場合よりも処理が複雑になる。しかし、何らかの理由で画像処理が正しく動作しない場合に、瞳孔と同様に両鼻孔ともに検出されないことがあり得るため、鼻孔の変化量の算出の場合にも、(v)(vi)と同様の処理を併せて行うことが好ましい。 Note that in the pupil change amount calculation processing, the difference from the case of the nostrils is (v) and (vi) because both pupils may disappear due to blinking. Therefore, the process is more complicated than in the case of a nostril. However, if the image processing does not work correctly for some reason, both nostrils may not be detected as with the pupil, so the same processing as in (v) (vi) can be performed when calculating the amount of change in the nostrils. It is preferable to carry out in combination.
そして、画像処理端末4は、算出した複数のフレーム画像中の鼻孔中心位置の変化量DifN及び瞳孔中心位置の変化量DifPから、下記式(9);
Dif=DifP−DifN …(9)
を用いて、変化量DifNとDifPかの差分を取ることによって視線移動量Difを連続して求める。この際、該当フレームにおいて“フラグ=0”の場合は、視線移動量Difは検出できなかったと判断する。
Then, the
Dif = Dif P −Dif N (9)
Using a determined continuously vision shift amount Dif by taking the variation Dif N and Dif P Kano difference. At this time, if “flag = 0” in the corresponding frame, it is determined that the line-of-sight movement amount Dif could not be detected.
(視線移動量の算出)
画像処理端末4は、求めた視線移動量Difを予め設定した閾値と比較することによって視線移動の有無を判定し、視線移動が無いと判定された場合はブザー鳴動手段等に警報を出力する等によって外部に通知する。
(Calculation of eye movement)
The
図3(a)は、対象者Aがカメラ2に対して正面を見た状態で、頭部を左右に交互に動かしたときに検出される左右の瞳孔中心の水平方向の位置XPL,XPR、左右の鼻孔中心の位置XNL,XNR、左右瞳孔位置の平均値XPA、及び左右鼻孔位置の平均値XNAの時間変化を示すグラフである。図3(b)は、このときの瞳孔と鼻孔との相対的位置DX、及び画像処理端末4が算出した視線移動量Dif(=瞳孔の鼻孔に対する相対的速度)の時間変化を示している。同図に示すように、左右の鼻孔は互いにほとんど同じ動きをし、左右の瞳孔も互いにほとんど同じ動きをするので、視線移動量Difの絶対値はそれほど大きくない。ここでは、簡単にするために、左右の鼻孔と左右の瞳孔が常に検出できているものとして示した。
3 (a) shows a state in which the subject A is viewed front the
一方、図4(a)は、頭部の動きに高速なサッカードの眼球運動が混在して起こっているときに検出される左右の瞳孔中心の位置XPL,XPR、左右の鼻孔中心の位置XNL,XNR、左右瞳孔位置の平均値XPA、及び左右鼻孔位置の平均値XNAの時間変化を示すグラフである。図4(b)は、このときの瞳孔の位置と鼻孔の位置との相対的位置DX、及び画像処理端末4が算出した視線移動量Difを示している。このように、サッカードが生じている時点において、視線移動量Difの絶対値が瞬間的に大きくなっていることがわかる。この場合は、正負の一定の閾値を設けることで、サッカードの生じている部分は比較的容易に検出できる。しかし、サッカードのサイズ(サッカードの開始から終了までの眼球回転角度変位)が小さいときには、サッカードが生じた時点の視線移動量Difが、頭部の運動による移動量に比べて突出して大きく検出されないため、一定の閾値では検出しにくい。また、検出する位置データに対するノイズの混入により、一定の閾値では検出しにくい傾向にある。
On the other hand, FIG. 4A shows the positions X PL and X PR of the left and right pupil centers detected when high-speed saccade eye movements are mixed with the movement of the head, and the center of the right and left nostrils. position X NL, X NR, is a graph showing mean values X PA of the left and right pupil position, and the time variation of the average value X NA of the left and right nostrils position. FIG. 4B shows the relative position DX between the pupil position and the nostril position at this time, and the line-of-sight movement amount Dif calculated by the
そこで、画像処理端末4は、次のようにして適切な可変閾値を設定して、それに基づいて視線移動の有無を検出する。
Therefore, the
すなわち、画像処理端末4は、視線移動量Difの時間変化に対して移動平均処理を施して移動平均値DifAを算出する。その後、移動平均後の移動平均値DifAの信号波形S(t)を基準に所定の一定閾値幅Thを設定して、下記式(10)を用いて2つの閾値波形Th+(t)とTh−(t)を求める。
Th+(t)=S(t)+Th,Th−(t)=S(t)−Th …(10)
That is, the
Th + (t) = S ( t) + Th, Th - (t) = S (t) -Th ... (10)
最後に、画像処理端末4は、移動平均前の視線移動量Difの信号波形をV(t)としたときに、下記式(11);
V(t)>Th+(t) or V(t)<Th−(t) …(11)
を満たすか否かに基づいて、視線移動の有無を判定する。また、移動平均値DifAは、視線移動量Difを示す信号が生成されてから、移動平均処理による遅延が生じた信号として出力される場合がある。このような場合は、画像処理端末4は、視線移動量Difの信号を移動平均幅の半分の時間だけ遅延させて、信号波形をV(t)として生成しても式(11)を適用してもよい。
Finally, when the signal waveform of the line-of-sight movement amount Dif before the moving average is V (t), the
V (t)> Th + ( t) or V (t) <Th - (t) ... (11)
The presence / absence of eye movement is determined based on whether or not the above condition is satisfied. In addition, the moving average value Dif A may be output as a signal in which a delay due to the moving average process occurs after a signal indicating the line-of-sight movement amount Dif is generated. In such a case, the
また、画像処理端末4は、視線移動量Difの信号波形にノイズが混入している場合には、視線移動量Difに1回目の移動平均処理を施し移動平均値DifAの信号波形V(t)を算出し、さらに移動平均値DifAに2回目の移動平均処理を施し移動平均値DifAAの信号波形S(t)を算出し、この信号波形V(t),S(t)を用いて式(10)及び(11)を適用して、視線移動の有無を判定することもできる。この場合、視線移動量Difに画像処理や信号処理の過程で混入したノイズレベルが大きくても、視線移動の有無を精度よく検出することができる。
In addition, when noise is mixed in the signal waveform of the line-of-sight movement amount Dif, the
図5(a)は、移動平均前後の視線移動量Difの時間変化を示すグラフ、図5(b)は、視線移動量Difと閾値Th+,Th−の時間変化を示すグラフである。この例においては、サッカードの発生を、視線移動量Difのレベルから正常に検出することができている。 FIG. 5A is a graph showing the time change of the line-of-sight movement amount Dif before and after the moving average, and FIG. 5B is a graph showing the time change of the line-of-sight movement amount Dif and the threshold values Th + and Th − . In this example, the occurrence of saccade can be normally detected from the level of the line-of-sight movement amount Dif.
以上説明した視線移動検出装置、及び視線移動検出方法によれば、対象者Aの顔画像を動画像として複数フレーム取得して、その複数フレーム内の瞳孔中心位置と鼻孔中心位置とを検出し、前後のフレーム間の鼻孔中心に対する瞳孔中心の相対的位置の変化Difを算出し、その変化の大小をもって視線移動の有無を判定するので、1台のカメラを使った顔画像であっても広い範囲で視線移動の有無を判定できるとともに、鼻孔位置を基準とした瞳孔位置をモニタすることで運転者等の頭自体が動きがちな対象者に関しても安定した視線移動の検出を実現することができる。 According to the line-of-sight movement detection device and the line-of-sight movement detection method described above, a plurality of frames are acquired as a moving image of the face image of the subject A, and the pupil center position and nostril center position in the plurality of frames are detected, Since the change Dif of the relative position of the pupil center with respect to the nostril center between the previous and next frames is calculated and the presence or absence of gaze movement is determined based on the magnitude of the change, a wide range can be obtained even for a face image using one camera. Thus, it is possible to determine the presence or absence of line-of-sight movement, and by monitoring the pupil position based on the nostril position, it is possible to realize stable detection of line-of-sight movement even for a subject whose head itself is likely to move.
また、視線移動の検出の基準として鼻孔位置を検出することで、検出時に周囲に対して暗い条件が作りやすく、画像処理に多少の工夫をすることでテンプレートマッチング法を使用しなくてもよいので、より容易に視線移動を検出できる。 In addition, by detecting the nostril position as a reference for detecting eye movement, it is easy to create a dark condition with respect to the surroundings at the time of detection, and it is not necessary to use the template matching method with some contrivance in image processing Therefore, it is possible to detect the movement of the line of sight more easily.
また、目の周囲に電極を取り付け顔の向きに対する視線の動きを計測する方法として古くから知られているEOG(眼電位図)法を採用する場合に比して、顔に付属物を装着しなくても済むため、ユーザにとって抵抗感が少なく、特に自動車などの運転手のモニターには最適である。 Compared to the long-known EOG (electro-oculogram) method for attaching eye electrodes to the face and measuring the movement of the line of sight relative to the face direction, attach accessories to the face. Since it is not necessary, there is little resistance for the user, and it is particularly suitable for monitoring a driver of a car or the like.
また、前後のフレーム間の瞳孔位置の変化量DifP及び鼻孔位置の変化量DifNを求め、瞳孔位置の変化量と鼻孔位置の変化量との差分をとることによって相対的位置の変化量Difを算出するので、対象者の動画像を参照しながら効率的に瞳孔と鼻孔の相対的位置の変化を算出でき、視線移動検出のリアルタイム性が高くなる。 In addition, the change amount Dif P of the pupil position between the previous and next frames and the change amount Dif N of the nostril position are obtained, and the difference between the change amount of the pupil position and the change amount of the nostril position is obtained, thereby changing the relative position change amount Dif. Therefore, it is possible to efficiently calculate the change in the relative position of the pupil and nostril while referring to the moving image of the subject, and the real-time property of eye movement detection is improved.
また、複数のフレームにわたって相対的位置の変化量Difを連続して算出すると共に、該変化量の移動平均値DifAを導出し、相対的位置の変化量Difを移動平均値DifAを基準にして設定した閾値Th+,Th−と比較することによって、視線移動の有無を判定するので、眼球の回転角の変位の大小に応じた適切な閾値を設定することで、より精度の高い視線移動の検出が可能となる。 In addition, the relative position change amount Dif is continuously calculated over a plurality of frames, the moving average value Dif A of the change amount is derived, and the relative position change amount Dif is determined based on the moving average value Dif A. Since the presence or absence of eye movement is determined by comparing with the set threshold values Th + and Th − , the eye movement with higher accuracy can be achieved by setting an appropriate threshold according to the magnitude of the displacement of the rotation angle of the eyeball. Can be detected.
1…視線移動検出装置、2…カメラ、3a,3b…光源、4…画像処理端末。
DESCRIPTION OF
Claims (4)
前記対象者の顔画像を複数のフレーム分撮像して、前記複数のフレームのそれぞれを対象に前記対象者の瞳孔位置及び鼻孔位置を検出する検出ステップと、
前記複数のフレームを対象にして検出された前記瞳孔位置と前記鼻孔位置とに基づいて、前記複数のフレーム中の前後のフレーム間における前記対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する算出ステップと、
当該算出した変化量と所定の閾値とを用いて前記視線移動の有無を判定する判定ステップと、
を備えることを特徴とする視線移動検出方法。 A gaze movement detection method for capturing a face image of a subject and detecting the presence or absence of the gaze movement of the subject based on the face image,
Detecting a face image of the subject for a plurality of frames, and detecting a pupil position and a nostril position of the subject for each of the plurality of frames;
Based on the pupil position and the nostril position detected for the plurality of frames, the amount of change in the relative position of the pupil with respect to the subject's nostril between the previous and next frames in the plurality of frames is calculated. A calculating step to
A determination step of determining the presence or absence of the eye movement using the calculated change amount and a predetermined threshold;
A line-of-sight movement detection method comprising:
ことを特徴とする請求項1記載の視線移動検出方法。 In the calculating step, a change amount of the pupil position and a change amount of the nostril position between the preceding and following frames are obtained, and the relative difference is obtained by taking a difference between the change amount of the pupil position and the change amount of the nostril position. Calculate the amount of change in position,
The line-of-sight movement detection method according to claim 1.
前記判定ステップでは、前記相対的位置の変化量を前記移動平均値を基準にして設定した閾値と比較することによって、前記視線移動の有無を判定する、
ことを特徴とする請求項1又は2に記載の視線移動検出方法。 In the calculating step, the change amount of the relative position is continuously calculated over the plurality of frames, and a moving average value of the change amount is derived,
In the determination step, the presence or absence of the eye movement is determined by comparing the amount of change in the relative position with a threshold value set based on the moving average value.
The method of detecting gaze movement according to claim 1 or 2.
前記対象者の顔画像を複数のフレーム分撮像して、前記複数のフレームのそれぞれを対象に前記対象者の瞳孔位置及び鼻孔位置を検出する手段と、
前記複数のフレームを対象にして検出された前記瞳孔位置と前記鼻孔位置とに基づいて、前記複数のフレーム中の前後のフレーム間における前記対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する手段と、
当該算出した変化量と所定の閾値とを用いて前記視線移動の有無を判定する手段と、
を備えることを特徴とする視線移動検出装置。 A gaze movement detection device that captures a face image of a subject and detects presence or absence of gaze movement of the subject based on the face image,
Means for capturing the face image of the subject for a plurality of frames and detecting the pupil position and nostril position of the subject for each of the plurality of frames;
Based on the pupil position and the nostril position detected for the plurality of frames, the amount of change in the relative position of the pupil with respect to the subject's nostril between the previous and next frames in the plurality of frames is calculated. Means to
Means for determining the presence or absence of the eye movement using the calculated change amount and a predetermined threshold;
A line-of-sight movement detection device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006100344A JP4452833B2 (en) | 2006-03-31 | 2006-03-31 | Gaze movement detection method and gaze movement detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006100344A JP4452833B2 (en) | 2006-03-31 | 2006-03-31 | Gaze movement detection method and gaze movement detection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007268164A JP2007268164A (en) | 2007-10-18 |
JP4452833B2 true JP4452833B2 (en) | 2010-04-21 |
Family
ID=38671557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006100344A Active JP4452833B2 (en) | 2006-03-31 | 2006-03-31 | Gaze movement detection method and gaze movement detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4452833B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220027726A1 (en) * | 2018-12-03 | 2022-01-27 | Nippon Telegraph And Telephone Corporation | Pre-processing device, pre-processing method, and pre-processing program |
US20230128281A1 (en) * | 2021-10-25 | 2023-04-27 | Canon Kabushiki Kaisha | Identification device |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5004099B2 (en) * | 2008-07-11 | 2012-08-22 | 国立大学法人静岡大学 | Cursor movement control method and cursor movement control apparatus |
JP5483152B2 (en) * | 2009-03-05 | 2014-05-07 | 国立大学法人 宮崎大学 | Mouse cursor control system using electrooculogram |
JP5426943B2 (en) * | 2009-06-29 | 2014-02-26 | パナソニック株式会社 | Dimming control device for LED and lighting apparatus using the same |
JP5490664B2 (en) * | 2009-11-18 | 2014-05-14 | パナソニック株式会社 | Electrooculogram estimation device, electrooculogram calculation method, eye gaze detection device, wearable camera, head mounted display, and electronic glasses |
JP5466610B2 (en) * | 2010-09-27 | 2014-04-09 | パナソニック株式会社 | Gaze estimation device |
US8503737B2 (en) | 2010-09-27 | 2013-08-06 | Panasonic Corporation | Visual line estimating apparatus |
US9681835B2 (en) | 2010-11-15 | 2017-06-20 | Massachusetts Eye & Ear Infirmary | Detection of vestibular disorders based on vestibular noise |
WO2013151773A1 (en) | 2012-04-06 | 2013-10-10 | Massachusetts Eye & Ear Infirmary | Data collection for vestibulogram construction |
JP6303297B2 (en) | 2013-06-14 | 2018-04-04 | 富士通株式会社 | Terminal device, gaze detection program, and gaze detection method |
JP6006179B2 (en) * | 2013-06-20 | 2016-10-12 | 株式会社パスコ | Data analysis apparatus, data analysis method, and program |
JP2015207163A (en) * | 2014-04-21 | 2015-11-19 | 株式会社デンソー | State estimation device and state estimation program |
JP2016167038A (en) * | 2015-03-10 | 2016-09-15 | ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd | Spectacle wearing parameter measuring device, spectacle wearing parameter measuring program and imaging control method |
KR101763110B1 (en) * | 2017-01-25 | 2017-07-31 | 유한회사 이엔원 이엔지 | Control system for stage setting apparatus |
KR101794288B1 (en) | 2017-07-24 | 2017-11-16 | 사단법인 꿈드래장애인협회 | Control system for stage setting apparatus |
JP7311257B2 (en) * | 2018-09-27 | 2023-07-19 | 株式会社アイシン | Eyeball information detection device, eyeball information detection method, and occupant monitoring device |
CN113052064B (en) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | Attention detection method based on face orientation, facial expression and pupil tracking |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02224637A (en) * | 1988-11-16 | 1990-09-06 | A T R Tsushin Syst Kenkyusho:Kk | System for detecting glance |
JP3293308B2 (en) * | 1994-03-10 | 2002-06-17 | 三菱電機株式会社 | Person state detection device |
JPH11282617A (en) * | 1998-03-27 | 1999-10-15 | Shimadzu Corp | Sight line input device |
JP4337131B2 (en) * | 1999-06-10 | 2009-09-30 | マツダ株式会社 | Mobile control device |
JP3797253B2 (en) * | 2002-03-14 | 2006-07-12 | 日産自動車株式会社 | Gaze direction detection device |
JP2004017889A (en) * | 2002-06-19 | 2004-01-22 | Advics:Kk | Automatic brake |
JP4765008B2 (en) * | 2004-03-16 | 2011-09-07 | 国立大学法人静岡大学 | A method to detect head direction using pupil and nostril |
JP2006075348A (en) * | 2004-09-09 | 2006-03-23 | Fuji Xerox Co Ltd | Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program |
JP2006204855A (en) * | 2005-01-28 | 2006-08-10 | Tokyo Institute Of Technology | Gaze movement detector |
-
2006
- 2006-03-31 JP JP2006100344A patent/JP4452833B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220027726A1 (en) * | 2018-12-03 | 2022-01-27 | Nippon Telegraph And Telephone Corporation | Pre-processing device, pre-processing method, and pre-processing program |
US20230128281A1 (en) * | 2021-10-25 | 2023-04-27 | Canon Kabushiki Kaisha | Identification device |
Also Published As
Publication number | Publication date |
---|---|
JP2007268164A (en) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4452833B2 (en) | Gaze movement detection method and gaze movement detection apparatus | |
JP6577454B2 (en) | On-axis gaze tracking system and method | |
US7819525B2 (en) | Automatic direct gaze detection based on pupil symmetry | |
JP5230748B2 (en) | Gaze direction determination device and gaze direction determination method | |
JP5694161B2 (en) | Pupil detection device and pupil detection method | |
JP6346525B2 (en) | Gaze detection device | |
JP6535223B2 (en) | Blink measurement method, blink measurement apparatus, and blink measurement program | |
WO2018000020A1 (en) | Systems and methods for performing eye gaze tracking | |
JP6583734B2 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program | |
CN107960989B (en) | Pulse wave measurement device and pulse wave measurement method | |
EP3011894B1 (en) | Eye gaze detection apparatus and eye gaze detection method | |
JP5429885B2 (en) | Feature point tracking method and feature point tracking device | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP2020162873A (en) | Pulse wave detection device and pulse wave detection program | |
JP6957048B2 (en) | Eye image processing device | |
JP2016028669A (en) | Pupil detection device and pupil detection method | |
JP4552636B2 (en) | Driver monitor system and processing method thereof | |
JP4770218B2 (en) | Visual behavior determination device | |
JP5004099B2 (en) | Cursor movement control method and cursor movement control apparatus | |
JP2017102731A (en) | Gaze detection device and gaze detection method | |
JP2020140637A (en) | Pupil detector | |
KR101360412B1 (en) | A system for monitoring loose/droway driver using head moving information | |
Ohtani et al. | Eye-gaze detection based on the pupil detection technique using two light sources and the image difference method | |
JP2017103627A (en) | Vehicle rear view device | |
JP7621639B2 (en) | Pupil detection device and pupil detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100105 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |