[go: up one dir, main page]

JPH04225478A - line of sight detection device - Google Patents

line of sight detection device

Info

Publication number
JPH04225478A
JPH04225478A JP40759690A JP40759690A JPH04225478A JP H04225478 A JPH04225478 A JP H04225478A JP 40759690 A JP40759690 A JP 40759690A JP 40759690 A JP40759690 A JP 40759690A JP H04225478 A JPH04225478 A JP H04225478A
Authority
JP
Japan
Prior art keywords
edge
iris
image
center
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP40759690A
Other languages
Japanese (ja)
Inventor
Yoshiharu Arai
荒井 美晴
Koyo Nakagawa
幸洋 中川
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP40759690A priority Critical patent/JPH04225478A/en
Publication of JPH04225478A publication Critical patent/JPH04225478A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To obtain the center position even if the whole image of an iris cannot be obtained due to a shadow and insert-photographing, etc., by constituting the device so that an edge detecting part executes an edge extraction of an eye area, and an iris position detecting part approximates an extracted edge to a circle and sets the center of the circle to the iris center. CONSTITUTION:This device is provided with an image input part 1 for inputting an image of the face, an edge detecting part 2 for binarizing this inputted image and detecting an edge, and an iris position detecting part for detecting the iris center from this detected edge. In such a state, an image of the face is inputted from the image input part 1 and the edge is detected by the edge detecting part 2, and the edge detected by the iris position detecting part 3 is approximated by a circle and the center of the circle is set as the iris center.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、画像処理により視線の
検出を行う視線検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight detection device that detects line-of-sight by image processing.

【0002】0002

【従来の技術】近年、コンピューターシステムは急速に
進歩し、多彩な機能を備えたシステムが広範囲な分野に
普及してきている。これに伴って、複雑化したシステム
を専門家でない人も容易に扱えるようなヒューマンイン
タフェースの実現が望まれてきている。その一つの手段
として、視線をポインティングインタフェースとして利
用する方法が提案されている。『目は口ほどにものをい
う』という諺があるとうり、視線は人と人とのコミュニ
ケーションに重要な位置を占めている。従って、機械が
人間の視線を検知できれば、機械と人間とのより円滑な
コミュニケーションを可能にすると考えられている。こ
の応用例として画像上の物体の動きを人が目で追うとき
の視線の動きを検出し、その動きに合わせてカメラを移
動するリモートコントロールや、画像通信において、受
信側の人の視線を検出し見ている部分について高精細に
、他の部分は情報を圧縮して伝送することによりテレビ
会議等の画像伝送において画像劣化に対する違和感を軽
減する。またマウスの代用としての利用もできる。
2. Description of the Related Art In recent years, computer systems have progressed rapidly, and systems with a variety of functions have become widespread in a wide range of fields. Along with this, there has been a desire to realize a human interface that allows even non-experts to easily handle complex systems. As one means of achieving this, a method has been proposed in which the line of sight is used as a pointing interface. As the saying goes, ``the eyes speak as much as the mouth,'' the gaze plays an important role in communication between people. Therefore, it is believed that if a machine can detect the line of sight of a human, it will enable smoother communication between machines and humans. Application examples of this include remote control, which detects the movement of a person's line of sight when they follow the movement of an object on an image, and moves the camera in accordance with that movement; and detection of the line of sight of a person on the receiving side in image communication. By transmitting information in high definition for the part being viewed, and compressing information for other parts, discomfort caused by image deterioration can be alleviated when transmitting images during video conferences and the like. It can also be used as a substitute for a mouse.

【0003】しかし、従来から行われている視線検出の
手法は、観察者自身に眼鏡やセンサ等を装着するものが
一般的である。画像処理による手法でも顔の特徴点につ
けたマークを抽出することにより視線を検出している。 インタフェースの用途で視線を用いる場合には、観察者
(操作者)側に検出するための手段を付加することは観
察者にとってわずらわしく、避けるべきである。このた
めには、画像処理で顔の特徴点を抽出することによって
視線を検出することが有効であり、そのための手法が幾
つか提案されている。代表的な手法として、角膜反射像
を用いる手法と顔の向きと虹彩(日本人の場合は黒目)
の位置によって検出する手法がある。しかし、前者の手
法では、角膜反射像を得るために参照光を必要とするこ
とや、特徴点間の距離が非常に小さいため高精度化が困
難であるなどの問題がある。また、後者の手法は、特徴
点の皮膚の動きや影等によって黒目領域が変化するため
、画像処理のみで安定した特徴点を抽出するのは難しい
などの問題点がある。従って、どちらの手法においても
、特徴点を精度良く抽出する画像処理技術が必要となる
。しかも、視線の動きを追随できるように、これらの処
理は高速に行われなければならない。
[0003] However, the conventional line of sight detection method generally involves the observer wearing glasses, a sensor, or the like. Image processing methods also detect line of sight by extracting marks placed on facial feature points. When using the line of sight for interface applications, adding detection means to the observer (operator) side is troublesome for the observer and should be avoided. For this purpose, it is effective to detect the line of sight by extracting facial feature points through image processing, and several methods have been proposed for this purpose. Typical methods include a method that uses corneal reflection images, the direction of the face, and the iris (for Japanese people, the iris)
There is a method of detection based on the position of However, the former method has problems, such as requiring a reference light to obtain a corneal reflection image and making it difficult to achieve high precision because the distance between feature points is very small. In addition, the latter method has the problem that it is difficult to extract stable feature points only by image processing because the eye area changes depending on the movement of the skin, shadows, etc. of the feature points. Therefore, both methods require image processing technology to accurately extract feature points. Moreover, these processes must be performed at high speed so that the movement of the line of sight can be followed.

【0004】このような従来の視線検出手法を実現する
装置の一例を図6に示す。この手法では、まずテレビカ
メラによって顔を撮影し、顔画像上の特徴点(両目尻・
唇中心及び黒目)を画像処理によって抽出する。両目尻
と唇中心の3個の特徴点を三角形平面の頂点の投影図と
して、その面(顔)の向きと三次元位置を図7に示すよ
うにして求める。なお図7においてイメージプレーンは
カメラでとらえた画像、fはカメラの焦点である。これ
に適当な変換パラメータを掛けることにより眼球中心位
置を推定する(変換パラメータは、校正法によって予め
求めておく)。そして、黒目中心位置を求め、眼球中心
と黒目中心を結ぶベクトルすなわち視線方向を検出する
。最後に視線ベクトルとディスプレイ画面とが交わる注
視点をディスプレイ座標に座標変換する。以上の処理の
うち、各特徴点の抽出はエッジ抽出やパターンマッチン
グなどによって行われる。
FIG. 6 shows an example of a device that implements such a conventional line of sight detection method. In this method, the face is first photographed using a TV camera, and feature points (the corners of the eyes, the corners of the eyes,
The center of the lips and the iris of the eye) are extracted by image processing. The three feature points at the corners of both eyes and the center of the lips are projected onto the vertices of a triangular plane, and the direction and three-dimensional position of the plane (face) is determined as shown in FIG. Note that in FIG. 7, the image plane is an image captured by a camera, and f is the focal point of the camera. The eyeball center position is estimated by multiplying this by an appropriate conversion parameter (the conversion parameter is determined in advance by a calibration method). Then, the center position of the iris is determined, and a vector connecting the center of the eyeball and the center of the iris, that is, the direction of the line of sight is detected. Finally, the gaze point where the line-of-sight vector intersects with the display screen is converted into display coordinates. Among the above processes, extraction of each feature point is performed by edge extraction, pattern matching, etc.

【0005】従来の黒目の抽出手法は図8に示すように
、何らかの手法で切り出した目の領域についてエッジ検
出し、その内の閉ループを黒目輪郭として抽出し、その
重心を求めるというものであった。しかし、瞼や睫毛の
影、黒目に写り込んだ照明等によって、エッジが単純な
閉ループを形成することは少ない。また、黒目は瞼によ
って部分的に遮断されることが多く画像上の黒目部分の
重心位置は、必ずしも黒目の中心位置とは一致しない。 このため、この手法によって視線を検出するためには、
最適な照明条件のもとに目を十分に開けた状態で撮影し
なければならない。従って、インタフェースへの視線検
出の応用を考えた場合、照明条件によらない黒目抽出技
術が必要となる。
[0005] As shown in FIG. 8, the conventional method for extracting the iris involves detecting the edge of the eye area cut out using some method, extracting a closed loop within the edge as the iris outline, and finding its center of gravity. . However, the edges rarely form a simple closed loop due to shadows from the eyelids and eyelashes, lighting reflected in the iris, etc. Further, the iris of the eye is often partially blocked by the eyelid, and the center of gravity of the iris on the image does not necessarily coincide with the center position of the iris. Therefore, in order to detect line of sight using this method,
Photographs must be taken with eyes wide open and under optimal lighting conditions. Therefore, when considering the application of line of sight detection to interfaces, an eye extraction technique that does not depend on lighting conditions is required.

【0006】[0006]

【発明が解決しようとする課題】インタフェースの用途
では、入力される画像の照明条件や背景は必ずしも視線
検出に最適のものではなく、このような条件下では目に
対する影や写った像などによって十分なエッジが検出で
きない場合が多い。このため十分なエッジが抽出できな
い場合には、黒目を抽出することができないという問題
があった。さらに、瞼で黒目が一部隠されているような
場合において、黒目の見えている部分の重心位置を黒目
中心とするため、真の黒目中心位置が得られないという
問題があった。
[Problem to be solved by the invention] In interface applications, the illumination conditions and background of input images are not necessarily optimal for line-of-sight detection, and under such conditions, the shadows and images that appear on the eyes are sufficient. In many cases, edges cannot be detected. For this reason, there is a problem in that if sufficient edges cannot be extracted, the iris cannot be extracted. Furthermore, in cases where the iris is partially hidden by the eyelid, the center of gravity of the visible part of the iris is set as the iris center, so there is a problem in that the true iris center position cannot be obtained.

【0007】本発明は、上述の問題点に鑑みてなされた
もので、視線検出のための黒目の抽出処理に、影や写り
込みなどの影響をうけにくいエッジ抽出手法、および黒
目の一部分のエッジからでも黒目の中心位置を求めるこ
との出来る手法を導入することにより、精度よく視線検
出を行うことを目的とする。
The present invention has been made in view of the above-mentioned problems, and includes an edge extraction method that is less susceptible to effects such as shadows and reflections, and an edge extraction method that is less susceptible to effects such as shadows and reflections, and an edge extraction method for extracting the iris of the eye for line of sight detection. The aim is to detect the line of sight with high accuracy by introducing a method that can determine the center position of the iris even from a distance.

【0008】[0008]

【課題を解決するための手段】図1は本発明の原理図、
(a)は本発明の構成図を示し、(b)は原画像からエ
ッジを求める方法の説明図で、(c)はエッジより虹彩
の中心を求める方法を説明する図である。まず、画像入
力部1より(b)の(イ)に示す原画像を入力し、次に
エッジ検出部2によりエッジを検出する。エッジは(イ
)の原画像をしきい値で2値化して求めるが、このしき
い値は(ロ)に示す目の境界と(ハ)に示すエッジがで
きるだけ一致するようなしきい値として(ニ)に示すエ
ッジでかつ境界である範囲が大きくなるよう、つまり境
界がエッジとなるようなしきい値を用いる。このように
して得られたエッジより虹彩の中心を求めるには各エッ
ジ線分の曲率半径により円弧を生成しこの円弧が最も多
く交差する点を虹彩中心とする。(c)に示すように虹
彩部分で生成された円弧はほぼ1点で交差するが他の部
分で生成された円弧は1点で交わらない。なおエッジ方
向とはエッジ線分の曲率半径方向を表す。
[Means for solving the problem] FIG. 1 is a diagram of the principle of the present invention,
(a) shows a configuration diagram of the present invention, (b) is an explanatory diagram of a method for determining an edge from an original image, and (c) is a diagram for explaining a method for determining the center of an iris from an edge. First, the original image shown in (a) of (b) is input from the image input section 1, and then edges are detected by the edge detection section 2. The edges are obtained by binarizing the original image in (a) using a threshold value, and this threshold value is set as a threshold value that matches the eye boundary shown in (b) and the edge shown in (c) as much as possible. A threshold value is used so that the range that is an edge and a boundary shown in d) becomes large, that is, the boundary becomes an edge. To find the center of the iris from the edges thus obtained, a circular arc is generated from the radius of curvature of each edge line segment, and the point where this circular arc intersects the most is determined as the center of the iris. As shown in (c), the arcs generated in the iris part intersect at almost one point, but the arcs generated in other parts do not intersect at one point. Note that the edge direction refers to the direction of the radius of curvature of the edge line segment.

【0009】エッジ検出部3がエッジ抽出を行う場合、
最小値フィルタを利用したしきい値選択方法を用いてし
きい値を決定し、このしきい値により2値化してエッジ
を求める。最小値フィルタとはマスク内の画素(例えば
3×3画素)の最小値をそのマスク内の中心画素の値と
するフィルタである。濃淡画像の場合は極大値の部分を
縮小して極小値の部分を拡大することから図形縮小効果
をもつ。
When the edge detection section 3 performs edge extraction,
A threshold value is determined using a threshold selection method using a minimum value filter, and edges are obtained by binarizing using this threshold value. The minimum value filter is a filter that uses the minimum value of pixels (for example, 3×3 pixels) within a mask as the value of the center pixel within the mask. In the case of a grayscale image, it has a graphic reduction effect because the maximum value part is reduced and the minimum value part is enlarged.

【0010】また、最小値フィルタを利用してしきい値
を選択するに際し、評価関数を(エッジでかつ境界であ
る画素数)/(エッジまたは境界である画素数)に(エ
ッジでかつ境界である画素数)/(境界である画素数)
を乗じた値とし、この評価関数が最大となるようにしき
い値を決める。
[0010] Furthermore, when selecting a threshold value using a minimum value filter, the evaluation function is (number of pixels that are an edge and a boundary)/(number of pixels that are an edge or a boundary). (number of pixels) / (number of pixels that are the boundary)
The threshold value is determined so that this evaluation function is maximized.

【0011】[0011]

【作用】上記構成により、虹彩の一部に瞼などによって
影が生じたり写り込みがあってエッジが虹彩の形状(円
形)の一部分(部分円弧)しか表してない場合でも、虹
彩の中心位置をほぼ確実に求めることができる。また、
最小値フィルタを用いて2値化するしきい値を決定する
ことにより孤立した極大点などが除去され虹彩の形状を
表すに適したエッジが得られる。また最小値フィルタを
用いてしきい値を決定する際上述した評価関数が最大に
なるようにしてしきい値を選択することによりSN比の
高いエッジを抽出することが出来る。
[Operation] With the above configuration, even if a part of the iris is shaded or reflected by an eyelid and the edge only represents a part (partial arc) of the iris shape (circle), the center position of the iris can be determined. You can almost certainly ask for it. Also,
By determining the threshold value for binarization using a minimum value filter, isolated local maximum points and the like are removed and edges suitable for representing the shape of the iris are obtained. Furthermore, when determining a threshold value using a minimum value filter, edges with a high SN ratio can be extracted by selecting the threshold value such that the above-mentioned evaluation function is maximized.

【0012】0012

【実施例】以下、本発明の実施例を図面を参照して説明
する。図2は本発明の実施例の構成図である。本図で示
す部分は黒目位置(虹彩位置)の検出を行う画像処理装
置で、視線検出装置の一部である。視線検出装置の全体
像は図6と同様である。図1において、10はTVカメ
ラなどの画像撮影部であり、11は画像撮影部で撮影し
た画像を処理する画像入力部、12はこの画像入力部1
1より出力された原画像をしきい値により2値化してエ
ッジ検出を行うエッジ検出部、13はこのエッジ検出部
12で検出したエッジより黒目中心位置を検出する黒目
位置検出部である。
Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 2 is a configuration diagram of an embodiment of the present invention. The part shown in this figure is an image processing device that detects the iris position (iris position), and is part of the line of sight detection device. The overall view of the line of sight detection device is the same as that shown in FIG. In FIG. 1, 10 is an image capturing section such as a TV camera, 11 is an image input section that processes images captured by the image capturing section, and 12 is this image input section 1.
An edge detecting section 13 performs edge detection by binarizing the original image outputted from the edge detecting section 12 using a threshold value, and a pupil position detecting section 13 detects the center position of the iris from the edge detected by the edge detecting section 12.

【0013】図3は画像入力部11の構成を示す。画像
入力部11では顔画像から片目を含む小領域の画像を切
り出して原画像を形成する。原画像をテンプレートマッ
チング部111 でマッチングさせて顔画像より目領域
切り出し部112 で目領域を切り出す。視線検出では
連続画像を扱うため、前フレームの目領域のテンプレー
トをテンプレート部113 で取り出し次フレームのテ
ンプレートとする。
FIG. 3 shows the configuration of the image input section 11. The image input unit 11 cuts out an image of a small area including one eye from the face image to form an original image. The original image is matched by a template matching section 111, and an eye region is cut out from the face image by an eye region cutting section 112. Since line-of-sight detection deals with continuous images, a template for the eye area of the previous frame is extracted by the template unit 113 and used as a template for the next frame.

【0014】図4はエッジ検出部12の構成を示す。画
像入力部11から入力された目領域の原画像より微分画
作成する微分画像作成部121 と、原画像を最小フィ
ルタで縮小して縮小画像を生成する最小値フィルタ12
2と、原画像と微分画像と縮小画像からそれぞれエッジ
ヒストグラム,境界かつエッジヒストグラム,境界長ヒ
ストグラムを作成するエッジヒストグラム算出部123
 と,境界エッジヒストグラム算出部124 と,境界
長ヒストグラム算出部125 と,これら3つのヒスト
グラムを用いて全てのしきい値の組み合わせについて評
価関数を計算するしきい値決定部126 と、エッジか
つ境界となる点を3つの画像(原画像,微分画像,縮小
画像)を走査しながらしきい値を判定して抽出するエッ
ジ判定部127 から構成される。
FIG. 4 shows the configuration of the edge detection section 12. a differential image creation unit 121 that creates a differential image from the original image of the eye area input from the image input unit 11; and a minimum value filter 12 that reduces the original image using a minimum filter to generate a reduced image.
2, and an edge histogram calculation unit 123 that creates an edge histogram, a boundary and edge histogram, and a boundary length histogram from the original image, differential image, and reduced image, respectively.
, a boundary edge histogram calculation unit 124 , a boundary length histogram calculation unit 125 , a threshold determination unit 126 that calculates an evaluation function for all combinations of thresholds using these three histograms, The edge determining section 127 scans three images (original image, differential image, and reduced image) and determines a threshold value to extract a point.

【0015】図5は黒目位置検出部13の構成を示す。 画像入力部11とエッジ検出部12よりのデータからエ
ッジ線分の曲率半径方向であるエッジ方向を求めるエッ
ジ方向算出部131 と、このエッジ方向にこのエッジ
線分の曲率半径でエッジ円弧を生成する円弧生成部13
2 と、円弧生成部132 で  生成された円弧が最
も多く交差する点を黒目の中心としてこの中心位置を求
める黒目位置決定部133 とから構成される。
FIG. 5 shows the configuration of the iris position detection section 13. An edge direction calculation unit 131 calculates an edge direction, which is the direction of the radius of curvature of an edge line segment, from data from the image input unit 11 and the edge detection unit 12, and generates an edge arc in this edge direction with the radius of curvature of this edge line segment. Arc generator 13
2, and an iris position determination unit 133 that determines the center position of the iris by setting the point where the arcs generated by the arc generation unit 132 intersect most often as the center of the iris.

【0016】次に動作について説明する。画像入力部1
1では、顔画像から片目を含む小領域の画像を切り出し
て出力する。本実施例では、目領域の切り出しをテンプ
レート・マッチングによって行う。視線検出では連続画
像を扱うため、前フレームの目領域をテンプレートとす
ることで、簡単に目領域の切り出しを行うことが可能で
ある。次にエッジ検出部12では画像入力部11から入
力された目領域の原画像とその微分画像および最小値フ
ィルタで縮小した縮小画像の3つから、エッジヒストグ
ラム、境界かつエッジヒストグラム、境界長ヒストグラ
ムを作成する。そして、しきい値決定部126 では3
つのヒストグラムを利用して、全てのしきい値の組み合
わせについて評価関数を計算し、しきい値を決定する。 エッジかつ境界となる点は、エッジ判定部127 にお
いて3つの画像(原画像、微分画像、縮小画像)を走査
しながら、しきい値を判定することにより抽出する。
Next, the operation will be explained. Image input section 1
1, an image of a small region including one eye is cut out from a face image and output. In this embodiment, the eye area is cut out by template matching. Since line-of-sight detection deals with continuous images, it is possible to easily cut out the eye area by using the eye area of the previous frame as a template. Next, the edge detection unit 12 calculates an edge histogram, a boundary and edge histogram, and a boundary length histogram from the original image of the eye area input from the image input unit 11, its differential image, and the reduced image reduced by the minimum value filter. create. Then, in the threshold determining unit 126, 3
Using two histograms, evaluation functions are calculated for all combinations of thresholds, and thresholds are determined. Points that are edges and boundaries are extracted by determining a threshold value while scanning three images (original image, differential image, and reduced image) in the edge determination unit 127 .

【0017】次に黒目位置検出部13ではエッジ方向算
出部131 において、エッジ検出部12で検出された
エッジ点のエッジ方向を原画像から求める。円弧生成部
132 でエッジ方向に円弧を生成する。円弧の半径は
、前フレームで得られた黒目半径rの±α画素の範囲と
する(連続するフレーム間で黒目の大きさは余り変化し
ない)。この範囲のrについてそれぞれ円弧を生成し、
各rごとに円弧の軌跡を蓄積する(3次元配列(r,x
,y)に蓄積)。すべてのエッジ点について円弧の生成
が終了したら、黒目位置決定部133 において円弧の
最も多く交差している点、即ち黒目の中心位置を求める
。そして、その中心位置を与える半径rは、次フレーム
において円弧を生成する半径の範囲を決める。
Next, in the iris position detecting section 13, an edge direction calculating section 131 calculates the edge direction of the edge point detected by the edge detecting section 12 from the original image. An arc generator 132 generates an arc in the edge direction. The radius of the arc is within the range of ±α pixels of the radius r of the iris obtained in the previous frame (the size of the iris does not change much between successive frames). Generate an arc for each r in this range,
Accumulate the trajectory of the arc for each r (3-dimensional array (r, x
, y)). When arcs have been generated for all edge points, the iris position determination unit 133 determines the point where the arcs intersect the most, that is, the center position of the iris. Then, the radius r that gives the center position determines the radius range for generating the circular arc in the next frame.

【0018】次にしきい値の選定方法について説明する
。2値比処理は画像から対象物が占める領域を抽出する
ための基本的手法の一つであるが、さまざまな条件の下
で対象物を正確に抽出するためには対象物と背景の濃度
や対象物の形状など個々の画像がもつ性質に応じて2値
化のしきい値を適切に設定するためさまざまな手法が提
案されている。その多くは画像の性質を濃度ヒストグラ
ムによって表現し、ヒストグラムの形状に基づいてしき
い値を選択している。この方法は比較的少ない演算量で
しきい値を決定できるという利点をもつが、濃度ヒスト
グラムには境界やエッジなどの対象物の形状に関する情
報が含まれていないために対象物の面積と背景の面積に
大きな差がある場合や対象物の影が顕著な場合に対象物
を正確に抽出できないことが多い。
Next, a method for selecting a threshold value will be explained. Binary ratio processing is one of the basic methods for extracting the area occupied by a target object from an image, but in order to accurately extract the target object under various conditions, it is necessary to Various methods have been proposed to appropriately set the binarization threshold depending on the characteristics of each image, such as the shape of the object. Most of them express the characteristics of an image using a density histogram, and select a threshold value based on the shape of the histogram. This method has the advantage of being able to determine the threshold with a relatively small amount of calculation, but because the density histogram does not include information about the shape of the object such as boundaries and edges, the area of the object and the background It is often not possible to accurately extract the object when there is a large difference in area or when the shadow of the object is noticeable.

【0019】これに対処するために2値化画像の形状に
関する性質を表現する評価関数を定義し、それを最適化
するようにしきい値を選択する試みが行われるようにな
った。例えば、2値化して得られる画像ができるだけ単
純な形状になるようにしきい値を選択する方法やあらか
じめ原画像からエッジを検出しておき、2値化して得ら
れる画像の境界点と原画像のエッジが最も良く一致する
ようにしきい値を選択する方法が提案されている。後者
の方法ではエッジかつ境界である画素数とエッジまたは
境界である画素数の比によってエッジと境界の一致度を
評価する。この場合評価関数は次式で表される。
In order to deal with this problem, attempts have been made to define an evaluation function that expresses properties related to the shape of a binarized image, and to select a threshold value to optimize the evaluation function. For example, a threshold value may be selected so that the image obtained by binarization has the simplest shape possible, or edges may be detected from the original image in advance, and the boundary points of the image obtained by binarization and the original image may be detected in advance. A method has been proposed to select the threshold to best match the edges. In the latter method, the degree of matching between edges and boundaries is evaluated based on the ratio of the number of pixels that are edges and boundaries to the number of pixels that are edges or boundaries. In this case, the evaluation function is expressed by the following equation.

【0020】[0020]

【数1】[Math 1]

【0021】そしてこの評価関数が最大になるようにし
きい値を選択する。本発明は、この評価関数を2次元(
s,t)で表し、さらにこれを改良してエッジと境界が
一致するようにしSN比の高いエッジを抽出するように
したものでその評価関数は次式で表される。
[0021] Then, a threshold value is selected so that this evaluation function is maximized. The present invention converts this evaluation function into two dimensions (
s, t), and this is further improved so that edges and boundaries match and edges with a high SN ratio are extracted, and its evaluation function is expressed by the following equation.

【0022】[0022]

【数2】[Math 2]

【0023】(2)式の第1項はエッジと境界の一致す
る割合を表すもので、通常はこの項だけを評価関数とす
る。この場合、境界とエッジの尾根が一致するような形
でしきい値が決定される。しかし、視線検出で処理する
画像のエッジ強度は、尾根線上でも部分によって異なる
。また、エッジは鈍っていることが多く、しきい値の低
下に伴いエッジである点が急増し、エッジと境界の一致
度は低下する。このため(1)式の評価関数では最もエ
ッジ強度の高い尾根線だけを抽出するようにしきい値が
決定され、十分なエッジ点が得られない。そこで(2)
式の第2項のように、境界がエッジかつ境界となる割合
が高くなるような評価関数を掛け合わせることにより、
境界とエッジの一致度が高く、かつエッジかつ境界の点
が多くなるように評価関数を設定する。決定されたしき
い値sおよびtで原画像と微分画像をそれぞれ2値化し
たときに、エッジかつ境界となる点をエッジ点として抽
出する(図1(b)ニ)。ここで、すべてのエッジ点で
はなくエッジかつ境界である点のみをエッジとすること
でS/Nの向上を図っている。
The first term in equation (2) represents the proportion of coincidence between edges and boundaries, and usually only this term is used as the evaluation function. In this case, the threshold value is determined in such a way that the boundary and edge ridges match. However, the edge strength of the image processed by line-of-sight detection differs depending on the part even on the ridge line. Furthermore, edges are often blunt, and as the threshold value decreases, the number of edge points increases rapidly, and the degree of coincidence between edges and boundaries decreases. For this reason, in the evaluation function of equation (1), the threshold is determined so as to extract only the ridge line with the highest edge strength, and sufficient edge points cannot be obtained. Therefore (2)
As shown in the second term of the equation, by multiplying by an evaluation function that increases the proportion of boundaries that are both edges and boundaries,
The evaluation function is set so that the degree of coincidence between the boundary and the edge is high and the number of points that are both edges and boundaries is large. When the original image and the differential image are each binarized using the determined thresholds s and t, points that are edges and boundaries are extracted as edge points (FIG. 1(b) d). Here, the S/N ratio is improved by treating only edges and boundary points as edges instead of all edge points.

【0024】[0024]

【発明の効果】以上の説明から明らかなように、本発明
は、原画像から目領域のエッジを抽出し虹彩部分を円と
してエッジ線分の曲率半径により生成した円弧の交差が
最も多い点を虹彩の中心とするので虹彩が瞼などにより
一部覆われているような場合でもその中心を正しく検出
することができる。
As is clear from the above description, the present invention extracts the edges of the eye region from the original image, sets the iris part as a circle, and finds the point where the arcs generated by the radius of curvature of the edge line segment have the most intersections. Since the center of the iris is used, even if the iris is partially covered by the eyelids, the center can be detected correctly.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理図である。FIG. 1 is a diagram showing the principle of the present invention.

【図2】本発明の実施例の構成図である。FIG. 2 is a configuration diagram of an embodiment of the present invention.

【図3】画像入力部の構成図である。FIG. 3 is a configuration diagram of an image input section.

【図4】エッジ検出部の構成図である。FIG. 4 is a configuration diagram of an edge detection section.

【図5】黒目位置検出部の構成図である。FIG. 5 is a configuration diagram of an eye iris position detection section.

【図6】視線検出装置の構成図である。FIG. 6 is a configuration diagram of a line of sight detection device.

【図7】顔の向きと位置を説明する図である。FIG. 7 is a diagram illustrating the direction and position of a face.

【図8】従来の黒目中心抽出方法を説明する図である。FIG. 8 is a diagram illustrating a conventional iris center extraction method.

【符号の説明】 10  画像撮影部 11  画像入力部 111 テンプレートマッチング部 112 目域領切り出し部 113 テンプレート部 12  エッジ検出部 121 微分画像生成部 122 最小値フィルタ 123 エッジヒストグラム算出部 124 境界・エッジヒストグラム算出部125 境界
長ヒストグラム算出部 126 しきい値決定部 127 エッジ判定部 13  黒目位置検出部 131 エッジ方向算出部 132 円弧生成部 133 黒目位置決定部
[Explanation of symbols] 10 Image capturing unit 11 Image input unit 111 Template matching unit 112 Eye area extraction unit 113 Template unit 12 Edge detection unit 121 Differential image generation unit 122 Minimum value filter 123 Edge histogram calculation unit 124 Boundary/edge histogram calculation Section 125 Boundary length histogram calculation section 126 Threshold determination section 127 Edge determination section 13 Eye position detection section 131 Edge direction calculation section 132 Arc generation section 133 Eye position determination section

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】  顔面の画像を入力する画像入力部(1
)と、この入力した画像を2値化してエッジを検出する
エッジ検出部(2)と、この検出したエッジより虹彩中
心を検出する虹彩位置検出部(3)とを備え、前記エッ
ジ検出部(2)が目領域のエッジ抽出を行い、前記虹彩
位置検出部(3)がこの抽出したエッジを円で近似して
この円の中心を虹彩中心とすることを特徴とする視線検
出装置。
[Claim 1] An image input unit (1) for inputting a facial image.
), an edge detection unit (2) that binarizes this input image and detects edges, and an iris position detection unit (3) that detects the center of the iris from the detected edge, and the edge detection unit ( 2) A line-of-sight detection device characterized in that the edge extraction of the eye region is performed, and the iris position detection unit (3) approximates the extracted edge with a circle and sets the center of this circle as the iris center.
【請求項2】  前記虹彩位置検出部(3)が抽出した
エッジより円を近似するに際し、抽出したエッジ線分の
曲率半径で円弧を形成し、この円弧が最も多く交差した
点を虹彩中心とすることを特徴とする請求項1記載の視
線検出装置。
2. When approximating a circle from the edge extracted by the iris position detection unit (3), an arc is formed with the radius of curvature of the extracted edge line segment, and the point where this arc intersects the most is determined as the center of the iris. The line of sight detection device according to claim 1, characterized in that:
【請求項3】  前記エッジ検出部(2)がエッジ抽出
を行うに際し、最小値フィルタを利用したしきい値選択
方法を用いてしきい値を選択し、このしきい値により2
値化処理を行いエッジ検出を行うことを特徴とする請求
項1または2記載の視線検出装置。
3. When the edge detection unit (2) performs edge extraction, it selects a threshold using a threshold selection method using a minimum value filter, and uses this threshold to
3. The visual line detection device according to claim 1, wherein the visual line detection device performs edge detection by performing value processing.
【請求項4】  前記最小値フィルタを利用してしきい
値を選択するに際し、評価関数を(エッジでかつ境界で
ある画素数)/(エッジまたは境界である画素数)に(
エッジでかつ境界である画素数)/(境界である画素数
)を乗じた値とし、この評価関数が最大となるようにし
きい値を定めるようにしたことを特徴とする請求項3記
載の視線検出装置。
4. When selecting a threshold using the minimum value filter, the evaluation function is calculated as (number of pixels that are an edge and a boundary)/(number of pixels that are an edge or a boundary) (
4. The line of sight according to claim 3, wherein the threshold value is set such that the evaluation function is maximized by multiplying the number of pixels that are an edge and a boundary by the number of pixels that are an edge and a boundary. Detection device.
JP40759690A 1990-12-27 1990-12-27 line of sight detection device Withdrawn JPH04225478A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP40759690A JPH04225478A (en) 1990-12-27 1990-12-27 line of sight detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP40759690A JPH04225478A (en) 1990-12-27 1990-12-27 line of sight detection device

Publications (1)

Publication Number Publication Date
JPH04225478A true JPH04225478A (en) 1992-08-14

Family

ID=18517165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP40759690A Withdrawn JPH04225478A (en) 1990-12-27 1990-12-27 line of sight detection device

Country Status (1)

Country Link
JP (1) JPH04225478A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5455601A (en) * 1993-04-21 1995-10-03 Fujitsu Limited Method of and apparatus for displaying image
JP2001101429A (en) * 1999-09-28 2001-04-13 Omron Corp Method and device for observing face, and recording medium for face observing processing
US7065230B2 (en) 2001-05-25 2006-06-20 Kabushiki Kaisha Toshiba Image processing system and driving support system
JP2007293550A (en) * 2006-04-24 2007-11-08 Konica Minolta Sensing Inc Polygon mesh editing method, device, system, and program
JP2018113653A (en) * 2017-01-13 2018-07-19 株式会社日本エスシーマネージメント Viewing device, and underwater space viewing system and method for viewing the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5455601A (en) * 1993-04-21 1995-10-03 Fujitsu Limited Method of and apparatus for displaying image
JP2001101429A (en) * 1999-09-28 2001-04-13 Omron Corp Method and device for observing face, and recording medium for face observing processing
US7065230B2 (en) 2001-05-25 2006-06-20 Kabushiki Kaisha Toshiba Image processing system and driving support system
US7346192B2 (en) 2001-05-25 2008-03-18 Kabushiki Kaisha Toshiba Image processing system and driving support system
JP2007293550A (en) * 2006-04-24 2007-11-08 Konica Minolta Sensing Inc Polygon mesh editing method, device, system, and program
JP2018113653A (en) * 2017-01-13 2018-07-19 株式会社日本エスシーマネージメント Viewing device, and underwater space viewing system and method for viewing the same

Similar Documents

Publication Publication Date Title
JP4307496B2 (en) Facial part detection device and program
US6633655B1 (en) Method of and apparatus for detecting a human face and observer tracking display
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US7835568B2 (en) Method and apparatus for image-based photorealistic 3D face modeling
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
US6072903A (en) Image processing apparatus and image processing method
US8396249B1 (en) Robot control based on saliency and invariant spatial representations using hierarchical spatial working memory
CN107330371A (en) Acquisition methods, device and the storage device of the countenance of 3D facial models
EP2339507A1 (en) Head detection and localisation method
JPH0944685A (en) Face image processor
KR101759188B1 (en) the automatic 3D modeliing method using 2D facial image
JP6855872B2 (en) Face recognition device
JP2019125269A (en) Method and device suitable for foreground/background separation
Chen et al. Real-time eye localization, blink detection, and gaze estimation system without infrared illumination
CN119847330A (en) Intelligent control method and system for AR equipment
JP7044504B2 (en) Image processing device, image processing method and image processing program
JP2003271932A (en) Gaze direction detection device
Kunka et al. Non-intrusive infrared-free eye tracking method
KR100815209B1 (en) Apparatus and method for feature extraction of 2D image for generating 3D image and apparatus and method for generating 3D image using same
JP3355068B2 (en) Face image processing device
JP5419777B2 (en) Face image synthesizer
JPH04225478A (en) line of sight detection device
JP2004192552A (en) Eye opening/closing determining apparatus
Kuo et al. An improved eye feature extraction algorithm based on deformable templates
JPH07311833A (en) Person face detection device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980312