[go: up one dir, main page]

JPH06148509A - Line-of-sight detector - Google Patents

Line-of-sight detector

Info

Publication number
JPH06148509A
JPH06148509A JP4314410A JP31441092A JPH06148509A JP H06148509 A JPH06148509 A JP H06148509A JP 4314410 A JP4314410 A JP 4314410A JP 31441092 A JP31441092 A JP 31441092A JP H06148509 A JPH06148509 A JP H06148509A
Authority
JP
Japan
Prior art keywords
edge
pupil edge
pupil
purkinje image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4314410A
Other languages
Japanese (ja)
Other versions
JP3199877B2 (en
Inventor
Kazuki Konishi
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP31441092A priority Critical patent/JP3199877B2/en
Publication of JPH06148509A publication Critical patent/JPH06148509A/en
Application granted granted Critical
Publication of JP3199877B2 publication Critical patent/JP3199877B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Eye Examination Apparatus (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To accurately extract a pupil edge at all time. CONSTITUTION:A pupil edge extracting means is provided with a first memory means for storing the lowest brightness value in every area which is obtained in a light-intercepting means 4, a second memory means for storing the lowest brightness value in the whole area which is obtained in the light-intercepting means and a pupil edge discriminating means for comparing the lowest brightness value in every area with the loft brightness value in the whole area, respectively, and when the loft brightness value in every area is not the same as the lowest brightness value in the whole area, eliminating the edge in the area by reason that it is inappropriate for a pupil edge, and the edge within the area having the loft brightness value which is not equal to the loft brightness value (higher than the lowest brightness value) in the whole area corresponding to the lowest brightness value of a pupil edge is eliminated by reason that it is inappropriate for a pupil edge.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ビデオカメラ等に配置
される視線検出装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a visual axis detecting device arranged in a video camera or the like.

【0002】[0002]

【従来の技術】従来のプルキンエ像(角膜反射像)の位
置算出方法としては、特開昭61−172552号など
に開示されている。この特開昭61−172552号に
は、以下のように記載されている。
2. Description of the Related Art A conventional method for calculating the position of a Purkinje image (corneal reflection image) is disclosed in JP-A-61-272552. This JP-A-61-272552 describes as follows.

【0003】図16は、一つの半導体一次元撮像素子
(ここでは31)のセンサアレイ部31aに観察者の瞳
孔50,虹彩51が結像した状態を示し、図17は、そ
の時の半導体一次元撮像素子31のセンサアレイ部31
a上の像の明るさの分布を表している。
FIG. 16 shows a state in which an observer's pupil 50 and an iris 51 are imaged on a sensor array portion 31a of one semiconductor one-dimensional image pickup device (here, 31), and FIG. 17 shows a semiconductor one-dimensional image at that time. Sensor array unit 31 of the image pickup device 31
The distribution of the brightness of the image on a is shown.

【0004】虹彩51は瞳孔50よりも反射率が高いの
で、像として明るくなる。図17において、明るさの大
きく変化する点53,54は、図16における瞳孔50
と虹彩51の境界52がセンサアレイ部31aと交差す
る二つの点53a,54aに対応する。尚、図17に示
す55はプルキンエ像PIに対応する出力である。
Since the iris 51 has a higher reflectance than the pupil 50, it becomes bright as an image. In FIG. 17, points 53 and 54 at which the brightness greatly changes are the pupils 50 in FIG.
And a boundary 52 of the iris 51 corresponds to two points 53a and 54a intersecting the sensor array portion 31a. Reference numeral 55 shown in FIG. 17 is an output corresponding to the Purkinje image PI.

【0005】例えば、各画素毎にA/D変換器によりデ
ィジタル化されたデータを該半導体一次元撮像素子31
の両端それぞれから調べていき、それぞれ初めに明るい
レベル56から暗いレベル57へ変化した点を求めれ
ば、瞳孔50と虹彩51の境界52がセンサアレイ部3
1aと交差する二点53a,54aを求めることができ
る。そして、この交差する二点53a,54aの平均を
とることにより、撮影者の瞳孔中心を求める。
For example, data digitized by an A / D converter for each pixel is used as the semiconductor one-dimensional image pickup device 31.
If the points at which the light level 56 first changes to the dark level 57 are found respectively, the boundary 52 between the pupil 50 and the iris 51 is determined to be the sensor array unit 3
Two points 53a and 54a intersecting 1a can be obtained. Then, the center of the photographer's pupil is obtained by taking the average of these two intersecting points 53a and 54a.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、半導体
一次元撮像素子より得られる実際の信号波形は図18〜
図21に示すようなものであり、単純に明るいレベルか
ら暗いレベルに変化した初めの点を求める従来の方法に
おいては、正確に瞳孔エッジを抽出することは困難であ
った。
However, the actual signal waveforms obtained from the semiconductor one-dimensional image pickup device are shown in FIG.
As shown in FIG. 21, it is difficult to accurately extract the pupil edge in the conventional method that simply finds the first point where the light level changes to the dark level.

【0007】また、プルキンエ像が瞳孔の外にあること
や、垂直方向の検出においては瞳孔が瞼でけられる事が
良くある。このような場合も明るいレベルから暗いレベ
ルへの初めの変化点は瞳孔エッジとはならず、従来の方
法では瞳孔中心の算出はできなかった。
Further, it is often the case that the Purkinje image is outside the pupil, and that the pupil is eclipsed by the eyelid in the detection in the vertical direction. Even in such a case, the initial change point from the bright level to the dark level does not become the pupil edge, and the center of the pupil cannot be calculated by the conventional method.

【0008】(発明の目的)本発明の目的は、瞳孔エッ
ジの抽出を常に正確に行うことのできる視線検出装置を
提供することである。
(Object of the Invention) It is an object of the present invention to provide a visual axis detecting device capable of always accurately extracting a pupil edge.

【0009】[0009]

【課題を解決するための手段】本発明は、瞳孔エッジ抽
出手段内に、受光手段にて得られる各エリア毎の最低輝
度値を記憶する第1の記憶手段と、受光手段にて得られ
る全エリア内における最低輝度値を記憶する第2の記憶
手段と、前記各エリア毎の最低輝度値と全エリア内にお
ける最低輝度値とをそれぞれ比較し、各エリアにおける
最低輝度値が全エリア内における最低輝度値に等しくな
い場合、そのエリア内のエッジは瞳孔エッジとして不適
当なものとして排除する瞳孔エッジ判別手段とを設け、
瞳孔エッジの最低輝度値に相当する全エリア内における
最低輝度値と等しくない(この最低輝度値よりも高い)
最低輝度値を持つエリア内のエッジは、瞳孔エッジとし
て不適当なものとして排除するようにしている。
According to the present invention, the pupil edge extraction means has a first storage means for storing the lowest luminance value for each area obtained by the light receiving means and all the light receiving means. The second storage means for storing the lowest luminance value in the area is compared with the lowest luminance value for each area and the lowest luminance value in all areas, and the lowest luminance value in each area is the lowest in all areas. When the brightness value is not equal to the edge, an edge in the area is provided as a pupil edge discriminating means that is excluded as an inappropriate pupil edge,
Not equal to the minimum brightness value in all areas corresponding to the minimum brightness value of the pupil edge (higher than this minimum brightness value)
The edge in the area having the lowest brightness value is excluded as an inappropriate pupil edge.

【0010】また、本発明は、瞳孔エッジ抽出手段内
に、プルキンエ像抽出手段にて抽出されたプルキンエ像
の周辺にエッジが存在するか否かを判別し、存在する場
合はこのエッジは瞳孔エッジとして不適当なものとして
排除する瞳孔エッジ判別手段を設け、瞳孔エッジはプル
キンエ像の周辺に位置しないことは明らかであることか
ら、このプルキンエ像の周辺に存在するエッジは瞳孔エ
ッジとして不適当なものとして排除するようにしてい
る。
Further, according to the present invention, it is determined whether or not there is an edge in the periphery of the Purkinje image extracted by the Purkinje image extracting unit in the pupil edge extracting unit, and if there is, this edge is the pupil edge. A pupil edge discriminating means is provided to eliminate the pupil edge as an inappropriate one, and it is clear that the pupil edge is not located around the Purkinje image. Therefore, the edges existing around the Purkinje image are inappropriate as pupil edges. I'm trying to exclude it.

【0011】また、本発明は、瞳孔エッジ抽出手段内
に、抽出した各エッジの位置とプルキンエ像位置抽出手
段にて抽出されたプルキンエ像が所定の位置関係にある
か否かを判別し、プルキンエ像と所定の位置関係にない
エッジは瞳孔エッジとして不適当なものとして排除する
瞳孔エッジ判別手段を設け、瞳孔エッジとプルキンエ像
は所定の位置関係にあることから、この所定の関係に無
いエッジは瞳孔エッジとして不適当なものとして排除す
るようにしている。
Further, according to the present invention, it is determined in the pupil edge extraction means whether or not the positions of the respective extracted edges and the Purkinje image extracted by the Purkinje image position extraction means have a predetermined positional relationship, and the Purkinje image is extracted. An edge that does not have a predetermined positional relationship with the image is excluded as an inappropriate pupil edge, and a pupil edge discriminating unit is provided. Since the pupil edge and the Purkinje image have a predetermined positional relationship, an edge that does not have this predetermined relationship is The pupil edge is excluded as an inappropriate one.

【0012】また、瞳孔エッジ抽出手段内に、抽出した
エッジに統計的処理を施して、つまり抽出したエッジの
平均値と標準偏差を求め、これらの値より定められた範
囲外のものを瞳孔エッジとして不適当なエッジを排除す
る瞳孔エッジ判別手段を設け、瞳孔エッジを含んだ多数
のエッジの平均値と標準偏差により定められる範囲内に
あるものを瞳孔エッジとみなし、範囲外のものは瞳孔エ
ッジとして不適当なエッジとして排除するようにしてい
る。
In the pupil edge extraction means, the extracted edges are statistically processed, that is, the average value and standard deviation of the extracted edges are obtained, and those outside the range defined by these values are extracted as pupil edges. A pupil edge discriminating means for eliminating inappropriate edges is provided as the pupil edge, and a pupil edge within a range defined by the average value and standard deviation of a large number of edges including the pupil edge is regarded as a pupil edge, and a pupil edge is outside the range. As an inappropriate edge, it is excluded.

【0013】[0013]

【実施例】以下、本発明を図示の実施例に基づいて詳細
に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on the illustrated embodiments.

【0014】図1は本発明の第1の実施例における視線
検出装置を備えたカメラの概略構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing the schematic arrangement of a camera equipped with a line-of-sight detection apparatus according to the first embodiment of the present invention.

【0015】図1において、1はMPU(マイクロプロ
セッシングユニット)、2はメモリ、3は後述のCCD
及びIRED(赤外発光ダイオード)を駆動する為のド
ライバ回路、4は二次元撮像素子であるところのCC
D、5は観察者の眼球に対して不感の赤外光を投射する
複数のIREDから構成されるIRED群であり、水平
・垂直方向に所定の間隔をもってそれぞれ2個、つまり
ペアとなって配置されている。6はAF(オートフォー
カス)を行うためのレンズ駆動ユニット、7は絞り駆動
ユニット、8はシャッタユニットである。
In FIG. 1, 1 is an MPU (micro processing unit), 2 is a memory, and 3 is a CCD described later.
And a driver circuit for driving an IRED (infrared light emitting diode), 4 is a CC which is a two-dimensional image sensor
D and 5 are IRED groups composed of a plurality of IREDs that project infrared light that is insensitive to the observer's eyes, and are arranged in pairs in a horizontal / vertical direction at predetermined intervals, that is, in pairs. Has been done. Reference numeral 6 is a lens drive unit for performing AF (autofocus), 7 is an aperture drive unit, and 8 is a shutter unit.

【0016】図2は上記構成から成る視線検出装置を備
えたカメラのメイン動作を示すフローチャートである。
FIG. 2 is a flow chart showing the main operation of the camera provided with the visual axis detection device having the above-mentioned structure.

【0017】カメラの不図示のレリーズ釦の第1ストロ
ーク操作に連動するスイッチSW1のONなどにより視
線検出の要求がなされると、MPU1はステップ102
からの視線検出のルーチンに入る。
When a line-of-sight detection request is made by turning on the switch SW1 interlocking with the first stroke operation of the release button (not shown) of the camera, the MPU 1 makes a step 102
The routine for detecting the line of sight from is entered.

【0018】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う(ステップ103)。これは
眼鏡の有無・外光の強度等を考慮して行い、同時にIR
ED群5内より点灯させるべくIREDペアの選択も行
う。そして、ステップ104以降の蓄積制御動作へと移
る。
In step 102, initialization processing of variables used for calculation is performed, and in the next step 103, accumulation time is set (step 103). This is done in consideration of the presence / absence of glasses and the intensity of external light, and at the same time, IR
The IRED pair is also selected to be turned on from within the ED group 5. Then, the process proceeds to the storage control operation after step 104.

【0019】まず、ステップ104においては、CCD
4の電荷クリア動作を行うための指示をドライバ回路3
に対して行う。この指示を受けたドライバ回路3はクリ
ア動作を行い、CCD4のメモリゾーン、電荷転送ライ
ン等に残っている電荷を消去する。次いで、ステップ1
05において、上記ステップ103において選択したI
REDペアを点灯させるためにIRED選択信号をドラ
イバ回路3に送信すると同時に、蓄積信号をハイレベル
にしてCCD4による蓄積を開始し、上記の設定した蓄
積時間が経過したら蓄積信号をローレベルにし、蓄積を
終了する。この蓄積に同期して選択されたIREDペア
は点灯することになる。
First, in step 104, the CCD
The driver circuit 3 gives an instruction for performing the charge clearing operation of No. 4
Do against. Upon receiving this instruction, the driver circuit 3 performs a clear operation to erase the charges remaining in the memory zone of the CCD 4, the charge transfer line, and the like. Then step 1
05, the I selected in step 103 above
At the same time as transmitting the IRED selection signal to the driver circuit 3 to turn on the RED pair, the accumulation signal is set to the high level to start accumulation by the CCD 4, and when the above set accumulation time has elapsed, the accumulation signal is set to the low level and accumulation is performed. To finish. The IRED pair selected in synchronization with this accumulation is turned on.

【0020】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 proceeds to the operations after step 106 for performing the processing of extracting the optical image block (Purkinje image candidate) and the pupil edge candidate.

【0021】まず、ステップ106においては、ドライ
バ回路3を介してCCD4の1ライン分の画像信号を順
次読み込み、A/D変換を行い、メモリ2にその値を記
憶していく。そして、次のステップ107において、こ
のデータを使って光像ブロック(プルキンエ像候補)並
びに瞳孔エッジ候補の抽出処理を行っていく。この処理
はCCD4のライン数分だけ行う。
First, in step 106, the image signal for one line of the CCD 4 is sequentially read through the driver circuit 3, A / D converted, and the value is stored in the memory 2. Then, in the next step 107, the optical image block (Purkinje image candidate) and the pupil edge candidate are extracted using this data. This processing is performed for the number of lines of the CCD 4.

【0022】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図3及び図4のフ
ローチャートを用いて説明する。
The "extraction of the pupil edge" performed in step 107 will be described with reference to the flowcharts of FIGS. 3 and 4.

【0023】まず、MPU1はステップ151におい
て、1ライン分のデータを読み込み、次のステップ15
2において、このデータよりこのラインにおける最低値
MINL並びにその座標を求める。そして、この「最低
値MINL」とそれまでに読み込んでいるラインの中で
の「最低値MIN+定数C」との比較を行い、この「最
低値MINL」が「最低値MIN+定数C」より小さい
かこれに略等しい値ならステップ154以降の処理を継
続するが、そうでなければこのラインにおける水平方向
の瞳孔エッジの抽出は行わず、図4において後述するス
テップ169以降の動作へと移る。
First, in step 151, the MPU 1 reads the data for one line, and in step 15
In step 2, the minimum value MINL on this line and its coordinates are obtained from this data. Then, this "minimum value MINL" is compared with the "minimum value MIN + constant C" in the lines that have been read so far, and whether this "minimum value MINL" is smaller than the "minimum value MIN + constant C". If the value is substantially equal to this value, the processes in and after step 154 are continued, but if not, the extraction of the horizontal pupil edge in this line is not performed, and the process proceeds to the operation in step 169 and later described later in FIG.

【0024】瞳孔エッジの抽出は、先ず水平方向の瞳孔
エッジ抽出から行う。
The extraction of the pupil edge is performed by first extracting the pupil edge in the horizontal direction.

【0025】水平方向の瞳孔エッジ抽出は最低値MIN
Lの座標より開始する(ステップ154)。
The minimum value MIN is used to extract the pupil edge in the horizontal direction.
The process starts from the L coordinate (step 154).

【0026】まず、ステップ155において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。
First, in step 155, the counter is decremented to detect the left pupil edge. Then, it is checked whether or not the output signal monotonically decreases over n pixels. That is, it is checked whether the following equations d [j] <d [j-1] <d [j-2] <... <d [j- (n-1)] <d [j-n] are satisfied. . At this time, if the monotonous decrease continues, the count is continued during that time and the slope length D is obtained.

【0027】次に、ステップ156において、そのスロ
ープの最低値にあたるd[j]が、それまでに読み込ま
れたラインの最低値MINに略等しいかどうか、すなわ
ち、「d[j]≦MIN+定数C」が成り立つか否かを
調べる。さらに、全てのスロープ内の画素について隣り
の画素との差が一定値Cde以上か否かを調べる。例え
ば、d[j−n]−d[j],d[j−n]−d[j−
(n−1)]……について調べる。このようにすること
によって、信号強度が最低値に略等しい瞳孔部からある
一定値以上の傾斜をもって立上がるスロープ(瞳孔エッ
ジのスロープ)を検出することができる。
Next, at step 156, whether the minimum value d [j] of the slope is substantially equal to the minimum value MIN of the line read so far, that is, "d [j] ≤MIN + constant C". ”Is established. Furthermore, it is checked whether or not the difference between the pixels in all the slopes and the adjacent pixels is a certain value Cde or more. For example, d [j-n] -d [j], d [j-n] -d [j-
(N-1)] ... By doing so, it is possible to detect a slope (a slope of the pupil edge) which rises from the pupil portion where the signal intensity is substantially equal to the minimum value, with an inclination of a certain value or more.

【0028】次いで、ステップ157から160におい
て、まつ毛による輝度変化の影響を取り除く処理を行
う。
Next, in steps 157 to 160, processing for removing the influence of the luminance change due to the eyelashes is performed.

【0029】このまつ毛による輝度変化は図5のように
なる。そこで、アップエッジAと対になるダウンエッジ
Bがその直後にないか否かを調べることで、いま検出し
たエッジがまつ毛か否かの判断ができる。
The change in luminance due to the eyelashes is as shown in FIG. Therefore, by checking whether or not there is a down edge B paired with an up edge A immediately after that, it can be determined whether or not the detected edge is eyelashes.

【0030】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
If the above three conditions are satisfied, the vicinity of the pixel (j-2D) (for example, j-2D ± several pixels) is examined,
If there is a value that is approximately equal to the minimum value (MIN), it is determined that this luminance change is due to the eyelashes.

【0031】そして、以上の4つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ161において、左側
瞳孔エッジ情報としてそのライン番号1と画素番号(j
+j−D)/2をメモリ2に記憶する。
Those which satisfy the above four conditions are regarded as pupil edges, and in step 161, the line number 1 and the pixel number (j
+ J−D) / 2 is stored in the memory 2.

【0032】その後、MPU1は反対側(右側)の瞳孔
エッジを検出するステップ163以降のルーチンへ移
る。
After that, the MPU 1 proceeds to the routine after step 163 for detecting the pupil edge on the opposite side (right side).

【0033】逆に、以上の4つの条件を満たさない場合
は、ステップ160から158へと戻り、隣りの画素に
移って同様の処理を行う。
On the contrary, if the above four conditions are not satisfied, the process returns from step 160 to step 158 to move to the adjacent pixel and perform the same processing.

【0034】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ163から167まで)において
も、同様の処理を行う。
Similar processing is performed in the routine (steps 163 to 167) for detecting the pupil edge on the opposite side (right side).

【0035】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is, (1) The value increases monotonically over n pixels (the length D of the slope is obtained).

【0036】(2)スロープの最低値にあたるd[j]
が最低値(MIN)に略等しい。
(2) d [j] which is the minimum value of the slope
Is approximately equal to the minimum value (MIN).

【0037】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(3) The difference between the pixels in all the slopes and the adjacent pixels is not less than the constant value Cde.

【0038】(4)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の4つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号Lと
画素番号(j+j+D)をメモリ2に記憶し、水平方向
の瞳孔エッジ抽出処理を終了する。
(4) There is no down edge immediately after the up edge (not a change in brightness due to eyelashes). When the four conditions are satisfied, the position is regarded as the pupil edge, the line number L and the pixel number (j + j + D) are stored in the memory 2 as the right pupil edge information, and the horizontal pupil edge extraction processing is completed.

【0039】逆に、上記4つの条件を満たさなかった場
合は、隣りの画素に処理を移す。
On the contrary, when the above four conditions are not satisfied, the processing is moved to the adjacent pixel.

【0040】次いで、図4に示す垂直方向の瞳孔エッジ
の抽出を行う。
Next, the vertical pupil edge shown in FIG. 4 is extracted.

【0041】この処理は、メモリ2の容量の関係ですべ
ての画素の情報を用いることができないので、mライン
分の画像情報を該メモリ2に記憶しておき、抽出を行
う。
Since this processing cannot use the information of all pixels due to the capacity of the memory 2, the image information for m lines is stored in the memory 2 and extracted.

【0042】まず、ラインの最低値MINLとmライン
前のライン(L−m)の最低値MIN(L−m)の値を
比較し、「MINL<MIN(L−m)」、かつ、この
最低値MINLがそれまで読み込まれたラインの中で最
低値MINより小さいかMINに略等しい値なら、上側
瞳孔エッジ抽出処理を行い(ステップ169→170→
171)、又「MIN≧MIN(L−m)」、かつ、こ
の最低値MIN(L−m)がそれまでに読み込まれたラ
インの中での最低値MINより小さいかこの値に略等し
い値なら、下側瞳孔エッジ抽出処理を行う(ステップ1
69→174→175)。それ以外は垂直方向瞳孔エッ
ジ抽出処理を行わない(ステップ169→170→17
8,ステップ169→174→178)。
First, the minimum value MINL of the line and the minimum value MIN (Lm) of the line (Lm) before the mth line are compared, and "MINL <MIN (Lm)", and If the minimum value MINL is smaller than or substantially equal to the minimum value MIN among the lines read so far, upper pupil edge extraction processing is performed (step 169 → 170 →
171), or “MIN ≧ MIN (L-m)”, and a value in which the minimum value MIN (L-m) is less than or substantially equal to the minimum value MIN in the lines read so far. If so, lower pupil edge extraction processing is performed (step 1
69 → 174 → 175). Otherwise, the vertical pupil edge extraction processing is not performed (steps 169 → 170 → 17).
8, steps 169 → 174 → 178).

【0043】上側瞳孔エッジ抽出処理は、水平方向と同
様な3つの条件を満たすか否かを調べることにより行う
(ステップ171,172)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
減少している)。
The upper pupil edge extraction processing is performed by checking whether or not the same three conditions as those in the horizontal direction are satisfied (steps 171 and 172). That is, (1) it decreases monotonically over n pixels (however, due to the memory capacity, if n> m, it monotonically decreases over m pixels).

【0044】(2)スロープの最低値にあたるラインL
の値が最低値(MIN)に略等しい。
(2) Line L, which is the minimum slope value
Is approximately equal to the minimum value (MIN).

【0045】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、上側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号jをメ
モリ2に記憶する。なお、n<mの場合は水平方向の瞳
孔エッジ抽出と同様にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is not less than the constant value Cde. If the three conditions are satisfied, the position is regarded as the pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)] and the pixel number j are stored in the memory 2. In the case of n <m, the slope length D is obtained similarly to the extraction of the pupil edge in the horizontal direction.

【0046】下側瞳孔エッジ抽出処理も同様に、3つの
条件を満たすか否かを調べることにより行う(ステップ
175,176)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
増加している)。
Similarly, the lower pupil edge extraction processing is performed by checking whether or not the three conditions are satisfied (steps 175 and 176). That is, (1) it monotonically decreases over n pixels (however, in the case of n> m, it monotonically increases over m pixels due to the memory capacity).

【0047】(2)スロープの最低値にあたるラインL
−Dの値(またはラインL−m)が最低値(MIN)に
略等しい。
(2) Line L, which is the minimum slope value
The value of -D (or line L-m) is approximately equal to the minimum value (MIN).

【0048】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、下側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号jをメ
モリ2に記憶する。なお、n<mの場合は水平方向の瞳
孔エッジ抽出と同様にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is not less than the constant value Cde. If the three conditions are satisfied, the position is regarded as the pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)] and the pixel number j are stored in the memory 2. In the case of n <m, the slope length D is obtained similarly to the extraction of the pupil edge in the horizontal direction.

【0049】以上の処理を1ラインの有効範囲内の全画
素について行う。
The above processing is performed for all pixels within the effective range of one line.

【0050】最後にこのエリアの最低値を記憶する。Finally, the lowest value in this area is stored.

【0051】メモリ容量を節約する意味からも全画面を
垂直方向に分割し、そのエリア内で最低値を記憶するよ
うにする。ラインLがどのエリアにあたるかを求めた
後、そのエリアにおける最低値MINn(n:エリア番
号)とラインの最低値MINLを比較し、「MINn>
MINL」なら「MINn=MINL」と更新する。
In order to save the memory capacity, the entire screen is divided in the vertical direction and the lowest value is stored in that area. After determining which area the line L corresponds to, the minimum value MINn (n: area number) in that area is compared with the minimum value MINL of the line, and "MINn>
If it is "MINL", "MINn = MINL" is updated.

【0052】再び図2に戻り、ステップ108におい
て、全ラインについてこの処理が終了したことを判別す
ると、ステップ109へ移り、プルキンエ像選択の処理
を開始する。
Returning to FIG. 2 again, when it is determined in step 108 that this process has been completed for all lines, the process proceeds to step 109 and the Purkinje image selection process is started.

【0053】ここにおける一番目の処理では、各々の光
像ブロック(プルキンエ像候補)の水平・垂直方向のブ
ロック幅を調べ、その幅がともに定数CH 以下のものの
み採用する。これ以上ブロック幅が大きいものは、眼鏡
のゴースト・外光の瞼等での反射などプルキンエ像以外
の光像である為、排除する。
In the first processing here, the block widths in the horizontal and vertical directions of each optical image block (Purkinje image candidate) are examined, and only those widths which are equal to or less than the constant CH are adopted. Those having a larger block width than this are excluded because they are optical images other than the Purkinje image, such as ghosts of glasses and reflection of external light from the eyelids.

【0054】二番目の処理では、一番目の処理で採用さ
れた光像ブロックの垂直方向座標を調べる。もし、ある
光像ブロックとある光像ブロックが、垂直方向に重なっ
ているか接している時は、この二つの光像ブロックの垂
直方向座標は略等しいと判断する。すなわち、n番目の
光像ブロックの上下左右の境界位置を各々Bny1,B
ny2,Bnx1,Bnx2とした時、m番目の光像ブ
ロックの上下左右の境界位置を各々Bmy1,Bmy
2,Bmx1,Bmx2とした時、 Bny1≦Bmy2 かつ Bny2≧Bmy1 の条件式が成り立った場合、二つの光像ブロックの垂直
方向座標は略等しいと判断する。次いで、この垂直方向
座標の略等しいものの無い光像ブロックを排除する。そ
の後、略等しいものの有る光像ブロックについて各々の
水平方向のブロック間隔Δmnを調べ、その値が所定範
囲内(Δ1≦Δmn≦Δ2)のもののみを採用する(但
し、Δ1,Δ2は定数)。
In the second processing, the vertical coordinate of the optical image block adopted in the first processing is examined. If a certain light image block and a certain light image block overlap or are in contact with each other in the vertical direction, it is determined that the two light image blocks have substantially the same vertical coordinates. That is, the upper, lower, left, and right boundary positions of the n-th optical image block are respectively Bny1, B
Assuming ny2, Bnx1, and Bnx2, the upper, lower, left, and right boundary positions of the m-th optical image block are respectively Bmy1, Bmy.
2, Bmx1 and Bmx2, if the conditional expressions of Bny1 ≦ Bmy2 and Bny2 ≧ Bmy1 are satisfied, it is determined that the vertical coordinates of the two optical image blocks are substantially equal. Then, the light image blocks without the substantially equal vertical coordinates are eliminated. After that, the horizontal block intervals Δmn of the optical image blocks having substantially the same values are examined, and only those having a value within a predetermined range (Δ1 ≦ Δmn ≦ Δ2) are adopted (where Δ1 and Δ2 are constants).

【0055】例えば、光像ブロックB1,B2,B3の
三つの垂直方向座標が略等しい場合、B1とB2の間隔
Δ12,B2とB3の間隔Δ23,B3とB1の間隔Δ
31を求め、それが所定値内にあるか否かを調べ、その
結果、Δ12,Δ23が所定値内にあれば、プルキンエ
像候補ペアとして[B1,B2][B2,B3]の組み
合わせを採用する。この時点でプルキンエ像候補ペアが
一つあれば(光像ブロックの数が二つであれば)、これ
をプルキンエ像として採用する。もしこの時点でプルキ
ンエ像が決定できない場合には次の処理を行う。
For example, when the three vertical coordinates of the optical image blocks B1, B2, B3 are substantially equal, the interval Δ12 between B1 and B2, the interval Δ23 between B2 and B3, and the interval Δ between B3 and B1.
31 is determined, and it is checked whether it is within a predetermined value. As a result, if Δ12 and Δ23 are within a predetermined value, the combination of [B1, B2] [B2, B3] is adopted as the Purkinje image candidate pair. To do. At this point, if there is one Purkinje image candidate pair (if the number of optical image blocks is two), this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0056】三番目の処理では、プルキンエ像ペアの最
大輝度値の平均値を比較し、その値が最大のものをプル
キンエ像として選択する。
In the third processing, the average values of the maximum luminance values of the Purkinje image pairs are compared, and the one having the maximum value is selected as the Purkinje image.

【0057】例えば、光像ブロックB1とB2,B3と
B4が二番目までの処理で選ばれている場合、(Ima
x1+Imax2),(Imax3+Imax4)を計
算し、「前者≧後者」の関係にあるならば、B1,B2
をプルキンエ像とし、「前者<後者」の関係にあるなら
ば、光像ブロックB3,B4をプルキンエ像とする(但
し、Imax1,Imax2,Imax3,Imax4
はB1,B2,B3,B4の最大輝度)。
For example, if the optical image blocks B1 and B2 and B3 and B4 are selected by the second processing, (Ima
x1 + Imax2), (Imax3 + Imax4) are calculated, and if there is a relation of “the former ≧ the latter”, B1, B2
Is a Purkinje image, and if there is a relationship of “the former <latter”, the optical image blocks B3 and B4 are Purkinje images (however, Imax1, Imax2, Imax3, Imax4
Is the maximum brightness of B1, B2, B3, B4).

【0058】また、プルキンエ像ペアの最大輝度値の平
均値を比較し、その値が最大のものを選択するようにし
てもよい。
Alternatively, the average of the maximum luminance values of the Purkinje image pairs may be compared and the one having the maximum value may be selected.

【0059】以上のようにして決定されたプルキンエ像
ペアP1,P2及びプルキンエ像Pcの座標は P1x=(Bnx1+Bnx2)/2 P1y=(Bny1+Bny2)/2 P2x=(Bmx1+Bmx2)/2 P2y=(Bmy1+Bmy2)/2 Pcx=(P1x+P2x)/2 Pcy=(P1y+Pyx)/2 のように計算される。但し、P1x,P1y,P2x,
P2y,Pcx,Pcyはプルキンエ像ペアP1,P2
及びプルキンエ像Pcの水平垂直座標である。また、n
番目,m番目の光像ブロックがプルキンエ像として選択
されたものとする。
The coordinates of the Purkinje image pairs P1 and P2 and the Purkinje image Pc determined as described above are P1x = (Bnx1 + Bnx2) / 2 P1y = (Bny1 + Bny2) / 2 P2x = (Bmx1 + Bmx2) / 2 P2y = (Bmy1 + Bmy1 + Bmy1) / 2 Pcx = (P1x + P2x) / 2 Pcy = (P1y + Pyx) / 2 However, P1x, P1y, P2x,
P2y, Pcx and Pcy are Purkinje image pairs P1 and P2
And the horizontal and vertical coordinates of the Purkinje image Pc. Also, n
It is assumed that the 1st and mth optical image blocks are selected as the Purkinje image.

【0060】次に、ステップ110へ移り、「瞳孔円の
演算」動作を行う。
Next, the routine proceeds to step 110, where a "pupil circle calculation" operation is performed.

【0061】この「瞳孔円の演算」動作は、図6及び図
7に示すステップ201から225までによって、以下
のようにして行われる。
This "pupil circle calculation" operation is performed as follows by steps 201 to 225 shown in FIGS.

【0062】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエリアnの最低
輝度MINn及び画像全体の最低輝度MIN0をメモリ
2に記憶している。
In the pupil edge extraction process described above, the MPU
1 stores the extracted coordinates of the pupil edge, the minimum brightness MINn of the area n and the minimum brightness MIN0 of the entire image in the memory 2.

【0063】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MINn)と画像全体
の最低輝度(MIN0+定数C)を比較し、 MINn≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Therefore, first, the MPU 1 compares the minimum luminance (MINn) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the entire image, and when the condition of MINn ≦ MIN0 + constant C is not satisfied, , The pupil edge existing in the area is excluded as an inappropriate one.

【0064】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平垂直座標(Pnx,Pny)を
中心にしたエリア内のもの、例えば、(Pnx−定数,
Pny−定数),(Pnx−定数,Pny+定数),
(Pnx+定数,Pny−定数),(Pnx+定数,P
ny+定数)の4点で囲まれた四角形内のものを排除す
ることにより行われる。プルキンエ像は2個存在するの
で、この処理は各々のプルキンエ像について行われる。
Then, the pupil edge around the Purkinje image obtained in the previous step 109 is eliminated. This is in an area centered on the horizontal and vertical coordinates (Pnx, Pny) of the Purkinje image, for example, (Pnx-constant,
Pny-constant), (Pnx-constant, Pny + constant),
(Pnx + constant, Pny−constant), (Pnx + constant, P
It is carried out by excluding those in the quadrangle surrounded by four points (ny + constant). Since there are two Purkinje images, this processing is performed for each Purkinje image.

【0065】次いで、プルキンエ像との位置関係により
不適当と思われるエッジを排除する。
Next, edges that are considered to be inappropriate due to the positional relationship with the Purkinje image are eliminated.

【0066】プルキンエ像と瞳孔の関係は図8に示す様
になる。但し、この図は説明を容易にするため、プルキ
ンエ像の位置を固定しているが、実際の眼球運動におい
ては該プルキンエ像,瞳孔ともに移動する。この図8よ
り下表の範囲に入るものを瞳孔エッジとして適切なエッ
ジとみなすことができる。
The relationship between the Purkinje image and the pupil is as shown in FIG. However, in this figure, the position of the Purkinje image is fixed for ease of explanation, but in the actual eye movement, both the Purkinje image and the pupil move. Those that fall within the range of the table below from FIG. 8 can be regarded as proper edges as pupil edges.

【0067】 また、α1,α2,α3,α4の値は瞳孔径を考慮して
可変にしてもよい。この場合、AEに用いる測光情報か
ら瞳孔径を推定し、瞳孔径が小さければ(明るい場
合)、α1,α2,α3,α4の値を大きく、瞳孔径が
大きければ(暗い場合)、α1,α2,α3,α4の値
を小さくする。
[0067] The values of α1, α2, α3, α4 may be variable in consideration of the pupil diameter. In this case, the pupil diameter is estimated from the photometric information used for AE. If the pupil diameter is small (bright), the values of α1, α2, α3, α4 are large, and if the pupil diameter is large (dark), α1, α2. , Α3, α4 are reduced.

【0068】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。この演算は
水平方向のみに関して行ってもよいし、水平垂直両方向
に関して行ってもよい。また、この処理を二重に行って
もよい。すなわち、[平均値m−a*標準偏差σ〜平均
値m+a*標準偏差σ]の範囲内に入ったものの平均値
m′と標準偏差σ′を再び求め、この二量によって定め
られる範囲[平均値m′−a*標準偏差σ′〜平均値
m′+a*標準偏差σ′]内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [average value m-
a * standard deviation σ-average value m + a * standard deviation σ (however, a
Is a constant)]. This calculation may be performed only in the horizontal direction or may be performed in both the horizontal and vertical directions. Also, this process may be performed twice. That is, the average value m ′ and the standard deviation σ ′ of those within the range of [average value m−a * standard deviation σ−average value m + a * standard deviation σ] are obtained again, and the range defined by these two quantities [average Only values within the range of m′−a * standard deviation σ ′ to average value m ′ + a * standard deviation σ ′] are adopted.

【0069】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心及び瞳孔半径を求める。この方法と
しては最小二乗法を用いれば良い。
Next, the pupil center and the pupil radius are obtained by using the pupil edges selected as described above. As this method, the least square method may be used.

【0070】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
Then, the process proceeds to step 111, and the rotation angle of the eyeball and the viewpoint position on the focusing plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, the AF point and the like are determined based on this viewpoint position, and the camera is controlled.

【0071】(第2の実施例)図9及び図10は本発明
の第2の実施例における視線検出装置を備えたカメラの
主要部分の動作を示すフローチャートである。なお、回
路構成は図1に示した第1の実施例と同様であり、ま
た、該カメラのメインルーチンは図2に示した第1の実
施例であるので、この動作に関わる部分の説明では同一
の回路番号及びステップ番号を付すものとする。
(Second Embodiment) FIGS. 9 and 10 are flow charts showing the operation of the main part of the camera equipped with the visual axis detection device according to the second embodiment of the present invention. The circuit configuration is the same as that of the first embodiment shown in FIG. 1, and the main routine of the camera is the first embodiment shown in FIG. The same circuit number and step number shall be given.

【0072】第1の実施例と同様、カメラの不図示のレ
リーズ釦の第1ストローク操作に連動するスイッチSW
1のONなどにより視線検出の要求がなされると、MP
U1はステップ102からの視線検出のルーチンに入
る。
Similar to the first embodiment, the switch SW which is interlocked with the first stroke operation of the release button (not shown) of the camera.
When a line-of-sight detection request is made by turning on 1 etc., MP
U1 enters the visual axis detection routine from step 102.

【0073】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う(ステップ103)。これ
は、眼鏡の有無・外光の強度等を考慮して行い、同時に
IRED群5内より点灯させるべくIREDペアの選択
も行う。そして、ステップ104以降の蓄積制御動作へ
と移る。
In step 102, initialization processing of variables used for calculation is performed, and in the next step 103, accumulation time is set (step 103). This is performed in consideration of the presence / absence of glasses, the intensity of external light, and the like, and at the same time, the IRED pair is selected so that the IRED group 5 is turned on. Then, the process proceeds to the storage control operation after step 104.

【0074】まず、ステップ104においては、CCD
4の電荷クリア動作を行うための指示をドライバ回路3
に対して行う。この指示を受けたドライバ回路3はクリ
ア動作を行い、CCD4のメモリゾーン、電荷転送ライ
ン等に残っている電荷を消去する。次いで、ステップ1
05において、上記ステップ103において選択したI
REDペアを点灯させるためにIRED選択信号をドラ
イバ回路3に送信すると同時に、蓄積信号をハイレベル
にしてCCD4による蓄積を開始し、上記の設定した蓄
積時間が経過したら蓄積信号をローレベルにし、蓄積を
終了する。この蓄積に同期して選択されたIREDペア
は点灯することになる。
First, in step 104, the CCD
The driver circuit 3 gives an instruction for performing the charge clearing operation of No. 4
Do against. Upon receiving this instruction, the driver circuit 3 performs a clear operation to erase the charges remaining in the memory zone of the CCD 4, the charge transfer line, and the like. Then step 1
05, the I selected in step 103 above
At the same time as transmitting the IRED selection signal to the driver circuit 3 to turn on the RED pair, the accumulation signal is set to the high level to start accumulation by the CCD 4, and when the above set accumulation time has elapsed, the accumulation signal is set to the low level and accumulation is performed. To finish. The IRED pair selected in synchronization with this accumulation is turned on.

【0075】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 proceeds to the operation after step 106 for performing the process of extracting the optical image block (Purkinje image candidate) and the pupil edge candidate.

【0076】まず、ステップ106においては、ドライ
バ回路3を介してCCD4の1ライン分の画像信号を順
次読み込み、A/D変換を行い、メモリ2にその値を記
憶していく。そして、次のステップ107において、こ
のデータを使って光像ブロック(プルキンエ像候補)並
びに瞳孔エッジ候補の抽出処理を行っていく。この処理
はCCD4のライン数分だけ行う。
First, in step 106, the image signal for one line of the CCD 4 is sequentially read through the driver circuit 3, A / D converted, and the value is stored in the memory 2. Then, in the next step 107, the optical image block (Purkinje image candidate) and the pupil edge candidate are extracted using this data. This processing is performed for the number of lines of the CCD 4.

【0077】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図9及び図10の
フローチャートを用いて説明する。
Here, the "pupil edge extraction" performed in step 107 will be described with reference to the flowcharts of FIGS. 9 and 10.

【0078】まず、MPU1はステップ301におい
て、1ライン分のデータを読み込み、次のステップ30
2において、このデータよりこのラインにおける最低値
MINL並びにその座標を求める。そして、この「最低
値MINL」とそれまでに読み込んでいるラインの中で
の「最低値MIN+定数C」との比較を行い、この「最
低値MINL」が「最低値MIN+定数C」より小さい
かこれに略等しい値ならステップ304以降の処理を継
続するが、そうでなければこのラインにおける水平方向
の瞳孔エッジの抽出は行わず、図10において後述する
ステップ319以降の動作へと移る。
First, in step 301, the MPU 1 reads the data for one line, and in step 30
In step 2, the minimum value MINL on this line and its coordinates are obtained from this data. Then, this "minimum value MINL" is compared with the "minimum value MIN + constant C" in the lines that have been read so far, and whether this "minimum value MINL" is smaller than the "minimum value MIN + constant C". If the value is substantially equal to this, the processing from step 304 onward is continued, but if not, the extraction of the horizontal pupil edge in this line is not performed, and the operation proceeds to step 319 or later, which will be described later in FIG.

【0079】瞳孔エッジの抽出は、先ず水平方向の瞳孔
エッジ抽出から行う。
The extraction of the pupil edge is performed by first extracting the pupil edge in the horizontal direction.

【0080】水平方向の瞳孔エッジ抽出は最低値MIN
Lの座標より開始する(ステップ304)。
Minimum pupil edge extraction in the horizontal direction is MIN
The process starts from the L coordinate (step 304).

【0081】まず、ステップ305において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。
First, in step 305, the counter is decremented to detect the left pupil edge. Then, it is checked whether or not the output signal monotonically decreases over n pixels. That is, it is checked whether the following equations d [j] <d [j-1] <d [j-2] <... <d [j- (n-1)] <d [j-n] are satisfied. . At this time, if the monotonous decrease continues, the count is continued during that time and the slope length D is obtained.

【0082】次に、ステップ306において、そのスロ
ープの最低値にあたるd[j]が、それまでに読み込ま
れたラインの最低値MINに略等しいかどうか、すなわ
ち、「d[j]≦MIN+定数C」が成り立つか否かを
調べる。さらに、全てのスロープ内の画素について隣り
の画素との差が一定値Cde以上か否かを調べる。例え
ば、d[j−n]−d[j],d[j−n]−d[j−
(n−1)]……について調べる。このようにすること
によって、信号強度が最低値に略等しい瞳孔部からある
一定値以上の傾斜をもって立上がるスロープ(瞳孔エッ
ジのスロープ)を検出することができる。
Next, at step 306, whether the minimum value d [j] of the slope is approximately equal to the minimum value MIN of the line read so far, that is, "d [j] ≤MIN + constant C ”Is established. Furthermore, it is checked whether or not the difference between the pixels in all the slopes and the adjacent pixels is a certain value Cde or more. For example, d [j-n] -d [j], d [j-n] -d [j-
(N-1)] ... By doing so, it is possible to detect a slope (a slope of the pupil edge) which rises from the pupil portion where the signal intensity is substantially equal to the minimum value, with an inclination of a certain value or more.

【0083】次いで、ステップ307から310におい
て、まつ毛による輝度変化の影響を取り除く処理を行
う。
Next, in steps 307 to 310, processing for removing the influence of the luminance change due to the eyelashes is performed.

【0084】このまつ毛による輝度変化は前述した様に
図5に示す様になる。そこで、アップエッジAと対にな
るダウンエッジBがその直後にないか否かを調べること
で、いま検出したエッジがまつ毛か否かの判断ができ
る。
The change in luminance due to the eyelashes is as shown in FIG. 5 as described above. Therefore, by checking whether or not there is a down edge B paired with an up edge A immediately after that, it can be determined whether or not the detected edge is eyelashes.

【0085】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
If the above three conditions are satisfied, the vicinity of the pixel (j-2D) (for example, j-2D ± several pixels) is examined,
If there is a value that is approximately equal to the minimum value (MIN), it is determined that this luminance change is due to the eyelashes.

【0086】そして、以上の4つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ311において、左側
瞳孔エッジ情報としてそのライン番号1と画素番号(j
+j−D)/2及びそのスロープにおける最低輝度(こ
の場合d[j])をメモリ2に記憶する。
Those which satisfy the above four conditions are regarded as pupil edges, and in step 311, the line number 1 and the pixel number (j
+ J−D) / 2 and the lowest brightness at that slope (d [j] in this case) are stored in memory 2.

【0087】その後、MPU1は反対側(右側)の瞳孔
エッジを検出するステップ313以降のルーチンへ移
る。
After that, the MPU 1 proceeds to the routine after step 313 for detecting the pupil edge on the opposite side (right side).

【0088】逆に、以上の4つの条件を満たさない場合
は、ステップ310から308へと戻り、隣りの画素に
移って同様の処理を行う。
On the contrary, if the above four conditions are not satisfied, the process returns from step 310 to step 308 to move to the adjacent pixel and perform the same processing.

【0089】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ313から317まで)において
も、同様の処理を行う。
Similar processing is performed in the routine (steps 313 to 317) for detecting the opposite (right) pupil edge.

【0090】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is, (1) It is monotonically increasing over n pixels (the length D of the slope is obtained).

【0091】(2)スロープの最低値にあたるd[j]
が最低値(MIN)に略等しい。
(2) d [j] which is the minimum value of the slope
Is approximately equal to the minimum value (MIN).

【0092】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(3) The difference between the pixels in all slopes and the adjacent pixels is equal to or more than a constant value Cde.

【0093】(4)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の4つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号1と
画素番号(j+j+D)をメモリ2に記憶し、水平方向
の瞳孔エッジ抽出処理を終了する。
(4) There is no down edge immediately after the up edge (not a change in luminance due to eyelashes). When the four conditions are satisfied, the position is regarded as the pupil edge, the line number 1 and the pixel number (j + j + D) are stored in the memory 2 as the right pupil edge information, and the horizontal pupil edge extraction processing is completed.

【0094】逆に、上記4つの条件を満たさなかった場
合は、隣りの画素に処理を移す。
On the contrary, when the above four conditions are not satisfied, the processing is moved to the adjacent pixel.

【0095】次いで、図10に示す垂直方向の瞳孔エッ
ジの抽出を行う。
Then, the pupil edge in the vertical direction shown in FIG. 10 is extracted.

【0096】この処理は、メモリ2の容量の関係ですべ
ての画素の情報を用いることができないので、mライン
分の画像情報を該メモリ2に記憶しておき、抽出を行
う。
Since this processing cannot use the information of all the pixels due to the capacity of the memory 2, the image information for m lines is stored in the memory 2 and extracted.

【0097】まず、ラインの最低値MINLとmライン
前のライン(L−m)の最低値MIN(L−m)の値を
比較し、「MINL<MIN(L−m)」、かつ、この
最低値MINLがそれまで読み込まれたラインの中で最
低値MINより小さいかMINに略等しい値なら、上側
瞳孔エッジ抽出処理を行い(ステップ319→320→
321)、又「MIN≧MIN(L−m)」、かつ、こ
の最低値MIN(L−m)がそれまでに読み込まれたラ
インの中での最低値MINより小さいかこの値に略等し
い値なら、下側瞳孔エッジ抽出処理を行う(ステップ3
19→324→325)。それ以外は垂直方向瞳孔エッ
ジ抽出処理を行わない。
First, the value of the minimum value MINL of the line and the value of the minimum value MIN (Lm) of the line (Lm) before the mth line are compared, and "MINL <MIN (Lm)", and If the minimum value MINL is less than or substantially equal to the minimum value MIN among the lines read so far, upper pupil edge extraction processing is performed (step 319 → 320 →
321), or “MIN ≧ MIN (L-m)”, and a value in which this minimum value MIN (L-m) is less than or substantially equal to the minimum value MIN in the lines read so far. If so, lower pupil edge extraction processing is performed (step 3).
19 → 324 → 325). Otherwise, the vertical pupil edge extraction process is not performed.

【0098】上側瞳孔エッジ抽出処理は、水平方向と同
様な3つの条件を満たすか否かを調べることにより行う
(ステップ321,322)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
減少している)。
The upper pupil edge extraction processing is performed by checking whether or not three conditions similar to those in the horizontal direction are satisfied (steps 321 and 322). That is, (1) it decreases monotonically over n pixels (however, due to the memory capacity, if n> m, it monotonically decreases over m pixels).

【0099】(2)スロープの最低値にあたるラインL
の値が最低値(MIN)に略等しい。
(2) Line L, which is the minimum slope value
Is approximately equal to the minimum value (MIN).

【0100】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、上側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号j及び
そのスロープにおける最低輝度をメモリ2に記憶する。
なお、n<mの場合は水平方向の瞳孔エッジ抽出と同様
にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is not less than the constant value Cde. If the three conditions are satisfied, the position is regarded as the pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)], the pixel number j, and the minimum luminance in the slope are stored in the memory 2.
In the case of n <m, the slope length D is obtained similarly to the extraction of the pupil edge in the horizontal direction.

【0101】下側瞳孔エッジ抽出処理も同様に、3つの
条件を満たすか否かを調べることにより行う(ステップ
325,326)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
増加している)。
Similarly, the lower pupil edge extraction processing is performed by checking whether or not the three conditions are satisfied (steps 325 and 326). That is, (1) it monotonically decreases over n pixels (however, in the case of n> m, it monotonically increases over m pixels due to the memory capacity).

【0102】(2)スロープの最低値にあたるラインL
−Dの値(またはラインL−m)が最低値(MIN)に
略等しい。
(2) Line L, which is the minimum slope value
The value of -D (or line L-m) is approximately equal to the minimum value (MIN).

【0103】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、下側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号j及び
そのスロープにおける最低輝度をメモリ2に記憶する。
なお、n<mの場合は水平方向の瞳孔エッジ抽出と同様
にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is not less than the constant value Cde. If the three conditions are satisfied, the position is regarded as the pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)], the pixel number j, and the minimum luminance in the slope are stored in the memory 2.
In the case of n <m, the slope length D is obtained similarly to the extraction of the pupil edge in the horizontal direction.

【0104】以上の処理を1ラインの有効範囲内の全画
素について行う。
The above processing is performed for all pixels within the effective range of one line.

【0105】再び図2に戻り、ステップ108におい
て、全ラインについてこの処理が終了したことを判別す
ると、ステップ109へ移り、プルキンエ像選択の処理
を開始する。
Returning to FIG. 2 again, when it is determined in step 108 that this process has been completed for all lines, the process proceeds to step 109, and the Purkinje image selection process is started.

【0106】ここにおける一番目の処理では、各々の光
像ブロックの水平・垂直方向のブロック幅を調べ、その
幅がともに定数C以下のもののみ採用する。これ以上ブ
ロック幅が大きいものは、眼鏡のゴースト・外光の瞼等
での反射などプルキンエ像以外の光像である為、排除す
る。
In the first processing here, the block widths in the horizontal and vertical directions of each optical image block are examined, and only those widths of which are equal to or less than the constant C are adopted. Those having a larger block width than this are excluded because they are optical images other than the Purkinje image, such as ghosts of glasses and reflection of external light from the eyelids.

【0107】二番目の処理では、一番目の処理で採用さ
れた光像ブロックの垂直方向座標を調べる。もし、ある
光像ブロックとある光像ブロックが、垂直方向に重なっ
ているか接している時は、この二つの光像ブロックの垂
直方向座標は略等しいと判断する。すなわち、n番目の
光像ブロックの上下左右の境界位置を各々Bny1,B
ny2,Bnx1,Bnx2とした時、n番目の光像ブ
ロックの上下左右の境界位置を各々Bmy1,Bmy
2,Bmx1,Bmx2とした時、 Bny1≦Bmy2 かつ Bny2≧Bmy1 の条件式が成り立った場合、二つの光像ブロックの垂直
方向座標は略等しいと判断する。次いで、この垂直方向
座標の略等しいものの無い光像ブロックを排除する。そ
の後、略等しいものの有る光像ブロックについて各々の
水平方向のブロック間隔Δmnを調べ、その値が所定範
囲内(Δ1≦Δmn≦Δ2)のもののみを採用する(但
し、Δ1,Δ2は定数)。この時点でプルキンエ像候補
ペアが一つあれば(光像ブロックの数が二つであれ
ば)、これをプルキンエ像として採用する。もしこの時
点でプルキンエ像が決定できない場合には次の処理を行
う。
In the second process, the vertical coordinate of the optical image block adopted in the first process is examined. If a certain light image block and a certain light image block overlap or are in contact with each other in the vertical direction, it is determined that the two light image blocks have substantially the same vertical coordinates. That is, the upper, lower, left, and right boundary positions of the n-th optical image block are respectively Bny1, B
Assuming ny2, Bnx1, and Bnx2, the upper, lower, left, and right boundary positions of the n-th optical image block are Bmy1, Bmy, respectively.
2, Bmx1 and Bmx2, if the conditional expressions of Bny1 ≦ Bmy2 and Bny2 ≧ Bmy1 are satisfied, it is determined that the vertical coordinates of the two optical image blocks are substantially equal. Then, the light image blocks without the substantially equal vertical coordinates are eliminated. After that, the horizontal block intervals Δmn of the optical image blocks having substantially the same values are examined, and only those having a value within a predetermined range (Δ1 ≦ Δmn ≦ Δ2) are adopted (where Δ1 and Δ2 are constants). At this point, if there is one Purkinje image candidate pair (if the number of optical image blocks is two), this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0108】三番目の処理では、プルキンエ像ペアの最
大輝度値の平均値をまず求めた後、その値を比較し、最
大のものをプルキンエ像として選択する。
In the third processing, the average value of the maximum luminance values of the pair of Purkinje images is first obtained, and then the values are compared, and the largest one is selected as the Purkinje image.

【0109】例えば、ブロックB1とB2,B3とB4
が二番目までの処理で選ばれている場合、光像ブロック
B1,B2,B3,B4の輝度値の平均値Iave1,
Iave2,Iave3,Iave4を次式の様にして
計算する。
For example, blocks B1 and B2, B3 and B4
Is selected in the second processing, the average value Iave1, of the brightness values of the optical image blocks B1, B2, B3, B4 is
Iave2, Iave3, and Iave4 are calculated by the following equation.

【0110】 Iave1=SI[1]/〔(B1x2−B1x1+1)* (B1y2−B1y2+1)〕 Iave2=SI[2]/〔(B2x2−B2x1+1)* (B2y2−B2y2+1)〕 Iave3=SI[3]/〔(B3x2−B3x1+1)* (B3y2−B3y2+1)〕 Iave4=SI[4]/〔(B4x2−B4x1+1)* (B4y2−B4y2+1)〕 そして、「Iave1+Iave2」と「Iave3+
Iave4」を比較し、「前者≧後者」の関係にあるな
らば、B1,B2をプルキンエ像とし、「前者<後者」
の関係にあるならば、B3,B4をプルキンエ像とす
る。
Iave1 = SI [1] / [(B1x2-B1x1 + 1) * (B1y2-B1y2 + 1)] Iave2 = SI [2] / [(B2x2-B2x1 + 1) * (B2y2-B2y2 + 1)] Iave3 = SI [3] / [(B3x2-B3x1 + 1) * (B3y2-B3y2 + 1)] Iave4 = SI [4] / [(B4x2-B4x1 + 1) * (B4y2-B4y2 + 1)] Then, "Iave1 + Iave2" and "Iave3 +".
Iave4 ”, and if there is a relation of“ former ≧ latter ”, B1 and B2 are Purkinje images, and“ former <latter ”
B3 and B4 are Purkinje images.

【0111】また、プルキンエ像ペアの最大輝度値の平
均値を比較し、その値が最大のものを選択するようにし
てもよい。
Further, the average values of the maximum luminance values of the Purkinje image pairs may be compared and the one having the maximum value may be selected.

【0112】以上のようにして決定されたプルキンエ像
ペアP1,P2及びプルキンエ像Pcの座標は P1x=SIx[n]/SI[n] P1y=SIy[n]/SI[n] P2x=SIx[m]/SI[m] P2y=SIy[m]/SI[m] Pcx=(P1x+P2x)/2 Pcy=(P1y+Pyx)/2 のように計算される。但し、P1x,P1y,P2x,
P2y,Pcx,Pcyはプルキンエ像ペアP1,P2
及びプルキンエ像Pcの水平垂直座標である。また、n
番目,m番目の光像ブロックがプルキンエ像として選択
されたものとする。但し、SI[n],SIx[n],
SIy[n]はn番目のブロックの輝度の和、輝度と水
平座標の積の和、輝度と垂直座標の積の和である。
The coordinates of the Purkinje image pairs P1 and P2 and the Purkinje image Pc determined as described above are P1x = SIx [n] / SI [n] P1y = SIy [n] / SI [n] P2x = SIx [ m] / SI [m] P2y = SIy [m] / SI [m] Pcx = (P1x + P2x) / 2 Pcy = (P1y + Pyx) / 2 However, P1x, P1y, P2x,
P2y, Pcx and Pcy are Purkinje image pairs P1 and P2
And the horizontal and vertical coordinates of the Purkinje image Pc. Also, n
It is assumed that the 1st and mth optical image blocks are selected as the Purkinje image. However, SI [n], SIx [n],
SIy [n] is the sum of the luminance of the n-th block, the sum of the products of luminance and horizontal coordinates, and the sum of the products of luminance and vertical coordinates.

【0113】次に、ステップ110へ移り、「瞳孔円の
演算」動作を行う。
Next, the routine proceeds to step 110, where a "pupil circle calculation" operation is performed.

【0114】この「瞳孔円の演算」動作は、図11に示
すステップ401から423までによって、以下のよう
にして行われる。
This "pupil circle calculation" operation is performed as follows by steps 401 to 423 shown in FIG.

【0115】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエッジ(スロー
プ)における最低輝度MIN(e) 及び画像全体の最低輝
度MIN0をメモリ2に記憶している(eはエッジ番
号)。
In the above-mentioned pupil edge extraction processing, the MPU
Reference numeral 1 stores the coordinates of the extracted pupil edge, the lowest luminance MIN (e) at the edge (slope) and the lowest luminance MIN0 of the entire image in the memory 2 (e is an edge number).

【0116】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MIN(e) )と画像全
体の最低輝度(MIN0+定数C)を比較し、 MIN(e) ≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Therefore, first, the MPU 1 compares the minimum luminance (MIN (e)) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the entire image, and MIN (e) ≤MIN0 + constant C If the condition is not satisfied, the pupil edge existing in the area is excluded as an inappropriate one.

【0117】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平垂直座標(Pnx,Pny)を
中心にしたエリア内のもの、例えば、(Pnx−定数,
Pny−定数),(Pnx−定数,Pny+定数),
(Pnx+定数,Pny−定数),(Pnx+定数,P
ny+定数)の4点で囲まれた四角形内のものを排除す
ることにより行われる。プルキンエ像は2個存在するの
で、この処理は各々のプルキンエ像について行われる。
Then, the pupil edge around the Purkinje image obtained in the previous step 109 is eliminated. This is in an area centered on the horizontal and vertical coordinates (Pnx, Pny) of the Purkinje image, for example, (Pnx-constant,
Pny-constant), (Pnx-constant, Pny + constant),
(Pnx + constant, Pny−constant), (Pnx + constant, P
It is carried out by excluding those in the quadrangle surrounded by four points (ny + constant). Since there are two Purkinje images, this processing is performed for each Purkinje image.

【0118】次いで、プルキンエ像との位置関係により
不適当と思われるエッジを排除する。
Next, edges that are considered inappropriate due to the positional relationship with the Purkinje image are eliminated.

【0119】プルキンエ像と瞳孔の関係は図12のよう
になる。但し、この図は説明を容易にするため、プルキ
ンエ像の位置を固定しているが、実際の眼球運動におい
てはプルキンエ像,瞳孔ともに移動する。図12より図
13の斜線で示す範囲に入るものを瞳孔エッジとして適
切なエッジとみなすことができる。Oは二つのプルキン
エ像の中心位置(平均位置)である。また、β1,β
2,β3,β4,β5,β6,β7,β8の値は瞳孔径
を考慮して可変にしてもよい。この場合、AEに用いる
測光情報から瞳孔径を推定し、瞳孔径が小さければ(明
るい場合)、β1,β2,β3,β4,β5,β6,β
7,β8の値を小さく、瞳孔径が大きければ(暗い場
合)、β1,β2,β3,β4,β5,β6,β7,β
8の値を大きくする。
The relationship between the Purkinje image and the pupil is as shown in FIG. However, in this figure, the position of the Purkinje image is fixed for ease of explanation, but in the actual eye movement, both the Purkinje image and the pupil move. From FIG. 12, it is possible to consider that those falling within the range shown by the diagonal lines in FIG. 13 are appropriate edges as pupil edges. O is the center position (average position) of the two Purkinje images. Also, β1, β
The values of 2, β3, β4, β5, β6, β7, β8 may be variable in consideration of the pupil diameter. In this case, the pupil diameter is estimated from the photometric information used for AE, and if the pupil diameter is small (when it is bright), β1, β2, β3, β4, β5, β6, β
If the values of 7 and β8 are small and the pupil diameter is large (in the dark), β1, β2, β3, β4, β5, β6, β7, β
Increase the value of 8.

【0120】また、上記の第1の実施例の方法とこの第
2の実施例の方法とを併用してもよく、その場合、両者
の方法でともに適切とみなされた瞳孔エッジを以下の処
理で用いればよい。
Further, the method of the first embodiment and the method of the second embodiment may be used in combination, and in this case, the pupil edge considered appropriate by both methods is subjected to the following processing. Can be used in.

【0121】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。この演算は
水平方向のみに関して行ってもよいし、水平垂直両方向
に関して行ってもよい。また、この処理を二重に行って
もよい。すなわち、[平均値m−a*標準偏差σ〜平均
値m+a*標準偏差σ]の範囲内に入ったものの平均値
m′と標準偏差σ′を再び求め、この二量によって定め
られる範囲[平均値m′−a*標準偏差σ′〜平均値
m′+a*標準偏差σ′]内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [average value m−
a * standard deviation σ-average value m + a * standard deviation σ (however, a
Is a constant)]. This calculation may be performed only in the horizontal direction or may be performed in both the horizontal and vertical directions. Also, this process may be performed twice. That is, the average value m ′ and the standard deviation σ ′ of those within the range of [average value m−a * standard deviation σ−average value m + a * standard deviation σ] are obtained again, and the range defined by these two quantities [average Only values within the range of m′−a * standard deviation σ ′ to average value m ′ + a * standard deviation σ ′] are adopted.

【0122】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心及び瞳孔半径を求める。この方法と
しては最小二乗法を用いれば良い。
Next, the pupil center and the pupil radius are obtained by using the pupil edges selected as described above. As this method, the least square method may be used.

【0123】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
After that, the process proceeds to step 111, and the rotation angle of the eyeball and the viewpoint position on the focus plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, the AF point and the like are determined based on this viewpoint position, and the camera is controlled.

【0124】上記の第1及び第2の実施例によれば、二
次元撮像素子を用い、多数の瞳孔エッジの位置を求める
過程において、あるエリアにおける最低値(又はその瞳
孔エッジに対応する最低輝度)を座標と共に記憶し、こ
の値が画像全体の最低値に略等しくない場合には、不適
当なエッジとしてこれを排除したり、抽出(決定)され
るプルキンエ像位置の周辺にエッジが有るか否かを判別
し、有ればこれを不適当なエッジとして排除したり、プ
ルキンエ像と抽出されたエッジとの位置関係が所定の関
係にあるか否かを判別し、所定の関係になければこれを
不適当なエッジとしてことを排除したり、抽出されたエ
ッジに統計的処理、つまり、平均値と標準偏差を求め、
これらの値により定められた範囲内になるか否かを判別
し、この範囲外であればこれを不適当なエッジとして排
除するするようにしている為、眼球の状態に依らず良好
に瞳孔エッジの抽出並びに瞳孔(瞳孔中心,瞳孔径)の
算出を行うことが可能となる。
According to the first and second embodiments described above, in the process of obtaining the positions of a large number of pupil edges using the two-dimensional image sensor, the lowest value in a certain area (or the lowest brightness corresponding to the pupil edge). ) Is stored with the coordinates, and if this value is not approximately equal to the minimum value of the entire image, it is excluded as an inappropriate edge, and there is an edge around the Purkinje image position to be extracted (determined). If there is not a predetermined relationship, it is determined whether there is a predetermined relationship between the Purkinje image and the extracted edge. Exclude this as an inappropriate edge, or statistically process the extracted edges, that is, obtain the average value and standard deviation,
It is determined whether or not it falls within the range defined by these values, and if it is outside this range, it is excluded as an inappropriate edge. Can be extracted and the pupil (pupil center, pupil diameter) can be calculated.

【0125】(第3の実施例)図14及び図15は本発
明の第3の実施例における視線検出装置を備えたカメラ
の主要部分の動作を示すフローチャートであり、他の実
施例と異なるのは、受光手段としてラインセンサを用い
ると共に単一のIERDを点灯して処理を行う点であ
る。従って、回路構成としては、図1に示した第1の実
施例とは、CCDがラインセンサに、IRED群が一つ
のIREDになる点のみ異なり、他は同様である。ま
た、該カメラのメインルーチンは図2に示した第1の実
施例であるので、この動作に関わる部分の説明では同一
のステップ番号を付すものとする。
(Third Embodiment) FIGS. 14 and 15 are flowcharts showing the operation of the main part of the camera equipped with the visual axis detection device according to the third embodiment of the present invention, which is different from those of the other embodiments. The point is that a line sensor is used as the light receiving means and a single IERD is turned on for processing. Therefore, the circuit configuration is different from that of the first embodiment shown in FIG. 1 only in that the CCD serves as a line sensor and the IRED group serves as one IRED, and the others are the same. Further, since the main routine of the camera is the first embodiment shown in FIG. 2, the same step numbers will be given in the description of the parts related to this operation.

【0126】第1の実施例と同様、カメラの不図示のレ
リーズ釦の第1ストローク操作に連動するスイッチSW
1のONなどにより視線検出の要求がなされると、MP
U1はステップ102からの視線検出のルーチンに入
る。
Similar to the first embodiment, the switch SW interlocked with the first stroke operation of the release button (not shown) of the camera.
When a line-of-sight detection request is made by turning on 1 etc., MP
U1 enters the visual axis detection routine from step 102.

【0127】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う。そして、ステップ104以
降の蓄積制御動作へと移る。
In step 102, the initialization of the variables used in the calculation is performed, and in the next step 103, the accumulation time is set. Then, the process proceeds to the storage control operation after step 104.

【0128】まず、ステップ104においては、ライン
センサの電荷クリア動作を行うための指示をドライバ回
路3に対して行う。この指示を受けたドライバ回路3は
クリア動作を行い、ラインセンサのメモリゾーン、電荷
転送ライン等に残っている電荷を消去する。次いで、ス
テップ105において、IREDを点灯させるためにI
RED駆動信号をドライバ回路3に送信すると同時に、
蓄積信号をハイレベルにしてラインセンサによる蓄積を
開始し、上記の設定した蓄積時間が経過したら蓄積信号
をローレベルにし、蓄積を終了する。
First, in step 104, the driver circuit 3 is instructed to perform the charge clearing operation of the line sensor. Upon receiving this instruction, the driver circuit 3 performs a clear operation to erase the charges remaining in the memory zone of the line sensor, the charge transfer line, and the like. Then, in step 105, I
At the same time as transmitting the RED drive signal to the driver circuit 3,
The accumulation signal is set to the high level to start accumulation by the line sensor, and when the accumulation time set above has elapsed, the accumulation signal is set to the low level and the accumulation is completed.

【0129】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 proceeds to the operations after step 106 for performing the processing of extracting the optical image block (Purkinje image candidate) and the pupil edge candidate.

【0130】まず、ステップ106においては、ドライ
バ回路3を介してラインセンサ上の画像信号を順次読み
込み、A/D変換を行い、メモリ2にその値を記憶して
いく。そして、次のステップ107において、このデー
タを使って光像ブロック(プルキンエ像候補)並びに瞳
孔エッジ候補の抽出処理を行っていく。
First, in step 106, the image signal on the line sensor is sequentially read through the driver circuit 3, A / D conversion is performed, and the value is stored in the memory 2. Then, in the next step 107, the optical image block (Purkinje image candidate) and the pupil edge candidate are extracted using this data.

【0131】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図14のフローチ
ャートを用いて説明する。
Here, the "extraction of the pupil edge" performed in the above step 107 will be described with reference to the flowchart of FIG.

【0132】まず、MPU1はステップ501におい
て、ラインセンサ上のデータを読み込み、次のステップ
502において、このデータより最低値MINL並びに
その位置(座標)を求める。そして、ステップ503に
おいて、水平方向にセンサを分割し、各々のエリアにお
ける最低値を求める。
First, in step 501, the MPU 1 reads the data on the line sensor, and in the next step 502, the minimum value MINL and its position (coordinates) are obtained from this data. Then, in step 503, the sensor is divided in the horizontal direction, and the minimum value in each area is obtained.

【0133】そして、ステップ504以降において、水
平方向の瞳孔エッジ抽出を最低値MINLの座標より開
始する。
After step 504, the extraction of the pupil edge in the horizontal direction is started from the coordinates of the minimum value MINL.

【0134】まず、ステップ505において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。さらに、全てのスロープ内の画素に
ついて隣りの画素との差が一定値Cde以上か否かを調
べる。例えば、d[j−n]−d[j],d[j−n]
−d[j−(n−1)]……について調べる。このよう
にすることによって、信号強度が最低値に略等しい瞳孔
部からある一定値以上の傾斜をもって立上がるスロープ
(瞳孔エッジのスロープ)を検出することができる。
First, in step 505, the counter is decremented to detect the left pupil edge. Then, it is checked whether or not the output signal monotonically decreases over n pixels. That is, it is checked whether the following equations d [j] <d [j-1] <d [j-2] <... <d [j- (n-1)] <d [j-n] are satisfied. . At this time, if the monotonous decrease continues, the count is continued during that time and the slope length D is obtained. Furthermore, it is checked whether or not the difference between the pixels in all the slopes and the adjacent pixels is a certain value Cde or more. For example, d [j-n] -d [j], d [j-n]
Check -d [j- (n-1)] .... By doing so, it is possible to detect a slope (a slope of the pupil edge) which rises from the pupil portion where the signal intensity is substantially equal to the minimum value, with an inclination of a certain value or more.

【0135】次いで、ステップ506において、まつ毛
による輝度変化の影響を取り除く処理を行う。
Next, in step 506, a process of removing the influence of the luminance change due to the eyelashes is performed.

【0136】このまつ毛による輝度変化は前述した様に
図6に示す様になる。そこで、アップエッジAと対にな
るダウンエッジBがその直後にないか否かを調べること
で、いま検出したエッジがまつ毛か否かの判断ができ
る。
The change in luminance due to the eyelashes is as shown in FIG. 6 as described above. Therefore, by checking whether or not there is a down edge B paired with an up edge A immediately after that, it can be determined whether or not the detected edge is eyelashes.

【0137】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
If the above three conditions are satisfied, the vicinity of the pixel (j-2D) (for example, j-2D ± several pixels) is examined,
If there is a value that is approximately equal to the minimum value (MIN), it is determined that this luminance change is due to the eyelashes.

【0138】そして、以上の3つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ507において、左側
瞳孔エッジ情報として画素番号(j+j−D)/2をメ
モリ2に記憶する。
Those which satisfy the above three conditions are regarded as pupil edges, and in step 507, the pixel number (j + j-D) / 2 is stored in the memory 2 as left pupil edge information.

【0139】この処理をMPU1はラインセンサの有効
範囲の端部に達するまで行う(ステップ508)。その
後、MPU1は反対側(右側)の瞳孔エッジを検出する
ステップ509以降のルーチンへ移る。
The MPU 1 performs this processing until the end of the effective range of the line sensor is reached (step 508). After that, the MPU 1 proceeds to the routine after step 509 for detecting the pupil edge on the opposite side (right side).

【0140】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ509から513まで)において
も、同様の処理を行う。
Similar processing is performed in the routine (steps 509 to 513) for detecting the pupil edge on the opposite side (right side).

【0141】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is: (1) It monotonically increases over n pixels (the slope length D is obtained).

【0142】(2)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(2) Regarding the pixels in all slopes, the difference from the adjacent pixel is equal to or more than the constant value Cde.

【0143】(3)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号Lと
画素番号(j+j+D)をメモリ2に記憶し、有効範囲
の端部に達するまで処理を継続する。
(3) There is no down edge immediately after the up edge (not a change in brightness due to eyelashes). If the three conditions are satisfied, the position is regarded as the pupil edge, the line number L and the pixel number (j + j + D) are stored in the memory 2 as the right pupil edge information, and the process is continued until the end of the effective range is reached. To do.

【0144】以上のようにしてこの処理をラインセンサ
上の有効範囲内の全画素について行う。
As described above, this processing is performed for all the pixels within the effective range on the line sensor.

【0145】再び図2に戻り、ステップ108におい
て、第1の実施例と同様にしてプルキンエ像選択の処理
を行う。
Returning to FIG. 2 again, in step 108, the Purkinje image selection processing is performed in the same manner as in the first embodiment.

【0146】つまり、一番目の処理では、各々の光像ブ
ロックの水平方向のブロック幅を調べ、その幅がともに
定数CH 以下のもののみ採用する。これ以上ブロック幅
が大きいものは、眼鏡のゴースト・外光のまぶた等での
反射などプルキンエ像以外の光像である為、排除する。
この時点でのプルキンエ像候補が一つになればこれをプ
ルキンエ像として採用する。もしこの時点でプルキンエ
像が決定できない場合に、次の処理を行う。
That is, in the first processing, the block width in the horizontal direction of each optical image block is checked, and only those widths of which are equal to or less than the constant CH are adopted. Objects having a larger block width than this are optical images other than the Purkinje image, such as ghosts of eyeglasses and reflection of external light from the eyelids, and are excluded.
If there is only one Purkinje image candidate at this point, this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0147】二番目の処理では、プルキンエ像の輝度値
の平均値をまず求めた後、その値を比較し、最大のもの
をプルキンエ像として選択する。
In the second processing, the average value of the luminance values of the Purkinje image is first obtained, and then the values are compared, and the largest one is selected as the Purkinje image.

【0148】例えば、ブロックB1とB2,B3がこれ
までの処理で選ばれている場合、光像ブロックB1,B
2,B3の輝度値の平均値Iave1,Iave2,I
ave3を次式の様にして計算する。
For example, when the blocks B1, B2, and B3 are selected by the above processing, the optical image blocks B1 and B3 are selected.
2, average values Iave1, Iave2, I of the brightness values of B3
ave3 is calculated by the following equation.

【0149】 Iave1=SI[1]/(B1x2−B1x1+1) Iave2=SI[2]/(B2x2−B2x1+1) Iave3=SI[3]/(B3x2−B3x1+1) そして、Iave1,Iave2,Iave3を比較
し、最も値の大きいものをプルキンエ像とする。
Iave1 = SI [1] / (B1x2-B1x1 + 1) Iave2 = SI [2] / (B2x2-B2x1 + 1) Iave3 = SI [3] / (B3x2-B3x1 + 1) Then, Iave1, Iave2, and Iave3 are compared, The one with the highest value is the Purkinje image.

【0150】以上のようにして決定されたプルキンエ像
Pcの座標は Pcx=SIx[n]/SI[n] のように計算される。但し、Pcxはプルキンエ像Pc
の水平座標である。また、n番目の光像ブロックがプル
キンエ像として選択されたものとする(ステップ10
9)。
The coordinates of the Purkinje image Pc determined as described above are calculated as Pcx = SIx [n] / SI [n]. However, Pcx is the Purkinje image Pc
Is the horizontal coordinate of. Further, it is assumed that the nth optical image block is selected as the Purkinje image (step 10).
9).

【0151】次に、ステップ110へ移り、「瞳孔円の
演算」を以下のようにして行う。
Then, the process proceeds to step 110, and "pupil circle calculation" is performed as follows.

【0152】この「瞳孔円の演算」は図15のステップ
601から617までにおいて、以下のようにして行わ
れる。
This "pupil circle calculation" is performed as follows in steps 601 to 617 of FIG.

【0153】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエッジ(スロー
プ)における最低輝度MINn及び画像全体の最低輝度
MIN0をメモリ2に記憶している。
In the above-mentioned pupil edge extraction processing, the MPU
Reference numeral 1 stores the coordinates of the extracted pupil edge, the lowest luminance MINn at the edge (slope) and the lowest luminance MIN0 of the entire image in the memory 2.

【0154】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MIN(e) )と画像全
体の最低輝度(MIN0+定数C)を比較し、 MIN(e) ≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Therefore, first, the MPU 1 compares the minimum luminance (MIN (e)) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the entire image, and MIN (e) ≤MIN0 + constant C If the condition is not satisfied, the pupil edge existing in the area is excluded as an inappropriate one.

【0155】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平位置Pnxを中心にしたエリア
内のもの、例えば、(Pnx−定数),(Pnx+定
数)で囲まれた範囲内のものを排除することにより行わ
れる。
Then, the pupil edge around the Purkinje image obtained in the previous step 109 is eliminated. This is performed by excluding those in the area centered on the horizontal position Pnx of the Purkinje image, for example, those in the range surrounded by (Pnx-constant) and (Pnx + constant).

【0156】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [average value m−
a * standard deviation σ-average value m + a * standard deviation σ (however, a
Is a constant)].

【0157】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心を求める。これは、採用された瞳孔
エッジの平均値により求めることができる。
Next, the pupil center is obtained by using the pupil edge selected as described above. This can be determined by the average value of the adopted pupil edges.

【0158】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
After that, the routine proceeds to step 111, where the rotation angle of the eyeball and the viewpoint position on the focusing plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, the AF point and the like are determined based on this viewpoint position, and the camera is controlled.

【0159】上記の第3の実施例によれば、ラインセン
サを用い、多数の瞳孔エッジの位置を求める過程におい
て、あるエリアにおける最低値(又はその瞳孔エッジに
対応する最低輝度)を座標と共に記憶し、この値が画像
全体の最低値に略等しくない場合には、不適当なエッジ
としてこれを排除したり、抽出(決定)されるプルキン
エ像位置の周辺にエッジが有るか否かを判別し、有れば
これを不適当なエッジとして排除したり、プルキンエ像
と抽出されたエッジとの位置関係が所定の関係にあるか
否かを判別し、所定の関係になければこれを不適当なエ
ッジとしてことを排除したり、抽出されたエッジに統計
的処理、つまり、平均値と標準偏差を求め、これらの値
により定められた範囲内になるか否かを判別し、この範
囲外であればこれを不適当なエッジとして排除するする
ようにしている為、眼球の状態に依らず良好に瞳孔エッ
ジの抽出並びに瞳孔(瞳孔中心,瞳孔径)の算出を行う
ことが可能となる。
According to the third embodiment described above, the lowest value in a certain area (or the lowest luminance corresponding to the pupil edge) is stored together with the coordinates in the process of obtaining the positions of many pupil edges using the line sensor. However, if this value is not substantially equal to the minimum value of the entire image, it is excluded as an inappropriate edge, or it is determined whether or not there is an edge around the Purkinje image position to be extracted (determined). , If it exists, it is excluded as an inappropriate edge, or it is determined whether the positional relationship between the Purkinje image and the extracted edge has a predetermined relationship. It is excluded as an edge, or statistical processing is performed on the extracted edge, that is, the average value and the standard deviation are obtained, and it is determined whether or not it falls within the range defined by these values. Bako Because you have to eliminate as improper edge extraction and pupil (pupil center, pupil diameter) of the well pupil edge regardless of the state of the eyeball it becomes possible to calculate the.

【0160】[0160]

【発明の効果】以上説明したように、本発明によれば、
瞳孔エッジ抽出手段内に、受光手段にて得られる各エリ
ア毎の最低輝度値を記憶する第1の記憶手段と、受光手
段にて得られる全エリア内における最低輝度値を記憶す
る第2の記憶手段と、前記各エリア毎の最低輝度値と全
エリア内における最低輝度値とをそれぞれ比較し、各エ
リアにおける最低輝度値が全エリア内における最低輝度
値に等しくない場合、そのエリア内のエッジは瞳孔エッ
ジとして不適当なものとして排除する瞳孔エッジ判別手
段とを設け、瞳孔エッジの最低輝度値に相当する全エリ
ア内における最低輝度値と等しくない最低輝度値を持つ
エリア内のエッジは、瞳孔エッジとして不適当なものと
して排除するようにしている。
As described above, according to the present invention,
In the pupil edge extraction means, a first storage means for storing the lowest luminance value for each area obtained by the light receiving means, and a second storage for storing the lowest luminance value for all areas obtained by the light receiving means. Means, comparing the minimum brightness value of each area and the minimum brightness value in all areas, respectively, when the minimum brightness value in each area is not equal to the minimum brightness value in all areas, the edge in that area A pupil edge discriminating means for eliminating as an inappropriate pupil edge is provided, and an edge in an area having a lowest luminance value which is not equal to the lowest luminance value in all areas corresponding to the lowest luminance value of the pupil edge is a pupil edge. I try to eliminate it as inappropriate.

【0161】また、本発明は、瞳孔エッジ抽出手段内
に、プルキンエ像抽出手段にて抽出されたプルキンエ像
の周辺にエッジが存在するか否かを判別し、存在する場
合はこのエッジは瞳孔エッジとして不適当なものとして
排除する瞳孔エッジ判別手段を設け、瞳孔エッジはプル
キンエ像の周辺に位置しないことは明らかであることか
ら、このプルキンエ像の周辺に存在するエッジは瞳孔エ
ッジとして不適当なものとして排除するようにしてい
る。
Further, according to the present invention, it is determined whether or not there is an edge in the periphery of the Purkinje image extracted by the Purkinje image extracting unit in the pupil edge extracting unit, and if there is, this edge is the pupil edge. A pupil edge discriminating means for eliminating as inappropriate is provided, and it is clear that the pupil edge is not located in the periphery of the Purkinje image. Therefore, the edge existing in the periphery of the Purkinje image is not suitable as the pupil edge. I'm trying to exclude it.

【0162】また、本発明は、瞳孔エッジ抽出手段内
に、抽出した各エッジの位置とプルキンエ像位置抽出手
段にて抽出されたプルキンエ像が所定の位置関係にある
か否かを判別し、プルキンエ像と所定の位置関係にない
エッジは瞳孔エッジとして不適当なものとして排除する
瞳孔エッジ判別手段を設け、瞳孔エッジとプルキンエ像
は所定の位置関係にあることから、この所定の関係に無
いエッジは瞳孔エッジとして不適当なものとして排除す
るようにしている。
Further, according to the present invention, it is determined in the pupil edge extraction means whether or not the positions of the respective extracted edges and the Purkinje image extracted by the Purkinje image position extraction means have a predetermined positional relationship, and the Purkinje image is extracted. An edge that does not have a predetermined positional relationship with the image is excluded as an inappropriate pupil edge, and a pupil edge discriminating unit is provided. Since the pupil edge and the Purkinje image have a predetermined positional relationship, an edge that does not have this predetermined relationship is The pupil edge is excluded as an inappropriate one.

【0163】また、瞳孔エッジ抽出手段内に、抽出した
エッジに統計的処理を施して、つまり抽出したエッジの
平均値と標準偏差を求め、これらの値より定められた範
囲外のものを瞳孔エッジとして不適当なエッジを排除す
る瞳孔エッジ判別手段を設け、瞳孔エッジを含んだ多数
のエッジの平均値と標準偏差により定められる範囲内に
あるものを瞳孔エッジとみなし、範囲外のものは瞳孔エ
ッジとして不適当なエッジとして排除するようにしてい
る。
In the pupil edge extraction means, the extracted edges are statistically processed, that is, the average value and standard deviation of the extracted edges are obtained, and those outside the range defined by these values are extracted as pupil edges. A pupil edge discriminating means for eliminating inappropriate edges is provided as the pupil edge, and a pupil edge within a range defined by the average value and standard deviation of a large number of edges including the pupil edge is regarded as a pupil edge, and a pupil edge is outside the range. As an inappropriate edge, it is excluded.

【0164】よって、瞳孔エッジの抽出を常に正確に行
うことが可能となる。
Therefore, it becomes possible to always accurately extract the pupil edge.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例装置を具備したカメラの
概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a camera provided with a first embodiment device of the present invention.

【図2】図1のカメラのメイン動作を示すフローチャー
トである。
2 is a flowchart showing a main operation of the camera of FIG.

【図3】図2のステップ107において行われる動作を
示すフローチャートである。
3 is a flowchart showing an operation performed in step 107 of FIG.

【図4】図3の動作の続きを示すフローチャートであ
る。
FIG. 4 is a flowchart showing a continuation of the operation of FIG.

【図5】まつげによる輝度の変化の一例を示す図であ
る。
FIG. 5 is a diagram showing an example of changes in luminance due to eyelashes.

【図6】図2のステップ110において行われる動作を
示すフローチャートである。
FIG. 6 is a flowchart showing an operation performed in step 110 of FIG.

【図7】図6の動作の続きを示すフローチャートであ
る。
FIG. 7 is a flowchart showing a continuation of the operation of FIG.

【図8】眼球運動時のプルキンエ像と瞳孔の位置関係を
説明するための図である。
FIG. 8 is a diagram for explaining the positional relationship between the Purkinje image and the pupil during eye movement.

【図9】本発明の第2の実施例装置を備えたカメラの主
要部分の動作を示すフローチャートである。
FIG. 9 is a flowchart showing an operation of a main part of a camera provided with a second embodiment device of the present invention.

【図10】図9の動作の続きを示すフローチャートであ
る。
FIG. 10 is a flowchart showing a continuation of the operation of FIG.

【図11】本発明の第2の実施例において図2のステッ
プ110において行われる動作を示すフローチャートで
ある。
FIG. 11 is a flowchart showing an operation performed in step 110 of FIG. 2 in the second embodiment of the present invention.

【図12】眼球運動時のプルキンエ像と瞳孔の位置関係
を説明するための図である。
FIG. 12 is a diagram for explaining the positional relationship between the Purkinje image and the pupil during eye movement.

【図13】適切とする瞳孔エッジの範囲を示す図であ
る。
FIG. 13 is a diagram showing an appropriate pupil edge range.

【図14】本発明の第3の実施例装置を備えたカメラの
光像ブロック抽出動作を示すフローチャートである。
FIG. 14 is a flowchart showing an optical image block extracting operation of a camera provided with a third embodiment device of the present invention.

【図15】本発明の第3の実施例装置を備えたカメラの
瞳孔円の演算動作を示すフローチャートである。
FIG. 15 is a flowchart showing the operation of calculating the pupil circle of a camera equipped with the device of the third embodiment of the present invention.

【図16】従来の半導体1次元撮像素子上に観察者の瞳
孔、虹彩を結像した状態を示す図である。
FIG. 16 is a diagram showing a state in which a pupil and an iris of an observer are imaged on a conventional semiconductor one-dimensional image sensor.

【図17】図16の半導体1次元撮像素子上の像の明る
さの分布を示す図である。
17 is a diagram showing a distribution of brightness of an image on the semiconductor one-dimensional image sensor of FIG.

【図18】実際の半導体1次元撮像素子上の像の明るさ
の分布の一例を示す図である。
FIG. 18 is a diagram showing an example of an image brightness distribution on an actual semiconductor one-dimensional image sensor.

【図19】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の他の例を示す図である。
FIG. 19 is a diagram showing another example of the actual distribution of the brightness of the image on the semiconductor one-dimensional image sensor.

【図20】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の別の例を示す図である。
FIG. 20 is a diagram showing another example of an actual image brightness distribution on a semiconductor one-dimensional image sensor.

【図21】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の更に別の例を示す図である。
FIG. 21 is a diagram showing still another example of the distribution of the brightness of the image on the actual semiconductor one-dimensional image sensor.

【符号の説明】[Explanation of symbols]

1 MPU 2 メモリ 4 CCD 5 IRED群 1 MPU 2 memory 4 CCD 5 IRED group

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 7316−2K G03B 3/00 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location 7316-2K G03B 3/00 A

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ファインダ系を覗く観察者の眼球を照射
する投光手段と、該投光手段による上記眼球での反射光
束を受光する受光手段と、該受光手段からの信号よりプ
ルキンエ像を抽出するプルキンエ像抽出手段と、前記受
光手段からの信号より多数のエッジを瞳孔エッジ候補と
して検出し、この中より瞳孔エッジを抽出する瞳孔エッ
ジ抽出手段と、前記プルキンエ像抽出手段と前記瞳孔エ
ッジ抽出手段それぞれからの情報に基づいて上記眼球の
光軸の回転角を算出して観察者の視線方向を検出する演
算手段とを備えた視線検出装置において、前記瞳孔エッ
ジ抽出手段内に、前記受光手段にて得られる各エリア毎
の最低輝度値を記憶する第1の記憶手段と、前記受光手
段にて得られる全エリア内における最低輝度値を記憶す
る第2の記憶手段と、前記各エリア毎の最低輝度値と全
エリア内における最低輝度値とをそれぞれ比較し、各エ
リアにおける最低輝度値が全エリア内における最低輝度
値に等しくない場合、そのエリア内のエッジは瞳孔エッ
ジとして不適当なものとして排除する瞳孔エッジ判別手
段とを設けたことを特徴とする視線検出装置。
1. A light projecting means for irradiating an eyeball of an observer looking through a finder system, a light receiving means for receiving a light flux reflected by the eyeball by the light projecting means, and a Purkinje image extracted from a signal from the light receiving means. Purkinje image extracting means for detecting the number of edges from the signal from the light receiving means as a pupil edge candidate, and a pupil edge extracting means for extracting a pupil edge from these, a Purkinje image extracting means and the pupil edge extracting means In a line-of-sight detection device comprising a calculation means for calculating the rotation angle of the optical axis of the eyeball based on information from each and detecting the line-of-sight direction of the observer, in the pupil edge extraction means, the light-receiving means First storage means for storing the lowest brightness value for each area obtained by the above, and second storage means for storing the lowest brightness value for all areas obtained by the light receiving means. , Comparing the minimum brightness value of each area and the minimum brightness value in all areas, if the minimum brightness value in each area is not equal to the minimum brightness value in all areas, the edge in that area is the pupil edge A line-of-sight detection device, which is provided with a pupil edge determination means that is excluded as inappropriate.
【請求項2】 ファインダ系を覗く観察者の眼球を照射
する投光手段と、該投光手段による上記眼球での反射光
束を受光する受光手段と、該受光手段からの信号よりプ
ルキンエ像を抽出するプルキンエ像抽出手段と、前記受
光手段からの信号より多数のエッジを瞳孔エッジ候補と
して検出し、この中より瞳孔エッジを抽出する瞳孔エッ
ジ抽出手段と、前記プルキンエ像抽出手段と前記瞳孔エ
ッジ抽出手段それぞれからの情報に基づいて上記眼球の
光軸の回転角を算出して観察者の視線方向を検出する演
算手段とを備えた視線検出装置において、前記瞳孔エッ
ジ抽出手段内に、前記プルキンエ像抽出手段にて抽出さ
れたプルキンエ像の周辺にエッジが存在するか否かを判
別し、存在する場合はこのエッジは瞳孔エッジとして不
適当なものとして排除する瞳孔エッジ判別手段を設けた
ことを特徴とする視線検出装置。
2. A light projecting means for irradiating an eyeball of an observer looking into the finder system, a light receiving means for receiving a light flux reflected by the eyeball by the light projecting means, and a Purkinje image extracted from a signal from the light receiving means. Purkinje image extracting means for detecting the number of edges from the signal from the light receiving means as a pupil edge candidate, and a pupil edge extracting means for extracting a pupil edge from these, a Purkinje image extracting means and the pupil edge extracting means In a line-of-sight detection device comprising a calculation means for calculating the rotation angle of the optical axis of the eyeball based on information from each and detecting the line-of-sight direction of the observer, in the pupil edge extraction means, the Purkinje image extraction It is determined whether or not there is an edge around the Purkinje image extracted by the means, and if there is, this edge is rejected as an unsuitable pupil edge. A line-of-sight detection device characterized in that a pupil edge discriminating means for removing the pupil line is provided.
【請求項3】 ファインダ系を覗く観察者の眼球を照射
する投光手段と、該投光手段による上記眼球での反射光
束を受光する受光手段と、該受光手段からの信号よりプ
ルキンエ像を抽出するプルキンエ像抽出手段と、前記受
光手段からの信号より多数のエッジを瞳孔エッジ候補と
して検出し、この中より瞳孔エッジを抽出する瞳孔エッ
ジ抽出手段と、前記プルキンエ像抽出手段と前記瞳孔エ
ッジ抽出手段それぞれからの情報に基づいて上記眼球の
光軸の回転角を算出して観察者の視線方向を検出する演
算手段とを備えた視線検出装置において、前記瞳孔エッ
ジ抽出手段内に、抽出した各エッジと前記プルキンエ像
抽出手段にて抽出されたプルキンエ像が所定の位置関係
にあるか否かを判別し、プルキンエ像と所定の位置関係
にないエッジは瞳孔エッジとして不適当なものとして排
除する瞳孔エッジ判別手段を設けたことを特徴とする視
線検出装置。
3. A light projecting means for irradiating an eyeball of an observer looking through a finder system, a light receiving means for receiving a light flux reflected by the eyeball by the light projecting means, and a Purkinje image extracted from a signal from the light receiving means. Purkinje image extracting means for detecting the number of edges from the signal from the light receiving means as a pupil edge candidate, and a pupil edge extracting means for extracting a pupil edge from these, a Purkinje image extracting means and the pupil edge extracting means In the eye-gaze detecting device having a calculating means for calculating the rotation angle of the optical axis of the eyeball based on the information from each and detecting the eye-gaze direction of the observer, in the pupil edge extracting means, each edge extracted And whether the Purkinje image extracted by the Purkinje image extracting means has a predetermined positional relationship, and the edge not having the predetermined positional relationship with the Purkinje image is the pupil. A line-of-sight detection apparatus comprising a pupil edge discriminating means for eliminating an edge as an inappropriate one.
【請求項4】 ファインダ系を覗く観察者の眼球を照射
する投光手段と、該投光手段による上記眼球での反射光
束を受光する受光手段と、該受光手段からの信号よりプ
ルキンエ像を抽出するプルキンエ像抽出手段と、前記受
光手段からの信号より多数のエッジを瞳孔エッジ候補と
して検出し、この中より瞳孔エッジを抽出する瞳孔エッ
ジ抽出手段と、前記プルキンエ像抽出手段と前記瞳孔エ
ッジ抽出手段それぞれからの情報に基づいて上記眼球の
光軸の回転角を算出して観察者の視線方向を検出する演
算手段とを備えた視線検出装置において、前記瞳孔エッ
ジ抽出手段内に、抽出したエッジに統計的処理を施して
瞳孔エッジとして不適当なエッジを排除する瞳孔エッジ
判別手段を設けたことを特徴とする視線検出装置。
4. A light projecting means for irradiating an eyeball of an observer looking into the finder system, a light receiving means for receiving a light flux reflected by the eyeball by the light projecting means, and a Purkinje image extracted from a signal from the light receiving means. Purkinje image extracting means for detecting the number of edges from the signal from the light receiving means as a pupil edge candidate, and a pupil edge extracting means for extracting a pupil edge from these, a Purkinje image extracting means and the pupil edge extracting means In the line-of-sight detection device having a calculation means for calculating the rotation angle of the optical axis of the eyeball based on information from each and detecting the line-of-sight direction of the observer, in the pupil edge extraction means, to the extracted edge A visual axis detection device comprising a pupil edge discriminating means for performing statistical processing to eliminate an inappropriate edge as a pupil edge.
【請求項5】 瞳孔エッジ判別手段は、抽出したエッジ
の平均値と標準偏差を求め、これらの値より定められた
範囲外のものを瞳孔エッジとして不適当なエッジを排除
する手段であることを特徴とする請求項4記載の視線検
出装置。
5. The pupil edge discriminating means is means for obtaining an average value and a standard deviation of the extracted edges, and rejecting an inappropriate edge as a pupil edge if it is out of a range defined by these values. The line-of-sight detection device according to claim 4.
JP31441092A 1992-10-30 1992-10-30 Eye gaze detection device Expired - Fee Related JP3199877B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31441092A JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31441092A JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Publications (2)

Publication Number Publication Date
JPH06148509A true JPH06148509A (en) 1994-05-27
JP3199877B2 JP3199877B2 (en) 2001-08-20

Family

ID=18053009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31441092A Expired - Fee Related JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Country Status (1)

Country Link
JP (1) JP3199877B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036316A (en) * 1996-10-02 2000-03-14 Canon Kabushiki Kaisha Visual axis detecting device and apparatus including visual axis detecting device
JP2011224213A (en) * 2010-04-21 2011-11-10 Olympus Corp Head mounting type pupil detecting device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036316A (en) * 1996-10-02 2000-03-14 Canon Kabushiki Kaisha Visual axis detecting device and apparatus including visual axis detecting device
JP2011224213A (en) * 2010-04-21 2011-11-10 Olympus Corp Head mounting type pupil detecting device

Also Published As

Publication number Publication date
JP3199877B2 (en) 2001-08-20

Similar Documents

Publication Publication Date Title
US5253008A (en) Camera
JP3230098B2 (en) Focus detection device
JPH0846846A (en) Image pickup device
US5657109A (en) Method of detecting eye component information for determining sight axis direction and sight axis direction detection apparatus
US5543887A (en) Device for detecting line of sight
US5708862A (en) Gazing point detecting device and camera provided with the same
JP2001194576A (en) Range-finding device and camera equipped therewith
JP4536248B2 (en) Imaging device
US5857120A (en) Eye axis detector and camera with eye axis detector
JPH06148509A (en) Line-of-sight detector
JP3178747B2 (en) Eye gaze detection device
JPH06138379A (en) Camera provided with device for detecting line of sight
JPH06142053A (en) Visual axis detecting apparatus
JP2989974B2 (en) Eye gaze detection device
US5570157A (en) Visual axis detection apparatus
JP2002006203A (en) Focusing device and image pickup device
JPH06294930A (en) Camera with detecting function for line of sight
US5848175A (en) View point detecting device
JP2000075198A (en) Device provided with function of detecting line-of-sight
JP3210089B2 (en) Eye gaze detection device and camera
JP3320123B2 (en) Eye gaze detecting apparatus and method, and video camera
JP3171698B2 (en) Camera focal length control device
JPH06138373A (en) Sight line detecting device
JPH04163537A (en) Multipoint range finder with sight line detecting means
JP3630792B2 (en) Gaze detection device and optical device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080615

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees