[go: up one dir, main page]

JPH0738848B2 - Eye tracer - Google Patents

Eye tracer

Info

Publication number
JPH0738848B2
JPH0738848B2 JP2185282A JP18528290A JPH0738848B2 JP H0738848 B2 JPH0738848 B2 JP H0738848B2 JP 2185282 A JP2185282 A JP 2185282A JP 18528290 A JP18528290 A JP 18528290A JP H0738848 B2 JPH0738848 B2 JP H0738848B2
Authority
JP
Japan
Prior art keywords
line
sight
eye
pattern
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2185282A
Other languages
Japanese (ja)
Other versions
JPH0473042A (en
Inventor
明 平岩
勝憲 下原
匡 内山
幸生 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2185282A priority Critical patent/JPH0738848B2/en
Publication of JPH0473042A publication Critical patent/JPH0473042A/en
Publication of JPH0738848B2 publication Critical patent/JPH0738848B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Eye Examination Apparatus (AREA)
  • Emergency Alarm Devices (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、皮膚表面電極から検出された眼筋筋電信号
を高速フーリエ変換して周波数解析したパターンを神経
回路網によって認識して、視線の方向を検出して視線方
向を出力する視線トレーサに関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention recognizes a pattern obtained by performing a fast Fourier transform of an ocular myoelectric signal detected from a skin surface electrode and performing frequency analysis by a neural network to detect a line of sight. The present invention relates to a line-of-sight tracer that detects the direction of the line of sight and outputs the line-of-sight direction.

〔従来の技術〕[Conventional technology]

従来、人の視線方向を検出する方法としては、第1に、
眼球に近接して装着されたLEDから放射される近赤外光
を眼球に照射し、その反射光をフォトトランジスタで受
光し、反射光の強度が眼球の場所によって違うことを利
用し、反射光の2次元的な強度分布から視線方向を検出
する方法があったが、系の構成物であるLED,眼球,受光
素子としてのフォトトランジスタの光軸の較正が簡便で
なく、較正精度によって視線方向測定時の視線角度の測
定精度が大きく左右されるという問題があった。
Conventionally, as a method for detecting the direction of the line of sight of a person, firstly,
The near infrared light emitted from the LED mounted close to the eyeball is applied to the eyeball, and the reflected light is received by the phototransistor, and the intensity of the reflected light varies depending on the location of the eyeball. There was a method to detect the line-of-sight direction from the two-dimensional intensity distribution, but it is not easy to calibrate the optical axes of the system components LED, eyeball, and phototransistor as a light-receiving element, and the line-of-sight direction depends on the calibration accuracy. There is a problem that the measurement accuracy of the line-of-sight angle during measurement is greatly affected.

第2に、臨床医学的に眼球の動きを検査する方法とし
て、眼球に近接する筋肉上の数カ所に皮膚表面電極を貼
付し、眼球の動きを調べる眼振図があるが、この方法
は、眼球を動かす筋肉から得られる筋電信号の高周波成
分を遮断し、記録紙に記録される眼振図を測定者が肉眼
で認識し、眼球の動作方向を検出できるものであるが、
皮膚表面電極は眼球動作に直接関与する筋肉の直上に装
着する必要があった。また、眼球運動、すなわち視線方
向の角度検出はできなかった。
Secondly, as a method for clinically examining the movement of the eyeball, there is a nystagmus that examines the movement of the eyeball by attaching skin surface electrodes to several places on the muscle close to the eyeball. The high-frequency component of the myoelectric signal obtained from the moving muscle is blocked, and the measurer can visually recognize the nystagmus recorded on the recording paper and detect the direction of movement of the eyeball.
It was necessary to attach the skin surface electrode directly above the muscle that is directly involved in eye movement. Further, the eye movement, that is, the angle of the line of sight cannot be detected.

眼振図は眼球動作のための筋肉から得られる筋電図を検
出するものであり、筋電図と眼球の動作の関係は、従来
の筋電義手のための筋電から手動作の認識を自動的に行
う手法の応用として、(1)前記のように眼球動作に直
接関与する筋肉の直上に電極を装着する場合において
は、得られた筋電を平滑整流し、設定域値を越えたら眼
球が動作したと検出する方法、(2)得られた筋電に帯
域フィルタをかけて周波数分割した筋電の周波数スペク
トルに対して、線形識別関数によって眼球動作方向を検
出する方法が容易に考えられるが、前記線形識別関数の
性質からノイズが入ったり、数種の眼筋動作の筋電が同
時に混在すると、識別関数の学習が収束しない、もしく
は動作を認識できない、さらに筋電から眼球動作方向の
角度検出を行うことは充分にはできないという欠点があ
った。
The nystagmus is to detect the electromyogram obtained from the muscles for eye movements, and the relationship between the electromyography and the movements of the eyeball is to recognize the hand movement from the electromyography for the conventional EMG artificial hand. As an application of the automatic method, (1) In the case where the electrode is mounted directly on the muscle directly involved in the eye movement as described above, the obtained myoelectricity is smoothed and rectified, and if the set range value is exceeded, A method of detecting that the eyeball has moved, and (2) a method of detecting the eyeball movement direction by a linear discriminant function with respect to the obtained myoelectricity band spectrum filtered myoelectric frequency spectrum of the myoelectricity can be easily considered. However, if there is noise due to the nature of the linear discriminant function, or if several myoelectrics of eye muscle movements are mixed at the same time, learning of the discriminant function does not converge, or movements cannot be recognized. Angle detection Enough to has a drawback that can not be.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

上記、従来の技術において、第1の近赤外光を用いる方
法では、眼球とセンサの光軸設定における較正が簡便で
ないという問題点があり、第2の眼球動作における眼筋
の筋電を検出する眼振図による方法は、従来は通常は測
定者が目視でおおまかな眼球動作方向を検出するにすぎ
ず、同時に、皮膚表面電極の装着位置に厳密性が要求さ
れる問題があり、筋電義手に見られる従来の筋電認識技
術を応用する方法も容易に考えられるが、従来の方法の
応用では認識のための識別関数の収束性、認識率が悪い
等の問題があった。
In the above-mentioned conventional technique, the method using the first near-infrared light has a problem that calibration in setting the optical axes of the eyeball and the sensor is not simple, and detects the myoelectricity of the eye muscle in the second eyeball movement. The method based on the nystagmus that is usually performed by the operator usually only visually detects the rough eye movement direction, and at the same time, there is a problem that the mounting position of the skin surface electrode is required to be strict. A method of applying the conventional myoelectric recognition technology found in the artificial hand can be easily considered, but the application of the conventional method has problems such as convergence of a discriminant function for recognition and poor recognition rate.

この発明の目的は、眼筋筋電パターンを認識学習するこ
とにより視線を正確に、かつ容易に測定できる視線トレ
ーサを提供することにある。
An object of the present invention is to provide a line-of-sight tracer that can accurately and easily measure the line of sight by recognizing and learning the ocular myoelectric pattern.

〔課題を解決するための手段〕[Means for Solving the Problems]

この発明にかかる視線トレーサは、眼筋筋電信号を検出
する眼筋筋電信号検出部と、 前記眼筋筋電信号を高速フーリエ変換して周波数解析す
る高速フーリエ変換部と、 周波数解析された前記眼筋筋電信号のバンド幅別の信号
成分レベルを数値マトリクスパターンに変換するマトリ
クスパターン変換部と、 複数のユニットとそれらユニットを結ぶ重み付のリンク
からなる学習機能を有する神経回路網で構成され、前記
数値マトリクスパターンを入力として、そのパターンに
対応する眼球の視線方向を出力する認識部と、 前記神経回路網で構成された認識部に対して学習用視線
角度教師用データを出力する視線方向角度教師用データ
生成部と、 からなるものである。
The line-of-sight tracer according to the present invention includes an ophthalmo-myoelectric signal detection unit that detects an ocular myoelectric signal, a fast Fourier transform unit that performs a fast Fourier transform on the ocular myoelectric signal to perform a frequency analysis, and a frequency analysis is performed. Matrix pattern conversion unit that converts the signal component level for each bandwidth of the ocular myoelectric signal into a numerical matrix pattern, and a neural network having a learning function consisting of a plurality of units and weighted links connecting the units And a recognition unit that receives the numerical matrix pattern as an input and outputs the line-of-sight direction of the eyeball corresponding to the pattern, and a line-of-sight that outputs learning-use line-of-sight angle teaching data to the recognition unit that is configured by the neural network. A direction angle teacher data generator, and.

〔作用〕[Action]

この発明においては、使用に際してはターゲットを目で
追いかけることによる視線方向角度教師用データ生成部
によって認識用神経回路網に教師用データを呈示し認識
部の学習を行うことにより皮膚表面電極の貼付位置の自
由度が大きく、認識部の学習後、視線方向,視線角度の
検出が左右の眼球について独立に行うことができる。
According to the present invention, when using, the eye-gaze direction angle teacher data generation unit by chasing the target with the eyes presents the teacher data to the recognition neural network and learns the recognition unit to attach the skin surface electrode. Has a large degree of freedom, and after the learning of the recognition unit, the gaze direction and the gaze angle can be detected independently for the left and right eyeballs.

〔実施例〕〔Example〕

第1図はこの発明の一実施例の全体の構成を示すブロッ
ク図である。なお、以下の信号の添え字において、Lは
左側の眼球、Rは右側の眼球に関する記号、tは教師信
号、yはヨー角、pはピッチ角とする。そして、添え字
による区別が必要でないときは添え字をとる。
FIG. 1 is a block diagram showing the overall construction of an embodiment of the present invention. In the following subscripts of signals, L is a left eyeball, R is a symbol related to the right eyeball, t is a teacher signal, y is a yaw angle, and p is a pitch angle. Then, when the distinction by the subscript is not necessary, the subscript is taken.

第1図において、1−L1,1−R1,1−L2,1−R2は皮膚表面
電極、2はメガネフレームであって、前記各皮膚表面電
極1−L1,1−R1はメガネフレーム2の鼻あてを兼ね、ま
た、各皮膚表面電極1−L2,1−R2はメガネフレームウ2
の耳かけに位置する。3−L,3−Rは増幅器、4−L,4−
Rはローカットフィルタ、5−L,5−Rはハイカットフ
ィルタであり、以上で眼筋筋電信号検出部が構成され
る。6−L,6−Rは高速フーリエ変換部、7−L,7−Rは
マトリクスパターン変換部、8−L,8−Rは認識部、9
は視線方向角度教師用データ作成部である。また、a−
L1,a−L2,a−R1,a−R2は前記皮膚表面電極1−L1,1−L
2,1−R1,1−R2により検出された信号、bL,bRは筋電信
号、cL,cRは低周波成分を遮断された筋電信号、dL,dRは
それぞれ筋電信号cL,cRに対して高周波成分を遮断され
た信号、eL,eRはFFT変換された筋電の周波数解析された
信号、fL,fRは周波数解析された筋電信号のバンド幅別
の信号成分レベルの数値マトリクスパターン、θyL,θy
Rはそれぞれ左目の左右視線方向角度,右目の左右視線
方向角度、θpL,θpRはそれぞれ左目の上下視線方向角
度,右目の上下視線方向角度、θtyL,θtyRはそれぞれ
左目の左右視線角度教師用データ,右目の左右視線角度
教師用データ、θtpL,θtpRはそれぞれ左目の上下視線
方向角度教師用データ,右目の上下視線方向角度教師用
データである。
In FIG. 1, 1-L1,1-R1,1-L2,1-R2 are skin surface electrodes, 2 is a spectacle frame, and each skin surface electrode 1-L1,1-R1 is a spectacle frame 2 Also serves as a nose, and each skin surface electrode 1-L2,1-R2 is a glasses frame 2
Located on the ear ears of. 3-L, 3-R is an amplifier, 4-L, 4-
R is a low-cut filter, and 5-L and 5-R are high-cut filters, which constitute the ocular myoelectric signal detection unit. 6-L and 6-R are fast Fourier transform units, 7-L and 7-R are matrix pattern conversion units, 8-L and 8-R are recognition units, and 9
Is a gaze direction angle teacher data creation unit. Also, a-
L1, a-L2, a-R1, a-R2 are the skin surface electrodes 1-L1,1-L
Signals detected by 2,1-R1 and 1-R2, bL and bR are myoelectric signals, cL and cR are myoelectric signals with low frequency components blocked, and dL and dR are myoelectric signals cL and cR, respectively. On the other hand, high-frequency components are blocked, eL and eR are FFT-transformed myoelectric frequency-analyzed signals, and fL and fR are frequency-analyzed myoelectric signal frequency-analyzed signal component level numerical matrix patterns , ΘyL, θy
R is the left / right eye direction angle, the right eye's left / right eye direction angle, θpL, θpR is the left eye up / down eye direction angle, the right eye up / down eye direction angle, θtyL, θtyR are the left eye left / right eye direction angle teacher data, respectively. Right / left eye gaze angle teacher data, θtpL, θtpR are left eye up / down eye direction angle teacher data and right eye up / down eye direction angle teacher data, respectively.

第2図は、第1図の視線方向角度教師用データ作成部9
の構成例の詳細を示すもので、9−1は視線ターゲット
表示用ディスプレイ、9−2は頭部固定用額押え部、9
−3は頭部固定用鍔押え部、9−4は眼球一視線ターゲ
ット表示用ディスプレイ間距離測定用スケール、9−5
は測定オペレータ用移動指針、9−6は視線方向角度演
算処理部、Kは注視点である。
FIG. 2 is a view direction angle teacher data creation unit 9 of FIG.
9A and 9B show the details of the example of the configuration, 9-1 is a display for displaying a line-of-sight target, 9-2 is a forehead pressing portion for fixing the head, and 9
-3 is a collar holding part for fixing the head, 9-4 is a scale for measuring the distance between the displays for one eye gaze target display, 9-5
Is a moving pointer for the measurement operator, 9-6 is a line-of-sight direction angle calculation processing section, and K is a gazing point.

第3図(a),(b)は視線方向角度教師用データ生成
を説明する図で、Kは注視点、E−L,E−Rは左眼球,
右眼球を示す。
3 (a) and 3 (b) are views for explaining the generation of the viewing direction angle teacher data, where K is the gazing point, E-L and ER are the left eyeballs,
Shows the right eye.

第4図はメガネフレーム2の詳細を示すもので、2はメ
ガネフレームで、レンズ2−1と耳つるべ部2−2とか
らなり、皮膚表面電極1−L1,1−R1,1−L2,1−R2が設け
られる。2−3は前記電極からのリード線を示す。
FIG. 4 shows the details of the spectacle frame 2. Reference numeral 2 is a spectacle frame, which is composed of a lens 2-1 and an ear wheel part 2-2, and skin surface electrodes 1-L1,1-R1,1-L2, 1-R2 is provided. 2-3 is a lead wire from the electrode.

第5図は、第1図の認識部8の構成例で、8−1は認識
用入力パターン、8−2は出力パターン、8−3は学習
用教師信号パターン、8−4は神経回路網の入力層、8
−5は神経回路網の中間層、8−6は神経回路網の出力
層である。
FIG. 5 is a configuration example of the recognition unit 8 in FIG. 1, 8-1 is an input pattern for recognition, 8-2 is an output pattern, 8-3 is a teacher signal pattern for learning, and 8-4 is a neural network. Input layer, 8
-5 is an intermediate layer of the neural network, and 8-6 is an output layer of the neural network.

第6図は学習モード時の全体構成を示すブロック図で、
9−7はターゲット制御部で、その他は第1図,第2図
に示したものと同じである。
FIG. 6 is a block diagram showing the overall configuration in the learning mode,
Reference numeral 9-7 is a target control unit, and the others are the same as those shown in FIGS. 1 and 2.

第7図,第8図はこの発明の処理の流れ図、第9図
(a)〜(c)は筋電信号の変換の過程を示す図であ
る。
7 and 8 are flow charts of the process of the present invention, and FIGS. 9 (a) to 9 (c) are diagrams showing the process of converting myoelectric signals.

以下、第1図から第9図に基づき神経回路網の学習モー
ド(A)と、検出される眼球付近の筋電から視線方向角
度を認識する認識モード(B)の2つに大別してこの発
明の説明を行う。
The present invention is broadly classified into two modes, a learning mode (A) for a neural network and a recognition mode (B) for recognizing the line-of-sight direction angle from the detected myoelectricity near the eyeball, based on FIGS. 1 to 9. Will be explained.

まず、認識部8の神経回路網の学習モードから説明を行
う。
First, the learning mode of the neural network of the recognition unit 8 will be described.

はじめに、概要を説明すると、メガネフレーム2からの
筋電位パターンを入力として、また、視線方向角度教師
用エータ生成部9で算出される視線方向角度を出力とし
て神経回路網から構成されて認識部8に送出し、認識部
8はこれらの入力と出力との対応づけを記憶する。これ
を繰り返し行うと、入力パターンに対応した視線方向角
度を認識モードにおいては出力するようになる。
First, the outline will be described. The recognition unit 8 is composed of a neural network as an input of the myoelectric potential pattern from the spectacle frame 2 and an output of the line-of-sight angle calculated by the line-of-sight direction angle teacher generator 9. The recognition unit 8 stores the correspondence between these inputs and outputs. By repeating this, the line-of-sight direction angle corresponding to the input pattern is output in the recognition mode.

さて、測定オペレータたは験者に遠方を見つめてもら
い、被験者の眼球間隔l0(第3図(a))を測定する。
Now, the measurement operator or the examiner looks into the distance and measures the eyeball interval l 0 (Fig. 3 (a)) of the subject.

次に第2図において、被験者はメガネフレーム2を装着
し、そのまま視線方向角度教師用データ生成部9の鍔押
え部9−3に鍔をのせ、額を額押え部9−2に軽く押し
当て頭部を固定する。オペレータは測定オペレータ用同
指針9−5を被験者の右側90度方向から眼球表面にあわ
せ、スケール9−4をよんで被験者の眼球と視線ターゲ
ット表示用ディスプレイ9−1の距離を測定する。次
に、視線を種々のターゲット位置に合わせ、同時に測定
された筋電パターンとターゲット位置から算出される視
線方向角度の関係を認識部8の神経回路網に学習させ
る。
Next, in FIG. 2, the subject wears the spectacles frame 2, puts the collar on the collar holding portion 9-3 of the line-of-sight direction angle teacher data generating portion 9 as it is, and gently presses the forehead against the forehead holding portion 9-2. Fix the head. The operator aligns the measuring operator's pointer 9-5 with the eyeball surface from the right 90 ° direction of the subject, and reads the scale 9-4 to measure the distance between the subject's eyeball and the eye-gaze target display 9-1. Next, the line of sight is adjusted to various target positions, and the neural network of the recognition unit 8 is made to learn the relationship between the simultaneously measured myoelectric pattern and the line-of-sight angle calculated from the target position.

次に、第3図(a),(b)によって、視線ターゲット
表示用ディスプレイ9−1に表示されるターゲットと、
視線方向角度の関係を説明する。
Next, referring to FIGS. 3 (a) and 3 (b), the target displayed on the visual line target display 9-1 and
The relationship between the line-of-sight direction angles will be described.

第3図(a),(b)における眼球表示と視線ターゲッ
ト表示用ディスプレイ9−1の距離、左右眼球中心間隔
距離l0は前記のとおりオペレータによって測定された既
知であり、眼球半径l2は個人差はあるが、通常の人の眼
球半径l2の平均的な値を常数として使用する。いま、視
線ターゲット表示用ディスプレイ9−1上の視線ターゲ
ットが左右の眼球EL,ERの中間の正面から左に移動し、
ヨー方向に関して眼球正面左側を+の角度、右側を−の
角度とし、l3に関して左右眼球の中間を正面左を+、右
側を−とするとき、左目の視線方向角度θyLはヨー方向
に対しては、 であり、右目の視線方向角度θyRはヨー方向に対して
は、 である。また、第3図(b)において、視線ターゲット
がディスプレイ9−1上で上方へ移動し、ピッチ方向に
関して顔面正面上方を+の角度、下方を−の角度とし、
l4に関して水平方向を+、下方を−とするとき、左目の
視線方向角度θpLはピッチ方向に対しては であり、右目の視線方向角度θpRはピッチ方向に対して
は、 である。
3 (a), the distance of the eye displayed gaze target display for the display 9-1 in (b), the left and right eyeballs center spacing distance l 0 are known measured by the above as an operator, eyeball radius l 2 is Although there are individual differences, the average value of the normal human eye radius l 2 is used as a constant. Now, the line-of-sight target on the line-of-sight target display 9-1 moves to the left from the front in the middle of the left and right eyeballs EL and ER,
With respect to the yaw direction, the front left side of the eyeball is a + angle, the right side is a − angle, and the middle of the left and right eyeballs is + with respect to the front left and the right side with respect to l 3 , the line-of-sight angle θyL of the left eye is relative to the yaw direction. Is And the right eye gaze direction angle θyR is Is. Further, in FIG. 3 (b), the line-of-sight target moves upward on the display 9-1, and the upper side of the face in the pitch direction is a + angle, and the lower side is a − angle,
When the horizontal direction is + and the downward direction is − with respect to l 4 , the angle θpL of the line of sight of the left eye is And the right eye gaze direction angle θpR is Is.

以上得られた視線方向角度は、認識部8の神経回路網へ
の教師データとして後述する正規化の後、神経回路網の
出力層8−6に与えられる。
The line-of-sight direction angle obtained above is given to the output layer 8-6 of the neural network as normalization data, which will be described later, as teacher data for the neural network of the recognition unit 8.

次に、主として第5図,第9図に基づき皮膚表面電極1
−L1,1−R1,1−L2,1−R2から検出される筋電信号の変換
過程を示す。前記の視線方向角度教師用データ生成部9
により被験者が視線ダーゲット表示用ディスプレイ9−
1のターゲットを目で追いかけている最中に、第1図の
皮膚表面電極1によって検出された信号aは増幅器3−
L,3−Rにより左右の目に対して別々に増幅され、時系
筋電信号bとしてローカットフィルタ4−L,4−Rを通
して信号cとなり、さらに、ハイカットフィルタ5−L,
5−Rを通して信号dとなる。いま、信号dとしてロー
カット周波数50Hz、ハイカット周波数15000Hzとして測
定した例を第9図(a)に示す。時系列筋電信号dは各
眼球の動作中にある時間窓の長さ間高速フーリエ変換部
6−L,6−Rにとりこまれ、それぞれの眼球の動作状態
において、検出された信号dの1/3オクターブ周波数解
析されたパターンeに変換される。パターンeとして30
バンド1/3オクターブで50Hzから500Hzまで、高速フーリ
エ変換した例を第9図(b)に示す。パターンeはマト
リクス変換手段により各バンド幅ごとにその信号レベル
が数値マトリクスf(パターンf)に変換される。以
下、認識部8の神経回路網の学習について説明する。
Next, mainly based on FIGS. 5 and 9, the skin surface electrode 1
The conversion process of the myoelectric signal detected from -L1,1-R1,1-L2,1-R2 is shown. The line-of-sight direction angle teacher data generator 9
Causes the subject to display the line of sight 9-
The signal a detected by the skin surface electrode 1 in FIG.
The left and right eyes are separately amplified by the L and 3-R, and become the time c myoelectric signal b through the low cut filters 4-L and 4-R to become the signal c, and the high cut filter 5-L and
It becomes a signal d through 5-R. FIG. 9A shows an example in which the signal d is measured at a low cut frequency of 50 Hz and a high cut frequency of 15000 Hz. The time-series myoelectric signal d is taken into the fast Fourier transform units 6-L and 6-R for the lengths of the time windows during the movement of each eyeball, and one of the detected signal d is detected in the movement state of each eyeball. / 3 octave frequency Converted to pattern e analyzed. 30 as pattern e
An example of fast Fourier transform from 50 Hz to 500 Hz in band 1/3 octave is shown in FIG. 9 (b). The signal level of the pattern e is converted into a numerical matrix f (pattern f) for each bandwidth by the matrix conversion means. Hereinafter, learning of the neural network of the recognition unit 8 will be described.

第5図の例では神経回路網は入力層8−4が10ユニッ
ト、中間層8−5が6ユニット、出力層8−6が2ユニ
ットの例を示す。入力層8−4の10ユニットは高速フー
リエ変換されたパターンfの10バンドのレベル値に対応
し、出力層8−6の2ユニットは2個の眼球のうち、一
方の側の眼球の視線方向のヨー角とピッチ角の2つに対
応する。高速フーリエ変換の数値マトリクスfは認識部
8の入力層8−4に入力される。同時に、認識部8の出
力層8−6にはパターンfに対応したときの眼球の視線
方向角度データθyL,θpL,θyR,θyRが教師信号データ
θtyL,θtyL,θtyR,θtpRとして与えられる。ここで、
認識部8の神経回路網の性質から、教師データは、 のように、正規化した後に認識部8に与えるものとす
る。認識部8の神経回路網の学習は、パターンfとパタ
ーンθtの入力を同じ視線方向、もしくは異なる視線方
向の眼球動作に対して複数回、例えばバックプロパゲー
ション法(文献D.E.Rumelhartら、Parallel Distribute
d Processing,MIT Press 1986)で繰り返す。例えばパ
ターンfを前記神経回路網に入力したときの神経回路網
の視線方向角度θyL,θpL,θyR,θpRと教師信号データ
θtyL,θtpL,θtyR,θtpRをそれぞれ比較して、各ユニ
ットの値ともに両者の誤差が1%以内に収まったときを
学習終了とする。以上の学習モード(A)のフローをま
とめたのが第7図である。
In the example of FIG. 5, the neural network has an input layer 8-4 of 10 units, an intermediate layer 8-5 of 6 units, and an output layer 8-6 of 2 units. The 10 units of the input layer 8-4 correspond to the level values of the 10 bands of the pattern f subjected to the fast Fourier transform, and the 2 units of the output layer 8-6 include the two eyeballs and the viewing direction of the eyeball on one side. It corresponds to two yaw angles and pitch angles. The numerical matrix f of the fast Fourier transform is input to the input layer 8-4 of the recognition unit 8. At the same time, the output layer 8-6 of the recognition unit 8 is provided with the eye-gaze direction angle data θyL, θpL, θyR, θyR corresponding to the pattern f as teacher signal data θtyL, θtyL, θtyR, θtpR. here,
Due to the nature of the neural network of the recognition unit 8, the teacher data is As described above, it is given to the recognition unit 8 after being normalized. The neural network of the recognition unit 8 is learned by inputting the pattern f and the pattern θt a plurality of times with respect to eye movements in the same line-of-sight direction or different line-of-sight directions, for example, the back propagation method (reference DE Rumelhart et al., Parallel Distribute).
d Processing, MIT Press 1986). For example, when the pattern f is input to the neural network, the eye direction angles θyL, θpL, θyR, θpR of the neural network are compared with the teacher signal data θtyL, θtpL, θtyR, θtpR, and both values of each unit are both. The learning ends when the error of is within 1%. FIG. 7 summarizes the flow of the learning mode (A) described above.

次に、神経回路網の認識モード(B)について説明す
る。認識モード(B)とは視線方向角度教師用データ生
成部9から被験者が頭を離して、自由な状態における視
線方向をメガネフレーム2に取り付けられた皮膚表面電
極1から検出される筋電位パターンを認識部8の神経回
路網が認識して視線方向角度を出力するモードである。
これを第1図および第8図に基づいて説明する。メガネ
フレーム2を装着した被験者が眼球を動かすと、眼球動
作中に検出された時系列筋電信号は時間軸上に開いた高
速フーリエ変換の時間窓ごとに離散化して周波数解析さ
れ、マトリクスパターン変換部7にパターンeとして入
力される。パターンeは学習モード(A)時と同様にパ
ターンfとして変換される。パターンfは学習モード
(A)で既に学習されたパターンに基づき対応する眼球
の視線方向角度θyL,θpL,θyR,θyRを出力する。ま
た、未学習のパターンに対しても、神経回路網の一般的
性質により補間した出力値を出力する。ここで、出力さ
れた視線方向角度は神経回路網の性質により0と1の間
に正規化した値であって、学習モード(A)時に教師デ
ータを出力層8−6に教示したときの逆変換して角度値
として出力する。
Next, the recognition mode (B) of the neural network will be described. The recognition mode (B) is a myoelectric potential pattern detected by the skin surface electrode 1 attached to the spectacle frame 2 in the free state of the line of sight of the subject when the subject leaves the head from the line-of-sight angle teacher data generator 9. This is a mode in which the neural network of the recognition unit 8 recognizes and outputs the line-of-sight direction angle.
This will be described with reference to FIGS. 1 and 8. When a subject wearing the spectacle frame 2 moves the eyeball, the time-series myoelectric signals detected during eyeball movement are discretized and frequency-analyzed for each time window of the fast Fourier transform opened on the time axis, and matrix pattern conversion is performed. The pattern e is input to the unit 7. The pattern e is converted as the pattern f as in the learning mode (A). The pattern f outputs the line-of-sight angle θyL, θpL, θyR, θyR of the corresponding eyeball based on the pattern already learned in the learning mode (A). Also, for an unlearned pattern, the output value interpolated by the general property of the neural network is output. Here, the output line-of-sight direction angle is a value normalized between 0 and 1 due to the nature of the neural network, and is the inverse of the teaching data taught to the output layer 8-6 in the learning mode (A). It is converted and output as an angle value.

本実施例では、皮膚表面電極1をメガネフレーム2の鼻
あておよび耳つるべ部2−2に装着した例を示したが、
皮膚表面電極1をメガネフレーム2に装着せずに単独で
貼付し、電極位置を眼球近傍のほかの場所とすること、
スキーゴーグル状のゴーグルと顔面の接触部分に皮膚表
面電極1を内蔵すること、皮膚表面電極1の対の数を増
やして各電極からの信号高速フーリエ変換処理して各バ
ンド別レベル数値パターンに変換して各眼球に対して1
対の電極からだけでなく、数対の電極からパターンを同
時に入力すること、高速フーリエ変換処理のバンド幅、
バンド数を変更すること、認識部8の神経回路網にバッ
クプロパゲーション法以外の線形分離不可能なパターン
をパターンの属性別に分離する能力を有する神経回路網
を用いること、視線方向角度教師用データ生成部9にお
ける視線方向の検出をターゲットの追跡によって行うの
でなく、眼球を正面からカメラで捉えた映像において、
眼球の黒目部分を画像抽出し、眼球の黒目の真円に対す
るゆがみから視線方向を検出して認識部8に対する視線
方向の教師用データを生成する方法はそれぞれ独立に実
施することが可能である。
In the present embodiment, an example in which the skin surface electrode 1 is attached to the nose pad and the ear strap portion 2-2 of the spectacle frame 2 has been shown.
Affixing the skin surface electrode 1 separately without mounting it on the eyeglass frame 2 and setting the electrode position to another place near the eyeball,
The skin surface electrode 1 is built in the contact area between the ski goggles and the face, the number of pairs of the skin surface electrode 1 is increased, and the signal from each electrode is processed by the fast Fourier transform to be converted into a level numerical pattern for each band. Then 1 for each eyeball
Inputting patterns not only from pairs of electrodes but also from several pairs of electrodes, bandwidth of fast Fourier transform processing,
Changing the number of bands, using a neural network having the ability to separate linearly inseparable patterns other than the backpropagation method according to the attribute of the pattern in the neural network of the recognition unit 8, and viewing direction angle teaching data Instead of detecting the line-of-sight direction in the generation unit 9 by tracking the target, in an image in which the eyeball is captured by the camera from the front,
The method of extracting the image of the black-eye part of the eyeball, detecting the line-of-sight direction from the distortion of the true-eye circle of the eyeball, and generating the teacher data of the line-of-sight direction for the recognition unit 8 can be implemented independently.

〔発明の効果〕〔The invention's effect〕

以上説明したように、この発明は、眼球近傍に装着され
た皮膚表面電極からの筋電信号を認識して視線方向角度
を出力する視線トレーサにおいて、眼筋から離れた部位
に装備された皮膚表面電極からの筋電信号は多数の筋肉
からの信号が混在する信号であるが、高速フーリエ変換
によって周波数解析することによって各筋肉別の筋活動
にある程度分離し、さらに、高速フーリエ変換されてあ
る程度筋肉活動が分離されたパターンと眼球の視線方向
角度の関係を線形分離不可能なパターンをパターンの属
性別に識別する能力を有し、学習機能を有する神経回路
網によって複数個教師あり学習し、学習後に神経回路網
によって前記電極から検出される筋電を認識して視線方
向角度を検出するので、前記神経回路網のパターン特徴
の自動化、類似パターンの高識別化、高耐性能力から、
前記学習モード時に眼筋の直上に電極が位置しなくて
も、学習用パターンが多くても、学習用パターンにノイ
ズが混入しても、学習が収束し認識モード時に電極の位
置ずれや筋電信号にノイズやアーチファクトが混入して
も、数種の筋群が並列的に動く眼球動作時に眼筋の直上
に電極が位置しなくても、数種の筋群から発生する筋電
が同時に非線形に干渉,混合して皮膚表面に到達する皮
膚表面電極から対応する眼球の動作である視線方向角度
を検出できるので、従来の眼振図の測定のように、皮膚
表面電極の貼付位置が限定されずに電極位置に関しての
自由度が大きいので、通常のメガネフレームと顔面の接
触位置に皮膚表面電極を内蔵することが可能であり、測
定時の被験者の美観をそこねにくいという利点がある。
また、視線方向認識時の視線方向の検出においては、光
学的な方向は使用しないので、光軸の調整のような較正
が必要ないという利点がある。また、左右の眼球につい
て視線方向角度を左右独立に検出できるという利点があ
る。
As described above, the present invention is a line-of-sight tracer that recognizes myoelectric signals from a skin surface electrode mounted near the eyeball and outputs the angle of the line-of-sight direction, the skin surface equipped at a site away from the eye muscle. The myoelectric signal from the electrode is a mixture of signals from many muscles, but it is separated into muscle activities of each muscle to some extent by frequency analysis by fast Fourier transform, and further to some extent after fast Fourier transform. It has the ability to discriminate linearly inseparable patterns according to pattern attributes from the relationship between the pattern in which activities are separated and the eye direction angle of the eyeball. Since the neural network recognizes the myoelectricity detected from the electrodes and detects the line-of-sight angle, the pattern features of the neural network are automated and similar patterns are detected. High identification of over emissions from the high resistance capability,
Even if the electrode is not located directly above the eye muscles in the learning mode, even if there are many learning patterns or if noise is mixed in the learning pattern, the learning is converged and the electrode position shift or the myograph is recognized in the recognition mode. Even if noise or artifacts are mixed in the signal, several types of muscle groups move in parallel Even if the electrodes are not located directly above the eye muscles during eye movement, the myoelectric potentials generated by several types of muscle groups are nonlinear at the same time. Since the eye-gaze direction angle, which is the movement of the corresponding eyeball, can be detected from the skin-surface electrode that interferes with and mixes with the skin-surface electrode, the position where the skin-surface electrode is attached is limited, as in the conventional measurement of nystagmus. In addition, since the degree of freedom regarding the electrode position is large, it is possible to incorporate the skin surface electrode at the contact position between the normal eyeglass frame and the face, and there is an advantage that the aesthetic appearance of the subject during measurement is unlikely to be impaired.
In addition, since the optical direction is not used in the detection of the line-of-sight direction when recognizing the line-of-sight direction, there is an advantage that calibration such as adjustment of the optical axis is not necessary. Further, there is an advantage that the viewing direction angles of the left and right eyes can be independently detected.

応用分野としては、人間工学的研究や臨床医学的研究の
ためのツールとしての視線トレーサとしての利用、視覚
装置を有する遠隔ロボットの操縦時におけるロボットの
視覚装置の視線方向をロボットのオペレータが眼球動作
によって遠隔制御するための利用、航空機パイロットの
有視界による目標補足と追尾、身障者のコンピュータ操
作自助具としてのポインティングツール、フライトシミ
ュレータのビジュアルシステムにおいて、CGの演算負荷
減少のためにパイロットの視野方向付近のみ高精細画像
とするための視線トレーサとして利用、コンピュータ操
作従事者のためのカーソルポインティングツールとして
の利用、レム睡眠検出のための眼球運動計測装置として
の利用等が考えられる。
Application fields include use as a line-of-sight tracer as a tool for ergonomic research and clinical medicine research, and the robot operator's eye movement of the line-of-sight direction of the robot's visual device when operating a remote robot with a visual device. Use for remote control by aircraft, supplementing and tracking targets by visual field of aircraft pilot, pointing tool as a computer-assisted self-help tool for people with disabilities, flight simulator visual system, near the visual field of the pilot to reduce the computational load of CG It can be used as a line-of-sight tracer for high-definition images, as a cursor pointing tool for computer operators, and as an eye movement measurement device for REM sleep detection.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例を示す全体の構成図、第2
図は、第1図において視線方向角度教師用データ生成部
の構成例を示す図、第3図(a),(b)は視線方向角
度教師用データ生成を説明する図、第4図は、第1図に
おけるメガネフレームの詳細を示す斜視図、第5図は、
第1図における認識部の神経回路網による構成例を示す
図、第6図はこの発明における学習モードの説明図、第
7図,第8図はこの発明における学習モードと認識モー
ドの処理の流れ図、第9図(a)〜(c)は筋電信号の
変換の過程を示す図である。 図中、1は皮膚表面電極、2はメガネフレーム、3は増
幅器、4はローカットフィルタ、5はハイカットフィル
タ、6は高速フーリエ変換部、7はマトリクスパターン
変換部、8は認識部、9は視線方向角度教師用データ生
成部、Eは眼球である。
FIG. 1 is an overall configuration diagram showing an embodiment of the present invention, and FIG.
FIG. 1 is a diagram showing a configuration example of a gaze direction angle teacher data generation unit in FIG. 1, FIGS. 3 (a) and 3 (b) are diagrams explaining gaze direction angle teacher data generation, and FIG. FIG. 5 is a perspective view showing details of the eyeglass frame in FIG.
FIG. 1 is a diagram showing an example of the configuration of a recognition unit by a neural network in FIG. 1, FIG. 6 is an explanatory diagram of a learning mode in the present invention, and FIGS. 9 (a) to 9 (c) are diagrams showing a process of converting myoelectric signals. In the figure, 1 is a skin surface electrode, 2 is a spectacle frame, 3 is an amplifier, 4 is a low cut filter, 5 is a high cut filter, 6 is a fast Fourier transform unit, 7 is a matrix pattern conversion unit, 8 is a recognition unit, and 9 is a line of sight. A direction angle teacher data generation unit, E is an eyeball.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 8825−4C A61B 5/10 310 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location 8825-4C A61B 5/10 310 A

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】眼筋筋電信号を検出する眼筋筋電信号検出
部と、 前記眼筋筋電信号を高速フーリエ変換して周波数解析す
る高速フーリエ変換部と、 周波数解析された前記眼筋筋電信号のバンド幅別の信号
成分レベルを数値マトリクスパターンに変換するマトリ
クスパターン変換部と、 複数のユニットとそれらユニットを結ぶ重み付のリンク
からなる学習機能を有する神経回路網で構成され、前記
数値マトリクスパターンを入力として、そのパターンに
対応する眼球の視線方向を出力する認識部と、 前記神経回路網で構成された認識部に対して学習用視線
角度教師用データを出力する視線方向角度教師用データ
生成部と、 からなることを特徴とする視線トレーサ。
1. An ophthalmo-myoelectric signal detecting section for detecting an ocular myoelectric signal, a fast Fourier transform section for performing a fast Fourier transform on the ocular myoelectric signal to perform a frequency analysis, and the frequency-analyzed ocular muscle A matrix pattern conversion unit for converting the signal component level for each bandwidth of the myoelectric signal into a numerical matrix pattern, and a neural network having a learning function consisting of a plurality of units and a weighted link connecting the units, A recognition unit that inputs a numerical matrix pattern and outputs the eye gaze direction corresponding to the pattern, and a gaze direction angle teacher that outputs learning gaze angle teacher data to the recognition unit configured by the neural network. A line-of-sight tracer, comprising:
JP2185282A 1990-07-16 1990-07-16 Eye tracer Expired - Fee Related JPH0738848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2185282A JPH0738848B2 (en) 1990-07-16 1990-07-16 Eye tracer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2185282A JPH0738848B2 (en) 1990-07-16 1990-07-16 Eye tracer

Publications (2)

Publication Number Publication Date
JPH0473042A JPH0473042A (en) 1992-03-09
JPH0738848B2 true JPH0738848B2 (en) 1995-05-01

Family

ID=16168113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2185282A Expired - Fee Related JPH0738848B2 (en) 1990-07-16 1990-07-16 Eye tracer

Country Status (1)

Country Link
JP (1) JPH0738848B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736610A (en) * 1993-06-28 1995-02-07 Nissan Motor Co Ltd Presented picture controller
DE29603944U1 (en) * 1996-03-02 1996-04-25 Hortmann GmbH, 72654 Neckartenzlingen Device for detecting eye movements
JP4722573B2 (en) * 2005-06-10 2011-07-13 株式会社エヌ・ティ・ティ・ドコモ Facial information detection device and facial information detection type communication device
JP5321951B2 (en) * 2008-06-30 2013-10-23 いすゞ自動車株式会社 Driving burden judgment device
WO2014144940A2 (en) * 2013-03-15 2014-09-18 Percept Technologies, Inc. Enhanced optical and perceptual digital eyewear
JP6796642B2 (en) * 2015-11-10 2020-12-09 ダイアグノーシス・エルエルシー Methods and devices for evaluating electrophysiological signals
JP7154259B2 (en) * 2020-08-11 2022-10-17 株式会社トプコン ophthalmic equipment

Also Published As

Publication number Publication date
JPH0473042A (en) 1992-03-09

Similar Documents

Publication Publication Date Title
US5649061A (en) Device and method for estimating a mental decision
Kocejko et al. Eye mouse for disabled
US5726916A (en) Method and apparatus for determining ocular gaze point of regard and fixation duration
US5360971A (en) Apparatus and method for eye tracking interface
US5517021A (en) Apparatus and method for eye tracking interface
US20020047987A1 (en) Flicker and frequency doubling in virtual reality
CA2579063A1 (en) System and method for mental workload measurement based on rapid eye movement
US20200375500A1 (en) Systems and methods for detection and correction of abnormal movements
Rantanen et al. Capacitive measurement of facial activity intensity
CN114041793A (en) RSVP target recognition system and method integrating multi-mode fatigue monitoring and regulation
López et al. EOG-based system for mouse control
WO2024140417A1 (en) Human-machine interaction collection method, apparatus and system for wearable extended reality device
JPH0738848B2 (en) Eye tracer
KR100325365B1 (en) Gaze detection system
CN119007273B (en) Cognitive disorder recognition method based on facial information fusion
US20240350051A1 (en) Systems and methods for using eye imaging on a wearable device to assess human health
KR101539923B1 (en) Bio-Signal Based Eye-Tracking System Using Dual Machine Learning Structure and Eye-Tracking Method using The Same
TWI689283B (en) Eye tracing method and system enabled by eye convergence
Bulygin et al. Image-based fatigue detection of vehicle driver: state-of-the-art and reference model
Zhang et al. Fatigue detection with 3D facial features based on binocular stereo vision
CN116522280B (en) Emotion grading recognition method and system based on virtual reality simulation acquisition
Karen Electrography (EOG) Signal Pattern Identification Using the Procrustes Method
JPH06289985A (en) Input device
CN119679370A (en) A method and system for analyzing the neurodevelopmental status of infants
Istomina et al. Monitoring Methods for Biocontrol of Robotic Wheelchairs

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees