[go: up one dir, main page]

JP4088282B2 - Computer input method and apparatus - Google Patents

Computer input method and apparatus Download PDF

Info

Publication number
JP4088282B2
JP4088282B2 JP2004240649A JP2004240649A JP4088282B2 JP 4088282 B2 JP4088282 B2 JP 4088282B2 JP 2004240649 A JP2004240649 A JP 2004240649A JP 2004240649 A JP2004240649 A JP 2004240649A JP 4088282 B2 JP4088282 B2 JP 4088282B2
Authority
JP
Japan
Prior art keywords
eye
iris
computer
eyes
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004240649A
Other languages
Japanese (ja)
Other versions
JP2006059147A (en
Inventor
清実 中村
博史 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2004240649A priority Critical patent/JP4088282B2/en
Publication of JP2006059147A publication Critical patent/JP2006059147A/en
Application granted granted Critical
Publication of JP4088282B2 publication Critical patent/JP4088282B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

この発明は、コンピュータ等のディスプレイに表示される画面上の任意の位置をポイントし、さらに処理を実行させるために利用されるポインティングデバイスによるコンピュータ入力方法と装置に関する。   The present invention relates to a computer input method and apparatus using a pointing device that is used for pointing an arbitrary position on a screen displayed on a display of a computer or the like and executing processing.

従来、コンピュータ技術やインターネットの発展とともに、コンピュータが一般の家庭でも使われるようになり、それに伴いコンピュータをより快適に使うためのマン・マシン・インターフェースも発達してきた。現在、一般にはコンピュータや通信機等にデータを入力する手段としては、キーボード及びポインティングデバイスが主に用いられている。   Conventionally, with the development of computer technology and the Internet, computers have come to be used in general households, and accordingly, man-machine interfaces have been developed for more comfortable use of computers. Currently, a keyboard and a pointing device are mainly used as means for inputting data to a computer, a communication device, or the like.

ポインティングデバイスは、伝統的な文字入力を基本とするインターフェイスではなく、ボタンやメニューなどのグラフィックスの部品を使って設計されたユーザーインターフェイスであるウインドウシステムなどのGUI(Graphical User Interface)に用いられるものである。従って、ポインティングデバイスは、GUIによる画面上の任意の場所をポイントするために利用される入力手段である。このポインティングデバイスの代表的な機器としてマウスがある。   Pointing devices are used for GUIs (Graphical User Interfaces) such as window systems, which are user interfaces designed using graphics components such as buttons and menus, rather than traditional character input interfaces. It is. Therefore, the pointing device is an input means used for pointing to an arbitrary place on the screen by the GUI. A mouse is a representative device of this pointing device.

しかし、マウスの操作は、手足の不自由な人にとっては使い勝手が悪いという問題点があった。このため、従来のマウスの代わりに、8方向のボタンを設けたスイッチボックスにより、ボタン操作でマウスの操作に近い動作をさせるものがある。また、コンピュータ等を使用する使用者の目の動きを利用したコンピュータ入力技術が最近開発されている。   However, the operation of the mouse has a problem that it is unusable for a person with a handicapped person. For this reason, instead of the conventional mouse, there is a switch box provided with buttons in eight directions so that the operation by the button operation is close to that of the mouse. Recently, a computer input technique using the movement of the eyes of a user who uses a computer has been developed.

目の動きを検出する方法としては、赤外線を眼球にあて開眼時と閉眼時の赤外線反射量の差によりスイッチをオンオフさせる瞬きスイッチが開発されている。また、角膜反射法と瞳孔画像を組み合わせた視線入力装置などがある。その他には、コンピュータを使用する人の視線を計測するために、眼鏡に頭部の動きを検出するために使用する三角形赤外線反射枠をつけるものもある。   As a method for detecting eye movement, a blinking switch has been developed in which infrared light is applied to the eyeball and the switch is turned on / off based on the difference in the amount of infrared reflection between when the eye is opened and when the eye is closed. There is also a line-of-sight input device that combines a cornea reflection method and a pupil image. In addition, in order to measure the line of sight of a person using a computer, there is a type in which a triangular infrared reflecting frame used for detecting movement of the head is attached to spectacles.

さらに、特許文献1では、コンピュータを使用する使用者の顔をカメラにより撮像し、撮像した画像から目の視線を推測し、目が注視する画面上の視点位置を求めている。そして、画面上に視点を示すカーソルが表示され、画面上に表示されるメニューとの重なりを検出し、重なったメニューの処理を行うことによりコンピュータを操作する方法が提案されている。
特開2003−196017号公報 特開2003−150942号公報 特開2002−14765号公報 特開平11−110120号公報 特開平10−143316号公報
Furthermore, in patent document 1, the face of the user who uses a computer is imaged with a camera, the eyes | visual_axis of an eye is estimated from the imaged image, and the viewpoint position on the screen where an eye gazes is calculated | required. A method of operating a computer by displaying a cursor indicating a viewpoint on the screen, detecting an overlap with a menu displayed on the screen, and processing the overlapped menu has been proposed.
JP 2003-196017 A JP 2003-150942 A JP 2002-14765 A JP 11-110120 A Japanese Patent Laid-Open No. 10-143316

上記従来の技術のうち、マウスの代わりにスイッチボックスを用いる方法は、手が不自由な人にとっては、まったく動かせないものである。   Among the above conventional techniques, the method using a switch box instead of a mouse cannot be moved at all by a handicapped person.

また、角膜反射法と瞳孔画像を組み合わせた視線入力装置では、角膜反射点と瞳孔中心の相対的な位置補正が必要なため、高い精度を得ることがむずかしく、誤入力の問題がある。また、眼球へ赤外線を照射するため、長時間使用においては目への問題がある。さらに、ヘッドレストに頭部を固定する煩わしさもある。その他、障害者用コンピュータ操作支援ツールは、個人ごとに操作条件等を別々に用意する必要がある。また、目もしくは頭部に何らの装置を装着する方法では、手足の不自由な人でも、コンピュータの操作が可能になるが、コンピュータを操作する度に、装置を装着するのは煩わしく、装置を装着することによる違和感があるものであった。さらに、長時間使用するとストレスが溜まりやすいという欠点もあった。   Further, in the line-of-sight input device that combines the corneal reflection method and the pupil image, it is difficult to obtain high accuracy because of the relative position correction between the corneal reflection point and the pupil center, and there is a problem of erroneous input. In addition, since the eyeball is irradiated with infrared rays, there is a problem with the eyes when used for a long time. Furthermore, there is also the trouble of fixing the head to the headrest. In addition, the computer operation support tool for persons with disabilities needs to prepare operation conditions and the like separately for each individual. In addition, in the method of attaching any device to the eyes or head, even a person with limited limbs can operate the computer, but it is bothersome to wear the device every time the computer is operated. There was something wrong with wearing it. In addition, there is a drawback that stress tends to accumulate when used for a long time.

特許文献1では、これらの欠点を改善し、目や頭部に何も装着せずに視線方向を決定し、視線方向に位置する入力データを決定するものである。しかし、コンピュータの画面上に、操作に使用する特別なメニュー画面を表示し、そのメニューを視線により選択してコンピュータを操作するものである。この方法では、マウス等のポインティングデバイスによる一般的な操作と、操作方法が異なるため、例えば、一般的なソフトウェアを、マウス等により操作する場合と同じように操作することはできない。このため、ソフトウェアごとに対応したメニュー画面が必要となり、操作性が悪いばかりでなくコストもかかるものであった。   In Patent Document 1, these drawbacks are improved, the line-of-sight direction is determined without wearing anything on the eyes and head, and input data positioned in the line-of-sight direction is determined. However, a special menu screen used for operation is displayed on the computer screen, and the computer is operated by selecting the menu with a line of sight. In this method, since a general operation using a pointing device such as a mouse is different from an operation method, for example, general software cannot be operated in the same manner as when operating with a mouse or the like. For this reason, a menu screen corresponding to each software is required, which is not only poor in operability but also expensive.

この発明は、上記従来技術の問題を鑑みて成されたもので、手動操作によるマウス等のポインティングデバイスに近い操作性を有し、手足の不自由な人や手による操作ができない場合でも、容易にコンピュータの操作ができるコンピュータ入力方法と装置を提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, has operability close to a pointing device such as a mouse by manual operation, and can be easily operated even when a person with a limb or a hand cannot be operated. Another object of the present invention is to provide a computer input method and apparatus capable of operating a computer.

この発明は、動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶するコンピュータ等の記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識して、目の操作によりコンピュータの入力を行うコンピュータ入力方法において、前記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入るテンプレートと比較しながらスキャンし、目の虹彩部分と顔の他の部分との画像の濃淡を検知して目の位置を検出し、さらにその目の位置での虹彩面積を求めて、求めた虹彩面積により目の開閉状態を判断し、コンピュータの所定の処理入力とするコンピュータ入力方法である。   The present invention relates to a camera capable of capturing a moving image, a storage device such as a computer that stores images captured by the camera in a predetermined cycle, and an eye operation by recognizing a position of a human face imaged by the camera. In the computer input method for performing computer input, the image information of the face of the person captured by the camera is scanned while comparing with a template that falls within the range of the iris size of the person's eyes, Detect the shade of the image with other parts of the face to detect the position of the eye, further determine the iris area at that eye position, determine the open / closed state of the eye based on the determined iris area, This is a computer input method for processing input.

前記目の虹彩面積は、その目の位置での所定範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の閾値以上であることにより判断する。前記目の虹彩面積を測定する所定範囲は、目の虹彩が入る程度の縦横の長さを有した矩形の範囲である。そして、前記矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様に前記の矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目の閉状態と判断し、前記目の虹彩認識により求めた目の開閉状態判断において、任意に設定した一定時間目が閉じていると判断された場合に、コンピュータのポインティングデバイスのクリック動作による所定の処理入力とするものである。 The iris area of the eye is determined based on a predetermined range at the position of the eye, and the total of locations where the image density is equal to or greater than a predetermined threshold is equal to or greater than the predetermined threshold. The predetermined range for measuring the iris area of the eye is a rectangular range having a vertical and horizontal length enough to contain the iris of the eye. Then, in the rectangular range, the sum of the portions where the image darkness is equal to or greater than a predetermined threshold is determined to be an eye iris when it is equal to or greater than a predetermined value. The eye open / closed state determined by iris recognition when it is determined that the eye is closed when the sum of the areas where the image darkness is equal to or greater than a predetermined threshold within the rectangular range is equal to or less than a predetermined value. In the determination, when it is determined that the arbitrarily set fixed time is closed, a predetermined processing input is made by a click operation of the pointing device of the computer.

前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、ドラッグ動作の有効若しくは無効を切り替える機能を備え、任意に設定した一定時間目が開状態で所定範囲に停留していると判断された場合に、前記コンピュータのポインティングデバイスのドラッグ動作を有効とし、前記ポインティングデバイスによる保持を可能とし、さらに前記目が一定時間開状態で、所定範囲に停留していると判断された場合に、前記ポインティングデバイスのドラッグ動作を無効としてドロップ動作を行うものである。さらに、前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、スクロール動作の有効若しくは無効を切り替える機能を備え、スクロール動作が無効の時、任意に設定した一定時間以上両目が閉じていると判断された場合に、前記ポインティングデバイスを有効にして、画面スクロール動作可能とし、一定範囲以上目を上下に移動させることにより前記画面を上下方向にスクロール動作させ、スクロール動作が有効の時、前記両目が一定時間以上閉じていると判断された場合には、前記スクロール動作をオフにするものである。 The pointing device of the computer has a function of judging the open / closed state of the eye based on the iris area recognized as the iris of the eye, and switching the valid / invalid state of the drag operation. If it is determined that the computer is stopped within a predetermined range, the drag operation of the pointing device of the computer is enabled, the holding by the pointing device is enabled, and the eye is open for a certain period of time and is stopped within the predetermined range. If it is determined that the pointing device has been dragged, the drag operation of the pointing device is invalidated and a drop operation is performed . Furthermore, the pointing device of the computer has a function of judging whether the eye is opened or closed based on the iris area recognized as the iris of the eye, and switching the scroll operation between valid and invalid. If it is determined that both eyes are closed for a certain time set in the above, the pointing device is enabled to enable screen scrolling, and the screen is scrolled up and down by moving the eyes up and down over a certain range. The scroll operation is turned off when it is determined that both eyes are closed for a predetermined time or more when the scroll operation is enabled .

またこの発明は、動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶する記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識する目位置認識手段とを有したコンピュータ入力装置において、上記目位置認識手段は、上記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入る大きさであって前記虹彩の幅のテンプレートと比較しながらスキャンし、目の虹彩部分と眉及び顔の他の部分との画像の濃淡を検知して人の目の位置を検出するものであり、さらに、その目の位置で、前記目の虹彩が入る程度の縦横の長さを有するとともに前記テンプレートよりも大きい矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様にして画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目が閉じていると判断するまばたき検出手段と、前記まばたき検出手段により検知された目の閉じた状態が一定時間以上であるか否かによりクリック動作であるか否か判断するクリック判断手段とを設け、前記クリック判断手段による判断により前記コンピュータの所定の処理入力を行うコンピュータ入力装置である。 The present invention also includes a camera capable of capturing a moving image, a storage device that stores images captured by the camera at predetermined intervals, and eye position recognition means for recognizing the positions of human eyes captured by the camera. In the computer input device, the eye position recognizing means is configured to store the image information of the human face captured by the camera within a range of the iris size of the human eye and the iris width template. scan in comparison with, is for detecting the position of the human eye to detect the density of an image of the iris portion and the eyebrows and other parts of the face of the eye, further, at the position of the eye, the eye The iris of the eye has a length and width that is sufficient to contain the iris of the image, and is larger than the template. Recognize that there is Of determining the open state, similarly to a total depth of locations equal to or greater than a predetermined threshold image, the blink detection unit that determines that the eyes are closed by equal to or less than a predetermined value, the blink detection unit Click determination means for determining whether or not the click operation is based on whether or not the closed state of the eyes detected by the step is a predetermined time or more, and a predetermined processing input of the computer is determined by the determination by the click determination means. Computer input device to perform.

さらに、前記目の位置での虹彩面積を求めて、求めた虹彩面積を基にしてその虹彩が、任意に設定した一定時間所定範囲内に停留しているか判定することにより目の停留状態を検知する停留検出手段と、前記停留検出手段により検知された目の停留状態を、ドラッグであるか否か判断するドラッグ判断手段とを設け、前記ドラッグ判断手段による判断により前記コンピュータによるドラッグ動作を行うものである Further, the iris area at the eye position is obtained, and based on the obtained iris area, it is determined whether or not the iris is stationary within a predetermined range for an arbitrarily set period of time. and stopping detecting means for the stationary state of the detected eye by the stopping detecting means, provided a drag determination means for determining whether a drug, the determination by the drag determination section to perform a drag operation by the computer It is .

この発明のコンピュータ入力方法と装置によれば、コンピュータの操作を、従来の手動マウス等のポインティングデバイスによる操作に近い操作性を有し、手足の不自由な人や、手を使えない環境下でも、容易に迅速且つ正確なコンピュータの操作ができるものである。   According to the computer input method and apparatus of the present invention, the operation of a computer has operability close to that of a conventional pointing device such as a manual mouse, even in a person with a handicapped person or in an environment where a hand cannot be used. The computer can be operated quickly and accurately.

以下、この発明のコンピュータ入力方法と装置の一実施形態について、図1〜図19を基にして説明する。この実施形態のコンピュータ入力方法と装置は、コンピュータの操作を行うポインティングデバイスとして、一般的な手動マウスの代りに、目で操作することができるポインティングデバイスを用いるものである。   An embodiment of a computer input method and apparatus according to the present invention will be described below with reference to FIGS. The computer input method and apparatus of this embodiment uses a pointing device that can be operated with eyes instead of a general manual mouse as a pointing device for operating a computer.

この実施形態の構成について図1に基づき説明する。この実施形態のコンピュータ入力装置の構成は、コンピュータ2に、ディスプレイ4、キーボード6及びマウス8が接続され、コンピュータ2にはカメラ映像を取り込む図示しない画像入力ボードが装着されている。画像入力ボードは、近赤外高感度CCDを備え動画撮像可能なカメラ10と接続される。また、カメラ10は、ディスプレイ4の上部に、図示しない支持具により据え付られ、カメラ10のレンズ12には赤色フィルタ14が取り付けられている。コンピュータ2のOS(Operating System)は一般的に普及しているものを利用し得る。目操作によるポインティングデバイスのデバイスドライバには、目を追跡するためのプログラム(以下、アイトレースプログラムという)と、カーソルの表示位置情報を換算するマウスドライバプログラムの2つのプログラムから構成される目操作用プログラムがインストールされている。そのほか、一般的な手動マウス用のデバイスドライバもインストールされている。   The configuration of this embodiment will be described with reference to FIG. In the configuration of the computer input device of this embodiment, a display 4, a keyboard 6, and a mouse 8 are connected to the computer 2, and an image input board (not shown) that captures camera video is attached to the computer 2. The image input board is connected to a camera 10 having a near-infrared high-sensitivity CCD and capable of capturing a moving image. The camera 10 is mounted on the upper portion of the display 4 by a support (not shown), and a red filter 14 is attached to the lens 12 of the camera 10. As the OS (Operating System) of the computer 2, a generally popular OS can be used. The eye-operated pointing device device driver includes two programs: an eye tracking program (hereinafter referred to as an eye trace program) and a mouse driver program for converting cursor display position information. The program is installed. In addition, a device driver for a general manual mouse is also installed.

ここで、目操作によるポインティングデバイスのプログラムについて説明する。この目操作用プログラムは、市販のプログラミング言語を用いて開発作成したものであり、このプログラムを構成する2つのプログラムのプロセス間通信には、図2に示すように、既存の名前付きパイプ方式を用いている。   Here, a pointing device program by eye operation will be described. This eye operation program is developed and created using a commercially available programming language. For the inter-process communication between the two programs that make up this program, the existing named pipe method is used as shown in FIG. Used.

次に、目操作によるポインティングデバイス用プログラムについて説明する。まず、アイトレースプログラムについて説明する。   Next, a pointing device program by eye operation will be described. First, the eye trace program will be described.

このアイトレースプログラムは、図3のフローチャートに示すように、目の位置検出、追跡、及びまばたき(目を閉じた状態)検出を行うものである。はじめに、このプログラムの目の位置検出方法及び追跡方法を説明する。カメラ10で取得した顔の濃淡画像を閾値処理により2値化し、2値化画像に対して、図4に示す片目部分テンプレート16によるテンプレートマッチングを行う。このテンプレートマッチングには、残差逐次検出法を用いている。   As shown in the flowchart of FIG. 3, this eye trace program detects the position of the eye, tracks it, and detects blinking (closed eyes). First, the eye position detection method and tracking method of this program will be described. The face grayscale image acquired by the camera 10 is binarized by threshold processing, and template matching is performed on the binarized image using the one-eye portion template 16 shown in FIG. For this template matching, a residual successive detection method is used.

残差逐次検出法は、画素数がL×Lピクセルの画像情報に対してテンプレートデータとの差を逐次求めていくものである。図5に示すように、テンプレートt(x,y)と、撮像画像のテンプレート上の部分入力画像f(x,y)とのマッチング評価値E(p,q)を次式(1)により計算し、所定の閾値を越えた段階で相関はないとして処理を打ち切り、次の位置で同様に計算を行い、マッチング位置を探す方法である。
E(p,q)=ΣM-1 x=0ΣM-1 y=0|f(x+p,y+q)−t(x,y)|・・・(1)
但し、0≦p≦L−M+1,0≦q≦L−M+1
In the residual successive detection method, the difference from the template data is sequentially obtained for image information having the number of pixels of L × L pixels. As shown in FIG. 5, the matching evaluation value E (p, q) between the template t (x, y) and the partial input image f (x, y) on the captured image template is calculated by the following equation (1). In this method, the processing is aborted assuming that there is no correlation when a predetermined threshold value is exceeded, and the same position is calculated at the next position to find a matching position.
E (p, q) = Σ M−1 x = 0 Σ M−1 y = 0 | f (x + p, y + q) −t (x, y) | (1)
However, 0 ≦ p ≦ LM + 1, 0 ≦ q ≦ LM + 1

一般に、図4に示すように成人の目15の角膜の直径は約11mm(縦9.3〜11mm、横10.6〜12mm)である。黒目である虹彩18は角膜下にあり、そのサイズは角膜サイズとほぼ一致することから、この実施形態では、虹彩18のサイズを直径11mmと設定した。片目部分テンプレート16は十字形の直線で構成され、ディスプレイ4の画面上で横幅11mm、縦幅6mmで、線幅は1ピクセルである。1mmあたりのピクセル数は、ディスプレイ4上で一定の長さの直線を引き、そのピクセル数を基に計算する。この実施形態では、1mmは4.2ピクセルとなり、11mmは約46ピクセル、6mmは約25ピクセルに相当する。このような十字形のテンプレート16を用いることにより、目15の傾きがあっても、円形の虹彩18には影響せず、虹彩18との正確なマッチングを得ることができる。   Generally, as shown in FIG. 4, the diameter of the cornea of the adult eye 15 is about 11 mm (length: 9.3 to 11 mm, width: 10.6 to 12 mm). Since the iris 18 which is a black eye is under the cornea and its size substantially matches the cornea size, in this embodiment, the size of the iris 18 is set to 11 mm in diameter. The one-eye portion template 16 is formed by a cross-shaped straight line, has a horizontal width of 11 mm, a vertical width of 6 mm, and a line width of 1 pixel on the screen of the display 4. The number of pixels per mm is calculated based on the number of pixels by drawing a straight line of a certain length on the display 4. In this embodiment, 1 mm is 4.2 pixels, 11 mm is about 46 pixels, and 6 mm is about 25 pixels. By using such a cross-shaped template 16, even if the eye 15 is inclined, the circular iris 18 is not affected, and accurate matching with the iris 18 can be obtained.

この実施形態では、高速化のため4画素ずつ片目部分テンプレート16を移動させテンプレートマッチングを行う。片目部分テンプレート16の横幅のマッチング度は1画素ずつ比べ、縦幅のマッチング度は1画素飛ばしに比較し、横幅の90%以上、縦幅の40%以上のマッチング度が同時に満たされた時に目らしいと判定する。   In this embodiment, template matching is performed by moving the one-eye portion template 16 by four pixels for speeding up. The matching degree of the horizontal width of the one-eye part template 16 is compared pixel by pixel, and the matching degree of the vertical width is compared to skipping one pixel, and when the matching degree of 90% or more of the horizontal width and 40% or more of the vertical width is satisfied simultaneously. Judge that it seems.

また、片目部分テンプレート16によるテンプレートマッチングは、画像上のいくつかの目らしい領域を間違えて検出する恐れがある。その間違い対策として、図6に示すように、目15の周りの特徴をチェック項目として用いた。この実施形態では、虹彩18の基準径を11mmとしている。ここでは図6に示すように、テンプレート16の上下において、眉19の有無を判断材料とした。例えば、虹彩18を11mmとした場合、人の顔の個人差による違いを考慮して、眉19の位置のチェックポイントaはテンプレート16の中心から上25〜50mmの間、眉19と目15との間のチェックポイントbは同じく15〜27mm、目15の下のチェックポイントcは、同じく15〜22mmとし、各2値化されたピクセルの値を基に閾値と比較して判別する。これにより目15の直上では黒い部分が無く、その上方に眉19による黒部分が検知され、目15の下方には黒部分がないということを、2値化された画像データから目検知の判断材料とすることができる。さらに、図6の2点鎖線で示すように、顔画像が拡大した場合も、一定の範囲内であれば、眉19とその下の部分の検知により、目位置を正確に判断することができる。   Further, the template matching by the one-eye partial template 16 may cause some erroneous areas on the image to be detected by mistake. As a countermeasure against the mistake, as shown in FIG. 6, the features around the eyes 15 were used as check items. In this embodiment, the reference diameter of the iris 18 is 11 mm. Here, as shown in FIG. 6, the presence or absence of the eyebrows 19 on the top and bottom of the template 16 is used as a judgment material. For example, when the iris 18 is 11 mm, the check point a at the position of the eyebrow 19 is between 25 and 50 mm above the center of the template 16 in consideration of the difference due to individual differences in the human face. The check point b between 15 and 27 is also 15 to 27 mm, and the check point c below the eye 15 is also 15 to 22 mm, and is determined by comparing with the threshold value based on the binarized pixel values. As a result, it is determined from the binarized image data that there is no black portion immediately above the eye 15, the black portion by the eyebrow 19 is detected above, and the black portion is not below the eye 15. Can be a material. Further, as shown by a two-dot chain line in FIG. 6, even when the face image is enlarged, the eye position can be accurately determined by detecting the eyebrows 19 and the portion below the eyebrows 19 within a certain range. .

これらのチェック項目のマッチング度は、目15の上の部分おいて、眉19の位置で10%以上、眉19と目15の間の位置で20%以上、目15の下の位置では20%以上で、上記チェック項目のマッチングが得られたとき、目15の条件適合性が満たされると判定する。そして、目15であるとする最終判定は、テンプレートマッチングと目15の回りの特徴チェック項目により判定する。これにより、カメラ10により取得した顔画像が拡大・縮小した場合も、一定の範囲内であれば、眉19とその下の部分の検知により目15の位置を正確に判断することができる。   The matching degree of these check items is 10% or more at the position of the eyebrow 19 in the portion above the eye 15, 20% or more at the position between the eyebrow 19 and the eye 15, and 20% at the position below the eye 15. As described above, when the matching of the check items is obtained, it is determined that the condition suitability of the eye 15 is satisfied. The final determination that the eye is 15 is made by template matching and feature check items around the eye 15. Thereby, even when the face image acquired by the camera 10 is enlarged or reduced, the position of the eye 15 can be accurately determined by detecting the eyebrows 19 and the portion below the eyebrows 19 within a certain range.

次に、目15のまばたき(目を閉じた状態)検出について説明する。この実施形態のまばたき検出方法は、黒目である虹彩18の面積の変化から、まばたきを検出している。まばたき検出の処理は、図3に示すように、上述のステップで、カメラ10により取得した濃淡画像から、上述の処理により片目部分のテンプレート16によるテンプレートマッチングを行って目15を検出し、その後虹彩18の面積を測定する。そして、虹彩18の面積測定結果が閾値以下になった場合、目15を閉じたときと判定する。   Next, detection of blinking of eyes 15 (a state where eyes are closed) will be described. In the blink detection method of this embodiment, blinking is detected from a change in the area of the iris 18 that is a black eye. As shown in FIG. 3, in the blink detection process, the eye 15 is detected by performing template matching using the template 16 of the one-eye portion from the grayscale image acquired by the camera 10 in the above-described steps, and then the iris is detected. 18 areas are measured. When the area measurement result of the iris 18 is equal to or less than the threshold value, it is determined that the eye 15 is closed.

虹彩18の面積の測定は、図7に示す測定範囲sを単位として、目15の2値画像をスキャンする。そして、虹彩18と片目部分テンプレート16の横幅のマッチング度が90%以上満たしているときに目らしいと判定し、開眼時の虹彩18の横幅とテンプレート16の横幅は一致したと考える。また、閉眼時には、まつげ20によって横方向に長い黒の部分ができるので、面積を多く測定してしまうことを防ぐために、虹彩18の面積の横方向の測定範囲s1はテンプレート16の横幅とする。また縦方向の測定範囲s2は、虹彩18の中に片目部分テンプレートのマッチする点がいくつも存在することから、マッチポイントが虹彩18の中心からずれることを考慮し、テンプレート16の中心から上下方向に50ピクセルの範囲とした。   The area of the iris 18 is measured by scanning the binary image of the eye 15 with the measurement range s shown in FIG. 7 as a unit. Then, when the degree of matching between the width of the iris 18 and the one-eye partial template 16 satisfies 90% or more, it is determined that the eye 18 is visible, and it is considered that the width of the iris 18 at the time of eye opening coincides with the width of the template 16. Further, when the eye is closed, a long black portion is formed in the horizontal direction by the eyelash 20, and therefore the horizontal measurement range s 1 of the area of the iris 18 is set to the horizontal width of the template 16 in order to prevent a large area from being measured. The vertical measurement range s2 is a vertical direction from the center of the template 16 in consideration of the fact that the match point deviates from the center of the iris 18 because there are many matching points of the one-eye portion template in the iris 18. The range was 50 pixels.

虹彩面積測定の手順は、目15の認識後、虹彩18の面積測定を行う。図8(a)に示すように、テンプレート16の中心位置から上に、図7の縦方向の測定範囲s2内で、ピクセル濃度値が虹彩18の閾値範囲外になるまで移動し、その移動距離を計算する。次に、下方向にも同様にして距離を計算し、上下の移動距離の和を虹彩18の縦幅とする。そして、測定範囲s1内でテンプレート16の左端まで同様の作業を繰り返し、縦幅を合計する。またテンプレート16の右端までも同様にして、縦幅を合計する。この測定は、閉眼時も同様に行われる。閉眼時は、図8(b)に示すように、横方向に長くまつげ20による黒い部分が表れる。しかし、横方向の測定範囲s1は、テンプレート16の横幅であり、虹彩18の閾値以上の濃い部分は、縦方向にまつげ20の上下幅となる。従って、開眼時の虹彩18の面積は、測定範囲s内で、閉眼時のまつげ20を測定した場合よりも大きい値となる。   In the iris area measurement procedure, after the eye 15 is recognized, the area of the iris 18 is measured. As shown in FIG. 8A, the template 16 moves upward from the center position within the vertical measurement range s2 in FIG. 7 until the pixel density value is outside the threshold range of the iris 18, and the movement distance thereof. Calculate Next, the distance is calculated in the same manner in the downward direction, and the sum of the vertical movement distances is set as the vertical width of the iris 18. Then, the same operation is repeated up to the left end of the template 16 within the measurement range s1, and the vertical width is totaled. Similarly, the vertical width is totaled up to the right end of the template 16. This measurement is performed in the same manner when the eyes are closed. When the eye is closed, as shown in FIG. 8B, a black portion due to the eyelashes 20 appears long in the horizontal direction. However, the horizontal measurement range s <b> 1 is the horizontal width of the template 16, and the darker portion of the iris 18 than the threshold is the vertical width of the eyelash 20 in the vertical direction. Therefore, the area of the iris 18 at the time of eye opening becomes a larger value within the measurement range s than when the eyelash 20 at the time of eye closing is measured.

これにより、図7の測定範囲s内で濃度が閾値以上の箇所(上記移動距離)の合計が、所定の閾値以上であれば虹彩18であるとして開眼状態とする。また、この合計が閾値以下であれば、閉眼状態であり、目を閉じた状態であるとする。   As a result, if the total of the locations where the density is greater than or equal to the threshold (the above moving distance) within the measurement range s in FIG. Further, if this sum is equal to or less than the threshold value, it is assumed that the eyes are closed and the eyes are closed.

次に、アイトレースプログラムの目追跡情報により、マウス機能を実行するマウスドライバプログラムについて説明する。このプログラムは、上述のアイトレースプログラムで検出した目の位置座標をもとにして、画面上のカーソルを制御しマウス機能を果たすものである。   Next, a mouse driver program that executes a mouse function based on eye tracking information of the eye tracing program will be described. This program performs a mouse function by controlling the cursor on the screen based on the eye position coordinates detected by the eye trace program.

マウスドライバプログラムのカーソルを動かす移動方法には、絶対座標モード及びベクトルモードがある。そのほか、各モード共通の機能としてナビゲーションウインドウ表示、目追跡有効範囲設定及びデスクトップ有効範囲設定等の機能がある。   The moving method for moving the cursor of the mouse driver program includes an absolute coordinate mode and a vector mode. In addition, functions common to each mode include functions such as navigation window display, eye tracking effective range setting, and desktop effective range setting.

ここで、各機能について説明する。ナビゲーションウインドウ21は、例えば図1のディスプレイ4に表示されているように、画面の四隅のいずれかに表示し、表示・非表示が選択可能になっている。ナビゲーションウインドウ21には、この目操作用プログラムの現在の状態を表示する。表示内容は、顔画像を取り込んだ画像サイズ、カーソル制御の有効・無効、カーソルの移動モード、追跡を行っている目の選択、現在検出している目の位置、カーソルを動かす目の有効範囲等である。また、目追跡有効範囲の設定は、図9に示す目追跡有効範囲設定画面22を表示し、画面の中にカメラ10からの取得画像を表示し、その画像に対して目追跡の検出範囲を設定する。検出範囲の最大は、例えば640×480ドットである。また、カーソルを動かす目の有効範囲の外側へのマウス移動の可否が、選択可能になっている。外側へマウス移動を不可にすると、図10に示されるデスクトップ範囲外には移動しなくなる。なお、図10のデスクトップ有効範囲設定画面24の表示は、図9に示す画面22のデスクトップ範囲のチェックボックスにチェックを入れてボタンをクリックすることにより可能である。   Here, each function will be described. The navigation window 21 is displayed at any one of the four corners of the screen, for example, as displayed on the display 4 in FIG. The navigation window 21 displays the current state of the eye operation program. Display content includes the size of the face image captured, cursor control enabled / disabled, cursor movement mode, tracking eye selection, currently detected eye position, cursor moving effective range, etc. It is. The eye tracking effective range is set by displaying the eye tracking effective range setting screen 22 shown in FIG. 9, displaying the acquired image from the camera 10 on the screen, and setting the eye tracking detection range for the image. Set. The maximum detection range is, for example, 640 × 480 dots. Further, whether or not the mouse can be moved outside the effective range of the eye for moving the cursor can be selected. If the mouse cannot be moved outward, it will not move outside the desktop range shown in FIG. Note that the desktop effective range setting screen 24 in FIG. 10 can be displayed by checking the desktop range check box on the screen 22 shown in FIG. 9 and clicking a button.

次に、カーソルの移動方法について説明する。まず、絶対座標モードについて説明する。カメラ10から入力する画像サイズは決まっており、コンピュータ使用者が顔を動かした場合の目位置は、カメラ画像の一定範囲内に限定される。そこで、図11に示すように、絶対座標モードは、カメラ画像に対する目位置範囲を矩形で選択し、矩形内の目位置をそのままデスクトップ内のカーソル位置に相対させる方法である。このときの、目位置からデスクトップ範囲のカーソル位置を算出する式は、式(2)、(3)のようになる。
cx=(x−bx)/w×wd+bx・・・(2)
cy=(y−by)/h×wd+by・・・(3)
Next, a method for moving the cursor will be described. First, the absolute coordinate mode will be described. The image size input from the camera 10 is fixed, and the eye position when the computer user moves his / her face is limited to a certain range of the camera image. Therefore, as shown in FIG. 11, the absolute coordinate mode is a method in which the eye position range for the camera image is selected as a rectangle, and the eye position in the rectangle is directly relative to the cursor position in the desktop. At this time, the equations for calculating the cursor position in the desktop range from the eye position are as shown in equations (2) and (3).
cx = (x−bx) / w × w d + bx d (2)
cy = (y−by) / h × w d + by d (3)

これに対し、ベクトルモードでは、図12に示すように、コンピュータ使用者が画面を正視した場合、目位置は一定の位置にある。この位置を中心点に定め、中心から目位置までの方向をマウスカーソルの移動方向に、中心点から目位置までの距離をカーソル移動速度に換算して、制御を行う方法である。   On the other hand, in the vector mode, as shown in FIG. 12, when the computer user views the screen, the eye position is at a fixed position. In this method, the position is set as the center point, the direction from the center to the eye position is converted into the moving direction of the mouse cursor, and the distance from the center point to the eye position is converted into the cursor moving speed.

次に、この実施形態の目操作によるポインティングデバイスの機能について説明する。このポインティングデバイスとして機能は、手動マウスの機能を仮想的に装備しており、クリック機能、ダブルクリック機能、ドラッグ機能、スクロール機能がある。   Next, the function of the pointing device by eye operation of this embodiment will be described. This pointing device function is virtually equipped with a manual mouse function, and includes a click function, a double-click function, a drag function, and a scroll function.

まず、クリック機能及びダブルクリック機能について説明する。クリック及びダブルクリックの判定は、図13に示すフローチャートで表されるアルゴリズムに従い判定を行っている。このアルゴリズムでは、右利き用に設計されたマウスの第一ボタンの役割を左目の動きに割り当て、右目には第二ボタンの役割を割り当てている。マウスの第一ボタンのクリックに相当する判定は、左目を一定時間閉じることによりクリックしたものと判定する。同様に、マウスの第二ボタンのクリックに相当する判定は、右目を一定時間閉じることによりクリックしたものと判定する。クリックしたと判定すると、例えばナビゲーションウインドウに表示された目位置を示すマーク“+”は、赤色に変化させて、認識したことを表示する。クリックの判定は、図13、図14に示すように目を閉じた時間、即ち上述のまばたき検出処理による虹彩面積により判定している。クリックと判定するのは、カメラ10による画像(フレーム)から上述のように目を検出して、虹彩面積を測定し、虹彩面積が所定の閾値以下となっている時間を基にして判別する。判別は、虹彩面積が所定の閾値以下となっている時間が、0.5s〜1.0sの範囲とする。例えば、図13のAの地点では、虹彩18の面積が閾値以下になってから閾値以上になるまで、つまり、まばたきの時間が0.5秒(s)未満であるので、通常のまばたきと判断する。一方、Bの地点では、目を閉じた時間が0.5s以上1.0s以下であるのでクリックと判定する。   First, the click function and the double click function will be described. The determination of click and double click is performed according to the algorithm represented by the flowchart shown in FIG. In this algorithm, the role of the first button of the mouse designed for right-handedness is assigned to the movement of the left eye, and the role of the second button is assigned to the right eye. The determination corresponding to the click of the first button of the mouse is determined to have been clicked by closing the left eye for a certain period of time. Similarly, the determination corresponding to the click of the second button of the mouse is determined to have been clicked by closing the right eye for a certain period of time. If it is determined that it has been clicked, for example, the mark “+” indicating the eye position displayed in the navigation window is changed to red to indicate that it has been recognized. The determination of the click is made based on the time when the eyes are closed as shown in FIGS. 13 and 14, that is, the iris area by the above-described blink detection process. The click is determined by detecting the eye from the image (frame) by the camera 10 as described above, measuring the iris area, and determining based on the time when the iris area is equal to or less than a predetermined threshold. In the determination, the time during which the iris area is equal to or less than a predetermined threshold is in the range of 0.5 s to 1.0 s. For example, at the point A in FIG. 13, since the area of the iris 18 becomes equal to or greater than the threshold value, that is, the blinking time is less than 0.5 seconds (s), it is determined as normal blinking. To do. On the other hand, at the point B, it is determined to be a click because the time when the eyes are closed is 0.5 s to 1.0 s.

ダブルクリックの判定は、上記のクリック動作を2回行うことにより、ダブルクリックと判定するが、1回目のクリックと2回目のクリックとの間が一定時間内であればダブルクリックと判定し、一定時間以上であれば、シングルクリックを2回行ったと判定する。ダブルクリックと判定した際には、例えばナビゲーションウインドウの目位置を示す“+”マークは黄色になるようにする。ダブルクリックと判定する条件は、図15に示すように、クリックの判定時間0.5s〜1.0sだけ虹彩面積が閾値以下であり、そのクリックと判定した時点から1.5s以内に再びクリックと判定される条件が満たされたときにダブルクリックと判定する。このフローでは、図15のAの地点でクリックと判定し、Bの地点でもう一度クリックと判定するが、図13に示すように、クリックによる処理を実行するのは、ダブルクリック条件が満たされるか否かの判別により、シングルクリックかダブルクリックかいずれかの処理が実行される。   The double click is determined as a double click by performing the above click operation twice. If the interval between the first click and the second click is within a certain period of time, it is determined as a double click. If it is more than the time, it is determined that the single click is performed twice. When the double click is determined, for example, the “+” mark indicating the eye position of the navigation window is made yellow. As shown in FIG. 15, the condition for determining a double click is that the iris area is equal to or less than a threshold value for a click determination time of 0.5 s to 1.0 s, When the condition to be determined is satisfied, it is determined as a double click. In this flow, it is determined that the click is made at the point A in FIG. 15 and another click is made at the point B. However, as shown in FIG. Depending on whether or not, a single click or double click process is executed.

次に、ドラッグ機能について説明する。図16にドラッグ判定のアルゴリズムをフローチャートで示す。開眼状態で目を一定時間、一定の範囲内に停留することにより、ドラッグモードがONとなり、ドラッグが可能と判定する。クリックと混同しないために目を閉じているときに、一定時間、一定範囲に目が停留していても、ドラッグモードをONしたとは判断しない。このときは、例えばナビゲーションウインドウの目位置を示す“+”マークの色を変えて、ドラッグと認識したことを表示する。図17にドラッグ判定の目の位置の様子を示す。テンプレートマッチングにより目を検出すると、検出時点で目が停留している位置情報を取得し、その位置を基準点32とする。その点から、上下左右に一定範囲s内に停留しているか判定する。この場合、一定範囲sの大きさは初期設定では、縦横23ピクセルとしている。また、この範囲s内に目の位置34が停留していたら、一定時間以上停留しているか否かを判定する。この場合の一定時間の初期設定は、1.0sである。そして、図17(a)に示すように、一定範囲sに一定時間目の位置34が停留していると判定できれば、ドラッグモードをONとする。ドラッグ動作を終了してドロップするには、ドラッグモードがONのときに、再度、一定範囲に一定時間停留していると判定できたときにドロップし、ドラッグモードがOFFとなりドラッグが終了する。また、図17(b)に示すように、一定範囲sに一定時間目の位置34が停留していない場合は、図16フローチャートの通り、次の目位置の画像(フレーム)取得に戻る。   Next, the drag function will be described. FIG. 16 is a flowchart showing the drag determination algorithm. By keeping the eyes within a certain range for a certain period of time in an open state, the drag mode is turned on and it is determined that dragging is possible. When the eyes are closed so as not to be confused with a click, it is not determined that the drag mode has been turned on even if the eyes remain in a certain range for a certain time. At this time, for example, the color of the “+” mark indicating the eye position of the navigation window is changed to display that the drag is recognized. FIG. 17 shows the eye position of the drag determination. When an eye is detected by template matching, position information where the eye is stopped at the time of detection is acquired, and the position is set as a reference point 32. From this point, it is determined whether the vehicle is stopped within a certain range s vertically and horizontally. In this case, the size of the fixed range s is set to 23 pixels vertically and horizontally by default. Further, if the eye position 34 is stopped within the range s, it is determined whether or not the eye position is stopped for a certain time. In this case, the initial setting for a fixed time is 1.0 s. Then, as shown in FIG. 17 (a), if it can be determined that the position 34 for a certain period of time is stopped in the certain range s, the drag mode is turned ON. In order to end the drag operation and drop, when the drag mode is ON, it is dropped again when it is determined that the vehicle stays in a certain range for a certain time, and the drag mode is turned OFF and the drag ends. Further, as shown in FIG. 17B, when the position 34 at the fixed time is not stopped in the fixed range s, the process returns to the acquisition of the image (frame) at the next eye position as shown in the flowchart of FIG.

次に、スクロール機能について説明する。図18、図19にスクロール判定のアルゴリズムをフローチャートで示す。このフローチャートに示すように、左右の目について各々虹彩面積が測定され、両目ともに一定時間以上同時に閉じていること判定されると、スクロールモードがONになる。スクロールモードをOFFにするには、ONにしたときと同様に両目を一定時間以上閉じることによりスクロールモードをOFFにする。このときナビゲーションウインドウでは、ベクトルモードと同じ表示状態になり“SCROLL”の文字が表示される。さらに、ナビゲーションウインドウには、スクロール感度を表すインジケータが表示される。スクロールは、上下スクロールのみ可能であり、ナビゲーションウインドウの位置範囲を表す円を中心として、円より上に目を動かすと上にスクロールし、下に動かすと下にスクロールする。 Next, the scroll function will be described. FIGS. 18 and 19 are flowcharts showing an algorithm for scroll determination. As shown in this flowchart, the iris area is measured for each of the left and right eyes, and when it is determined that both eyes are simultaneously closed for a predetermined time or more, the scroll mode is turned on. In order to turn off the scroll mode, the scroll mode is turned off by closing both eyes for a certain period of time as in the case of turning on . At this time, in the navigation window, the display state is the same as that in the vector mode, and the characters “SCROLL” are displayed. Further, an indicator representing scroll sensitivity is displayed in the navigation window. Scrolling is only possible to scroll up and down, with the circle representing the position range of the navigation window as the center, scrolling up when you move your eyes above the circle and scrolling down when you move down.

この実施形態のコンピュータ入力方法と装置によれば、目をポインティングデバイスとして使用するため、手足が不自由な人や手を使えない状況でも、この目操作マウスを用いることにより、通常の手動マウスを使用した場合に近いコンピュータの操作が可能となる。また、このコンピュータ入力方法は、コンピュータにインストールされる上記実施形態のプログラムにより動作するものであり、特殊な装置を目や頭などに装着する必要がなく、市販のコンピュータに広く利用することができるものである。さらに、一般の手動マウスを接続状態で使用可能であり、通常はポインティングデバイスとして手動マウスを使用し、手足の不自由な人や手を使えない状況においては、この目操作マウスを使用することができる。このため、コンピュータを兼用して使用可能なため、コンピュータを専用にする必要が無く、経済的である。   According to the computer input method and apparatus of this embodiment, since an eye is used as a pointing device, a normal manual mouse can be used by using this eye operation mouse even in a situation where a handicapped person or a hand cannot be used. The computer can be operated close to when it is used. Further, this computer input method is operated by the program of the above-described embodiment installed in the computer, and it is not necessary to attach a special device to the eyes or head, and can be widely used in commercially available computers. Is. In addition, a general manual mouse can be used in a connected state. Usually, a manual mouse is used as a pointing device, and this eye operation mouse can be used in situations where a handicapped person or hand cannot be used. it can. For this reason, since it can be used also as a computer, it is not necessary to dedicate a computer and it is economical.

なお、この発明のコンピュータ入力方法は上記実施形態に限定されるものではなく、左右どちらの目をマウスの第一ボタンに割り当てるかは、キーボードのキー操作により選択可能である。また、クリック判断及びダブルクリック判断の判定時間は適宜設定可能である。さらに、ドラッグ判断に用いる範囲を表すピクセル数及び停留時間のしきい時間は、適宜設定可能である。また、まばたきによるクリックは目の停留によるクリックに置き換えることが可能である。その他、この発明のコンピュータ入力方法のアルゴリズムは移植可能なため、コンピュータの使用するOSは適宜選択可能である。   Note that the computer input method of the present invention is not limited to the above embodiment, and which of the left and right eyes is assigned to the first button of the mouse can be selected by a key operation on the keyboard. The determination time for the click determination and the double click determination can be set as appropriate. Furthermore, the number of pixels representing the range used for drag determination and the threshold time of the stop time can be set as appropriate. In addition, a click by blinking can be replaced with a click by stopping eyes. In addition, since the algorithm of the computer input method of the present invention is portable, the OS used by the computer can be selected as appropriate.

この発明の一実施形態のコンピュータ入力装置の機器構成を示す概略図である。It is the schematic which shows the apparatus structure of the computer input device of one Embodiment of this invention. この実施形態のデータ受け渡しを示す概略図である。It is the schematic which shows the data delivery of this embodiment. この実施形態のまばたき検出を示すフローチャートである。It is a flowchart which shows the blink detection of this embodiment. この実施形態の片目部分テンプレートを示す概略図である。It is the schematic which shows the one-eye part template of this embodiment. この実施形態の残差逐次検出法の画像とテンプレートの関係を示す概略図である。It is the schematic which shows the relationship between the image of a residual successive detection method of this embodiment, and a template. この実施形態の目の周辺領域特徴のチェックポイントの位置を示す概略図である。It is the schematic which shows the position of the check point of the peripheral region feature of the eye of this embodiment. この実施形態の虹彩の面積の測定範囲を示す概略図である。It is the schematic which shows the measurement range of the area of the iris of this embodiment. この実施形態の虹彩の面積測定法を示す概略図である。It is the schematic which shows the area measurement method of the iris of this embodiment. この実施形態のディスプレイ表示の目追跡の有効範囲設定画面である。It is an effective range setting screen of eye tracking of a display display of this embodiment. この実施形態のディスプレイ表示のデスクトップ有効範囲設定画面である。It is a desktop effective range setting screen of the display display of this embodiment. この実施形態のディスプレイ表示の絶対座標モードの変換条件を示す概念図である。It is a conceptual diagram which shows the conversion conditions of the absolute coordinate mode of the display display of this embodiment. この実施形態のディスプレイ表示のベクトルモードの変換条件を示す概念図である。It is a conceptual diagram which shows the conversion conditions of the vector mode of the display display of this embodiment. この実施形態のクリック判定のフローチャートである。It is a flowchart of the click determination of this embodiment. この実施形態のクリック判定の判定時間を示す概念説明図である。It is a conceptual explanatory drawing which shows the determination time of the click determination of this embodiment. この実施形態のダブルクリック判定の判定時間を示す概念説明図である。It is a conceptual explanatory drawing which shows the determination time of the double click determination of this embodiment. この実施形態のドラッグ判定のフローチャートである。It is a flowchart of the drag determination of this embodiment. この実施形態のドラッグ判定の目の位置を示す説明図である。It is explanatory drawing which shows the position of the eye of the drag determination of this embodiment. この実施形態のスクロール判定のフローチャートである。It is a flowchart of the scroll determination of this embodiment. 図17のスクロール判定のフローチャートの続きのフローチャートである。FIG. 18 is a flowchart subsequent to the scroll determination flowchart of FIG. 17. FIG.

符号の説明Explanation of symbols

2 コンピュータ
4 ディスプレイ
6 キーボード
8 マウス
10 カメラ
12 レンズ
14 フィルタ
15 目
16 テンプレート
18 虹彩
2 Computer 4 Display 6 Keyboard 8 Mouse 10 Camera 12 Lens 14 Filter 15 Eye 16 Template 18 Iris

Claims (5)

動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶する記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識して、目の操作によりコンピュータの入力を行うコンピュータ入力方法において、前記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入る大きさであって前記虹彩の幅のテンプレートと比較しながらスキャンし、目の虹彩部分と眉及び顔の他の部分との画像の濃淡を検知して目の位置を検出し、さらにその目の位置で、目の虹彩が入る程度の縦横の長さを有するとともに前記テンプレートよりも大きい矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様に前記の矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目の閉状態と判断し、前記目の虹彩認識により求めた目の開閉状態判断において、任意に設定した一定時間目が閉じていると判断された場合に、コンピュータのポインティングデバイスのクリック動作による所定の処理入力とすることを特徴とするコンピュータ入力方法。 A camera that can capture moving images, a storage device that stores images captured by the camera at predetermined intervals, and a computer that recognizes the position of the eyes of a person's face captured by the camera and performs computer input by operating the eyes In the input method, the image information of the face of the person captured by the camera is scanned while comparing with the iris width template having a size that falls within the range of the iris size of the human eye, Detecting the density of the image of the iris part and the eyebrows and other parts of the face to detect the position of the eyes , and further having a vertical and horizontal length at which the iris of the eye enters at the eye position and from the template range rectangle also large, the total density of more locations a predetermined threshold image, determines that the open state of the eye recognizes that it is the iris of an eye by the predetermined value or more, likewise the In the range of the rectangle It is determined that the eyes are closed when the sum of the areas where the image darkness is equal to or greater than a predetermined threshold is equal to or less than a predetermined value, and is arbitrarily set in the eye open / closed state determination obtained by iris recognition of the eyes. A computer input method, characterized in that when it is determined that a predetermined time is closed, a predetermined processing input is made by a click operation of a pointing device of the computer. 前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、ドラッグ動作の有効若しくは無効を切り替える機能を備え、任意に設定した一定時間目が開状態で所定範囲に停留していると判断された場合に、前記コンピュータのポインティングデバイスのドラッグ動作を有効とし、前記ポインティングデバイスによる保持を可能とし、さらに前記目が一定時間開状態で、所定範囲に停留していると判断された場合に、前記ポインティングデバイスのドラッグ動作を無効としてドロップ動作を行うことを特徴とする請求項1記載のコンピュータ入力方法。 The pointing device of the computer has a function of judging the open / closed state of the eye based on the iris area recognized as the iris of the eye, and switching the valid / invalid state of the drag operation. If it is determined that the computer is stopped within a predetermined range, the drag operation of the pointing device of the computer is enabled, the holding by the pointing device is enabled, and the eye is open for a certain period of time and is stopped within the predetermined range. The computer input method according to claim 1 , wherein when it is determined that the dragging operation of the pointing device is invalidated, the drop operation is performed . 前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、スクロール動作の有効若しくは無効を切り替える機能を備え、スクロール動作が無効の時、任意に設定した一定時間以上両目が閉じていると判断された場合に、前記ポインティングデバイスを有効にして、画面スクロール動作可能とし、一定範囲以上目を上下に移動させることにより前記画面を上下方向にスクロール動作させ、スクロール動作が有効の時、前記両目が一定時間以上閉じていると判断された場合には、前記スクロール動作をオフにすることを特徴とする請求項1記載のコンピュータ入力方法。 The pointing device of the computer has a function of judging whether the eye is opened or closed based on the iris area recognized as the iris of the eye and switching the scroll operation between valid and invalid, and is arbitrarily set when the scroll operation is invalid If the eyes certain period of time that is determined to be closed, the enable pointing device, to allow scrolling operation, then scrolling vertically the screen by moving the eye over a certain range in the vertical 2. The computer input method according to claim 1 , wherein when the scroll operation is valid, if it is determined that the eyes are closed for a predetermined time or more, the scroll operation is turned off . 動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶する記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識する目位置認識手段とを有したコンピュータ入力装置において、上記目位置認識手段は、上記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入る大きさであって前記虹彩の幅のテンプレートと比較しながらスキャンし、目の虹彩部分と眉及び顔の他の部分との画像の濃淡を検知して人の目の位置を検出するものであり、さらに、その目の位置で、前記目の虹彩が入る程度の縦横の長さを有するとともに前記テンプレートよりも大きい矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様にして画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目が閉じていると判断するまばたき検出手段と、前記まばたき検出手段により検知された目の閉じた状態が一定時間以上であるか否かによりクリック動作であるか否か判断するクリック判断手段とを設け、前記クリック判断手段による判断により前記コンピュータの所定の処理入力を行うことを特徴とするコンピュータ入力装置。 In a computer input device having a camera capable of capturing a moving image, a storage device for storing images captured by the camera in a predetermined cycle, and eye position recognition means for recognizing the position of the eyes of a person captured by the camera The eye position recognizing means scans the human face image information captured by the camera while comparing with the iris width template having a size that falls within the range of the iris size of the human eye. And detecting the human eye position by detecting the density of the image of the iris part of the eye and the eyebrows and other parts of the face, and the degree of the eye iris entering at the eye position. When the sum of the areas where the image darkness is equal to or greater than a predetermined threshold is greater than or equal to a predetermined value within a rectangular range that is greater than the template in length and width, the image is recognized as an iris of the eye. Judgment with eyes open , Similarly, the total density of points equal to or greater than a predetermined threshold image, the blink detection unit that determines that the eyes are closed by equal to or less than a predetermined value, has been eye detected by the blink detection unit Click determination means for determining whether or not the click operation is performed based on whether or not the closed state is longer than a predetermined time, and performing predetermined processing input of the computer based on the determination by the click determination means. Computer input device. 前記目の位置で認識した虹彩が、任意に設定した一定時間所定範囲内に停留しているか判定することにより目の停留状態を検知する停留検出手段と、前記停留検出手段により検知された目の停留状態を、ドラッグ動作を有効にするか無効にするかを判断するドラッグ判断手段とを設け、前記ドラッグ判断手段による判断によりドラッグ動作を有効にされた場合に、前記コンピュータによるドラッグ動作を行うことを特徴とする請求項4記載のコンピュータ入力装置。 A stop detecting means for detecting a stop state of the eye by determining whether the iris recognized at the position of the eye is stopped within a predetermined range for an arbitrarily set time, and an eye detected by the stop detecting means Drag determining means for determining whether the drag operation is enabled or disabled in the stationary state, and when the drag operation is enabled by the determination by the drag determination means , the drag operation by the computer is performed The computer input device according to claim 4.
JP2004240649A 2004-08-20 2004-08-20 Computer input method and apparatus Expired - Fee Related JP4088282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004240649A JP4088282B2 (en) 2004-08-20 2004-08-20 Computer input method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004240649A JP4088282B2 (en) 2004-08-20 2004-08-20 Computer input method and apparatus

Publications (2)

Publication Number Publication Date
JP2006059147A JP2006059147A (en) 2006-03-02
JP4088282B2 true JP4088282B2 (en) 2008-05-21

Family

ID=36106565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004240649A Expired - Fee Related JP4088282B2 (en) 2004-08-20 2004-08-20 Computer input method and apparatus

Country Status (1)

Country Link
JP (1) JP4088282B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP2009277194A (en) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd Display operation system
TWI432172B (en) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
JP5483152B2 (en) * 2009-03-05 2014-05-07 国立大学法人 宮崎大学 Mouse cursor control system using electrooculogram
NZ745738A (en) * 2016-03-04 2020-01-31 Magic Leap Inc Current drain reduction in ar/vr display systems
KR102550587B1 (en) 2016-03-25 2023-06-30 매직 립, 인코포레이티드 Virtual and augmented reality systems and methods
WO2020018938A1 (en) 2018-07-19 2020-01-23 Magic Leap, Inc. Content interaction driven by eye metrics
JP2019032846A (en) * 2018-08-29 2019-02-28 京セラ株式会社 Electronic apparatus and display control method
US11402646B2 (en) * 2018-11-12 2022-08-02 Sony Group Corporation Display apparatus, display control method, and program

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2688527B2 (en) * 1989-11-27 1997-12-10 日本電信電話株式会社 Gaze direction detection method
JPH04255015A (en) * 1991-02-06 1992-09-10 Ricoh Co Ltd Information input device
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Eye gaze detection system and information processing system
JPH06187091A (en) * 1992-12-21 1994-07-08 Kokusai Electric Co Ltd Coordinate input device
JPH0822385A (en) * 1994-02-22 1996-01-23 Nippon Hoso Kyokai <Nhk> Gaze-corresponding display method and device
JP3293308B2 (en) * 1994-03-10 2002-06-17 三菱電機株式会社 Person state detection device
JP3272906B2 (en) * 1995-05-29 2002-04-08 シャープ株式会社 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
JP3556439B2 (en) * 1997-08-12 2004-08-18 三菱電機株式会社 Face image processing device
JP3361980B2 (en) * 1997-12-12 2003-01-07 株式会社東芝 Eye gaze detecting apparatus and method
JP2000020196A (en) * 1998-07-01 2000-01-21 Shimadzu Corp Eye-gaze input device
JP2002236957A (en) * 2001-02-09 2002-08-23 Victor Co Of Japan Ltd Electronic voting device, and electronic voting system
DE10108797A1 (en) * 2001-02-21 2002-09-05 Zeiss Carl Jena Gmbh Procedure for determining distances at the anterior segment of the eye
JP4025516B2 (en) * 2001-04-25 2007-12-19 日本電信電話株式会社 Mouse replacement method, mouse replacement program, and recording medium recording the program
JP3790680B2 (en) * 2001-05-25 2006-06-28 株式会社東芝 Image processing system and driving support system using the same
JP3797253B2 (en) * 2002-03-14 2006-07-12 日産自動車株式会社 Gaze direction detection device
JP2006055388A (en) * 2004-08-20 2006-03-02 Toyama Prefecture Remote support system for nursing care

Also Published As

Publication number Publication date
JP2006059147A (en) 2006-03-02

Similar Documents

Publication Publication Date Title
US6637883B1 (en) Gaze tracking system and method
US9921663B2 (en) Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
KR101331655B1 (en) Electronic data input system
US9952663B2 (en) Method for gesture-based operation control
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP4491604B2 (en) Pupil detection device
KR20140002007A (en) Information processing device, information processing method, and recording medium
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP4088282B2 (en) Computer input method and apparatus
Song et al. Detection of movements of head and mouth to provide computer access for disabled
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
CN109101110A (en) A kind of method for executing operating instructions, device, user terminal and storage medium
JP4345755B2 (en) Input position setting method, input position setting device, input position setting program, and information input system
JP2009054101A (en) Gaze input device, gaze input method, and gaze input program
KR20190108909A (en) System and method for measurement of visual acuity based on the analysis of user eye movements
KR100749033B1 (en) How to operate the terminal by tracking the light reflected from both eyes, and the device
KR20140132906A (en) Device and method for mobile tooltip using eye detecting
KR100692526B1 (en) Gesture Recognition Device and System for Automatic System Control
JP3796840B2 (en) Gesture input device and input device including the same
JP2011243141A (en) Operation information processor, method and program
JP6161244B2 (en) Portable terminal device, program, and input method
JPH05232908A (en) Instruction input device
KR20190069023A (en) Method of Providing Touchless Input Interface Based on Hand Recognition and The Apparatus Applied Thereto
CN114740966A (en) Multi-modal image display control method and system and computer equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070817

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070817

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20071003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees