JP4088282B2 - Computer input method and apparatus - Google Patents
Computer input method and apparatus Download PDFInfo
- Publication number
- JP4088282B2 JP4088282B2 JP2004240649A JP2004240649A JP4088282B2 JP 4088282 B2 JP4088282 B2 JP 4088282B2 JP 2004240649 A JP2004240649 A JP 2004240649A JP 2004240649 A JP2004240649 A JP 2004240649A JP 4088282 B2 JP4088282 B2 JP 4088282B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- iris
- computer
- eyes
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
この発明は、コンピュータ等のディスプレイに表示される画面上の任意の位置をポイントし、さらに処理を実行させるために利用されるポインティングデバイスによるコンピュータ入力方法と装置に関する。 The present invention relates to a computer input method and apparatus using a pointing device that is used for pointing an arbitrary position on a screen displayed on a display of a computer or the like and executing processing.
従来、コンピュータ技術やインターネットの発展とともに、コンピュータが一般の家庭でも使われるようになり、それに伴いコンピュータをより快適に使うためのマン・マシン・インターフェースも発達してきた。現在、一般にはコンピュータや通信機等にデータを入力する手段としては、キーボード及びポインティングデバイスが主に用いられている。 Conventionally, with the development of computer technology and the Internet, computers have come to be used in general households, and accordingly, man-machine interfaces have been developed for more comfortable use of computers. Currently, a keyboard and a pointing device are mainly used as means for inputting data to a computer, a communication device, or the like.
ポインティングデバイスは、伝統的な文字入力を基本とするインターフェイスではなく、ボタンやメニューなどのグラフィックスの部品を使って設計されたユーザーインターフェイスであるウインドウシステムなどのGUI(Graphical User Interface)に用いられるものである。従って、ポインティングデバイスは、GUIによる画面上の任意の場所をポイントするために利用される入力手段である。このポインティングデバイスの代表的な機器としてマウスがある。 Pointing devices are used for GUIs (Graphical User Interfaces) such as window systems, which are user interfaces designed using graphics components such as buttons and menus, rather than traditional character input interfaces. It is. Therefore, the pointing device is an input means used for pointing to an arbitrary place on the screen by the GUI. A mouse is a representative device of this pointing device.
しかし、マウスの操作は、手足の不自由な人にとっては使い勝手が悪いという問題点があった。このため、従来のマウスの代わりに、8方向のボタンを設けたスイッチボックスにより、ボタン操作でマウスの操作に近い動作をさせるものがある。また、コンピュータ等を使用する使用者の目の動きを利用したコンピュータ入力技術が最近開発されている。 However, the operation of the mouse has a problem that it is unusable for a person with a handicapped person. For this reason, instead of the conventional mouse, there is a switch box provided with buttons in eight directions so that the operation by the button operation is close to that of the mouse. Recently, a computer input technique using the movement of the eyes of a user who uses a computer has been developed.
目の動きを検出する方法としては、赤外線を眼球にあて開眼時と閉眼時の赤外線反射量の差によりスイッチをオンオフさせる瞬きスイッチが開発されている。また、角膜反射法と瞳孔画像を組み合わせた視線入力装置などがある。その他には、コンピュータを使用する人の視線を計測するために、眼鏡に頭部の動きを検出するために使用する三角形赤外線反射枠をつけるものもある。 As a method for detecting eye movement, a blinking switch has been developed in which infrared light is applied to the eyeball and the switch is turned on / off based on the difference in the amount of infrared reflection between when the eye is opened and when the eye is closed. There is also a line-of-sight input device that combines a cornea reflection method and a pupil image. In addition, in order to measure the line of sight of a person using a computer, there is a type in which a triangular infrared reflecting frame used for detecting movement of the head is attached to spectacles.
さらに、特許文献1では、コンピュータを使用する使用者の顔をカメラにより撮像し、撮像した画像から目の視線を推測し、目が注視する画面上の視点位置を求めている。そして、画面上に視点を示すカーソルが表示され、画面上に表示されるメニューとの重なりを検出し、重なったメニューの処理を行うことによりコンピュータを操作する方法が提案されている。
上記従来の技術のうち、マウスの代わりにスイッチボックスを用いる方法は、手が不自由な人にとっては、まったく動かせないものである。 Among the above conventional techniques, the method using a switch box instead of a mouse cannot be moved at all by a handicapped person.
また、角膜反射法と瞳孔画像を組み合わせた視線入力装置では、角膜反射点と瞳孔中心の相対的な位置補正が必要なため、高い精度を得ることがむずかしく、誤入力の問題がある。また、眼球へ赤外線を照射するため、長時間使用においては目への問題がある。さらに、ヘッドレストに頭部を固定する煩わしさもある。その他、障害者用コンピュータ操作支援ツールは、個人ごとに操作条件等を別々に用意する必要がある。また、目もしくは頭部に何らの装置を装着する方法では、手足の不自由な人でも、コンピュータの操作が可能になるが、コンピュータを操作する度に、装置を装着するのは煩わしく、装置を装着することによる違和感があるものであった。さらに、長時間使用するとストレスが溜まりやすいという欠点もあった。 Further, in the line-of-sight input device that combines the corneal reflection method and the pupil image, it is difficult to obtain high accuracy because of the relative position correction between the corneal reflection point and the pupil center, and there is a problem of erroneous input. In addition, since the eyeball is irradiated with infrared rays, there is a problem with the eyes when used for a long time. Furthermore, there is also the trouble of fixing the head to the headrest. In addition, the computer operation support tool for persons with disabilities needs to prepare operation conditions and the like separately for each individual. In addition, in the method of attaching any device to the eyes or head, even a person with limited limbs can operate the computer, but it is bothersome to wear the device every time the computer is operated. There was something wrong with wearing it. In addition, there is a drawback that stress tends to accumulate when used for a long time.
特許文献1では、これらの欠点を改善し、目や頭部に何も装着せずに視線方向を決定し、視線方向に位置する入力データを決定するものである。しかし、コンピュータの画面上に、操作に使用する特別なメニュー画面を表示し、そのメニューを視線により選択してコンピュータを操作するものである。この方法では、マウス等のポインティングデバイスによる一般的な操作と、操作方法が異なるため、例えば、一般的なソフトウェアを、マウス等により操作する場合と同じように操作することはできない。このため、ソフトウェアごとに対応したメニュー画面が必要となり、操作性が悪いばかりでなくコストもかかるものであった。
In
この発明は、上記従来技術の問題を鑑みて成されたもので、手動操作によるマウス等のポインティングデバイスに近い操作性を有し、手足の不自由な人や手による操作ができない場合でも、容易にコンピュータの操作ができるコンピュータ入力方法と装置を提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, has operability close to a pointing device such as a mouse by manual operation, and can be easily operated even when a person with a limb or a hand cannot be operated. Another object of the present invention is to provide a computer input method and apparatus capable of operating a computer.
この発明は、動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶するコンピュータ等の記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識して、目の操作によりコンピュータの入力を行うコンピュータ入力方法において、前記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入るテンプレートと比較しながらスキャンし、目の虹彩部分と顔の他の部分との画像の濃淡を検知して目の位置を検出し、さらにその目の位置での虹彩面積を求めて、求めた虹彩面積により目の開閉状態を判断し、コンピュータの所定の処理入力とするコンピュータ入力方法である。 The present invention relates to a camera capable of capturing a moving image, a storage device such as a computer that stores images captured by the camera in a predetermined cycle, and an eye operation by recognizing a position of a human face imaged by the camera. In the computer input method for performing computer input, the image information of the face of the person captured by the camera is scanned while comparing with a template that falls within the range of the iris size of the person's eyes, Detect the shade of the image with other parts of the face to detect the position of the eye, further determine the iris area at that eye position, determine the open / closed state of the eye based on the determined iris area, This is a computer input method for processing input.
前記目の虹彩面積は、その目の位置での所定範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の閾値以上であることにより判断する。前記目の虹彩面積を測定する所定範囲は、目の虹彩が入る程度の縦横の長さを有した矩形の範囲である。そして、前記矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様に前記の矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目の閉状態と判断し、前記目の虹彩認識により求めた目の開閉状態判断において、任意に設定した一定時間目が閉じていると判断された場合に、コンピュータのポインティングデバイスのクリック動作による所定の処理入力とするものである。 The iris area of the eye is determined based on a predetermined range at the position of the eye, and the total of locations where the image density is equal to or greater than a predetermined threshold is equal to or greater than the predetermined threshold. The predetermined range for measuring the iris area of the eye is a rectangular range having a vertical and horizontal length enough to contain the iris of the eye. Then, in the rectangular range, the sum of the portions where the image darkness is equal to or greater than a predetermined threshold is determined to be an eye iris when it is equal to or greater than a predetermined value. The eye open / closed state determined by iris recognition when it is determined that the eye is closed when the sum of the areas where the image darkness is equal to or greater than a predetermined threshold within the rectangular range is equal to or less than a predetermined value. In the determination, when it is determined that the arbitrarily set fixed time is closed, a predetermined processing input is made by a click operation of the pointing device of the computer.
前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、ドラッグ動作の有効若しくは無効を切り替える機能を備え、任意に設定した一定時間目が開状態で所定範囲に停留していると判断された場合に、前記コンピュータのポインティングデバイスのドラッグ動作を有効とし、前記ポインティングデバイスによる保持を可能とし、さらに前記目が一定時間開状態で、所定範囲に停留していると判断された場合に、前記ポインティングデバイスのドラッグ動作を無効としてドロップ動作を行うものである。さらに、前記コンピュータのポインティングデバイスは、前記目の虹彩であると認識した虹彩面積により、目の開閉状態を判断し、スクロール動作の有効若しくは無効を切り替える機能を備え、スクロール動作が無効の時、任意に設定した一定時間以上両目が閉じていると判断された場合に、前記ポインティングデバイスを有効にして、画面スクロール動作可能とし、一定範囲以上目を上下に移動させることにより前記画面を上下方向にスクロール動作させ、スクロール動作が有効の時、前記両目が一定時間以上閉じていると判断された場合には、前記スクロール動作をオフにするものである。 The pointing device of the computer has a function of judging the open / closed state of the eye based on the iris area recognized as the iris of the eye, and switching the valid / invalid state of the drag operation. If it is determined that the computer is stopped within a predetermined range, the drag operation of the pointing device of the computer is enabled, the holding by the pointing device is enabled, and the eye is open for a certain period of time and is stopped within the predetermined range. If it is determined that the pointing device has been dragged, the drag operation of the pointing device is invalidated and a drop operation is performed . Furthermore, the pointing device of the computer has a function of judging whether the eye is opened or closed based on the iris area recognized as the iris of the eye, and switching the scroll operation between valid and invalid. If it is determined that both eyes are closed for a certain time set in the above, the pointing device is enabled to enable screen scrolling, and the screen is scrolled up and down by moving the eyes up and down over a certain range. The scroll operation is turned off when it is determined that both eyes are closed for a predetermined time or more when the scroll operation is enabled .
またこの発明は、動画撮像可能なカメラと、このカメラにより撮像した画像を所定周期で記憶する記憶装置と、上記カメラにより撮像した人の顔の目の位置を認識する目位置認識手段とを有したコンピュータ入力装置において、上記目位置認識手段は、上記カメラで捕らえた人の顔の画像情報を、人の目の虹彩の大きさの範囲内に入る大きさであって前記虹彩の幅のテンプレートと比較しながらスキャンし、目の虹彩部分と眉及び顔の他の部分との画像の濃淡を検知して人の目の位置を検出するものであり、さらに、その目の位置で、前記目の虹彩が入る程度の縦横の長さを有するとともに前記テンプレートよりも大きい矩形の範囲で、画像の濃さが所定の閾値以上の箇所の合計が、所定の値以上であることにより目の虹彩であると認識して目の開状態と判断し、同様にして画像の濃さが所定の閾値以上の箇所の合計が、所定の値以下であることにより目が閉じていると判断するまばたき検出手段と、前記まばたき検出手段により検知された目の閉じた状態が一定時間以上であるか否かによりクリック動作であるか否か判断するクリック判断手段とを設け、前記クリック判断手段による判断により前記コンピュータの所定の処理入力を行うコンピュータ入力装置である。 The present invention also includes a camera capable of capturing a moving image, a storage device that stores images captured by the camera at predetermined intervals, and eye position recognition means for recognizing the positions of human eyes captured by the camera. In the computer input device, the eye position recognizing means is configured to store the image information of the human face captured by the camera within a range of the iris size of the human eye and the iris width template. scan in comparison with, is for detecting the position of the human eye to detect the density of an image of the iris portion and the eyebrows and other parts of the face of the eye, further, at the position of the eye, the eye The iris of the eye has a length and width that is sufficient to contain the iris of the image, and is larger than the template. Recognize that there is Of determining the open state, similarly to a total depth of locations equal to or greater than a predetermined threshold image, the blink detection unit that determines that the eyes are closed by equal to or less than a predetermined value, the blink detection unit Click determination means for determining whether or not the click operation is based on whether or not the closed state of the eyes detected by the step is a predetermined time or more, and a predetermined processing input of the computer is determined by the determination by the click determination means. Computer input device to perform.
さらに、前記目の位置での虹彩面積を求めて、求めた虹彩面積を基にしてその虹彩が、任意に設定した一定時間所定範囲内に停留しているか判定することにより目の停留状態を検知する停留検出手段と、前記停留検出手段により検知された目の停留状態を、ドラッグであるか否か判断するドラッグ判断手段とを設け、前記ドラッグ判断手段による判断により前記コンピュータによるドラッグ動作を行うものである。 Further, the iris area at the eye position is obtained, and based on the obtained iris area, it is determined whether or not the iris is stationary within a predetermined range for an arbitrarily set period of time. and stopping detecting means for the stationary state of the detected eye by the stopping detecting means, provided a drag determination means for determining whether a drug, the determination by the drag determination section to perform a drag operation by the computer It is .
この発明のコンピュータ入力方法と装置によれば、コンピュータの操作を、従来の手動マウス等のポインティングデバイスによる操作に近い操作性を有し、手足の不自由な人や、手を使えない環境下でも、容易に迅速且つ正確なコンピュータの操作ができるものである。 According to the computer input method and apparatus of the present invention, the operation of a computer has operability close to that of a conventional pointing device such as a manual mouse, even in a person with a handicapped person or in an environment where a hand cannot be used. The computer can be operated quickly and accurately.
以下、この発明のコンピュータ入力方法と装置の一実施形態について、図1〜図19を基にして説明する。この実施形態のコンピュータ入力方法と装置は、コンピュータの操作を行うポインティングデバイスとして、一般的な手動マウスの代りに、目で操作することができるポインティングデバイスを用いるものである。 An embodiment of a computer input method and apparatus according to the present invention will be described below with reference to FIGS. The computer input method and apparatus of this embodiment uses a pointing device that can be operated with eyes instead of a general manual mouse as a pointing device for operating a computer.
この実施形態の構成について図1に基づき説明する。この実施形態のコンピュータ入力装置の構成は、コンピュータ2に、ディスプレイ4、キーボード6及びマウス8が接続され、コンピュータ2にはカメラ映像を取り込む図示しない画像入力ボードが装着されている。画像入力ボードは、近赤外高感度CCDを備え動画撮像可能なカメラ10と接続される。また、カメラ10は、ディスプレイ4の上部に、図示しない支持具により据え付られ、カメラ10のレンズ12には赤色フィルタ14が取り付けられている。コンピュータ2のOS(Operating System)は一般的に普及しているものを利用し得る。目操作によるポインティングデバイスのデバイスドライバには、目を追跡するためのプログラム(以下、アイトレースプログラムという)と、カーソルの表示位置情報を換算するマウスドライバプログラムの2つのプログラムから構成される目操作用プログラムがインストールされている。そのほか、一般的な手動マウス用のデバイスドライバもインストールされている。
The configuration of this embodiment will be described with reference to FIG. In the configuration of the computer input device of this embodiment, a
ここで、目操作によるポインティングデバイスのプログラムについて説明する。この目操作用プログラムは、市販のプログラミング言語を用いて開発作成したものであり、このプログラムを構成する2つのプログラムのプロセス間通信には、図2に示すように、既存の名前付きパイプ方式を用いている。 Here, a pointing device program by eye operation will be described. This eye operation program is developed and created using a commercially available programming language. For the inter-process communication between the two programs that make up this program, the existing named pipe method is used as shown in FIG. Used.
次に、目操作によるポインティングデバイス用プログラムについて説明する。まず、アイトレースプログラムについて説明する。 Next, a pointing device program by eye operation will be described. First, the eye trace program will be described.
このアイトレースプログラムは、図3のフローチャートに示すように、目の位置検出、追跡、及びまばたき(目を閉じた状態)検出を行うものである。はじめに、このプログラムの目の位置検出方法及び追跡方法を説明する。カメラ10で取得した顔の濃淡画像を閾値処理により2値化し、2値化画像に対して、図4に示す片目部分テンプレート16によるテンプレートマッチングを行う。このテンプレートマッチングには、残差逐次検出法を用いている。
As shown in the flowchart of FIG. 3, this eye trace program detects the position of the eye, tracks it, and detects blinking (closed eyes). First, the eye position detection method and tracking method of this program will be described. The face grayscale image acquired by the
残差逐次検出法は、画素数がL×Lピクセルの画像情報に対してテンプレートデータとの差を逐次求めていくものである。図5に示すように、テンプレートt(x,y)と、撮像画像のテンプレート上の部分入力画像f(x,y)とのマッチング評価値E(p,q)を次式(1)により計算し、所定の閾値を越えた段階で相関はないとして処理を打ち切り、次の位置で同様に計算を行い、マッチング位置を探す方法である。
E(p,q)=ΣM-1 x=0ΣM-1 y=0|f(x+p,y+q)−t(x,y)|・・・(1)
但し、0≦p≦L−M+1,0≦q≦L−M+1
In the residual successive detection method, the difference from the template data is sequentially obtained for image information having the number of pixels of L × L pixels. As shown in FIG. 5, the matching evaluation value E (p, q) between the template t (x, y) and the partial input image f (x, y) on the captured image template is calculated by the following equation (1). In this method, the processing is aborted assuming that there is no correlation when a predetermined threshold value is exceeded, and the same position is calculated at the next position to find a matching position.
E (p, q) = Σ M−1 x = 0 Σ M−1 y = 0 | f (x + p, y + q) −t (x, y) | (1)
However, 0 ≦ p ≦ LM + 1, 0 ≦ q ≦ LM + 1
一般に、図4に示すように成人の目15の角膜の直径は約11mm(縦9.3〜11mm、横10.6〜12mm)である。黒目である虹彩18は角膜下にあり、そのサイズは角膜サイズとほぼ一致することから、この実施形態では、虹彩18のサイズを直径11mmと設定した。片目部分テンプレート16は十字形の直線で構成され、ディスプレイ4の画面上で横幅11mm、縦幅6mmで、線幅は1ピクセルである。1mmあたりのピクセル数は、ディスプレイ4上で一定の長さの直線を引き、そのピクセル数を基に計算する。この実施形態では、1mmは4.2ピクセルとなり、11mmは約46ピクセル、6mmは約25ピクセルに相当する。このような十字形のテンプレート16を用いることにより、目15の傾きがあっても、円形の虹彩18には影響せず、虹彩18との正確なマッチングを得ることができる。
Generally, as shown in FIG. 4, the diameter of the cornea of the
この実施形態では、高速化のため4画素ずつ片目部分テンプレート16を移動させテンプレートマッチングを行う。片目部分テンプレート16の横幅のマッチング度は1画素ずつ比べ、縦幅のマッチング度は1画素飛ばしに比較し、横幅の90%以上、縦幅の40%以上のマッチング度が同時に満たされた時に目らしいと判定する。
In this embodiment, template matching is performed by moving the one-
また、片目部分テンプレート16によるテンプレートマッチングは、画像上のいくつかの目らしい領域を間違えて検出する恐れがある。その間違い対策として、図6に示すように、目15の周りの特徴をチェック項目として用いた。この実施形態では、虹彩18の基準径を11mmとしている。ここでは図6に示すように、テンプレート16の上下において、眉19の有無を判断材料とした。例えば、虹彩18を11mmとした場合、人の顔の個人差による違いを考慮して、眉19の位置のチェックポイントaはテンプレート16の中心から上25〜50mmの間、眉19と目15との間のチェックポイントbは同じく15〜27mm、目15の下のチェックポイントcは、同じく15〜22mmとし、各2値化されたピクセルの値を基に閾値と比較して判別する。これにより目15の直上では黒い部分が無く、その上方に眉19による黒部分が検知され、目15の下方には黒部分がないということを、2値化された画像データから目検知の判断材料とすることができる。さらに、図6の2点鎖線で示すように、顔画像が拡大した場合も、一定の範囲内であれば、眉19とその下の部分の検知により、目位置を正確に判断することができる。
Further, the template matching by the one-eye
これらのチェック項目のマッチング度は、目15の上の部分おいて、眉19の位置で10%以上、眉19と目15の間の位置で20%以上、目15の下の位置では20%以上で、上記チェック項目のマッチングが得られたとき、目15の条件適合性が満たされると判定する。そして、目15であるとする最終判定は、テンプレートマッチングと目15の回りの特徴チェック項目により判定する。これにより、カメラ10により取得した顔画像が拡大・縮小した場合も、一定の範囲内であれば、眉19とその下の部分の検知により目15の位置を正確に判断することができる。
The matching degree of these check items is 10% or more at the position of the
次に、目15のまばたき(目を閉じた状態)検出について説明する。この実施形態のまばたき検出方法は、黒目である虹彩18の面積の変化から、まばたきを検出している。まばたき検出の処理は、図3に示すように、上述のステップで、カメラ10により取得した濃淡画像から、上述の処理により片目部分のテンプレート16によるテンプレートマッチングを行って目15を検出し、その後虹彩18の面積を測定する。そして、虹彩18の面積測定結果が閾値以下になった場合、目15を閉じたときと判定する。
Next, detection of blinking of eyes 15 (a state where eyes are closed) will be described. In the blink detection method of this embodiment, blinking is detected from a change in the area of the
虹彩18の面積の測定は、図7に示す測定範囲sを単位として、目15の2値画像をスキャンする。そして、虹彩18と片目部分テンプレート16の横幅のマッチング度が90%以上満たしているときに目らしいと判定し、開眼時の虹彩18の横幅とテンプレート16の横幅は一致したと考える。また、閉眼時には、まつげ20によって横方向に長い黒の部分ができるので、面積を多く測定してしまうことを防ぐために、虹彩18の面積の横方向の測定範囲s1はテンプレート16の横幅とする。また縦方向の測定範囲s2は、虹彩18の中に片目部分テンプレートのマッチする点がいくつも存在することから、マッチポイントが虹彩18の中心からずれることを考慮し、テンプレート16の中心から上下方向に50ピクセルの範囲とした。
The area of the
虹彩面積測定の手順は、目15の認識後、虹彩18の面積測定を行う。図8(a)に示すように、テンプレート16の中心位置から上に、図7の縦方向の測定範囲s2内で、ピクセル濃度値が虹彩18の閾値範囲外になるまで移動し、その移動距離を計算する。次に、下方向にも同様にして距離を計算し、上下の移動距離の和を虹彩18の縦幅とする。そして、測定範囲s1内でテンプレート16の左端まで同様の作業を繰り返し、縦幅を合計する。またテンプレート16の右端までも同様にして、縦幅を合計する。この測定は、閉眼時も同様に行われる。閉眼時は、図8(b)に示すように、横方向に長くまつげ20による黒い部分が表れる。しかし、横方向の測定範囲s1は、テンプレート16の横幅であり、虹彩18の閾値以上の濃い部分は、縦方向にまつげ20の上下幅となる。従って、開眼時の虹彩18の面積は、測定範囲s内で、閉眼時のまつげ20を測定した場合よりも大きい値となる。
In the iris area measurement procedure, after the
これにより、図7の測定範囲s内で濃度が閾値以上の箇所(上記移動距離)の合計が、所定の閾値以上であれば虹彩18であるとして開眼状態とする。また、この合計が閾値以下であれば、閉眼状態であり、目を閉じた状態であるとする。 As a result, if the total of the locations where the density is greater than or equal to the threshold (the above moving distance) within the measurement range s in FIG. Further, if this sum is equal to or less than the threshold value, it is assumed that the eyes are closed and the eyes are closed.
次に、アイトレースプログラムの目追跡情報により、マウス機能を実行するマウスドライバプログラムについて説明する。このプログラムは、上述のアイトレースプログラムで検出した目の位置座標をもとにして、画面上のカーソルを制御しマウス機能を果たすものである。 Next, a mouse driver program that executes a mouse function based on eye tracking information of the eye tracing program will be described. This program performs a mouse function by controlling the cursor on the screen based on the eye position coordinates detected by the eye trace program.
マウスドライバプログラムのカーソルを動かす移動方法には、絶対座標モード及びベクトルモードがある。そのほか、各モード共通の機能としてナビゲーションウインドウ表示、目追跡有効範囲設定及びデスクトップ有効範囲設定等の機能がある。 The moving method for moving the cursor of the mouse driver program includes an absolute coordinate mode and a vector mode. In addition, functions common to each mode include functions such as navigation window display, eye tracking effective range setting, and desktop effective range setting.
ここで、各機能について説明する。ナビゲーションウインドウ21は、例えば図1のディスプレイ4に表示されているように、画面の四隅のいずれかに表示し、表示・非表示が選択可能になっている。ナビゲーションウインドウ21には、この目操作用プログラムの現在の状態を表示する。表示内容は、顔画像を取り込んだ画像サイズ、カーソル制御の有効・無効、カーソルの移動モード、追跡を行っている目の選択、現在検出している目の位置、カーソルを動かす目の有効範囲等である。また、目追跡有効範囲の設定は、図9に示す目追跡有効範囲設定画面22を表示し、画面の中にカメラ10からの取得画像を表示し、その画像に対して目追跡の検出範囲を設定する。検出範囲の最大は、例えば640×480ドットである。また、カーソルを動かす目の有効範囲の外側へのマウス移動の可否が、選択可能になっている。外側へマウス移動を不可にすると、図10に示されるデスクトップ範囲外には移動しなくなる。なお、図10のデスクトップ有効範囲設定画面24の表示は、図9に示す画面22のデスクトップ範囲のチェックボックスにチェックを入れてボタンをクリックすることにより可能である。
Here, each function will be described. The
次に、カーソルの移動方法について説明する。まず、絶対座標モードについて説明する。カメラ10から入力する画像サイズは決まっており、コンピュータ使用者が顔を動かした場合の目位置は、カメラ画像の一定範囲内に限定される。そこで、図11に示すように、絶対座標モードは、カメラ画像に対する目位置範囲を矩形で選択し、矩形内の目位置をそのままデスクトップ内のカーソル位置に相対させる方法である。このときの、目位置からデスクトップ範囲のカーソル位置を算出する式は、式(2)、(3)のようになる。
cx=(x−bx)/w×wd+bxd・・・(2)
cy=(y−by)/h×wd+byd・・・(3)
Next, a method for moving the cursor will be described. First, the absolute coordinate mode will be described. The image size input from the
cx = (x−bx) / w × w d + bx d (2)
cy = (y−by) / h × w d + by d (3)
これに対し、ベクトルモードでは、図12に示すように、コンピュータ使用者が画面を正視した場合、目位置は一定の位置にある。この位置を中心点に定め、中心から目位置までの方向をマウスカーソルの移動方向に、中心点から目位置までの距離をカーソル移動速度に換算して、制御を行う方法である。 On the other hand, in the vector mode, as shown in FIG. 12, when the computer user views the screen, the eye position is at a fixed position. In this method, the position is set as the center point, the direction from the center to the eye position is converted into the moving direction of the mouse cursor, and the distance from the center point to the eye position is converted into the cursor moving speed.
次に、この実施形態の目操作によるポインティングデバイスの機能について説明する。このポインティングデバイスとして機能は、手動マウスの機能を仮想的に装備しており、クリック機能、ダブルクリック機能、ドラッグ機能、スクロール機能がある。 Next, the function of the pointing device by eye operation of this embodiment will be described. This pointing device function is virtually equipped with a manual mouse function, and includes a click function, a double-click function, a drag function, and a scroll function.
まず、クリック機能及びダブルクリック機能について説明する。クリック及びダブルクリックの判定は、図13に示すフローチャートで表されるアルゴリズムに従い判定を行っている。このアルゴリズムでは、右利き用に設計されたマウスの第一ボタンの役割を左目の動きに割り当て、右目には第二ボタンの役割を割り当てている。マウスの第一ボタンのクリックに相当する判定は、左目を一定時間閉じることによりクリックしたものと判定する。同様に、マウスの第二ボタンのクリックに相当する判定は、右目を一定時間閉じることによりクリックしたものと判定する。クリックしたと判定すると、例えばナビゲーションウインドウに表示された目位置を示すマーク“+”は、赤色に変化させて、認識したことを表示する。クリックの判定は、図13、図14に示すように目を閉じた時間、即ち上述のまばたき検出処理による虹彩面積により判定している。クリックと判定するのは、カメラ10による画像(フレーム)から上述のように目を検出して、虹彩面積を測定し、虹彩面積が所定の閾値以下となっている時間を基にして判別する。判別は、虹彩面積が所定の閾値以下となっている時間が、0.5s〜1.0sの範囲とする。例えば、図13のAの地点では、虹彩18の面積が閾値以下になってから閾値以上になるまで、つまり、まばたきの時間が0.5秒(s)未満であるので、通常のまばたきと判断する。一方、Bの地点では、目を閉じた時間が0.5s以上1.0s以下であるのでクリックと判定する。
First, the click function and the double click function will be described. The determination of click and double click is performed according to the algorithm represented by the flowchart shown in FIG. In this algorithm, the role of the first button of the mouse designed for right-handedness is assigned to the movement of the left eye, and the role of the second button is assigned to the right eye. The determination corresponding to the click of the first button of the mouse is determined to have been clicked by closing the left eye for a certain period of time. Similarly, the determination corresponding to the click of the second button of the mouse is determined to have been clicked by closing the right eye for a certain period of time. If it is determined that it has been clicked, for example, the mark “+” indicating the eye position displayed in the navigation window is changed to red to indicate that it has been recognized. The determination of the click is made based on the time when the eyes are closed as shown in FIGS. 13 and 14, that is, the iris area by the above-described blink detection process. The click is determined by detecting the eye from the image (frame) by the
ダブルクリックの判定は、上記のクリック動作を2回行うことにより、ダブルクリックと判定するが、1回目のクリックと2回目のクリックとの間が一定時間内であればダブルクリックと判定し、一定時間以上であれば、シングルクリックを2回行ったと判定する。ダブルクリックと判定した際には、例えばナビゲーションウインドウの目位置を示す“+”マークは黄色になるようにする。ダブルクリックと判定する条件は、図15に示すように、クリックの判定時間0.5s〜1.0sだけ虹彩面積が閾値以下であり、そのクリックと判定した時点から1.5s以内に再びクリックと判定される条件が満たされたときにダブルクリックと判定する。このフローでは、図15のAの地点でクリックと判定し、Bの地点でもう一度クリックと判定するが、図13に示すように、クリックによる処理を実行するのは、ダブルクリック条件が満たされるか否かの判別により、シングルクリックかダブルクリックかいずれかの処理が実行される。 The double click is determined as a double click by performing the above click operation twice. If the interval between the first click and the second click is within a certain period of time, it is determined as a double click. If it is more than the time, it is determined that the single click is performed twice. When the double click is determined, for example, the “+” mark indicating the eye position of the navigation window is made yellow. As shown in FIG. 15, the condition for determining a double click is that the iris area is equal to or less than a threshold value for a click determination time of 0.5 s to 1.0 s, When the condition to be determined is satisfied, it is determined as a double click. In this flow, it is determined that the click is made at the point A in FIG. 15 and another click is made at the point B. However, as shown in FIG. Depending on whether or not, a single click or double click process is executed.
次に、ドラッグ機能について説明する。図16にドラッグ判定のアルゴリズムをフローチャートで示す。開眼状態で目を一定時間、一定の範囲内に停留することにより、ドラッグモードがONとなり、ドラッグが可能と判定する。クリックと混同しないために目を閉じているときに、一定時間、一定範囲に目が停留していても、ドラッグモードをONしたとは判断しない。このときは、例えばナビゲーションウインドウの目位置を示す“+”マークの色を変えて、ドラッグと認識したことを表示する。図17にドラッグ判定の目の位置の様子を示す。テンプレートマッチングにより目を検出すると、検出時点で目が停留している位置情報を取得し、その位置を基準点32とする。その点から、上下左右に一定範囲s内に停留しているか判定する。この場合、一定範囲sの大きさは初期設定では、縦横23ピクセルとしている。また、この範囲s内に目の位置34が停留していたら、一定時間以上停留しているか否かを判定する。この場合の一定時間の初期設定は、1.0sである。そして、図17(a)に示すように、一定範囲sに一定時間目の位置34が停留していると判定できれば、ドラッグモードをONとする。ドラッグ動作を終了してドロップするには、ドラッグモードがONのときに、再度、一定範囲に一定時間停留していると判定できたときにドロップし、ドラッグモードがOFFとなりドラッグが終了する。また、図17(b)に示すように、一定範囲sに一定時間目の位置34が停留していない場合は、図16フローチャートの通り、次の目位置の画像(フレーム)取得に戻る。
Next, the drag function will be described. FIG. 16 is a flowchart showing the drag determination algorithm. By keeping the eyes within a certain range for a certain period of time in an open state, the drag mode is turned on and it is determined that dragging is possible. When the eyes are closed so as not to be confused with a click, it is not determined that the drag mode has been turned on even if the eyes remain in a certain range for a certain time. At this time, for example, the color of the “+” mark indicating the eye position of the navigation window is changed to display that the drag is recognized. FIG. 17 shows the eye position of the drag determination. When an eye is detected by template matching, position information where the eye is stopped at the time of detection is acquired, and the position is set as a
次に、スクロール機能について説明する。図18、図19にスクロール判定のアルゴリズムをフローチャートで示す。このフローチャートに示すように、左右の目について各々虹彩面積が測定され、両目ともに一定時間以上同時に閉じていること判定されると、スクロールモードがONになる。スクロールモードをOFFにするには、ONにしたときと同様に両目を一定時間以上閉じることによりスクロールモードをOFFにする。このときナビゲーションウインドウでは、ベクトルモードと同じ表示状態になり“SCROLL”の文字が表示される。さらに、ナビゲーションウインドウには、スクロール感度を表すインジケータが表示される。スクロールは、上下スクロールのみ可能であり、ナビゲーションウインドウの位置範囲を表す円を中心として、円より上に目を動かすと上にスクロールし、下に動かすと下にスクロールする。 Next, the scroll function will be described. FIGS. 18 and 19 are flowcharts showing an algorithm for scroll determination. As shown in this flowchart, the iris area is measured for each of the left and right eyes, and when it is determined that both eyes are simultaneously closed for a predetermined time or more, the scroll mode is turned on. In order to turn off the scroll mode, the scroll mode is turned off by closing both eyes for a certain period of time as in the case of turning on . At this time, in the navigation window, the display state is the same as that in the vector mode, and the characters “SCROLL” are displayed. Further, an indicator representing scroll sensitivity is displayed in the navigation window. Scrolling is only possible to scroll up and down, with the circle representing the position range of the navigation window as the center, scrolling up when you move your eyes above the circle and scrolling down when you move down.
この実施形態のコンピュータ入力方法と装置によれば、目をポインティングデバイスとして使用するため、手足が不自由な人や手を使えない状況でも、この目操作マウスを用いることにより、通常の手動マウスを使用した場合に近いコンピュータの操作が可能となる。また、このコンピュータ入力方法は、コンピュータにインストールされる上記実施形態のプログラムにより動作するものであり、特殊な装置を目や頭などに装着する必要がなく、市販のコンピュータに広く利用することができるものである。さらに、一般の手動マウスを接続状態で使用可能であり、通常はポインティングデバイスとして手動マウスを使用し、手足の不自由な人や手を使えない状況においては、この目操作マウスを使用することができる。このため、コンピュータを兼用して使用可能なため、コンピュータを専用にする必要が無く、経済的である。 According to the computer input method and apparatus of this embodiment, since an eye is used as a pointing device, a normal manual mouse can be used by using this eye operation mouse even in a situation where a handicapped person or a hand cannot be used. The computer can be operated close to when it is used. Further, this computer input method is operated by the program of the above-described embodiment installed in the computer, and it is not necessary to attach a special device to the eyes or head, and can be widely used in commercially available computers. Is. In addition, a general manual mouse can be used in a connected state. Usually, a manual mouse is used as a pointing device, and this eye operation mouse can be used in situations where a handicapped person or hand cannot be used. it can. For this reason, since it can be used also as a computer, it is not necessary to dedicate a computer and it is economical.
なお、この発明のコンピュータ入力方法は上記実施形態に限定されるものではなく、左右どちらの目をマウスの第一ボタンに割り当てるかは、キーボードのキー操作により選択可能である。また、クリック判断及びダブルクリック判断の判定時間は適宜設定可能である。さらに、ドラッグ判断に用いる範囲を表すピクセル数及び停留時間のしきい時間は、適宜設定可能である。また、まばたきによるクリックは目の停留によるクリックに置き換えることが可能である。その他、この発明のコンピュータ入力方法のアルゴリズムは移植可能なため、コンピュータの使用するOSは適宜選択可能である。 Note that the computer input method of the present invention is not limited to the above embodiment, and which of the left and right eyes is assigned to the first button of the mouse can be selected by a key operation on the keyboard. The determination time for the click determination and the double click determination can be set as appropriate. Furthermore, the number of pixels representing the range used for drag determination and the threshold time of the stop time can be set as appropriate. In addition, a click by blinking can be replaced with a click by stopping eyes. In addition, since the algorithm of the computer input method of the present invention is portable, the OS used by the computer can be selected as appropriate.
2 コンピュータ
4 ディスプレイ
6 キーボード
8 マウス
10 カメラ
12 レンズ
14 フィルタ
15 目
16 テンプレート
18 虹彩
2
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004240649A JP4088282B2 (en) | 2004-08-20 | 2004-08-20 | Computer input method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004240649A JP4088282B2 (en) | 2004-08-20 | 2004-08-20 | Computer input method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006059147A JP2006059147A (en) | 2006-03-02 |
JP4088282B2 true JP4088282B2 (en) | 2008-05-21 |
Family
ID=36106565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004240649A Expired - Fee Related JP4088282B2 (en) | 2004-08-20 | 2004-08-20 | Computer input method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4088282B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
JP2009277194A (en) * | 2008-04-18 | 2009-11-26 | Panasonic Electric Works Co Ltd | Display operation system |
TWI432172B (en) * | 2008-10-27 | 2014-04-01 | Utechzone Co Ltd | Pupil location method, pupil positioning system and storage media |
JP5483152B2 (en) * | 2009-03-05 | 2014-05-07 | 国立大学法人 宮崎大学 | Mouse cursor control system using electrooculogram |
NZ745738A (en) * | 2016-03-04 | 2020-01-31 | Magic Leap Inc | Current drain reduction in ar/vr display systems |
KR102550587B1 (en) | 2016-03-25 | 2023-06-30 | 매직 립, 인코포레이티드 | Virtual and augmented reality systems and methods |
WO2020018938A1 (en) | 2018-07-19 | 2020-01-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
JP2019032846A (en) * | 2018-08-29 | 2019-02-28 | 京セラ株式会社 | Electronic apparatus and display control method |
US11402646B2 (en) * | 2018-11-12 | 2022-08-02 | Sony Group Corporation | Display apparatus, display control method, and program |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2688527B2 (en) * | 1989-11-27 | 1997-12-10 | 日本電信電話株式会社 | Gaze direction detection method |
JPH04255015A (en) * | 1991-02-06 | 1992-09-10 | Ricoh Co Ltd | Information input device |
JPH05298015A (en) * | 1992-04-23 | 1993-11-12 | Matsushita Electric Ind Co Ltd | Eye gaze detection system and information processing system |
JPH06187091A (en) * | 1992-12-21 | 1994-07-08 | Kokusai Electric Co Ltd | Coordinate input device |
JPH0822385A (en) * | 1994-02-22 | 1996-01-23 | Nippon Hoso Kyokai <Nhk> | Gaze-corresponding display method and device |
JP3293308B2 (en) * | 1994-03-10 | 2002-06-17 | 三菱電機株式会社 | Person state detection device |
JP3272906B2 (en) * | 1995-05-29 | 2002-04-08 | シャープ株式会社 | Gaze direction detecting method and apparatus and man-machine interface apparatus including the same |
JPH09251342A (en) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | Device and method for estimating closely watched part and device, information display device/method using the same |
US5850211A (en) * | 1996-06-26 | 1998-12-15 | Sun Microsystems, Inc. | Eyetrack-driven scrolling |
JP3556439B2 (en) * | 1997-08-12 | 2004-08-18 | 三菱電機株式会社 | Face image processing device |
JP3361980B2 (en) * | 1997-12-12 | 2003-01-07 | 株式会社東芝 | Eye gaze detecting apparatus and method |
JP2000020196A (en) * | 1998-07-01 | 2000-01-21 | Shimadzu Corp | Eye-gaze input device |
JP2002236957A (en) * | 2001-02-09 | 2002-08-23 | Victor Co Of Japan Ltd | Electronic voting device, and electronic voting system |
DE10108797A1 (en) * | 2001-02-21 | 2002-09-05 | Zeiss Carl Jena Gmbh | Procedure for determining distances at the anterior segment of the eye |
JP4025516B2 (en) * | 2001-04-25 | 2007-12-19 | 日本電信電話株式会社 | Mouse replacement method, mouse replacement program, and recording medium recording the program |
JP3790680B2 (en) * | 2001-05-25 | 2006-06-28 | 株式会社東芝 | Image processing system and driving support system using the same |
JP3797253B2 (en) * | 2002-03-14 | 2006-07-12 | 日産自動車株式会社 | Gaze direction detection device |
JP2006055388A (en) * | 2004-08-20 | 2006-03-02 | Toyama Prefecture | Remote support system for nursing care |
-
2004
- 2004-08-20 JP JP2004240649A patent/JP4088282B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006059147A (en) | 2006-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6637883B1 (en) | Gaze tracking system and method | |
US9921663B2 (en) | Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium | |
US5912721A (en) | Gaze detection apparatus and its method as well as information display apparatus | |
KR101331655B1 (en) | Electronic data input system | |
US9952663B2 (en) | Method for gesture-based operation control | |
US10477090B2 (en) | Wearable device, control method and non-transitory storage medium | |
JP4491604B2 (en) | Pupil detection device | |
KR20140002007A (en) | Information processing device, information processing method, and recording medium | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP4088282B2 (en) | Computer input method and apparatus | |
Song et al. | Detection of movements of head and mouth to provide computer access for disabled | |
JP6452369B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
CN109101110A (en) | A kind of method for executing operating instructions, device, user terminal and storage medium | |
JP4345755B2 (en) | Input position setting method, input position setting device, input position setting program, and information input system | |
JP2009054101A (en) | Gaze input device, gaze input method, and gaze input program | |
KR20190108909A (en) | System and method for measurement of visual acuity based on the analysis of user eye movements | |
KR100749033B1 (en) | How to operate the terminal by tracking the light reflected from both eyes, and the device | |
KR20140132906A (en) | Device and method for mobile tooltip using eye detecting | |
KR100692526B1 (en) | Gesture Recognition Device and System for Automatic System Control | |
JP3796840B2 (en) | Gesture input device and input device including the same | |
JP2011243141A (en) | Operation information processor, method and program | |
JP6161244B2 (en) | Portable terminal device, program, and input method | |
JPH05232908A (en) | Instruction input device | |
KR20190069023A (en) | Method of Providing Touchless Input Interface Based on Hand Recognition and The Apparatus Applied Thereto | |
CN114740966A (en) | Multi-modal image display control method and system and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070817 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20070817 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20071003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140228 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |