[go: up one dir, main page]

JPH1186005A - Operation detecting device - Google Patents

Operation detecting device

Info

Publication number
JPH1186005A
JPH1186005A JP9260932A JP26093297A JPH1186005A JP H1186005 A JPH1186005 A JP H1186005A JP 9260932 A JP9260932 A JP 9260932A JP 26093297 A JP26093297 A JP 26093297A JP H1186005 A JPH1186005 A JP H1186005A
Authority
JP
Japan
Prior art keywords
detection
feature point
motion
time
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9260932A
Other languages
Japanese (ja)
Other versions
JP3627468B2 (en
Inventor
Hiroshi Saito
浩 斉藤
Norimasa Kishi
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP26093297A priority Critical patent/JP3627468B2/en
Publication of JPH1186005A publication Critical patent/JPH1186005A/en
Application granted granted Critical
Publication of JP3627468B2 publication Critical patent/JP3627468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation detecting device which can surely detect a head shake. SOLUTION: A CCD camera 3 picks up an image of the face of a driver 14. An entirety control part 13 converts the face image, obtained by the individual illumination with 1st front lighting 1 of the driver and 2nd oblique lighting under the control of a lighting light emission control part 4, from analog to digital by an A/D converter 5. A pupil extraction part 7 inputs face images from an image memory 6 and calculates their difference to extract an area of high density through binarization. Pupil areas are detected by area and circle detection as to respective areas. A nod detection part 8 detects displacement in the center of gravity of the pupils to detect a nod from reciprocal displacement in a specific time. A navigation display control part detects an information start operation switch 12 being operated through the entirety control part, reads information confirmed by the nod out of a navigation information data base 10 at a navigation display part and completes the display.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、機器の操作にお
ける操作指示を操作者の首振りで行なう場合の動作検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion detection device for performing an operation instruction in operating a device by swinging an operator.

【0002】[0002]

【従来の技術】首の縦振りと横振りは、対話において意
志を表現する1つの手段となっている。そのため、操作
者の首の縦振りと横振りをマン・マシンインタフェース
に適用しようという考えは古くからある。例えば特開平
7−117593号公報に開示されている車両用警報装
置では、、2段階に行なう車両距離警報に最初の警報に
対する運転者の反応を見て、警報に気づかない時、2次
的な警報を行なう。ここでは、運転者の反応として、顔
の動きが利用できるものとしている。この他にも多くの
事例では、操作負担の軽減を図り首振り動作を操作指示
に取り入れるようにしている。
2. Description of the Related Art Vertical and horizontal swinging of a neck is one means of expressing intention in dialogue. Therefore, the idea of applying the vertical and horizontal swing of the operator's neck to the man-machine interface has been around for a long time. For example, in the vehicular warning device disclosed in Japanese Patent Application Laid-Open No. HEI 7-117593, when the driver does not notice the warning by looking at the reaction of the driver to the first warning in the vehicle distance warning performed in two stages, Give an alarm. Here, it is assumed that the face movement can be used as the driver's reaction. In many other cases, the operation burden is reduced to incorporate the swinging motion into the operation instruction.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
いずれも首振り動作の利用は指摘されているものの、具
体的な首振りの検出方法については言及されておらず、
実用に供するものとしては明確でないのが現状である。
本発明は、首の縦振りと横振りを画像認識により検出
し、装置の入力情報として装置を作動させ得る動作検出
装置を提供することを目的としている。
However, although the use of the swing operation is pointed out in any of the above, no specific method of detecting the swing is described.
At present, it is not clear that it is practically used.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a motion detection device capable of detecting a vertical and horizontal swing of a neck by image recognition and operating the device as input information of the device.

【0004】[0004]

【課題を解決するための手段】このため、被験者の顔面
を撮像する画像入力手段と、被験者の顔面特徴点を画像
処理によって検出する顔面特徴点検出手段と、前記顔面
特徴点検出手段が出力する時間的に異なる画像の顔面特
徴点の位置を比較する比較手段と、この比較手段が比較
した前記顔面特徴点の位置が上下または左右方向に往復
変位したかを判定する判定手段と、この判定手段の判定
結果に基づいて首振り動作を検出する動作検出手段とを
有するものとした。
For this purpose, image input means for imaging the face of the subject, face feature point detecting means for detecting the face feature points of the subject by image processing, and the face feature point detecting means output. Comparing means for comparing the positions of the facial feature points of temporally different images; determining means for determining whether the positions of the facial feature points compared by the comparing means have reciprocated vertically or horizontally; and And a motion detecting means for detecting a swing motion based on the determination result.

【0005】前記動作検出手段は一回の首振りに要した
時間を算出し、その時間に基づいて次回の前回顔面特徴
点検出手段による検出を行なうタイミングが決定される
ものである。前記動作検出手段は首振り動作を検出した
のち、所定の時間間隔をあけて、次回の前記顔面特徴点
検出手段による検出を行なうことが望ましい。前記動作
検出手段は一回の首振りに要した時間を算出するととも
に前記時間間隔は首振り検出に要する時間であることが
望ましい。前記動作検出手段は前記判定手段により判定
された前記特徴点の変位方向から首振りが縦振りか横振
りかを判断することが可能である。前記顔面特徴点検出
手段は前回の顔面特徴点の検出位置を参照し次回の前記
顔面特徴点検出手段による検出範囲を決定することが望
ましい。前記顔面特徴点は瞳孔であることが望ましい。
The motion detecting means calculates the time required for one swing, and determines the timing of the next detection by the facial feature point detecting means of the previous time based on the calculated time. It is preferable that the motion detecting means detects the swing motion and then performs the next detection by the facial feature point detecting means at predetermined time intervals. It is preferable that the motion detection means calculates the time required for one swing and the time interval is the time required for swing detection. The motion detection means can determine whether the head swing is vertical or horizontal based on the displacement direction of the feature point determined by the determination means. It is preferable that the facial feature point detecting means determines the detection range of the next facial feature point detecting means by referring to the previous detection position of the facial feature point. Preferably, the facial feature point is a pupil.

【0006】[0006]

【作用】首振りすれば、顔面が連動して特徴点が変位す
る。その特徴点の変位方向は首振り方向と一致するの
で、特徴点の往復変位を検知することで、首振りを認識
することが可能である。首振りに要した時間を実際に検
出し、その時間を基づいて次回の検出時間を決定するよ
うにすると、学習効果が働き、検出時間を正確に設定す
ることが可能で、誤検出を防ぐ効果が得られる。前記動
作検出手段は首振り動作を検出したのち、所定の時間間
隔をあけて、次回の検出を行なうようにすると、不用意
に首振りが複数回往復されたときの誤検出が防止され
る。
[Function] If the head is swung, the feature point is displaced in conjunction with the face. Since the displacement direction of the feature point coincides with the swing direction, the swing of the feature point can be recognized by detecting the reciprocal displacement of the feature point. By actually detecting the time required for swinging and determining the next detection time based on that time, the learning effect works and the detection time can be set accurately, preventing false detection. Is obtained. If the motion detection means detects the swing motion and then performs the next detection at a predetermined time interval, erroneous detection when the swing is reciprocated multiple times carelessly is prevented.

【0007】特徴点の変位方向は首の振り方と一致する
ので、変位方向から首振りが縦振りか横振りかを判断す
ることが可能である。前記顔面特徴点検出手段は前回の
特徴点の検出結果を参照し次回の検出範囲を決定するこ
とにより、特徴点を探索する区域が小さくなり、処理す
るデータ量が減少される。前記特徴点は瞳孔とすること
により、網膜の反射と不反射を利用することが可能とな
り、その両画像から差分演算することによって瞳孔画像
が簡単に抜き出される。また瞳孔画像は円形か楕円形と
なるので、不定形状をとるノイズと区別され易く、重心
演算で瞳孔位置を示すデータが簡単に求められ変位演算
に精度の高い検出対象となる。
Since the displacement direction of the feature point coincides with the manner in which the head is swung, it is possible to determine whether the head is swung vertically or horizontally from the displacement direction. The facial feature point detecting means determines the next detection range by referring to the previous detection result of the feature points, so that the area for searching for the feature points is reduced, and the amount of data to be processed is reduced. By using the pupil as the feature point, it becomes possible to use reflection and non-reflection of the retina, and a pupil image is easily extracted by calculating a difference between the two images. Further, since the pupil image is circular or elliptical, it is easily distinguished from noise having an indefinite shape, and data indicating the pupil position is easily obtained by the center of gravity calculation.

【0008】[0008]

【発明の実施の形態】次に本発明を車載ナビゲーション
装置の情報検出に適用した実施例について図面を参照し
て説明する。図1は実施例の構成を示すブロック図であ
る。画像入力手段としてのCCDカメラ3は運転者14
の顔面を撮像できるように配置されているとともに顔面
を照明する第1照明1はCCDカメラの光軸線上から、
第2照明2は第1照明1の横の所定位置で運転者を斜め
方向から照明するように設置される。第1照明および第
2照明は同じ近赤外線光を発するLEDで構成され、顔
面を同じ強度で照明するように照射強度が調整されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment in which the present invention is applied to information detection of a vehicle-mounted navigation device will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. The driver 14 is a CCD camera 3 as image input means.
The first illumination 1, which is arranged so as to be able to image the face of the subject and illuminates the face, is located on the optical axis of the CCD camera
The second lighting 2 is installed at a predetermined position beside the first lighting 1 so as to illuminate the driver from an oblique direction. The first illumination and the second illumination are configured by LEDs that emit the same near-infrared light, and the illumination intensity is adjusted so as to illuminate the face with the same intensity.

【0009】CCDカメラ3は運転者14の顔面を連続
撮像するが、全体制御部13はA/D変換器5を制御
し、照明発光制御部4の制御によって第1照明1と第2
照明2が個別に照明を行なったときの顔面画像をA/D
変換させる。A/D変換した顔面画像信号は画像メモリ
6に格納される。第1照明1と第2照明2の点灯は短い
時間間隔で行なわれ、それぞれの画像にはほぼ同時の顔
面が映されている。以下第1照明1が点灯時の画像を画
像A、第2照明2が点灯した画像を画像Bとし、説明を
進める。
The CCD camera 3 continuously captures an image of the face of the driver 14. The overall control unit 13 controls the A / D converter 5, and the first illumination 1 and the second illumination 1 are controlled by the illumination light emission control unit 4.
A / D is a face image when lighting 2 individually illuminates.
Let it be converted. The face image signal after the A / D conversion is stored in the image memory 6. The lighting of the first illumination 1 and the second illumination 2 is performed at short time intervals, and almost the same face is shown in each image. Hereinafter, the image when the first light 1 is turned on is referred to as an image A, and the image when the second light 2 is turned on is referred to as an image B.

【0010】画像メモリ6には顔面特徴点検出手段とし
ての瞳孔抽出部7が接続されている。瞳孔抽出部7は画
像Aと画像Bの差分演算を行なう。その差分画像をさら
にしきい値で二値化処理して、濃度の高い領域を検出す
る。各領域についてはラベリング処理を施し、番号付け
を行なう。画像Aでは第1照明1はCCDカメラのレン
ズ方向から光を投射するので、網膜からの反射光により
瞳孔が明かるく光って観測される。画像Bでは第2照明
による光投射が斜め方向から行なわれて瞳孔が暗く観測
される。したがって、画像Aと画像Bの差分結果は瞳孔
領域が強調されたこととなり、上記の二値化処理で抜き
出される。
The image memory 6 is connected to a pupil extracting section 7 as a facial feature point detecting means. The pupil extraction unit 7 performs a difference operation between the image A and the image B. The difference image is further subjected to a binarization process using a threshold to detect a region having a high density. Each area is subjected to labeling processing and numbering is performed. In the image A, since the first illumination 1 projects light from the lens direction of the CCD camera, the pupil is observed to be brightly illuminated by the reflected light from the retina. In the image B, light projection by the second illumination is performed from an oblique direction, and the pupil is observed dark. Accordingly, the result of the difference between the image A and the image B indicates that the pupil region has been enhanced, and is extracted by the above-described binarization processing.

【0011】差分画像の中には網膜反射像の他、例えば
眼鏡をかけた人からは眼鏡レンズ反射像、眼鏡フレーム
反射像、さらには外部照明の変動で顔の一部が現われる
などなど様々なノイズが含まれる可能性がある。これら
のノイズは一般的に不定形状、かつ面積も不定であるた
め、形状と面積の処理によって識別することができる。
瞳孔抽出部7では、ラベリング処理された各領域に対し
て、領域の面積Riを演算し、予め決めておいたしきい
値S1、S2と比較して、S1<Ri<S2を満足する
領域を抽出する。ここで、S1、S2は、CCDカメラ
の撮影倍率から推定した瞳孔面積の上下限に対応した値
である。例えば直径2〜8mmの瞳孔が、画像上で何画
素の領域として観測されるかに合わせて設定される。
In the difference image, in addition to the retinal reflection image, for example, a spectacle lens reflection image, a spectacle frame reflection image from a person wearing spectacles, and a part of the face appearing due to a change in external illumination. Noise may be included. Since these noises generally have an indeterminate shape and an indeterminate area, they can be identified by processing the shape and area.
The pupil extraction unit 7 calculates the area Ri of each area subjected to the labeling process, compares the area Ri with predetermined thresholds S1 and S2, and extracts an area satisfying S1 <Ri <S2. I do. Here, S1 and S2 are values corresponding to the upper and lower limits of the pupil area estimated from the photographing magnification of the CCD camera. For example, the pupil having a diameter of 2 to 8 mm is set according to how many pixels are observed on the image.

【0012】上記抽出された領域をその外接長方形に対
する領域面積の比率Fを計算し比率Fがある一定値以上
の場合瞳孔として抽出する。すなわち網膜反射像は円ま
たは楕円形状で観測されるため、比率Fが大であるのに
対し、眼鏡フレームの反射は、フレームに沿った細長い
領域になるため、F値が小さくなって、F値の判別によ
って検出対象から振り落とされる。そのほかのノイズに
ついても円形ほどの比率Fが得られないので、検出対象
とならず、除去される。
The extracted area is calculated as a pupil when the ratio F of the area of the area to the circumscribed rectangle is calculated to be a certain value or more. That is, since the retinal reflection image is observed in a circular or elliptical shape, the ratio F is large, whereas the reflection of the spectacle frame is an elongated area along the frame. Is shaken off from the detection target by the determination of. As for other noises, a ratio F as large as that of a circle cannot be obtained, so that they are not detected and removed.

【0013】次に、瞳孔領域の重心について演算を行な
う。この重心は瞳孔を代表することができるので、その
位置変動で運転者の首振り動作を検知することが可能で
ある。ここで、瞳孔の重心(Xg、Yg)を次式に基づ
いて算出する。なお、2値化画像をC(x、y)とし、
C(x、y)=1は抽出された瞳孔領域である。 Xg=Σx/〔C(x、y)=1の画素総数〕 但し、xはC(x、y)=1の画素のx座標 Yg=Σy/〔C(x、y)=1の画素総数〕 但し、yはC(x、y)=1の画素のy座標 瞳孔抽出部7に動作検出手段として接続されるうなずき
検知部8は、瞳孔の重心の変位を検出し、その変位方向
からうなずきを検出する。うなずき検出方法は後述のフ
ローチャートにしたがって詳細に説明する。
Next, calculation is performed on the center of gravity of the pupil region. Since this center of gravity can represent the pupil, it is possible to detect the driver's swing motion based on the position change. Here, the center of gravity (Xg, Yg) of the pupil is calculated based on the following equation. Note that the binarized image is C (x, y),
C (x, y) = 1 is the extracted pupil region. Xg = Σx / [total number of pixels of C (x, y) = 1] where x is the x coordinate of the pixel of C (x, y) = 1 Yg = Σy / [total number of pixels of C (x, y) = 1 Here, y is the y coordinate of the pixel of C (x, y) = 1. The nodding detecting unit 8 connected to the pupil extracting unit 7 as a motion detecting unit detects the displacement of the center of gravity of the pupil, and nods from the displacement direction. Is detected. The nod detection method will be described in detail according to a flowchart described later.

【0014】ナビゲーション表示制御部9は全体制御部
13と接続され、全体制御部には情報検索開始スイッチ
12が接続される。ナビゲーション表示制御部9は全体
制御部13を介して情報検索開始スイッチ12が操作さ
れたことを検知し、情報検索を行なうとともにうなずき
検知結果を入力して所定の検索制御を行なう。ナビ情報
データベース10には情報検索に必要な情報内容が格納
されており、ナビ表示部11は情報検索ためのアイコン
と検索された情報内容を表示する。
The navigation display control unit 9 is connected to the general control unit 13, and the information search start switch 12 is connected to the general control unit. The navigation display control unit 9 detects that the information search start switch 12 has been operated through the overall control unit 13, performs information search, and inputs a nod detection result to perform predetermined search control. The navigation information database 10 stores information contents necessary for information search, and the navigation display unit 11 displays an icon for information search and the searched information contents.

【0015】情報検索が必要なとき、運転者14は情報
探索開始スイッチ12を押す。このスイッチ情報をナビ
ゲーション表示制御部9は全体制御部13を介して検知
すると、画面表示中の地図情報に例えば駐車場、ガソリ
ンスタンド、コンビニエンスストア、レストランなどの
施設情報を検索する。それにはまず施設内容を示すアイ
コンがナビ表示部11に画面表示される。各アイコンは
例えば図4、図5のように同時に画面表示されるととも
にタイマー制御によって一定時間T(例えばT=2s)
毎に着色を順番に変えて表現される。
When an information search is required, the driver 14 presses the information search start switch 12. When the switch information is detected by the navigation display control unit 9 via the overall control unit 13, the map information being displayed on the screen searches for facility information such as a parking lot, a gas station, a convenience store, and a restaurant. For this purpose, icons indicating the facility contents are first displayed on the navigation display unit 11 on the screen. Each icon is simultaneously displayed on the screen as shown in FIGS. 4 and 5, for example, and is controlled for a predetermined time T (for example, T = 2 s) by timer control.
It is expressed by changing the coloring for each time.

【0016】運転者は選びたい情報を示すアイコンが着
色されている間にうなずきによって、意志を伝達する。
うなずきはCCDカメラ3で撮像された画像からうなず
き検出部8での処理によって検出される。運転者は例え
ば着色された駐車場のアイコンに対しうなずきを行なっ
た場合ナビゲーション表示制御部9は駐車場の情報をナ
ビ情報データベース10から読み出しナビ表示部11に
表示させる。駐車場アイコンが図6のように駐車場情報
の表示とともに着色パターンを変えて情報が選択されて
いることを表現する。これによりうなずきを受け付けた
と確認することができる。そして再度のうなずきが検出
されると、ナビ情報の探索を終了するものとしてナビゲ
ーション表示制御部9は画面表示を終了する。表示画面
は図7のように探索された情報が消え元の地図画面とな
る。
The driver communicates his / her intention by nodding while the icon indicating the information to be selected is colored.
The nodding is detected from the image captured by the CCD camera 3 by the processing of the nodding detecting unit 8. For example, when the driver nods to the colored parking lot icon, the navigation display control unit 9 reads out the parking lot information from the navigation information database 10 and displays it on the navigation display unit 11. The parking lot icon changes the coloring pattern together with the display of the parking lot information as shown in FIG. 6 to indicate that the information is selected. Thus, it can be confirmed that the nod is received. When a nod is detected again, the navigation display control unit 9 terminates the screen display assuming that the search for the navigation information is to be terminated. On the display screen, the searched information disappears and the original map screen is displayed as shown in FIG.

【0017】図2は、運転者とかかわりのあるCCDカ
メラ、照明、情報検索開始スイッチの設置レイアウトを
表示する。すなわち車両のウインドシールドの下方の計
器盤に、ナビ表示部11としてのモニタが設置されてい
る。モニタの右下方に情報検索開始スイッチ12が設け
られる。モニタのすぐ下方にCCDカメラ3と第1照明
1は同軸系をなすように設置される。第2照明2は第1
照明1の隣で一定の間隔をもって設置される。CCDカ
メラ3は運転者の両眼を含めた顔面を撮影できるように
なっている。
FIG. 2 shows an installation layout of a CCD camera, lighting, and an information search start switch that are related to the driver. That is, a monitor as the navigation display unit 11 is installed on the instrument panel below the windshield of the vehicle. An information search start switch 12 is provided at the lower right of the monitor. Immediately below the monitor, the CCD camera 3 and the first illumination 1 are installed so as to form a coaxial system. The second illumination 2 is the first
It is installed next to the lighting 1 at a certain interval. The CCD camera 3 can capture the face of the driver including both eyes.

【0018】次に、画面表示の流れおよび制御を図3の
フローチャートにしたがって説明する。すなわち、ステ
ップ101において、全体制御部13を介して情報検索
開始スイッチ12が押されたことを検知すると、ステッ
プ102で情報内容を示すアイコン表示が行なわれる。
本実施例では、情報内容としては走行路情報にレストラ
ン、駐車場、ガソリンスタンド、コンビニエンスストア
といった走行路上の情報を呼び出すもので、走行路情報
の表示画面に重ねて表示することになる。アイコンはタ
イマーに制御されて、一定時間毎に順次に着色を更新し
て表示する。図4、図5はその表示画面を示し、それぞ
れの(a)、(b)には地図情報と着色が変化していく
アイコンが表示されている。
Next, the flow and control of screen display will be described with reference to the flowchart of FIG. That is, when it is detected in step 101 that the information search start switch 12 has been pressed through the overall control unit 13, an icon indicating the information content is displayed in step 102.
In the present embodiment, information on a travel route such as a restaurant, a parking lot, a gas station, and a convenience store is called for the travel route information, and is superimposed on a display screen of the travel route information. The icons are controlled by a timer, and the coloring is sequentially updated and displayed at regular intervals. FIGS. 4 and 5 show the display screens, and (a) and (b) respectively show map information and an icon whose color is changing.

【0019】ステップ103において、ナビゲーション
表示制御部9はうなずき検知部8からうなずき(首の縦
振り)の検出結果が入力されたかをチェックし、ステッ
プ104で、うなずきされた着色中のアイコン情報をナ
ビ情報データベースから読み出してモニタに表示させ
る。なお、この際うなずきのチェックは継続されてい
る。図6は例えば所要の情報が駐車場の場合の表示画面
を示す。画面には駐車場アイコンが着色パターンを変え
て同時に表示されて選択されている内容を表現してい
る。そしてステップ105で、再度のうなずきがあった
ことがチェックされると、ステップ106で情報検索を
終了する。モニタ表示画面は図7に示すように探索され
た情報とアイコンが消えた地図のみの画面となる。
In step 103, the navigation display control section 9 checks whether or not the detection result of the nodding (vertical swing of the neck) is inputted from the nodding detecting section 8, and in step 104, the navigation information of the nodding colored icon information is displayed. Read from the information database and display on the monitor. At this time, the check for nodding is continued. FIG. 6 shows a display screen when the required information is a parking lot, for example. On the screen, a parking lot icon is simultaneously displayed with a different coloring pattern to express the selected content. Then, when it is checked in step 105 that there is nodding again, the information search is terminated in step 106. As shown in FIG. 7, the monitor display screen is a screen of only the map from which the searched information and icons disappear.

【0020】次に、うなずき検知部8におけるうなずき
の検知について図8のフローチャートにしたがって説明
する。ステップ201で、処理の時間経過を監視するタ
イマーの初期化が行なわれる(t=0)と、首振りの検
知を始める。まずステップ202で、瞳孔抽出部7から
瞳孔検出結果を入力する。その入力をステップ203で
前回の入力結果との演算で首が縦方向に振れ始めたかを
判定する。振れ始めていない場合、ステップ204で単
位時間経過のカウントを経て、次の瞳孔検出結果を入力
するようにステップ202に戻り、振れ始めたと判定す
る場合はステップ205へ進む。すなわちステップ20
3で時間的に連続して入力した瞳孔の重心位置を比較
し、時刻tで得た重心位置(Xgt、Ygt)と時刻t
+1で得た重心位置(Xgt+1、Ygt+1)につい
てその下向きの垂直方向変位(Ygt+1−Ygt)は
一定値Th1より大きく、水平方向の変位(Xgt+1
−Xgt)が一定値Th2内に収まった場合、首が縦方
向に振れ始めたとして判断する。
Next, the detection of a nod in the nod detector 8 will be described with reference to the flowchart of FIG. In step 201, when the timer for monitoring the lapse of the processing time is initialized (t = 0), the detection of the swing is started. First, in step 202, a pupil detection result is input from the pupil extraction unit 7. In step 203, it is determined whether the input has been started and the neck has started to swing in the vertical direction by calculation with the previous input result. If the shake has not begun, the process returns to step 202 so as to input the next pupil detection result after counting the elapse of the unit time in step 204, and proceeds to step 205 if it is determined that the shake has started. That is, step 20
3, the center of gravity position of the pupil input continuously in time is compared, and the center of gravity position (Xgt, Ygt) obtained at time t and time t
For the center of gravity (Xgt + 1, Ygt + 1) obtained at +1, the downward vertical displacement (Ygt + 1−Ygt) is larger than the fixed value Th1, and the horizontal displacement (Xgt + 1)
If (−Xgt) falls within the constant value Th2, it is determined that the neck has begun to swing in the vertical direction.

【0021】ステップ205で首が縦方向に振れた時刻
tsをうなずき開始時刻として記憶したのち、うなずき
の後半に現われる上向きの動きを検出するよう次のフロ
ーが実行される。このフローでは前記フローと区別する
よう時間tの代わりに時間taを用い、時刻tsを初期
値とする。すなわちステップ206で〜ステップ209
を通じて時間経過を監視しながら、次の瞳孔検出結果を
入力する。時刻ta+1と時刻taで得た瞳孔重心の位
置比較で、上向きの垂直方向変位|Ygta+1−Yg
ta|が一定値Th1を越え、水平方向変位|Xgta
+1−Xgta|が一定値Th2内に収まっていると
き、首が上向きに移動したとして検知する。この際、ス
テップ206で、首が縦方向に振れ始めた時間tsから
の時間経過(ta−ts)がある一定時間tmaxにな
るまでに上向きの移動が発生しない場合、ステップ20
3で検知された首の縦方向振れはうなずきによるもので
ないとして棄却する。うなずきの速度は人によって異な
るが、時間tmaxは考えられるうなずきの最長時間と
して、例えば2秒として設定しておけばよい。上記処理
の間には瞳孔の検出結果入力は続けられている。
After storing the time ts at which the head is swung in the vertical direction at step 205 as a nod start time, the following flow is executed to detect an upward movement appearing in the latter half of the nod. In this flow, time ta is used instead of time t so as to be distinguished from the flow, and time ts is set as an initial value. That is, in step 206 to step 209
While monitoring the passage of time, the next pupil detection result is input. By comparing the positions of the pupil barycenters obtained at time ta + 1 and time ta, an upward vertical displacement | Ygta + 1−Yg
ta | exceeds a certain value Th1, and the horizontal displacement | Xgta
When + 1−Xgta | is within the constant value Th2, it is detected that the neck has moved upward. At this time, if it is determined in step 206 that the upward movement does not occur until a certain time tmax elapses (ta−ts) from the time ts when the neck starts to swing in the vertical direction, step 20
The vertical swing of the neck detected in step 3 is rejected because it is not caused by nodding. The speed of the nod varies from person to person, but the time tmax may be set as the longest possible nod, for example, 2 seconds. The pupil detection result input is continued during the above processing.

【0022】首の上向きの振れが検知されると、首の動
きが停止したかをチェックするフローが実行される。こ
れは車が凸凹道を走るときの車の振動によるものあるい
は居眠りによるものなど自覚したうなずき以外の首振り
をうなずきとして検知するのを防ぐための処理である。
ステップ210において上記上向きが検出された時刻t
aを下記の処理を行なう時間tbの初期値として設定す
る。ステップ211〜ステップ215では時間の経過を
監視しながら、瞳孔検出結果を続けて入力する。その入
力結果から首が2回の検出で振れないと判定した場合、
自覚したうなずきが行なわれたとして検出する。すなわ
ち、時刻tb+1と時刻tbで得た瞳孔重心の垂直方向
変位(Ygtb+1−Ygtb)を演算し、演算値が一
定値Dth内、かつ時刻tb+2、時刻tb+3での瞳
孔重心位置の垂直変位(Ygt+3−Ygt+2)も一
定値Dth内に収まっている場合、うなずきを検出す
る。ステップ211で首が振れ始めてからの時間経過
(tb−ts)がある一定時間tmaxになるまでに首
振れが停止しない場合、うなずきが発生していないとし
て上記検出結果が棄却される。ステップ203、ステッ
プ207、ステップ208は比較手段と判定手段を構成
している。
When the upward swing of the neck is detected, a flow for checking whether the movement of the neck has stopped is executed. This is a process for preventing a heading other than a nodding that is consciously recognized, such as a result of a vibration of the vehicle when the vehicle runs on an uneven road or a drowsiness, from being detected as a nodding.
Time t at which the upward direction was detected in step 210
a is set as an initial value of a time tb at which the following processing is performed. In steps 211 to 215, the pupil detection result is continuously input while monitoring the passage of time. If it is determined from the input result that the neck cannot be shaken by two detections,
It is detected as a nod that has been noticed. That is, the vertical displacement (Ygtb + 1−Ygtb) of the pupil center of gravity obtained at time tb + 1 and time tb is calculated, and the calculated value is within a constant value Dth, and the vertical displacement of the pupil center of gravity at time tb + 2 and time tb + 3 (Ygt + 3−3). If Ygt + 2) is also within the fixed value Dth, a nod is detected. If the head movement does not stop before the elapse of time (tb-ts) from the start of the head movement at a certain time tmax in step 211, the above detection result is rejected as nodling has not occurred. Step 203, step 207, and step 208 constitute a comparison unit and a determination unit.

【0023】本実施例は以上のように構成され、瞳孔を
顔面特徴点として検出し、その動きを追跡して変位特徴
を認識しうなずきを検知するので、情報の検索に手を介
さずに操作することができる。操作が複雑で、従来停車
中にしか行なえない機能も人間の自然な動作で制御する
ことにより走行中にも扱えるようになり、高度な走行制
御が可能となる。また、特徴点としての瞳孔は所定の大
きさをもつため、画像がぼけていても計測が可能であ
る。これにより、運転者の奥行き方向の移動が許され
る。さらにはCCDカメラの画角を広く設定することも
でき、運転者の上下左右方向の移動可能範囲も拡大され
る。顔面の特徴としては実施例では瞳孔を利用したが、
これに限らず例えば鼻の穴や睫毛などを用いてもよい。
なお、本実施例では、うなずき検出について説明した
が、否定的表現としての横振りも同様の検出手法で検出
できることがいうまでもない。
The present embodiment is configured as described above. The pupil is detected as a facial feature point, and its motion is tracked to detect a nod that recognizes a displacement feature. can do. The operation is complicated, and functions that can only be performed while the vehicle is stopped are controlled by natural human movements, so that the functions can be handled even while the vehicle is traveling, thereby enabling advanced traveling control. In addition, since the pupil as a feature point has a predetermined size, measurement can be performed even if the image is blurred. This allows the driver to move in the depth direction. Further, the angle of view of the CCD camera can be set wide, and the movable range of the driver in the vertical and horizontal directions can be expanded. In the embodiment, the pupil was used as a feature of the face,
However, the present invention is not limited to this. For example, a nostril or eyelashes may be used.
In this embodiment, the nod detection has been described. However, it is needless to say that a lateral movement as a negative expression can be detected by a similar detection method.

【0024】次に第2の実施例について説明する。図9
は第2の実施例の構成を示すブロック図である。この実
施例は、図1における第1の実施例のうなずき検知部8
の代わりにうなずき検知およびうなずき時間算出部19
とうなずき時間予測部20を用い、画像メモリ6と瞳孔
抽出部7の間には瞳孔位置予測部17を追加した構成と
なっている。その他は第1の実施例と同様である。
Next, a second embodiment will be described. FIG.
FIG. 6 is a block diagram showing the configuration of the second embodiment. This embodiment is different from the first embodiment in FIG.
Nod detection and nod time calculation unit 19 instead of
The configuration is such that a nodding time prediction unit 20 is used, and a pupil position prediction unit 17 is added between the image memory 6 and the pupil extraction unit 7. Others are the same as the first embodiment.

【0025】瞳孔位置予測部17は前回の瞳孔位置の近
傍に新たな瞳孔探索領域を設定する。すなわち、1回目
は、入力画像全体を探索領域として前記第1実施例と同
じように差分画像を2値化処理して濃度の高い領域を検
出し、ラベリング処理によって瞳孔の検出対象を決定す
る。2回目からは、前回の瞳孔重心を含む小領域を探索
領域として設定する。すなわち前回の瞳孔重心(Xg
t、Ygt)に対して、点(Xgt−Xo、Ygt−Y
o)、(Xgt+Xo、Ygt+Yo)をそれぞれ左
上、右下とする四角形を探索領域とする。探索領域のサ
イズxo、yoは、CCDカメラの撮影倍率にうなずき
による眼球の移動量を勘案して設定される。瞳孔抽出部
7は、上記瞳孔位置予測部17で設定された探索領域を
探索し、瞳孔領域を抽出する。
The pupil position prediction unit 17 sets a new pupil search area near the previous pupil position. That is, in the first time, the difference image is binarized in the same manner as in the first embodiment, using the entire input image as a search area, to detect a high density area, and the pupil detection target is determined by labeling processing. From the second time, a small area including the previous pupil barycenter is set as a search area. That is, the previous pupil center of gravity (Xg
t, Ygt), the points (Xgt-Xo, Ygt-Y
o) and (Xgt + Xo, Ygt + Yo) are the upper left and lower right rectangles, respectively, as the search area. The sizes xo and yo of the search area are set in consideration of the amount of movement of the eyeball caused by nodding to the photographing magnification of the CCD camera. The pupil extraction unit 7 searches the search region set by the pupil position prediction unit 17 and extracts a pupil region.

【0026】うなずき検知およびうなずき時間算出部1
9は第1の実施例と同じようにうなずきを検出し、うな
ずき開始から検出終了までの時間trを演算し、うなず
きに要した時間trをうなずき時間予測部20に送る。
うなずき時間予測部20には過去のうなずき時間trが
記憶されており、新たに計測されたうなずき時間trを
加えて、それらの平均値toと標準偏差tstdが算出
される。その結果、うなずきに要する時間の最大値の予
測値をto+3×tstdに更新し、うなずき検知およ
びうなずき時間算出部19に送り、うなずき検知および
うなずき時間算出部19で用いられるうなずきの最大時
間tmaxを上記値に更新する。予測を行なう際、過去
にうなずきに要した実際値trを用いるので、意味のな
い往復変位が統計処理に使用されることなく、信頼性の
高いデータとなる。うなずき検知およびうなずき時間算
出部19は、さらにうなずきを検出するとともに、上記
演算されたうなずきに要した時間trだけ、うなずき検
知処理を中断して次回のうなずき検知を開始する。
Nodding detection and nodding time calculation unit 1
9 detects a nodding in the same manner as in the first embodiment, calculates a time tr from the start of the nodding to the end of the detection, and sends the time tr required for the nodding to the nodding time predicting section 20.
The past nodding time tr is stored in the nodding time predicting section 20, and the average value to and the standard deviation tstd are calculated by adding the newly measured nodding time tr. As a result, the predicted value of the maximum value of the time required for the nodding is updated to to + 3 × tstd and sent to the nodding detection and nodding time calculating unit 19, and the maximum nodding time tmax used in the nodding detection and the nodding time calculating unit 19 is set to the above value. Update to a value. When the prediction is performed, the actual value tr required for nodding in the past is used, so that meaningless reciprocating displacement is not used for statistical processing, and the data becomes highly reliable. The nodding detection and nodding time calculating unit 19 further detects the nodding, interrupts the nodding detecting process for the calculated time required for the nodding, and starts the next nodding detection.

【0027】図10は検知処理を中断するフローチャー
トである。すなわち、前記図8のフローチャートにした
がってうなずき検出が行なわれると、ステップ301で
首振り始めと瞳孔移動が停止するまでの時間を計算して
うなずきに要した時間trとして求める。ステップ30
2ではタイマーの初期化が行なわれる。ステップ303
においては単位時間のウエイトを入れる。ステップ30
4では時間経過のカウントが行なわれる。ステップ30
5では時間経過tがtrになったかをチェックする。時
間経過tがtrになっていない場合ステップ303に戻
り上記処理が繰り返される。ステップ305で時間経過
tが時間trを越えたら次のうなずきを検出するように
図8のフローチャートが実行される。このように時間t
rの間、うなずき検知が中断されるから、一回のつもり
で連続して行なわれるうなずきが複数回のうなずきとし
て検知されることなく、不用意な連続うなずきによって
ナビゲーションの制御に支障を来たすのが防止される。
FIG. 10 is a flowchart for interrupting the detection process. That is, when nod detection is performed according to the flowchart of FIG. 8, the time from the start of swinging to the stop of pupil movement is calculated in step 301, and the time required for nodding is obtained as tr. Step 30
At 2, the timer is initialized. Step 303
In, a weight per unit time is inserted. Step 30
At 4, the elapsed time is counted. Step 30
At 5, it is checked whether the elapsed time t has become tr. If the elapsed time t has not reached tr, the process returns to step 303 and the above processing is repeated. If the elapsed time t exceeds the time tr in step 305, the flowchart of FIG. 8 is executed so as to detect the next nod. Thus, the time t
During this period, nod detection is interrupted, so that nod, which is performed continuously as a single nod, is not detected as multiple nods, and careless navigation no longer hinders navigation control. Is prevented.

【0028】本実施例は以上のように構成され、瞳孔の
探索範囲を限定するようにしたため、扱うデータ量が減
少され、瞳孔の抽出処理の高速化が図られるともに、ノ
イズによる影響が低減され、信頼性の高い抽出効果が得
られる。またうなずきに要する時間を累積記憶し、その
平均と分散によってうなずきに要する時間を次回の検出
の最大時間とするから、個人差によってうなずき時間が
異なっても、学習効果が働き、安定した検出効果が得ら
れる。
In this embodiment, the pupil search range is limited as described above, so that the amount of data to be handled is reduced, the speed of the pupil extraction process is increased, and the influence of noise is reduced. , A highly reliable extraction effect can be obtained. Also, since the time required for nodding is accumulated and stored, and the time required for nodding based on the average and variance is the maximum time for the next detection, even if the nodding time differs depending on the individual difference, the learning effect works and the stable detection effect is obtained. can get.

【0029】[0029]

【発明の効果】顔面特徴点の往復変位を検知し首振りを
認識するようにしたので、被験者の顔面画像以外のデー
タ採集が不要で被験者の動きを拘束することなく検出が
できる。これによって被験者が自然な状態で機器に操作
指令を発することな可能となる。例えば自動車の運転で
は、運転者の顔面画像をとるだけで走行中でもナビゲー
ション等の操作が可能となり、高度な走行制御が行なえ
る。
According to the present invention, since the reciprocating displacement of the facial feature point is detected and the swing is recognized, it is not necessary to collect data other than the face image of the subject, and the detection can be performed without restricting the movement of the subject. This makes it possible for the subject to issue an operation command to the device in a natural state. For example, in driving an automobile, navigation and the like can be performed even during traveling by simply taking a face image of the driver, and advanced traveling control can be performed.

【0030】首振りに要した時間を実際に検出し、その
時間を基づいて次回の検出時間を決定するようにする
と、学習効果が働き、検出時間を正確に設定することが
可能で、誤検出を防ぐ効果が得られる。前記動作検出手
段は首振り動作を検出したのち、所定の時間間隔をあけ
て、次回の検出を行なうようにすると、首の動作回数の
違いによる誤検出が防止される。
If the time required for swinging is actually detected, and the next detection time is determined based on the time, a learning effect is achieved, and the detection time can be set accurately. The effect of preventing is obtained. After detecting the swing motion, the motion detection means performs the next detection at predetermined time intervals, thereby preventing erroneous detection due to a difference in the number of times of neck motion.

【0031】前記動作検出手段は前記特徴点の変位方向
から首振りが縦振りか横振りかを判断するようにする
と、肯定、否定両方の操作命令を出すことが可能であ
る。前記顔面特徴点検出手段は前回の特徴点の検出結果
を参照し次回の検出範囲を決定するようにすると、検出
範囲を小範囲に限定することが可能となり、扱うデータ
量が減少され、ノイズの影響が軽減されるとともに演算
負担が軽くなる。前記特徴点は瞳孔であると、光の反射
画像を利用することが可能となり、照明の照射角度を変
え光の反射画像と不反射画像を作り、差分演算によって
瞳孔画像が簡単に抜き出され、質の高い抽出効果が得ら
れる。
If the motion detecting means determines whether the head swing is vertical or horizontal based on the displacement direction of the feature point, it is possible to issue both positive and negative operation commands. When the facial feature point detecting means determines the next detection range by referring to the detection result of the previous feature point, the detection range can be limited to a small range, the amount of data to be handled is reduced, and noise is reduced. The influence is reduced and the calculation load is reduced. When the feature point is a pupil, it becomes possible to use a reflection image of light, change the irradiation angle of illumination to create a reflection image and a non-reflection image of light, and a pupil image is easily extracted by a difference operation, A high quality extraction effect is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】CCDカメラなどの設置レイアウ示す図であ
る。
FIG. 2 is a diagram showing an installation layout of a CCD camera and the like.

【図3】フローチャートである。FIG. 3 is a flowchart.

【図4】アイコンの着色を表示するナビ表示画面であ
る。
FIG. 4 is a navigation display screen for displaying icon coloring.

【図5】アイコンの着色を表示するナビ表示画面であ
る。
FIG. 5 is a navigation display screen for displaying icon coloring.

【図6】駐車場情報を表示するナビ表示画面である。FIG. 6 is a navigation display screen for displaying parking lot information.

【図7】ナビ表示画面である。FIG. 7 is a navigation display screen.

【図8】うなずきを検出するためのフローチャートであ
る。
FIG. 8 is a flowchart for detecting a nod.

【図9】第2の実施例を示すブロック図である。FIG. 9 is a block diagram showing a second embodiment.

【図10】ウイエトと入れるためのフローチャート。FIG. 10 is a flowchart for inserting a diet.

【符号の説明】[Explanation of symbols]

1 第1照明 2 第2照明 3 CCDカメラ 4 照明発光制御部 5 A/D変換器 6 画像メモリ 7 瞳孔抽出部 8 うなずき検知部 9 ナビゲーション表示制御部 10 ナビゲーション情報データベース 11 ナビ表示部 12 情報検索開始スイッチ 13 全体制御部 14 運転者(被験者) 17 瞳孔位置予測部 18 瞳孔抽出部 19 うなずき検知およびうなずき時間算出部 20 うなずき時間予測部 DESCRIPTION OF SYMBOLS 1 1st illumination 2 2nd illumination 3 CCD camera 4 Illumination light emission control part 5 A / D converter 6 Image memory 7 Pupil extraction part 8 Nodding detection part 9 Navigation display control part 10 Navigation information database 11 Navigation display part 12 Information search start Switch 13 Overall control unit 14 Driver (subject) 17 Pupil position prediction unit 18 Pupil extraction unit 19 Nodding detection and nodding time calculation unit 20 Nodding time prediction unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 被験者の顔面を撮像する画像入力手段
と、被験者の顔面特徴点を画像処理によって検出する顔
面特徴点検出手段と、前記顔面特徴点検出手段が出力す
る時間的に異なる画像の顔面特徴点の位置を比較する比
較手段と、この比較手段が比較した前記顔面特徴点の位
置が上下または左右方向に往復変位したかを判定する判
定手段と、この判定手段の判定結果に基づいて首振り動
作を検出する動作検出手段とを有することを特徴とする
動作検出装置。
1. An image input means for capturing an image of a face of a subject, a face feature point detecting means for detecting a face feature point of the subject by image processing, and a face of a temporally different image output by the face feature point detecting means. Comparing means for comparing the positions of the feature points; determining means for determining whether the positions of the facial feature points compared by the comparing means have reciprocated vertically or horizontally; and neck based on the determination result of the determining means. An operation detecting device, comprising: an operation detecting means for detecting a swing operation.
【請求項2】 前記動作検出手段は一回の首振りに要し
た時間を算出し、その時間に基づいて次回の前回顔面特
徴点検出手段による検出を行なうタイミングが決定され
ることを特徴とする請求項1記載の動作検出装置。
2. The method according to claim 1, wherein the motion detecting means calculates a time required for one head swing, and a timing at which detection is performed by the next previous facial feature point detecting means is determined based on the calculated time. The motion detection device according to claim 1.
【請求項3】 前記動作検出手段は首振り動作を検出し
たのち、所定の時間間隔をあけて、次回の前記顔面特徴
点検出手段による検出を行なうことを特徴とする請求項
1記載の動作検出装置。
3. The motion detecting apparatus according to claim 1, wherein said motion detecting means detects the head swinging motion and then performs detection by the next facial feature point detecting means at a predetermined time interval. apparatus.
【請求項4】 前記動作検出手段は一回の首振りに要し
た時間を算出するとともに前記時間間隔は首振り検出に
要する時間であることを特徴とする請求項3記載の動作
検出装置。
4. The motion detecting apparatus according to claim 3, wherein said motion detecting means calculates a time required for one swing, and said time interval is a time required for swing detection.
【請求項5】 前記動作検出手段は前記判定手段により
判定された前記特徴点の変位方向から首振りが縦振りか
横振りかを判断することを特徴とする請求項1記載の動
作検出装置。
5. The motion detection apparatus according to claim 1, wherein the motion detection means determines whether the head swing is vertical or horizontal based on the displacement direction of the feature point determined by the determination means.
【請求項6】 前記顔面特徴点検出手段は前回の顔面特
徴点の検出位置を参照し次回の前記顔面特徴点検出手段
による検出範囲を決定することを特徴とする請求項1記
載の動作検出装置
6. The motion detecting apparatus according to claim 1, wherein the facial feature point detecting means determines a detection range of the next facial feature point detecting means by referring to a previous detection position of the facial feature point.
【請求項7】 前記顔面特徴点は瞳孔であることを特徴
とする請求項1記載の動作検出装置。
7. The motion detecting apparatus according to claim 1, wherein the facial feature point is a pupil.
JP26093297A 1997-09-08 1997-09-08 Motion detection device Expired - Fee Related JP3627468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26093297A JP3627468B2 (en) 1997-09-08 1997-09-08 Motion detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26093297A JP3627468B2 (en) 1997-09-08 1997-09-08 Motion detection device

Publications (2)

Publication Number Publication Date
JPH1186005A true JPH1186005A (en) 1999-03-30
JP3627468B2 JP3627468B2 (en) 2005-03-09

Family

ID=17354780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26093297A Expired - Fee Related JP3627468B2 (en) 1997-09-08 1997-09-08 Motion detection device

Country Status (1)

Country Link
JP (1) JP3627468B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (en) * 1999-05-06 2000-11-14 Sharp Corp Database creating device and recording medium in which database creation program is recorded
JP2002329300A (en) * 2001-04-27 2002-11-15 Honda Motor Co Ltd Vehicle safety devices
JP2005266868A (en) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ A method to detect head direction using pupil and nostril
JP2005323180A (en) * 2004-05-10 2005-11-17 Denso Corp Image pickup control device and program
JP2007097668A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Status identification device, program, and method
US7641342B2 (en) 2000-10-07 2010-01-05 Metaio Gmbh Information system and method for providing information using a holographic element
KR101438288B1 (en) * 2011-12-26 2014-09-04 가부시키가이샤 덴소 Head movement detection apparatus
JP2018151685A (en) * 2017-03-09 2018-09-27 富士通株式会社 Motion amount calculation program, motion amount calculation method, motion amount calculation device, and business support system
US11315261B2 (en) 2019-08-26 2022-04-26 Samsung Electronics Co., Ltd. Image processing method and apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (en) * 1999-05-06 2000-11-14 Sharp Corp Database creating device and recording medium in which database creation program is recorded
US9427154B2 (en) 2000-10-07 2016-08-30 Metaio Gmbh Information system and method for providing information using a holographic element
US7641342B2 (en) 2000-10-07 2010-01-05 Metaio Gmbh Information system and method for providing information using a holographic element
US8016421B2 (en) 2000-10-07 2011-09-13 Metaio Gmbh Information system and method for providing information using a holographic element
US8944602B2 (en) 2000-10-07 2015-02-03 Metaio Gmbh Information system and method for providing information using a holographic element
US10188288B2 (en) 2000-10-07 2019-01-29 Apple Inc. Information system and method for providing information using a holographic element
JP2002329300A (en) * 2001-04-27 2002-11-15 Honda Motor Co Ltd Vehicle safety devices
JP2005266868A (en) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ A method to detect head direction using pupil and nostril
JP2005323180A (en) * 2004-05-10 2005-11-17 Denso Corp Image pickup control device and program
JP2007097668A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Status identification device, program, and method
KR101438288B1 (en) * 2011-12-26 2014-09-04 가부시키가이샤 덴소 Head movement detection apparatus
JP2018151685A (en) * 2017-03-09 2018-09-27 富士通株式会社 Motion amount calculation program, motion amount calculation method, motion amount calculation device, and business support system
US11315261B2 (en) 2019-08-26 2022-04-26 Samsung Electronics Co., Ltd. Image processing method and apparatus
US12236615B2 (en) 2019-08-26 2025-02-25 Samsung Electronics Co., Ltd. Image processing method and apparatus

Also Published As

Publication number Publication date
JP3627468B2 (en) 2005-03-09

Similar Documents

Publication Publication Date Title
US10318831B2 (en) Method and system for monitoring the status of the driver of a vehicle
JP3324295B2 (en) Gaze direction measuring device for vehicles
CN101269635B (en) Field watch apparatus
Bergasa et al. Real-time system for monitoring driver vigilance
US8538044B2 (en) Line-of-sight direction determination device and line-of-sight direction determination method
WO2020029444A1 (en) Method and system for detecting attention of driver while driving
JP2988178B2 (en) Gaze direction measuring device
CN101512617A (en) Driving Information Provider
JP2008158922A (en) Wrinkle detection device, wrinkle detection method and program
JPH11328364A (en) Area estimating device and display processor
EP1868138A2 (en) Method of tracking a human eye in a video image
JP3395344B2 (en) Image processing device and doze alarm device using the same
TW201601955A (en) Vehicle safety system and its operation method
JP3627468B2 (en) Motion detection device
JP3116638B2 (en) Awake state detection device
US11937928B2 (en) Evaluation apparatus, evaluation method, and evaluation program
JPH09167049A (en) Line of sight input device for console
US20210290133A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
US12153731B2 (en) Apparatus and method for obtaining facial information
JP3796840B2 (en) Gesture input device and input device including the same
JP3036319B2 (en) Driver status monitoring device
CN112752003A (en) Light supplementing method and device, light supplementing equipment and monitoring equipment
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
KR101360412B1 (en) A system for monitoring loose/droway driver using head moving information
JPH08159733A (en) Line of sight direction measuring instrument for vehicle

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees