[go: up one dir, main page]

JP2013097456A - Driver face state notifying device - Google Patents

Driver face state notifying device Download PDF

Info

Publication number
JP2013097456A
JP2013097456A JP2011237665A JP2011237665A JP2013097456A JP 2013097456 A JP2013097456 A JP 2013097456A JP 2011237665 A JP2011237665 A JP 2011237665A JP 2011237665 A JP2011237665 A JP 2011237665A JP 2013097456 A JP2013097456 A JP 2013097456A
Authority
JP
Japan
Prior art keywords
face
driver
face state
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011237665A
Other languages
Japanese (ja)
Inventor
Yosuke Sakai
洋介 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011237665A priority Critical patent/JP2013097456A/en
Priority to KR1020120119600A priority patent/KR101444537B1/en
Publication of JP2013097456A publication Critical patent/JP2013097456A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driver face state notifying device allowing a person outside a vehicle to well recognize whether or not a driver checks outside the vehicle.SOLUTION: The driver face state notifying device comprises: a camera 11 (photographing means) for photographing a face of a driver 2; an image processing section 12 (face state detecting means) for detecting a face state of the driver 2 on the basis of a face image of the driver 2 photographed by the camera 11; a controlling section 13 and an image converting section 14 (notification information generating means) for generating notification information reflecting a change in the face state in real time on the basis of the face state of the driver 2 detected by the image processing section 12; and a display 15, and left and right lamps 16 and 17 (notifying means) for notifying the person outside the vehicle of the notification information generated by the controlling section 13 and the image converting section 14 in real time.

Description

本発明は、運転者顔状態報知装置に関し、特に運転者の不注意による事故防止を支援する運転者顔状態報知装置に関する。   The present invention relates to a driver face condition notifying device, and more particularly to a driver face condition notifying device that supports prevention of accidents caused by driver's carelessness.

運転者がウィンカーの表示や目視確認を怠ることにより、自転車や歩行者を巻き込む事故、高速道路等における車線変更時の衝突事故が発生している。これらの事故の原因は、運転者の不注意に因ることが多いが、運転者の不注意を後方の自動車や自転車、歩行者などの車外の人が認識することができないことも挙げられる。このような問題を解消するため、例えば下記特許文献1に記載されているように、自車両の側方に存在する車外の人に、右左折する車両の運転者がその人を認識しているか否かを通知できる車両用警告装置が知られている。また、運転者の視線を用いて安全性及び快適性を向上させるようにした技術が下記特許文献2に記載され、運転者の仮想画像を用いて車両の運転状況を後で確認できるようにした技術が下記特許文献3に記載されている。   When the driver neglects to display or visually check the blinker, an accident involving a bicycle or a pedestrian or a collision accident when changing lanes on a highway or the like has occurred. The cause of these accidents is often due to the driver's carelessness, but the driver's carelessness cannot be recognized by a person outside the vehicle such as a car, bicycle or pedestrian behind. In order to solve such a problem, for example, as described in Patent Document 1 below, whether the driver of the vehicle turning right or left recognizes the person outside the vehicle that exists on the side of the host vehicle. There is known a vehicular warning device capable of notifying whether or not. In addition, a technique for improving safety and comfort using the driver's line of sight is described in the following Patent Document 2, and the driving status of the vehicle can be confirmed later using a virtual image of the driver. The technology is described in Patent Document 3 below.

特開2010−113601号公報JP 2010-113601 A 特開2007−263931号公報JP 2007-263931 A 特開2010−211613号公報JP 2010-211163 A

上記特許文献1に記載された車両用警告装置では、左サイドミラーに青ランプ、赤ランプ及び黄ランプが設けられ、運転者の視認確度が高い場合は青ランプを、視認確度が低い場合は赤ランプを、視認確度が中程度の場合は黄ランプをそれぞれ点灯させることにより、運転者が側方を十分に確認したか否かを車外の人が認識可能とされている。しかし、この車両用警告装置では、自車両が右左折することを検出し、かつ、運転者の死角を歩行者が歩行していることを条件として、各ランプが点灯制御される構成とされており、各ランプの点灯による警告条件が制限されていた。また、各ランプが点灯したとしても、車外の人が見落としたり気付かなかったりするおそれが高かった。   In the vehicle warning device described in Patent Document 1, a blue lamp, a red lamp, and a yellow lamp are provided on the left side mirror. When the driver's visual accuracy is high, the blue lamp is used, and when the visual accuracy is low, the red lamp is used. When the visibility accuracy is medium, the yellow lamp is turned on to enable the person outside the vehicle to recognize whether or not the driver has sufficiently confirmed the side. However, in this vehicle warning device, each lamp is controlled to be turned on under the condition that the vehicle turns right and left and that the pedestrian is walking in the blind spot of the driver. The warning conditions due to the lighting of each lamp were limited. In addition, even if each lamp is lit, there is a high risk that people outside the vehicle will miss or not notice.

本発明は、上記課題に対処するためになされたものであり、その目的は、運転者が車外を確認したか否かを車外の人が良好に認識し得る運転者顔状態報知装置を提供することにある。   The present invention has been made to address the above-described problems, and an object of the present invention is to provide a driver face condition notification device that allows a person outside the vehicle to recognize well whether or not the driver has confirmed the outside of the vehicle. There is.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

上記目的を達成するため、本発明の運転者顔状態報知装置は、
運転者の顔を撮影する撮影手段と、
撮影手段により撮影された運転者の顔画像に基づいて該運転者の顔状態を検出する顔状態検出手段と、
顔状態検出手段により検出された運転者の顔状態に基づいて該顔状態の変化をリアルタイムに反映させた報知情報を作成する報知情報作成手段と、
報知情報作成手段により作成された報知情報を車外の人に向けてリアルタイムに報知する報知手段と、
を備えることを特徴とする。
In order to achieve the above object, the driver face condition notifying device of the present invention includes:
Photographing means for photographing the driver's face;
Face state detecting means for detecting the driver's face state based on the driver's face image photographed by the photographing means;
Notification information creating means for creating notification information reflecting the change in the face state in real time based on the face state of the driver detected by the face state detection means;
Informing means for informing the person outside the vehicle of the notice information created by the notice information creating means in real time;
It is characterized by providing.

本発明の運転者顔状態報知装置では、報知情報作成手段が、顔状態検出手段により検出された運転者の顔状態に基づいて該顔状態の変化をリアルタイムに反映させた報知情報を作成する。そして、報知手段が、報知情報作成手段により作成された報知情報を車外の人に向けてリアルタイムに報知する。   In the driver face state notification device of the present invention, the notification information creation unit creates notification information that reflects changes in the face state in real time based on the driver's face state detected by the face state detection unit. Then, the notification means notifies the notification information created by the notification information creation means to a person outside the vehicle in real time.

この運転者顔状態報知装置では、報知情報作成手段により作成された報知情報が車外の人に向けてリアルタイムに報知される。このため、車外の人が運転者の注意状態をリアルタイムに知ることができるので、車外の人が運転者の不注意やミスに起因した危険を事前に察知することができ、事故を効果的に回避することができる。   In this driver face state notification device, the notification information created by the notification information creation means is reported to a person outside the vehicle in real time. For this reason, people outside the vehicle can know the driver's attention state in real time, so that people outside the vehicle can detect in advance the dangers caused by the driver's carelessness and mistakes, effectively preventing accidents. It can be avoided.

報知情報作成手段は、顔状態検出手段により検出された顔状態としての顔向き及び瞼開度に基づいて仮想化した仮想顔画像を作成し、かつ、車両の後方又は側方から視認可能に設けられた報知手段としてのディスプレイに仮想顔画像をリアルタイムに表示させるように構成することができる。この場合、報知情報作成手段は、例えば、顔状態検出手段により検出された顔状態としての瞼開度に基づいて仮想顔画像を作成するとき、予め定められた時間当たりの瞼開度の割合に応じて仮想顔画像における目パターンを決定するように構成すると好適である。   The notification information creation means creates a virtual face image virtualized based on the face orientation and the eyelid opening as the face state detected by the face state detection means, and is provided so as to be visible from the rear or side of the vehicle. The virtual face image can be displayed in real time on the display as the notification means. In this case, for example, when creating the virtual face image based on the eyelid opening degree as the face state detected by the face state detecting means, the notification information creating means has a predetermined ratio of the eyelid opening degree per time. Accordingly, it is preferable that the eye pattern in the virtual face image is determined.

これによれば、運転者の顔状態としての顔向き及び瞼開度に基づいて仮想化した仮想顔画像が作成され、車両の後方又は側方から視認可能に設けられたディスプレイにリアルタイムに表示される。このため、車外の人が、表示された運転者の仮想顔画像を見落としにくくなり、しかもその仮想顔画像から運転者が左右を確認していないことを直ちに認識できるので、運転者の不注意やミスに因る事故を良好に回避することができる。   According to this, a virtual face image virtualized based on the face direction and the eyelid opening as the driver's face state is created and displayed in real time on a display provided so as to be visible from the rear or side of the vehicle. The For this reason, it is difficult for a person outside the vehicle to overlook the displayed virtual face image of the driver, and it can be immediately recognized from the virtual face image that the driver has not confirmed left and right. Accidents caused by mistakes can be avoided well.

また、報知情報作成手段は、顔状態検出手段により検出された顔状態としての顔向きに基づいて運転者の左右方向への目視を判定し、車両の後方又は側方から視認可能に設けられるとともに、左右方向に対応して設けられた報知手段としての左右ランプのうち、左方向への目視を判定した場合は左ランプをリアルタイムに点灯させ、右方向への目視を判定した場合は右ランプをリアルタイムに点灯させるように構成することもできる。この場合、報知情報作成手段は、例えば、顔状態検出手段により検出された顔状態としての顔向きに基づいて運転者の左右方向への目視を判定するとき、正面を基準とした左右方向への顔向き角度に応じて左右方向への目視を判定するように構成すると好適である。   The notification information creating means is provided so as to be visually recognized from the rear or side of the vehicle by determining the driver's view in the left-right direction based on the face direction as the face state detected by the face state detecting means. Of the left and right lamps as notification means provided corresponding to the left and right directions, when the left side is determined to be visually confirmed, the left lamp is turned on in real time, and when the right direction is determined, the right lamp is turned on. It can also be configured to light up in real time. In this case, for example, the notification information creating unit determines whether the driver visually checks in the left-right direction based on the face orientation as the face state detected by the face state detection unit. It is preferable that the configuration is such that visual inspection in the left-right direction is determined according to the face orientation angle.

これによれば、運転者の顔状態としての顔向きに基づいて運転者の左右方向への目視が判定され、各方向への目視に対応して車両の後方又は側方から視認可能に設けられた左右ランプのいずれかが点灯される。このため、ディスプレイによる報知に加えて又は代えて、運転者が左右を確認していないことを直ちに認識できるので、運転者の不注意やミスに因る事故をより一層良好に回避することができる。   According to this, the driver's visual inspection in the left-right direction is determined based on the face orientation as the driver's face state, and the vehicle is provided so as to be visible from the rear or side of the vehicle corresponding to the visual observation in each direction. Either the left or right lamp is lit. For this reason, in addition to or instead of notification by the display, it is possible to immediately recognize that the driver has not confirmed the left and right, so that accidents due to driver's carelessness or mistakes can be avoided even better. .

(A)は本発明に係る運転者顔状態報知装置を、車両の側面模式図及びブロック図と共に示す構成図。(B)はカメラの撮影画角を平面視で示す説明図。(A) The block diagram which shows the driver | operator face state alerting | reporting apparatus which concerns on this invention with the side surface schematic diagram and block diagram of a vehicle. (B) is explanatory drawing which shows the imaging | photography angle of view of a camera by planar view. 図1に示したカメラの正面図。The front view of the camera shown in FIG. 実施例1の作動の流れを示す第1制御プログラムを示すフローチャート。5 is a flowchart showing a first control program showing a flow of operation of the first embodiment. 図3の第1制御プログラムにおける顔向き及び瞼開度検出処理のサブルーチンを示すフローチャート。The flowchart which shows the subroutine of the face direction and the eyelid opening detection process in the 1st control program of FIG. 実施例1の作動の流れを示す第2制御プログラムを示すフローチャート。The flowchart which shows the 2nd control program which shows the flow of an operation | movement of Example 1. FIG. 図5の第2制御プログラムにおける顔向き検出処理のサブルーチンを示すフローチャート。The flowchart which shows the subroutine of the face direction detection process in the 2nd control program of FIG. 図4の各ステップにおける撮影画像等に対する処理を示す説明図。Explanatory drawing which shows the process with respect to the picked-up image etc. in each step of FIG. 図3のステップS13,S17において、瞼開度を決定する場合の仕様を示す説明図。Explanatory drawing which shows the specification in the case of determining the eaves opening degree in step S13, S17 of FIG. 図5のステップS33において、顔向きを決定する場合の仕様を示す説明図。Explanatory drawing which shows the specification in the case of determining a face orientation in step S33 of FIG. (A)〜(D)はそれぞれ運転者の顔を仮想化した仮想顔画像の一例を示す説明図。(A)-(D) is explanatory drawing which shows an example of the virtual face image which virtualized the driver | operator's face, respectively. (A)〜(D)はそれぞれ報知態様を示す説明図。(A)-(D) is explanatory drawing which shows a notification aspect, respectively.

以下、本発明の実施形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1(A)は本発明に係る運転者顔状態報知装置を、車両1の側面模式図及びブロック図と共に示す構成図であり、図1(B)はカメラ11の撮影画角を平面視で示す説明図である。運転者顔状態報知装置は、運転者2の顔向き、瞼開度などの顔状態を検出し、その顔状態を車外の人に知らせる機能を有するものであり、カメラ11、画像処理部12、制御部13、画像変換部14、ディスプレイ15及び左右ランプ16,17を含んで構成されている。   FIG. 1A is a configuration diagram illustrating a driver face state notification device according to the present invention together with a schematic side view and a block diagram of a vehicle 1, and FIG. 1B is a plan view of a shooting angle of view of a camera 11. It is explanatory drawing shown. The driver face state notification device has a function of detecting the face state of the driver 2, such as the face direction and the eyelid opening, and notifying a person outside the vehicle of the face state, and includes a camera 11, an image processing unit 12, The controller 13 includes an image converter 14, a display 15, and left and right lamps 16 and 17.

カメラ11は、運転者2の顔を撮影するものであり、運転席3前方のダッシュボード4上(あるいはステアリングコラム上)に取り付けられている。カメラ11は、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備え、レンズ11aによって結像された運転者2の顔の像をその撮像素子によって画像データに変換する。カメラ11の撮影画角は、上下方向の撮影画角がθ1に設定され(図1(A)参照)、左右方向の撮影画角がθ2に設定されており(図1(B)参照)、運転者2の顔が撮影画角θ1及びθ2で定められる撮影範囲内に収まるようになっている。   The camera 11 captures the face of the driver 2 and is attached on the dashboard 4 (or on the steering column) in front of the driver's seat 3. The camera 11 includes an image sensor such as a CCD image sensor or a CMOS image sensor, and converts an image of the face of the driver 2 imaged by the lens 11a into image data by the image sensor. The camera 11 has a vertical field of view set to θ1 (see FIG. 1A) and a horizontal field of view set to θ2 (see FIG. 1B). The face of the driver 2 falls within the shooting range determined by the shooting angles of view θ1 and θ2.

また、カメラ11は、図2に示すように、運転者の顔に近赤外光を照射する近赤外LED11b、及び外部からの光のうち可視光を遮断する可視光カットフィルタ(図示省略)を備えている。これにより、夜などの周囲が暗い場合でもカメラ11によって運転者2の顔が撮影可能とされている。カメラ11が本発明の撮影手段に相当する。   In addition, as shown in FIG. 2, the camera 11 includes a near-infrared LED 11b that irradiates the driver's face with near-infrared light, and a visible light cut filter (not shown) that blocks visible light from outside light. It has. As a result, the face of the driver 2 can be photographed by the camera 11 even when the surroundings are dark, such as at night. The camera 11 corresponds to the photographing means of the present invention.

画像処理部12は、CPU,ROM,RAM,入出力部(I/O)等を主要部品としたマイクロコンピュータで構成され、カメラ11によって撮影された画像の解析を行う。具体的には、画像処理部12は、カメラ11からの画像データに例えば2値化処理を施し、所望の画像部分(特徴点)を抽出する。これら2値化処理や特徴点抽出処理などを行うことによって運転者2の顔画像を抽出し、抽出された顔画像に基づいて運転者2の顔向き及び瞼開度を顔状態として検出する。画像処理部12が本発明の顔状態検出手段に相当する。   The image processing unit 12 is composed of a microcomputer whose main components are a CPU, ROM, RAM, input / output unit (I / O), and the like, and analyzes an image photographed by the camera 11. Specifically, the image processing unit 12 performs, for example, binarization processing on the image data from the camera 11 and extracts a desired image portion (feature point). By performing these binarization processing and feature point extraction processing, the face image of the driver 2 is extracted, and based on the extracted face image, the face direction and the eyelid opening degree of the driver 2 are detected as a face state. The image processing unit 12 corresponds to the face state detection means of the present invention.

制御部13は、CPU,ROM,RAM,入出力部(I/O)等を主要部品としたマイクロコンピュータで構成され、画像処理部12が検出した顔状態に基づいて運転者2の目パターンを決定し、決定した目パターンに基づいて画像変換部14に仮想顔画像を作成させ、作成された仮想顔画像をディスプレイ15に表示させる。また、制御部13は、画像処理部12が検出した顔向きに基づいて運転者2の左右方向への目視を判定し、その判定結果に基づいて左右ランプ16を点灯させる。   The control unit 13 is composed of a microcomputer whose main components are a CPU, ROM, RAM, input / output unit (I / O), and the like, and the eye pattern of the driver 2 is determined based on the face state detected by the image processing unit 12. Based on the determined eye pattern, the image conversion unit 14 creates a virtual face image, and the created virtual face image is displayed on the display 15. Moreover, the control part 13 determines the visual observation of the driver | operator 2 to the left-right direction based on the face direction which the image process part 12 detected, and turns on the left-right lamp 16 based on the determination result.

画像変換部14は、CPU,ROM,RAM,入出力部(I/O)等を主要部品としたマイクロコンピュータで構成され、画像処理部12が検出した顔状態に対応する仮想顔画像2f(図10参照)を作成可能な周知の画像変換回路を備えている。具体的には、画像変換部14のROMには、顔向き及び瞼開度を主とした顔の表情を表現するための複数の仮想顔情報(モデル化のための情報、アバタ情報)が記憶されている。そして、画像変換部14は、その仮想顔情報を基に画像処理部12により検出された顔向き、及び制御部13により決定された目パターンに対応した仮想顔画像2fをリアルタイムに作成する(読み出す)。このように運転者2の顔状態を仮想化(モデル化)することにより、車外の人にとって運転者2の顔状態が分りやすくなり、瞬時に把握できるようになる。制御部13及び画像変換部14が本発明の報知情報作成手段に相当する。   The image conversion unit 14 is composed of a microcomputer whose main components are a CPU, a ROM, a RAM, an input / output unit (I / O), and the like, and a virtual face image 2f corresponding to the face state detected by the image processing unit 12 (see FIG. 10), a known image conversion circuit is provided. Specifically, the ROM of the image conversion unit 14 stores a plurality of virtual face information (information for modeling, avatar information) for expressing facial expressions mainly including face orientation and eyelid opening. Has been. Then, the image conversion unit 14 creates (reads out) a virtual face image 2f corresponding to the face orientation detected by the image processing unit 12 and the eye pattern determined by the control unit 13 based on the virtual face information in real time. ). By virtualizing (modeling) the face state of the driver 2 in this manner, the face state of the driver 2 can be easily understood by a person outside the vehicle and can be grasped instantly. The control unit 13 and the image conversion unit 14 correspond to notification information creation means of the present invention.

ディスプレイ15は、例えば液晶表示器、有機EL表示器、プラズマ表示器などで構成され、車外の人が車両1の後方又は側方から視認できるように車両1の後方部1aに設けられている(図11参照)。ディスプレイ15は、イグニッションスイッチのオンにより駆動状態となる。なお、車両1が走行状態にあることを条件として、ディスプレイ15が駆動状態となるように構成してもよい。   The display 15 is composed of, for example, a liquid crystal display, an organic EL display, a plasma display, and the like, and is provided in the rear portion 1a of the vehicle 1 so that a person outside the vehicle can see from the rear or side of the vehicle 1 ( FIG. 11). The display 15 is driven by turning on the ignition switch. The display 15 may be configured to be in a driving state on condition that the vehicle 1 is in a traveling state.

左右ランプ16,17は、例えばLEDで構成され、車外の人が車両1の後方又は側方から視認できるように左右サイドミラー5,6にそれぞれ設けられている。左右ランプ16,17は、イグニッションスイッチのオンにより駆動状態となる。なお、車両1が走行状態にあることを条件として、左右ランプ16,17が駆動状態となるように構成してもよい。ディスプレイ15及び左右ランプ16,17が本発明の報知手段に相当する。   The left and right lamps 16 and 17 are formed of, for example, LEDs, and are provided on the left and right side mirrors 5 and 6 so that a person outside the vehicle can visually recognize the vehicle 1 from the rear or side. The left and right lamps 16 and 17 are driven when the ignition switch is turned on. In addition, you may comprise so that the left-right lamps 16 and 17 may be in a drive state on condition that the vehicle 1 is a driving | running | working state. The display 15 and the left and right lamps 16 and 17 correspond to the notification means of the present invention.

次に、上記のように構成された実施例1の作動の流れを図3の第1制御プログラム及び図5の第2制御プログラムに基づいて説明する。最初に、図3の第1制御プログラムについて説明する。なお、図3の第1制御プログラムにおいて、ステップS11,S12の処理については画像処理部12が実行し、ステップS13,S14,S17〜S19の処理については制御部13が実行し、ステップS15,S16の処理については画像変換部14が実行するようになっている。   Next, the operation flow of the first embodiment configured as described above will be described based on the first control program of FIG. 3 and the second control program of FIG. First, the first control program in FIG. 3 will be described. In the first control program of FIG. 3, the image processing unit 12 executes the processes of steps S11 and S12, the control unit 13 executes the processes of steps S13, S14, and S17 to S19, and steps S15 and S16. This processing is executed by the image conversion unit 14.

画像処理部12は、カメラ11から顔画像データを取得し(S11)、取得した顔画像の解析を行う(S12)。この顔画像の解析では、図4のサブルーチンに示すように、まず撮影画像に含まれる顔領域の位置を大雑把に検出する(S21)。図7(A)は、カメラ11から取得した撮影画像101の一例を示した図である。撮影画像101は、運転者2の顔に対応する顔領域110及びそれ以外の背景領域102から構成される。   The image processing unit 12 acquires face image data from the camera 11 (S11), and analyzes the acquired face image (S12). In the analysis of the face image, as shown in the subroutine of FIG. 4, first, the position of the face area included in the photographed image is roughly detected (S21). FIG. 7A is a diagram illustrating an example of a captured image 101 acquired from the camera 11. The captured image 101 includes a face area 110 corresponding to the face of the driver 2 and a background area 102 other than that.

図7(B)は、図7(A)の撮影画像101の各画素列の位置に対応させた撮影画像101の縦の画素列の輝度和のライン103を示している。ライン103が示すように、一般的に、顔領域110の輝度和は、背景領域102の輝度和に比べて大きくされている。よって、そのライン103の輝度和変化を見ることで、撮影画像101に対する顔領域110の左右方向の位置を大雑把に把握することができる。ステップ21では、撮影画像101の縦の画素列の輝度和に加えて、横の画素列の輝度和に基づいて、撮影画像101に対する顔領域110の左右方向及び上下方向の大雑把な位置を検出する。   FIG. 7B shows a luminance sum line 103 of the vertical pixel columns of the photographed image 101 corresponding to the positions of the pixel columns of the photographed image 101 of FIG. As indicated by the line 103, generally, the luminance sum of the face region 110 is made larger than the luminance sum of the background region 102. Therefore, by looking at the change in luminance sum of the line 103, it is possible to roughly grasp the position in the left-right direction of the face area 110 with respect to the captured image 101. In step 21, a rough position of the face area 110 in the horizontal direction and the vertical direction with respect to the captured image 101 is detected based on the luminance sum of the horizontal pixel columns in addition to the luminance sum of the vertical pixel columns of the captured image 101. .

次いで、撮影画像101から、顔を構成する眼や鼻などの顔部品に対応する領域を検出する(S22)。図7(C)は、撮影画像101を示しており、その撮影画像101の顔領域110には、左目に対応する左目領域111、右目に対応する右目領域112、鼻に対応する鼻領域113など、顔部品に対応する領域が含まれている。それら各領域111〜113は、各部品に応じた画像特徴量(エッジ情報、輝度情報)を有している。そこで、ステップS22では、撮影画像101に含まれる各画像特徴量を予め用意された顔部品のテンプレートと比較(マッチング)することで、顔を構成する各部品の領域を検出する。   Next, a region corresponding to a facial part such as an eye or nose constituting the face is detected from the photographed image 101 (S22). FIG. 7C shows a photographed image 101. The face region 110 of the photographed image 101 includes a left eye region 111 corresponding to the left eye, a right eye region 112 corresponding to the right eye, a nose region 113 corresponding to the nose, and the like. The area corresponding to the face part is included. Each of these regions 111 to 113 has image feature amounts (edge information and luminance information) corresponding to each component. Therefore, in step S22, each image feature amount included in the captured image 101 is compared (matched) with a face component template prepared in advance to detect the region of each component constituting the face.

次いで、ステップS21で検出された顔領域110の大雑把な位置とステップS22で検出された各顔部品とに基づいて、最終的な顔領域110の位置を検出する(S23)。この場合、ステップS21やS22では、顔領域110の候補となる複数の領域や顔部品の候補となる複数の領域を検出してしまう可能性があるので、検出した顔部品の並び順(目の下に鼻があり、鼻の下に口があるなど)を考慮して、真の顔部品に絞っていく。また、顔の傾きによって、顔の輪郭や顔部品の形状が変わってくるので、その顔の傾きによる形状変化を考慮して、検出した顔部品に対して適宜補正を加える。   Next, the final position of the face area 110 is detected based on the rough position of the face area 110 detected in step S21 and each face part detected in step S22 (S23). In this case, in steps S21 and S22, a plurality of regions that are candidates for the face region 110 and a plurality of regions that are candidates for the face component may be detected. Focus on the true facial parts, taking into account the nose and mouth below the nose. Further, since the face contour and the shape of the face part change depending on the face inclination, the detected face part is appropriately corrected in consideration of the shape change due to the face inclination.

図7(D)は、ステップS23による検出結果を示しており、具体的には、撮影画像101のうちの領域120が顔領域として検出されたことを示している。このように、ステップS21〜S23の処理を実行することで、実際の顔領域110と一致した顔領域120を検出することができる。なお、本実施例1では、四角形状の顔領域120を検出している。   FIG. 7D shows the detection result in step S23, and specifically shows that the area 120 in the captured image 101 is detected as a face area. As described above, the face area 120 that matches the actual face area 110 can be detected by executing the processes of steps S21 to S23. In the first embodiment, a quadrangular face area 120 is detected.

次いで、撮影画像101に含まれる目領域の上下瞼の距離などから、運転者2の瞼開度を検出する(S24)。次いで、ステップS21〜S23で検出した顔領域120に含まれる顔部品の対称性などから、運転者2の顔向き(角度)を検出する(S25)。最後に、ステップS24で検出した瞼開度、及びステップS25で検出した顔向きを制御部13に出力する(S26)。制御部13は、画像処理部12から顔向き及び瞼開度からなる顔状態情報を取得すると、図3のステップS13以降の処理を実行する。   Next, the eyelid opening degree of the driver 2 is detected from the distance between the upper and lower eyelids of the eye area included in the captured image 101 (S24). Next, the face orientation (angle) of the driver 2 is detected from the symmetry of the facial parts included in the face area 120 detected in steps S21 to S23 (S25). Finally, the eyelid opening detected in step S24 and the face orientation detected in step S25 are output to the control unit 13 (S26). When the control unit 13 acquires the face state information including the face direction and the eyelid opening degree from the image processing unit 12, the control unit 13 executes the processes after step S13 in FIG.

ステップS13,S17は、目が完全に開いている(起きている)場合と、うとうとしている場合(眠そうなとき)と、目が完全に閉じている(寝ているとき)場合とを車外の人に区別して知らせるための瞼開度を判定する処理を示している。この処理では、例えば図8に示すように、瞼開度が20%の場合(第2しきい値D2)と、D2よりも瞼開度の大きい50%の場合(第1しきい値D1)との2つのしきい値(眠気しきい値)を用いて、所定のT秒間(例えばT=30)で瞼開度Dの占める割合P%(例えばP=80)が第2しきい値D2よりも小さいか、第2しきい値D2と第1しきい値D1の間にあるか、第1しきい値D1よりも大きいかによって瞼開度に応じた目パターンをそれぞれ決定するようにしている。   Steps S13 and S17 are based on whether the eyes are fully open (wakes up), when they are about to sleep (when they are sleepy), and when they are completely closed (when they are sleeping). The process which determines the eaves opening degree for distinguishing and notifying the person of this is shown. In this process, for example, as shown in FIG. 8, when the heel opening is 20% (second threshold D2), and when the heel opening is 50% larger than D2 (first threshold D1). And the ratio P% (for example, P = 80) of the eyelid opening degree D for a predetermined T seconds (for example, T = 30) is used as the second threshold value D2. The eye pattern corresponding to the eyelid opening degree is determined depending on whether it is smaller than, between the second threshold value D2 and the first threshold value D1, or larger than the first threshold value D1, respectively. Yes.

具体的には、ステップS13及びS17にていずれも「NO」、すなわち瞼開度が眠気しきい値D1%を超える(瞼開度>D1)割合がP%以上であれば運転者が起きていると判定し、仮想顔画像の目パターンを、例えば図10(A)、10(B)に示す目パターン3に設定する(S19)。   Specifically, if both of the steps S13 and S17 are “NO”, that is, if the ratio of the soot opening exceeds the drowsiness threshold D1% (the soot opening> D1) is P% or more, the driver wakes up. The eye pattern of the virtual face image is set to the eye pattern 3 shown in FIGS. 10A and 10B, for example (S19).

一方、ステップS13にて「NO」、かつS17にて「YES」、すなわち瞼開度が眠気しきい値D2%を超え眠気しきい値D1%以下となる(D2<瞼開度≦D1)割合がP%以上であれば運転者が眠そうと判定し、仮想顔画像の目パターンを、例えば図10(C)に示す目パターン2に設定する(S18)。   On the other hand, “NO” in step S13 and “YES” in S17, that is, the ratio that the soot opening exceeds the drowsiness threshold D2% and becomes the drowsiness threshold D1% or less (D2 <瞼 opening degree ≦ D1). If P is greater than or equal to P%, it is determined that the driver is sleepy, and the eye pattern of the virtual face image is set to, for example, eye pattern 2 shown in FIG. 10C (S18).

また、ステップS13にて「YES」、すなわち瞼開度が眠気しきい値D2%以下となる(瞼開度≦D2)割合がP%以上であれば運転者が寝ていると判定し、仮想顔画像の目パターンを、例えば図10(D)に示す目パターン1に設定する(S17)。顔状態としての瞼開度を実際の顔画像に近い画像で表示することとした場合は、瞼開度の大小を車外の人に分からせるのは極めて困難であると考えられるが、ステップS14,S18,S19の処理の実行により、瞼開度を目パターン1〜3のいずれかに振り分けて設定することで、車外の人にとって運転者2の瞼開度を極めて分かりやすくすることができる。   Further, if “YES” in step S13, that is, if the percentage of the eyelid opening is equal to or less than the drowsiness threshold D2% (the eyelid opening ≦ D2) is greater than or equal to P%, it is determined that the driver is sleeping, and the virtual For example, the eye pattern of the face image is set to the eye pattern 1 shown in FIG. 10D (S17). If the eyelid opening as the face state is displayed as an image close to the actual face image, it is considered extremely difficult for a person outside the vehicle to know the size of the eyelid opening, but step S14, By executing the processing of S18 and S19, the saddle opening is assigned to one of the eye patterns 1 to 3 and set, so that the outside opening of the driver 2 can be made extremely easy to understand for a person outside the vehicle.

画像変換部14は、画像処理部12により検出された顔向き、及び制御部13により決定された目パターンに対応して仮想顔画像(モデル)2fをリアルタイムに作成し(S15)、作成された画像を順次更新する(S16)。作成された仮想顔画像2fは、例えば図10に示すように、顔向き及び瞼開度が主となって顔の表情を表現するものである。制御部13は、作成された仮想顔画像2fをリアルタイムにディスプレイ15に表示させる。   The image conversion unit 14 creates a virtual face image (model) 2f in real time corresponding to the face orientation detected by the image processing unit 12 and the eye pattern determined by the control unit 13 (S15). The images are sequentially updated (S16). For example, as shown in FIG. 10, the created virtual face image 2 f expresses facial expressions mainly with the face orientation and the eyelid opening. The control unit 13 displays the created virtual face image 2f on the display 15 in real time.

次に、図5の第2制御プログラムについて説明する。なお、図5の第2制御プログラムにおいて、ステップS31,S32の処理については画像処理部12が実行し、ステップS33〜S36の処理については制御部13が実行するようになっている。ステップS31,S32の処理は、図3のステップS11,S12の処理と同様である。ただし、ステップS32ではステップS12とは異なり、顔向き情報のみが取得されるように構成されている。これに対応して、ステップS32の処理で実行される図6のサブルーチンでは、図4に示したサブルーチンからステップS24(瞼開度検出処理)が省略されている。図6のサブルーチンについては、図4に示したサブルーチンと対応する処理に同一の符号を付して説明を省略する。   Next, the second control program in FIG. 5 will be described. In the second control program of FIG. 5, the image processing unit 12 executes the processes in steps S31 and S32, and the control unit 13 executes the processes in steps S33 to S36. The processing in steps S31 and S32 is the same as the processing in steps S11 and S12 in FIG. However, unlike step S12, step S32 is configured to acquire only face orientation information. Correspondingly, in the subroutine of FIG. 6 executed in the process of step S32, step S24 (the saddle opening degree detection process) is omitted from the subroutine shown in FIG. Regarding the subroutine of FIG. 6, the same reference numerals are assigned to the processes corresponding to those of the subroutine shown in FIG.

制御部13は、画像処理部12から顔向き情報を取得すると、図5のステップS33以降の処理を実行する。ステップS33は、運転者2の顔向きが正面の場合と、左方向の場合と、右方向の場合とを車外の人に区別して知らせるための顔向き度を判定する処理を示している。この処理では、例えば図9に示すように、顔向きが正面の場合を0°とし、右方向の場合を正、左方向の場合を負として、さらに右方向と左方向とでそれぞれしきい値を用いて、顔向き(角度)が右しきい値(T1、例えば20°)よりも大きいか、左しきい値(T2、例えば−20°)よりも小さいかによって右又は左方向へ目視したか否かを判定するようにしている。   When acquiring the face orientation information from the image processing unit 12, the control unit 13 executes the processing from step S33 onward in FIG. Step S33 shows a process of determining the degree of face orientation for distinguishing and notifying a person outside the vehicle when the driver 2 is facing the front, when it is in the left direction, and when it is in the right direction. In this process, for example, as shown in FIG. 9, the face direction is 0 °, the right direction is positive, the left direction is negative, and the right and left directions are threshold values. , The direction of the face (angle) is viewed to the right or left depending on whether it is larger than the right threshold (T1, for example 20 °) or smaller than the left threshold (T2, for example, −20 °) Whether or not is determined.

具体的には、ステップS33にてT2<顔向き<T1であれば顔向きが正面であるとみなし、制御部13は左右ランプ16,17を点灯状態から消灯状態へ、あるいは消灯状態に維持する(S35)。一方、ステップS33にてT1<顔向きであれば顔向きが右方向であるとみなし、制御部13は右ランプ17を消灯状態から点灯状態へ、あるいは点灯状態に維持する(S34)。また、ステップS33にて顔向き<T2であれば顔向きが左方向であるとみなし、制御部13は左ランプ16を消灯状態から点灯状態へ、あるいは点灯状態に維持する(S36)。左右ランプ16,17を点灯させるか否かを各しきい値を用いて判定するように構成することで、点灯制御プログラムの内容を簡素化することができる。   Specifically, if T2 <face orientation <T1 in step S33, the face orientation is considered to be the front, and the control unit 13 maintains the left and right lamps 16 and 17 from the lit state to the unlit state or from the unlit state. (S35). On the other hand, if T1 <face orientation in step S33, the face orientation is regarded as the right direction, and the control unit 13 maintains the right lamp 17 from the unlit state to the lit state or the lit state (S34). If the face orientation is smaller than T2 in step S33, it is considered that the face orientation is the left direction, and the control unit 13 maintains the left lamp 16 from the unlit state to the lit state or the lit state (S36). It is possible to simplify the contents of the lighting control program by determining whether or not the left and right lamps 16 and 17 are lit using each threshold value.

図3の第1制御プログラム及び図5の第2制御プログラムの実行により、運転者2の顔状態に応じて、車外の人は例えば図11に示すようなディスプレイ15による仮想顔画像2f、左右ランプ16,17による点灯状態を視認することができる。具体的には、運転者が居眠りをすることなく正面を向いていればディスプレイ15には正面を向いた仮想顔画像2fが表示される。このとき、左右ランプ16,17は消灯状態とされている(図11(A))。   By executing the first control program in FIG. 3 and the second control program in FIG. 5, a person outside the vehicle, for example, a virtual face image 2 f on the display 15 as shown in FIG. The lighting state by 16 and 17 can be visually recognized. Specifically, if the driver is facing the front without falling asleep, the virtual face image 2 f facing the front is displayed on the display 15. At this time, the left and right lamps 16 and 17 are turned off (FIG. 11A).

交差点での左折時等において、運転者が左後方を目視により確認すればディスプレイ15には左方向を向いた仮想顔画像2fが表示される。このとき、左ランプ16が点灯状態とされる(図11(B))。また、走行車線から追越車線への車線変更時等において、運転者が右後方を目視により確認すればディスプレイ15には右方向を向いた仮想顔画像2fが表示される。このとき、右ランプ17が点灯状態とされる(図11(C))。   If the driver visually confirms the left rear at the time of a left turn at an intersection, a virtual face image 2f facing left is displayed on the display 15. At this time, the left lamp 16 is turned on (FIG. 11B). Further, when the driver visually confirms the right rear at the time of changing the lane from the driving lane to the overtaking lane, the virtual face image 2 f facing right is displayed on the display 15. At this time, the right lamp 17 is turned on (FIG. 11C).

一方、運転者が眠そうにしていればディスプレイ15には眠そうな仮想顔画像2fが表示される。このとき、左右ランプ16,17は消灯状態とされている(図11(D))。図11に示した各報知態様により、例えば交差点の手前において、車両1の左ウインカーが点滅状態とされている場合に、ディスプレイ15において運転者2の顔向きが左方向へ全く動かなければ、車両1の左後方にいる自転車、歩行者などは、車両1に巻き込まれるおそれがあると予測することができ、車両1に対して十分な注意を払うことができる。   On the other hand, if the driver is sleepy, the display 15 displays a virtual face image 2f that is likely to sleep. At this time, the left and right lamps 16 and 17 are turned off (FIG. 11D). If the left turn signal of the vehicle 1 is in a blinking state, for example, before the intersection, the notification mode shown in FIG. Bicycles, pedestrians, and the like that are at the left rear of 1 can be predicted to be involved in the vehicle 1, and can pay sufficient attention to the vehicle 1.

また、例えば車両1が高速道路の走行車線を走行している場合において、車両1の右ウインカーが消灯状態とされている場合に、ディスプレイ15において運転者2の顔向きが右方向を繰り返し見ていれば、追越車線を走行している後続車両は、車両1が追越車線側へ車線変更する可能性が高いと予測することができ、車両1に対して十分な注意を払うことができる。また、車両1が蛇行運転をしている場合に、ディスプレイ15を見ればそれが運転者の未熟に因るせいなのか、眠くてふらふら走っているのかが分かり、後続車両に注意を促すことができる。   Further, for example, when the vehicle 1 is traveling on a driving lane on an expressway, when the right turn signal of the vehicle 1 is turned off, the face direction of the driver 2 on the display 15 repeatedly looks right. Then, the succeeding vehicle traveling in the overtaking lane can predict that the vehicle 1 is likely to change the lane to the overtaking lane, and can pay sufficient attention to the vehicle 1. . In addition, when the vehicle 1 is meandering, the display 15 can be used to determine whether it is caused by the driver's immaturity or whether the vehicle 1 is sleepy and swaying. it can.

以上の説明からも明らかなように、本実施例1では、制御部13及び画像変換部14(報知情報作成手段)が、画像処理部12(顔状態検出手段)により検出された顔状態としての顔向き及び瞼開度に基づいて仮想化した仮想顔画像2fを作成し、かつ、車両1の後方又は側方から視認可能に設けられたディスプレイ15(報知手段)に仮想顔画像2fをリアルタイムに表示させる。   As is clear from the above description, in the first embodiment, the control unit 13 and the image conversion unit 14 (notification information creation unit) are the face states detected by the image processing unit 12 (face state detection unit). A virtual face image 2f virtualized based on the face orientation and the eyelid opening is created, and the virtual face image 2f is displayed in real time on a display 15 (notification means) provided so as to be visible from the rear or side of the vehicle 1. Display.

運転者2の顔状態としての顔向き及び瞼開度に基づいて仮想化した仮想顔画像2fが作成され、車両1の後方又は側方から視認可能に設けられたディスプレイ15にリアルタイムに表示される。これにより、車外の人が、表示された運転者2の仮想顔画像2fを見落としにくくなり、しかもその仮想顔画像2fから運転者2が左右を確認していないことを直ちに認識できるので、運転者2の不注意やミスに因る事故を良好に回避することができる。   A virtual face image 2f virtualized based on the face direction and the eyelid opening as the face state of the driver 2 is created and displayed in real time on a display 15 provided so as to be visible from the rear or side of the vehicle 1. . Accordingly, it is difficult for a person outside the vehicle to overlook the displayed virtual face image 2f of the driver 2, and the driver 2 can immediately recognize from the virtual face image 2f that the driver 2 has not confirmed left and right. Accidents due to carelessness or mistakes 2 can be avoided well.

また、上記実施例1では、制御部13(報知情報作成手段)が、画像処理部12(顔状態検出手段)により検出された顔状態としての顔向きに基づいて運転者2の左右方向への目視を判定し(S33)、左方向への目視を判定した場合は左ランプ16をリアルタイムに点灯させ、右方向への目視を判定した場合は右ランプ17をリアルタイムに点灯させる。   In the first embodiment, the control unit 13 (notification information creating unit) moves the driver 2 in the left-right direction based on the face orientation as the face state detected by the image processing unit 12 (face state detection unit). Visual observation is determined (S33). When visual observation in the left direction is determined, the left lamp 16 is turned on in real time, and when visual observation in the right direction is determined, the right lamp 17 is turned on in real time.

運転者2の顔状態としての顔向きに基づいて運転者2の左右方向への目視が判定され、各方向への目視に対応して車両1の後方又は側方から視認可能に設けられた左右ランプ16,17のいずれかが点灯される。これにより、ディスプレイ15による報知に加えて、運転者2が左右を確認していないことを直ちに認識できるので、運転者2の不注意やミスに因る事故をより一層良好に回避することができる。   The left and right sides of the vehicle 2 are determined so as to be visible from the rear or side of the vehicle 1 in accordance with the visual direction in each direction based on the face direction as the face state of the driver 2. One of the lamps 16 and 17 is turned on. Thereby, in addition to the notification by the display 15, it is possible to immediately recognize that the driver 2 has not confirmed the left and right, so that accidents caused by the carelessness or mistake of the driver 2 can be avoided even better. .

なお、上記実施例1では、報知手段としてディスプレイ15に加えて左右ランプ16,17を用いるように構成したが、ディスプレイ15及び左右ランプ16,17のいずれかを用いる構成とし、それに対応して図3の第1制御プログラム及び図5の第2制御プログラムのいずれかを実施する構成としてもよい。   In the first embodiment, the right and left lamps 16 and 17 are used as the notification means in addition to the display 15. However, either the display 15 or the left and right lamps 16 or 17 is used, and the corresponding figure is shown. It is good also as a structure which implements either the 1st control program of 3 and the 2nd control program of FIG.

また、左右ランプ16,17を左右サイドミラー5,6にそれぞれ設ける場合に限らず、例えばディスプレイ15に仮想顔画像2fと共に画像表示するようにしたり、あるいは車両1の後方部1aにて車幅方向に延びるバー状の表示灯を用いるように構成してもよい。   The left and right lamps 16 and 17 are not limited to being provided on the left and right side mirrors 5 and 6, respectively. For example, an image is displayed on the display 15 together with the virtual face image 2f, or in the vehicle width direction at the rear portion 1a of the vehicle 1. You may comprise so that the bar-shaped indicator light extended to may be used.

1 車両
2 運転者
2f 仮想顔画像
5,6 左右サイドミラー
11 カメラ(撮影手段)
12 画像処理部(顔状態検出手段)
13 制御部(報知情報作成手段)
14 画像変換部(報知情報作成手段)
15 ディスプレイ(報知手段)
16,17 左右ランプ(報知手段)
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Driver 2f Virtual face image 5, 6 Left and right side mirror 11 Camera (photographing means)
12 Image processing unit (face state detection means)
13 Control unit (notification information creation means)
14 Image converter (notification information creation means)
15 Display (notification means)
16, 17 Left and right lamps (notification means)

Claims (5)

運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された運転者の顔画像に基づいて該運転者の顔状態を検出する顔状態検出手段と、
前記顔状態検出手段により検出された運転者の顔状態に基づいて該顔状態の変化をリアルタイムに反映させた報知情報を作成する報知情報作成手段と、
前記報知情報作成手段により作成された報知情報を車外の人に向けてリアルタイムに報知する報知手段と、
を備えることを特徴とする運転者顔状態報知装置。
Photographing means for photographing the driver's face;
Face state detection means for detecting the driver's face state based on the driver's face image photographed by the photographing means;
Notification information creating means for creating notification information reflecting the change in the face state in real time based on the face state of the driver detected by the face state detection unit;
Informing means for informing the person outside the vehicle of the notice information created by the notice information creating means in real time;
A driver face state notification device comprising:
前記報知情報作成手段は、前記顔状態検出手段により検出された前記顔状態としての顔向き及び瞼開度に基づいて仮想化した仮想顔画像を作成し、かつ、車両の後方又は側方から視認可能に設けられた前記報知手段としてのディスプレイに前記仮想顔画像をリアルタイムに表示させる請求項1に記載の運転者顔状態報知装置。   The notification information creation means creates a virtual face image virtualized based on the face orientation and the eyelid opening as the face state detected by the face state detection means, and is visually recognized from the rear or side of the vehicle. The driver face state notification device according to claim 1, wherein the virtual face image is displayed in real time on a display as the notification unit provided in a possible manner. 前記報知情報作成手段は、前記顔状態検出手段により検出された前記顔状態としての顔向きに基づいて運転者の左右方向への目視を判定し、車両の後方又は側方から視認可能に設けられるとともに、左右方向に対応して設けられた前記報知手段としての左右ランプのうち、左方向への目視を判定した場合は左ランプをリアルタイムに点灯させ、右方向への目視を判定した場合は右ランプをリアルタイムに点灯させる請求項1又は2に記載の運転者顔状態報知装置。   The notification information creating means is provided so as to determine the driver's view in the left-right direction based on the face orientation as the face state detected by the face state detecting means, and to be visible from the rear or side of the vehicle. In addition, of the left and right lamps serving as the notification means provided corresponding to the left and right directions, the left lamp is turned on in real time when the left direction is determined to be viewed, and the right side when the right direction is determined. The driver face state notification device according to claim 1 or 2, wherein the lamp is turned on in real time. 前記報知情報作成手段は、前記顔状態検出手段により検出された前記顔状態としての瞼開度に基づいて前記仮想顔画像を作成するとき、予め定められた時間当たりの瞼開度の割合に応じて前記仮想顔画像における目パターンを決定する請求項2又は3に記載の運転者顔状態報知装置。   The notification information creating means creates a virtual face image based on the eyelid opening degree as the face state detected by the face state detecting means, according to a predetermined ratio of the eyelid opening degree per time. The driver face state notification device according to claim 2 or 3, wherein an eye pattern in the virtual face image is determined. 前記報知情報作成手段は、前記顔状態検出手段により検出された前記顔状態としての顔向きに基づいて運転者の左右方向への目視を判定するとき、正面を基準とした左右方向への顔向き角度に応じて左右方向への目視を判定する請求項3又は4に記載の運転者顔状態報知装置。   When the notification information creating means determines the driver's visual observation in the left-right direction based on the face orientation as the face state detected by the face state detection means, the face orientation in the left-right direction with respect to the front The driver face state notification device according to claim 3, wherein visual observation in the left-right direction is determined according to an angle.
JP2011237665A 2011-10-28 2011-10-28 Driver face state notifying device Pending JP2013097456A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011237665A JP2013097456A (en) 2011-10-28 2011-10-28 Driver face state notifying device
KR1020120119600A KR101444537B1 (en) 2011-10-28 2012-10-26 Driver's face state notification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011237665A JP2013097456A (en) 2011-10-28 2011-10-28 Driver face state notifying device

Publications (1)

Publication Number Publication Date
JP2013097456A true JP2013097456A (en) 2013-05-20

Family

ID=48619364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011237665A Pending JP2013097456A (en) 2011-10-28 2011-10-28 Driver face state notifying device

Country Status (2)

Country Link
JP (1) JP2013097456A (en)
KR (1) KR101444537B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953228B2 (en) 2015-11-20 2018-04-24 Kabushiki Kaisha Toshiba Information presenting apparatus, information presenting method, and computer program product
CN111311963A (en) * 2014-06-23 2020-06-19 株式会社电装 Driving incapability state detection device for driver

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009120149A (en) * 2007-11-19 2009-06-04 Aisin Seiki Co Ltd Vehicular lamp control system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system
JP2010224637A (en) * 2009-03-19 2010-10-07 Toyota Central R&D Labs Inc Sleepiness determination apparatus and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4191313B2 (en) 1999-04-23 2008-12-03 富士通株式会社 Accident suppression device
JP2002087107A (en) 2000-09-14 2002-03-26 Denso Corp Running condition detector, awakening degree detector, awakening degree corresponding control device, and recording medium
JP2009078006A (en) 2007-09-26 2009-04-16 Honda Motor Co Ltd Sleepy state determining device
JP2009166662A (en) * 2008-01-16 2009-07-30 Honda Motor Co Ltd Vehicular information display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009120149A (en) * 2007-11-19 2009-06-04 Aisin Seiki Co Ltd Vehicular lamp control system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system
JP2010224637A (en) * 2009-03-19 2010-10-07 Toyota Central R&D Labs Inc Sleepiness determination apparatus and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311963A (en) * 2014-06-23 2020-06-19 株式会社电装 Driving incapability state detection device for driver
CN111311963B (en) * 2014-06-23 2024-05-07 株式会社电装 Device for detecting driving incapacity state of driver
US9953228B2 (en) 2015-11-20 2018-04-24 Kabushiki Kaisha Toshiba Information presenting apparatus, information presenting method, and computer program product

Also Published As

Publication number Publication date
KR101444537B1 (en) 2014-09-24
KR20130047619A (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP5171629B2 (en) Driving information providing device
TWI434239B (en) Pre-warning method for rear coming vehicle which switches lane and system thereof
US8174375B2 (en) Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
US10906399B2 (en) Method and system for alerting a truck driver
CN107403554B (en) Binocular integrated driver behavior analysis device and method
CN108369780A (en) Visual cognition helps system and the detecting system depending on recognizing object
JP6851018B2 (en) In-car lighting and automobiles
JP2009075988A (en) Vehicle periphery monitoring device
JP2009265842A (en) Warning device for vehicle and warning method
US20180201276A1 (en) Driver condition detection system
WO2013115241A1 (en) Device for alerting vehicle driver and method for same
KR20160003715U (en) Traffic accident prevention system for right rotation
KR20180065527A (en) Vehicle side-rear warning device and method using the same
KR101496322B1 (en) Device To Notify The Dangerous Factor Of Vehicle Blind Spot
JP4872245B2 (en) Pedestrian recognition device
CN105989721A (en) Lamp signal warning device and method thereof
JP7524173B2 (en) Driving assistance system, driving assistance method and program
US9845010B2 (en) Vehicular display device
CN109987025A (en) Vehicle driving assistance system and method for night environment
KR101444537B1 (en) Driver&#39;s face state notification device
KR102338221B1 (en) Auxiliary Traffic Light for Preventing Accident in Blind Spot
KR20230074481A (en) Information processing device, information processing method, program and projection device
JP2008162550A (en) External environment display device
JP5251673B2 (en) Vehicle display device
US20220284717A1 (en) Consciousness determination device and consciousness determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150629