[go: up one dir, main page]

JP7550879B2 - Sleep detection device and sleep detection system - Google Patents

Sleep detection device and sleep detection system Download PDF

Info

Publication number
JP7550879B2
JP7550879B2 JP2022564938A JP2022564938A JP7550879B2 JP 7550879 B2 JP7550879 B2 JP 7550879B2 JP 2022564938 A JP2022564938 A JP 2022564938A JP 2022564938 A JP2022564938 A JP 2022564938A JP 7550879 B2 JP7550879 B2 JP 7550879B2
Authority
JP
Japan
Prior art keywords
occupant
slowing
posture
unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022564938A
Other languages
Japanese (ja)
Other versions
JPWO2022113275A5 (en
JPWO2022113275A1 (en
Inventor
太郎 熊谷
雄大 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022113275A1 publication Critical patent/JPWO2022113275A1/ja
Publication of JPWO2022113275A5 publication Critical patent/JPWO2022113275A5/ja
Application granted granted Critical
Publication of JP7550879B2 publication Critical patent/JP7550879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、睡眠検出装置及び睡眠検出システムに関する。 The present disclosure relates to a sleep detection device and a sleep detection system.

自動車等の車両を運転する乗員の居眠り運転を防止するために、乗員の顔や姿勢の状態を検出し、乗員が感じる眠気を推定する技術が提案されている。従来、強い眠気に至るまでに、段階的に眠気の状態が変化することから、目の開眼度及び目と眉との距離等、眠気の兆候に関連する情報を用いて、段階的に分けられた眠気ステージのうち、乗員がどの眠気ステージにあるのかを推定していた(例えば、特許文献1参照)。In order to prevent occupants of vehicles such as automobiles from falling asleep while driving, a technology has been proposed that detects the state of the occupant's face and posture and estimates the drowsiness felt by the occupant. Conventionally, because the state of drowsiness changes in stages before reaching strong drowsiness, information related to signs of drowsiness, such as the degree of eye opening and the distance between the eyes and eyebrows, was used to estimate which stage of drowsiness the occupant is in among the stages divided into stages (see, for example, Patent Document 1).

特開2008-220424号公報JP 2008-220424 A

乗員は、瞬間的に眠って倒れこむ等、いわゆるマイクロスリープに陥る場合があり、居眠り運転を防止するためには、前述の瞬間的な睡眠を検出する必要がある。しかしながら、乗員がどの眠気ステージにあるのかを推定していただけでは、瞬間的な睡眠を検出できず、乗員の睡眠の検出精度が悪いという課題があった。Occupants may momentarily fall asleep and collapse, resulting in what is known as microsleep, and in order to prevent drowsy driving, it is necessary to detect the aforementioned momentary sleep. However, simply estimating the drowsiness stage in which the occupant is in is not enough to detect momentary sleep, resulting in poor accuracy in detecting occupant sleep.

本開示は、上述の課題を解決するためになされたもので、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上する睡眠検出装置を提供することを目的とする。 The present disclosure has been made to solve the above-mentioned problems, and aims to provide a sleep detection device that detects momentary sleep of an occupant and improves the accuracy of detecting occupant sleep.

本開示に係る睡眠検出装置は、車両に搭載され車両の内部の乗員を撮像する撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、鈍化判定部は、乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が鈍化判定閾値未満である状態が鈍化判定時間以上継続し場合に、当該乗員に知覚の鈍化が発生していると判定し、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員がマイクロスリープに陥ったとするものである。 The sleep detection device according to the present disclosure includes an image acquisition unit that acquires an image of an occupant from an imaging device mounted on a vehicle and imaging an occupant inside the vehicle, a slowing determination unit that determines whether the occupant extracted from the image acquired by the image acquisition unit has experienced a dulling of perception, a posture determination unit that determines whether the posture of the occupant extracted from the image acquired by the image acquisition unit is abnormal, and a sleep detection unit that detects sleep of the occupant using the determination results of the slowing determination unit and the posture determination unit, wherein the slowing determination unit determines that the occupant has experienced a dulling of perception when an index value indicating a change in the occupant's facial direction is determined to be less than a slowing determination threshold and the state in which the index value is less than the slowing determination threshold continues for more than a slowing determination time , and the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced a dulling of perception and the posture determination unit determines that the occupant's posture is abnormal.

また、本開示に係る睡眠検出システムは、車両に搭載され車両の内部の乗員を撮像する撮像装置と、撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、鈍化判定部は、乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が鈍化判定閾値未満である状態が鈍化判定時間以上継続し場合に、当該乗員に知覚の鈍化が発生していると判定し、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員がマイクロスリープに陥ったとするものである。 In addition, the sleep detection system according to the present disclosure includes an imaging device mounted on a vehicle for imaging an occupant inside the vehicle, an image acquisition unit for acquiring an image of the occupant from the imaging device, a slowing determination unit for determining whether or not the occupant extracted from the image acquired by the image acquisition unit has experienced a dulling of perception, a posture determination unit for determining whether or not the posture of the occupant extracted from the image acquired by the image acquisition unit is abnormal, and a sleep detection unit for detecting sleep of the occupant using the determination results of the slowing determination unit and the posture determination unit, wherein the slowing determination unit determines that the occupant has experienced a dulling of perception when an index value indicating a change in the occupant's facial direction is determined to be less than a slowing determination threshold and the state in which the index value is less than the slowing determination threshold continues for more than a slowing determination time , and the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced a dulling of perception and the posture determination unit determines that the occupant's posture is abnormal.

本開示によれば、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。 According to the present disclosure, it is possible to detect momentary sleep of an occupant and improve the accuracy of detecting occupant sleep.

実施の形態1に係る睡眠検出システムの構成例を示すブロック図である。1 is a block diagram showing an example of the configuration of a sleep detection system according to a first embodiment. 実施の形態1に係る撮像装置の撮像範囲を示す説明図である。2 is an explanatory diagram showing an imaging range of the imaging device according to the first embodiment; FIG. 実施の形態1に係る睡眠検出装置の特徴点検出部の検出処理を示す説明図である。4 is an explanatory diagram showing a detection process of a feature point detection unit of the sleep detection device according to the first embodiment. FIG. 実施の形態1に係る睡眠検出装置の顔向き検出部の顔向き検出処理を示す説明図である。4 is an explanatory diagram showing a face direction detection process of a face direction detection unit of the sleep detection device according to the first embodiment; FIG. 実施の形態1に係る睡眠検出装置の睡眠検出結果を示す説明図である。4 is an explanatory diagram showing a sleep detection result of the sleep detection device according to the first embodiment. FIG. 実施の形態1に係る睡眠検出装置の動作例を示すフローチャートである。4 is a flowchart showing an example of the operation of the sleep detection device according to the first embodiment. 実施の形態1に係る睡眠検出装置の動作例を示すフローチャートである。4 is a flowchart showing an example of the operation of the sleep detection device according to the first embodiment. 実施の形態1に係る睡眠検出装置のハードウェア構成例を示す図である。1 is a diagram illustrating an example of a hardware configuration of a sleep detection device according to a first embodiment. 実施の形態2に係る睡眠検出システムの構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a sleep detection system according to a second embodiment. 実施の形態2に係る睡眠検出装置の動作例を示すフローチャートである。13 is a flowchart showing an example of the operation of the sleep detection device according to the second embodiment. 実施の形態3に係る睡眠検出システムの構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a sleep detection system according to a third embodiment. 実施の形態3に係る睡眠検出装置の動作例を示すフローチャートである。13 is a flowchart showing an example of the operation of the sleep detection device according to the third embodiment.

以下、図面に基づいて実施の形態について説明する。 Below, the embodiment is explained based on the drawings.

実施の形態1.
図1は、実施の形態1に係る睡眠検出システム100の構成例を示すブロック図である。睡眠検出システム100は、睡眠検出装置10及び撮像装置20を備えており、睡眠検出装置10及び撮像装置20はそれぞれ車両に搭載される。
Embodiment 1.
1 is a block diagram showing an example of a configuration of a sleep detection system 100 according to embodiment 1. The sleep detection system 100 includes a sleep detection device 10 and an imaging device 20, and the sleep detection device 10 and the imaging device 20 are each mounted on a vehicle.

図2は、実施の形態1に係る撮像装置20の撮像範囲を示す説明図である。図2では、睡眠検出装置10を搭載した車両の内部を上方から見ている。撮像装置20は、例えば広角カメラ、赤外線カメラ等で構成され、車両の内部を撮像する。また、撮像装置20は、撮像装置20と被写体との距離を反映した画像を撮像可能な、TOF(Time-of-flight)カメラ等の距離画像センサであってもよい。撮像装置20は、例えば30~60fps(frames per second)の間隔で車両内部を撮像して、撮像した画像を睡眠検出装置10の画像取得部11へ出力する。以下、撮像装置20により撮像された画像を、撮像画像という。 Figure 2 is an explanatory diagram showing the imaging range of the imaging device 20 according to the first embodiment. In Figure 2, the inside of the vehicle equipped with the sleep detection device 10 is viewed from above. The imaging device 20 is composed of, for example, a wide-angle camera, an infrared camera, etc., and captures the inside of the vehicle. The imaging device 20 may also be a distance image sensor such as a TOF (Time-of-Flight) camera that can capture an image that reflects the distance between the imaging device 20 and a subject. The imaging device 20 captures images of the inside of the vehicle at intervals of, for example, 30 to 60 fps (frames per second), and outputs the captured images to the image acquisition unit 11 of the sleep detection device 10. Hereinafter, the images captured by the imaging device 20 are referred to as captured images.

図2の例において、撮像装置20の撮像領域を領域Aで示している。撮像装置20は、少なくとも運転席201及び助手席202にそれぞれ着座する乗員211及び乗員212を同時に撮像可能なように、一台又は複数台、インストルメントパネル、ステアリングコラム、ルームミラー等に配置される。ここで、撮像装置20は、図示していない後部座席を撮像範囲に含んでいてもよい。以下、撮像装置20の撮像対象となる乗員211、212をまとめて「乗員」ともいう。すなわち、乗員は運転者を含むものである。In the example of Figure 2, the imaging area of the imaging device 20 is indicated by area A. One or more imaging devices 20 are arranged on the instrument panel, steering column, rearview mirror, etc. so as to simultaneously capture images of at least occupant 211 and occupant 212 seated in the driver's seat 201 and passenger seat 202, respectively. Hereinafter, the imaging device 20 may include a rear seat (not shown) in its imaging range. Hereinafter, occupants 211 and 212 who are the subject of imaging by the imaging device 20 are collectively referred to as "occupants". In other words, occupants include the driver.

図1に戻り、睡眠検出装置10の各構成について説明する。睡眠検出装置10は、撮像装置20から乗員が撮像された撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16及び姿勢判定部17のそれぞれの判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。Returning to Fig. 1, the components of the sleep detection device 10 will be described. The sleep detection device 10 includes an image acquisition unit 11 that acquires an image of an occupant from an imaging device 20, a slowing of perception determination unit 16 that determines whether or not the occupant extracted from the captured image has experienced slowing of perception, a posture determination unit 17 that determines whether or not the posture of the occupant extracted from the captured image is abnormal, and a sleep detection unit 18 that detects the sleep of the occupant using the respective determination results of the slowing of perception determination unit 16 and the posture determination unit 17.

画像取得部11は、撮像装置20から車両の内部の乗員が撮像された撮像画像を取得する。また、睡眠検出装置10は、撮像装置20から撮像画像を取得する度に、後述する睡眠検出の処理を行うと好ましい。そして、画像取得部11が取得した撮像画像は、次に説明する特徴点検出部12に出力される。The image acquisition unit 11 acquires an image of an occupant inside the vehicle from the imaging device 20. It is preferable that the sleep detection device 10 performs a sleep detection process, which will be described later, each time it acquires an image from the imaging device 20. The image acquired by the image acquisition unit 11 is then output to the feature point detection unit 12, which will be described next.

特徴点検出部12は、画像取得部11が取得した撮像画像から、乗員の身体の器官に関する特徴点を抽出する。特徴点検出部12による特徴点の抽出処理は、公知の種々のアルゴリズムを用いることができるものであり、これらのアルゴリズムの詳細な説明は省略する。例えば、特徴点検出部12は、乗員の顔に関する特徴点を抽出する場合、複数個の顔パーツ(例えば、右目、左目、右眉、左眉、鼻、及び口)の各々に対応する複数個の特徴点を検出する処理を実行する。The feature point detection unit 12 extracts feature points related to the body organs of the occupant from the captured image acquired by the image acquisition unit 11. The feature point extraction process by the feature point detection unit 12 can use various known algorithms, and detailed descriptions of these algorithms will be omitted. For example, when extracting feature points related to the occupant's face, the feature point detection unit 12 executes a process of detecting multiple feature points corresponding to each of multiple facial parts (e.g., right eye, left eye, right eyebrow, left eyebrow, nose, and mouth).

特徴点検出部12の特徴点の検出処理について説明する。図3は、実施の形態1に係る睡眠検出装置10の特徴点検出部12の検出処理を示す説明図である。図3Aは撮像画像300についての説明図であり、図3Bは顔領域301についての説明図であり、図3Cは特徴点についての説明図である。特徴点検出部12は、画像取得部11から例えば図3Aに示す撮像画像300を取得する。そして、特徴点検出部12は、画像取得部11から取得した撮像画像300に対して、顔パーツが含まれる領域である顔領域301を検出する。例えば、特徴点検出部12は、図3Aの撮像画像300に対して、図3Bに示す顔領域301を検出する。The detection process of the feature point detection unit 12 will be described. FIG. 3 is an explanatory diagram showing the detection process of the feature point detection unit 12 of the sleep detection device 10 according to embodiment 1. FIG. 3A is an explanatory diagram of the captured image 300, FIG. 3B is an explanatory diagram of the face area 301, and FIG. 3C is an explanatory diagram of the feature points. The feature point detection unit 12 acquires the captured image 300 shown in FIG. 3A from the image acquisition unit 11. Then, the feature point detection unit 12 detects the face area 301, which is an area including facial parts, from the captured image 300 acquired from the image acquisition unit 11. For example, the feature point detection unit 12 detects the face area 301 shown in FIG. 3B from the captured image 300 of FIG. 3A.

特徴点検出部12は、検出した顔領域301内で、例えば図3Cに示すように、目に関して、両目尻311、両目頭312、両上瞼313、及び両下瞼314等の、顔パーツの構成要素の位置情報を取得する。また、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、鼻に関して、鼻根315、鼻尖316、鼻背、及び鼻翼等の、顔パーツの構成要素の位置情報を取得する。さらに、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、口に関して、上唇317、下唇318、及び口角319等の、顔パーツの位置情報を取得する。特徴点検出部12が取得する各顔パーツの構成要素の位置情報は、図3Aで示した撮像画像300の特定の位置Oを始点とした座標、又は図3Aで示した撮像画像300における中心を始点とした座標等を示す情報である。そして、特徴点検出部12が取得した位置情報が、特徴点として検出される。なお、特徴点検出部12が検出した特徴点は、睡眠検出装置10の記憶部(図示せず)に記録されてもよい。The feature point detection unit 12 acquires position information of components of face parts such as the outer corners 311, inner corners 312, upper eyelids 313, and lower eyelids 314 of the eyes in the detected face region 301, as shown in FIG. 3C. The feature point detection unit 12 also acquires position information of components of face parts such as the root 315, tip 316, back of the nose, and wings of the nose in the face region 301, as shown in FIG. 3C. The feature point detection unit 12 also acquires position information of components of face parts such as the upper lip 317, lower lip 318, and corners of the mouth 319 in the face region 301, as shown in FIG. 3C. The position information of the components of each face part acquired by the feature point detection unit 12 is information indicating coordinates starting from a specific position O in the captured image 300 shown in FIG. 3A, or coordinates starting from the center of the captured image 300 shown in FIG. 3A. The position information acquired by the feature point detection unit 12 is detected as a feature point. The feature points detected by the feature point detection unit 12 may be recorded in a storage unit (not shown) of the sleep detection device 10.

そして、特徴量算出部13は、特徴点検出部12が抽出した特徴点から、乗員の特徴量を算出する。ここで、乗員の特徴量とは、具体的には、例えば、右目と左目との距離、乗員の顔における鼻の位置等、乗員の特徴点間の位置関係を示す情報である。また、特徴量算出部13は、顔領域301の撮像画像300における大きさ、座標等、顔領域301の位置情報を取得してもよい。特徴量の算出についても、公知の種々のアルゴリズムを用いることができる。なお、特徴量算出部13が算出した特徴量についても、睡眠検出装置10の記憶部に記録されてもよい。The feature amount calculation unit 13 then calculates the feature amount of the occupant from the feature points extracted by the feature point detection unit 12. Here, the feature amount of the occupant is specifically information indicating the positional relationship between the feature points of the occupant, such as the distance between the right eye and the left eye, the position of the nose on the occupant's face, etc. In addition, the feature amount calculation unit 13 may acquire position information of the face area 301, such as the size and coordinates of the face area 301 in the captured image 300. Various known algorithms can also be used to calculate the feature amount. The feature amount calculated by the feature amount calculation unit 13 may also be recorded in the memory unit of the sleep detection device 10.

顔向き検出部14は、特徴量算出部13が算出した特徴量を用いて、画像取得部11が取得した撮像画像における乗員の顔向きを検出する。ここで、例えば、基準位置に対して乗員の顔のロール角、ピッチ角、及びヨー角の少なくともいずれかを検出して、乗員の顔向きを検出すればよい。なお、顔向き検出部14が検出した顔向きについても、睡眠検出装置10の記憶部に記録されてもよい。The face direction detection unit 14 detects the face direction of the occupant in the captured image acquired by the image acquisition unit 11 using the features calculated by the feature calculation unit 13. Here, for example, the face direction of the occupant may be detected by detecting at least one of the roll angle, pitch angle, and yaw angle of the occupant's face relative to a reference position. The face direction detected by the face direction detection unit 14 may also be recorded in the memory unit of the sleep detection device 10.

顔向き検出部14の顔向きの検出処理について説明する。図4は、実施の形態1に係る睡眠検出装置10の顔向き検出部14の顔向き検出処理を示す説明図である。例えば、図4Aから図4Cに示すように、顔向き検出部14は、鼻尖316と両目の位置関係を取得する。また、顔向き検出部14は、鼻尖316と両目の位置関係から、乗員の顔向きを検出する。The face direction detection process of the face direction detection unit 14 will now be described. Figure 4 is an explanatory diagram showing the face direction detection process of the face direction detection unit 14 of the sleep detection device 10 relating to embodiment 1. For example, as shown in Figures 4A to 4C, the face direction detection unit 14 acquires the positional relationship between the tip of the nose 316 and both eyes. In addition, the face direction detection unit 14 detects the face direction of the occupant from the positional relationship between the tip of the nose 316 and both eyes.

図4Aの場合、顔向き検出部14は、鼻尖316が左目の目尻311を通る直線Qa付近に位置していることから、乗員の顔向きは右であると検出する。図4Bの場合、顔向き検出部14は、鼻尖316が両眼頭312の間に位置していることから、乗員の顔向きは正面であると検出する。図4Cの場合、顔向き検出部14は、鼻尖316が右目の目尻311を通る直線Qb付近に位置していることから、顔向き検出部14は、乗員の顔向きは左であると検出する。このように、顔向き検出部14は、乗員の顔の左右の向き、すなわち、乗員の顔のヨー角を検出する。In the case of Fig. 4A, the face direction detection unit 14 detects that the occupant's face is facing to the right because the tip of the nose 316 is located near a straight line Qa passing through the outer corner 311 of the left eye. In the case of Fig. 4B, the face direction detection unit 14 detects that the occupant's face is facing forward because the tip of the nose 316 is located between the canthi 312. In the case of Fig. 4C, the face direction detection unit 14 detects that the occupant's face is facing to the left because the tip of the nose 316 is located near a straight line Qb passing through the outer corner 311 of the right eye. In this way, the face direction detection unit 14 detects the left-right direction of the occupant's face, i.e., the yaw angle of the occupant's face.

また、例えば図4Bに示すように、顔向き検出部14は、鼻尖316が位置する点を通る直線Qcを利用して、乗員の顔の上下の向き、すなわち、乗員の顔のピッチ角を検出する。なお、直線Qcは、例えば、乗員が上下方向、及び左右方向のいずれにおいても正面を向いている状態の撮像画像から設定すればよい。なお、顔向き検出部14による乗員の顔向き検出処理については、公知の種々のアルゴリズムを用いることができ、乗員の顔のロール角の検出処理についても公知の種々のアルゴリズムを用いることができる。また、後述の姿勢判定部17による乗員の姿勢の判定処理には、乗員の顔のロール角及びピッチ角の少なくともいずれかを用いると好ましい。乗員が瞬間的な睡眠に陥る場合は、うなずき、倒れこみ、又はのけぞりが伴う。これにより、瞬間的な睡眠に陥った乗員は、顔のロール角及びピッチ角の少なくともいずれかが変化するため、ロール角及びピッチ角の少なくともいずれかを後述の姿勢判定処理に用いれば、姿勢判定結果の信頼性を向上できる。 As shown in FIG. 4B, the face direction detection unit 14 detects the up-down direction of the occupant's face, i.e., the pitch angle of the occupant's face, by using a straight line Qc passing through the point where the nose tip 316 is located. The straight line Qc may be set, for example, from an image in which the occupant faces forward in both the up-down and left-right directions. Various known algorithms may be used for the face direction detection process of the occupant by the face direction detection unit 14, and various known algorithms may be used for the roll angle detection process of the occupant's face. In addition, it is preferable to use at least one of the roll angle and pitch angle of the occupant's face for the determination process of the occupant's posture by the posture determination unit 17 described later. When an occupant falls into instantaneous sleep, the occupant nods, collapses, or leans back. As a result, when an occupant falls momentarily asleep, at least one of the roll angle and pitch angle of the face changes, and therefore, by using at least one of the roll angle and pitch angle in the posture determination process described below, the reliability of the posture determination result can be improved.

顔向き変化量算出部15は、顔向き検出部14が検出した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する。乗員の顔向きの変化量とは、例えば、フレームAにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角と、フレームBにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角との差分である。ここで、乗員の顔向きの変化量とは、乗員の顔の角度の変化量だけでなく、撮像画像における乗員の顔の位置又は顔領域の大きさ、座標の変化量も含むものである。なお、変化量とは、各パラメータの差分のみではなく、複数の撮像画像で検出された各パラメータより算出された平均値からの差分でもよく、複数の撮像画像で検出された各パラメータより算出された中央値及び標準偏差等であってもよい。The facial orientation change amount calculation unit 15 calculates the amount of change in the facial orientation of the occupant using the facial orientation of the occupant detected by the facial orientation detection unit 14. The amount of change in the facial orientation of the occupant is, for example, the difference between the pitch angle of the occupant's face relative to a reference position detected from the captured image in frame A and the pitch angle of the occupant's face relative to a reference position detected from the captured image in frame B. Here, the amount of change in the facial orientation of the occupant includes not only the amount of change in the angle of the occupant's face, but also the amount of change in the position or size and coordinates of the occupant's face area in the captured image. Note that the amount of change may be not only the difference between each parameter, but also the difference from the average value calculated from each parameter detected in multiple captured images, or may be the median and standard deviation calculated from each parameter detected in multiple captured images.

次に、鈍化判定部16について説明する。鈍化判定部16は、撮像画像より抽出された乗員に、知覚の鈍化が発生しているか否かを判定する。ここで、乗員に知覚の鈍化が発生しているとは、乗員が外部からの刺激に対して強い反応を示さない状態にあることをいう。乗員が瞬間的な睡眠に陥る場合、この瞬間的な睡眠の前には、乗員に知覚の鈍化が発生することが分かっている。したがって、乗員の瞬間的な睡眠を精度よく検出するためには、乗員に知覚の鈍化が発生しているか否かを判定する必要がある。Next, the slowing down determination unit 16 will be described. The slowing down determination unit 16 determines whether or not a slowing down of perception has occurred in the occupant extracted from the captured image. Here, the occurrence of a slowing down of perception in the occupant means that the occupant is in a state where he or she does not show a strong reaction to external stimuli. When an occupant falls into momentary sleep, it is known that the occupant experiences a slowing of perception before this momentary sleep. Therefore, in order to accurately detect the momentary sleep of an occupant, it is necessary to determine whether or not a slowing down of perception has occurred in the occupant.

乗員に知覚の鈍化が発生している場合、例えば、覚醒時と比較して、顔の動きが少なくなる等、特徴的な行動の変化がみられる。この行動の変化は、乗員が外部からの刺激に対して強い反応を示さなくなったことを意味しており、知覚の鈍化が発生した乗員には、覚醒時と比較して随意的な動作が少なくなる。When an occupant experiences sensory dulling, they will exhibit characteristic behavioral changes, such as less facial movement compared to when they are awake. This behavioral change means that the occupant no longer shows a strong reaction to external stimuli, and occupants with sensory dulling will perform fewer voluntary movements compared to when they are awake.

鈍化判定部16が乗員の顔向きを用いて、乗員の知覚に鈍化が発生しているか否かを判定する例を挙げて説明する。なお、説明のため、乗員の知覚に鈍化が発生しているか否かの判定を鈍化判定ともいう。鈍化判定部16は、顔向きの変化量が設定された閾値(以下、鈍化判定閾値という)未満である状態が、設定された時間(以下、鈍化判定時間という)以上継続した場合、乗員に随意的な行動が少なくなったとして、乗員の知覚に鈍化が発生していると判定する。一方、顔向きの変化量が鈍化判定閾値以上である場合、又は顔向きの変化量が鈍化判定閾値未満である状態が鈍化判定時間以上継続しなかった場合、乗員に随意的な行動がみられるとして、乗員の知覚に鈍化が発生していないと判定する。An example will be described in which the slowing determination unit 16 uses the facial direction of the occupant to determine whether or not the occupant's perception has been slowed. For the sake of explanation, the determination of whether or not the occupant's perception has been slowed is also referred to as a slowing determination. When the amount of change in the facial direction is less than a set threshold (hereinafter referred to as the slowing determination threshold) continues for a set time (hereinafter referred to as the slowing determination time), the slowing determination unit 16 determines that the occupant's perception has been slowed, assuming that the occupant's voluntary actions have decreased. On the other hand, when the amount of change in the facial direction is equal to or greater than the slowing determination threshold, or when the amount of change in the facial direction is less than the slowing determination threshold, the unit 16 determines that the occupant's perception has not been slowed, assuming that the occupant is voluntary.

乗員に知覚の鈍化が発生する場合は、乗員から随意的な動作が見られなくなった状態(以下、鈍化状態という)は所定の時間継続する。一方で、乗員は覚醒状態にありながらも、運転中に顔向きの変化が少なくなる場合もある。そのため、鈍化状態が設定された鈍化判定時間以上継続した場合に、鈍化判定の判定結果を、後述の睡眠検出処理に反映することで、乗員の睡眠の検出精度を向上することができる。When a dulled state occurs in an occupant, the state in which the occupant is no longer able to make voluntary movements (hereinafter referred to as the dulled state) continues for a predetermined period of time. On the other hand, even if the occupant is awake, there may be cases in which the occupant changes the direction of their face less while driving. Therefore, if the dulled state continues for a set dulling judgment time or longer, the result of the dulling judgment can be reflected in the sleep detection process described below, thereby improving the accuracy of detecting whether the occupant is sleeping.

鈍化判定部16は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満であり、標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続していれば、すなわち標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間以上であれば、乗員の知覚に鈍化が発生していると判定する。一方、鈍化判定部16は、取得した標準偏差が鈍化判定閾値以上であれば、乗員の知覚に鈍化が発生していないと判定する。また、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間未満であっても、乗員の知覚に鈍化が発生していないと判定する。さらに、鈍化判定部16は、判定結果を後述する睡眠検出部18に出力する。The slowing judgment unit 16 acquires, for example, the standard deviation of the pitch angle of the occupant's face during a set period from the face direction change amount calculation unit 15 as the amount of change in the face direction. Then, if the acquired standard deviation is less than the slowing judgment threshold and the state in which the standard deviation is less than the slowing judgment threshold continues for more than the slowing judgment time, that is, if the period during which the standard deviation is less than the slowing judgment threshold is more than the slowing judgment time, the slowing judgment unit 16 judges that the occupant's perception has been slowed. On the other hand, if the acquired standard deviation is more than the slowing judgment threshold, the slowing judgment unit 16 judges that the occupant's perception has not been slowed. In addition, even if the period during which the acquired standard deviation is less than the slowing judgment threshold is less than the slowing judgment time, the slowing judgment unit 16 judges that the occupant's perception has not been slowed. Furthermore, the slowing judgment unit 16 outputs the judgment result to the sleep detection unit 18 described later.

次に、姿勢判定部17について説明する。姿勢判定部17は、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。乗員は、瞬間的に睡眠に陥る場合、うなずき、倒れこみ、又はのけぞり等、異常な姿勢が伴う。そのため、姿勢判定部17により、乗員が異常な姿勢であるか否かを判定して、姿勢判定部17の判定結果を後述の睡眠検出処理に用いる。Next, the posture determination unit 17 will be described. The posture determination unit 17 determines whether or not the posture of the occupant extracted from the captured image is abnormal. When an occupant falls asleep momentarily, the occupant assumes an abnormal posture such as nodding, collapsing, or leaning back. Therefore, the posture determination unit 17 determines whether or not the occupant is in an abnormal posture, and the determination result of the posture determination unit 17 is used in the sleep detection process described below.

姿勢判定部17は、例えば、顔向き変化量算出部15が算出した顔向きの変化量を用いて、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。そして、姿勢判定部17は判定結果を睡眠検出部18に出力する。なお、説明のため、姿勢判定部17による乗員の姿勢が異常であるか否かの判定を、姿勢判定ともいう。The posture determination unit 17 determines whether or not the posture of the occupant extracted from the captured image is abnormal, for example, by using the amount of change in face direction calculated by the face direction change amount calculation unit 15. Then, the posture determination unit 17 outputs the determination result to the sleep detection unit 18. For the sake of explanation, the determination by the posture determination unit 17 of whether or not the posture of the occupant is abnormal is also referred to as posture determination.

姿勢判定部17による姿勢判定例について説明する。例えば、姿勢判定部17は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された時間(以下、姿勢判定時間という)内における最大値及び最小値を取得する。そして、姿勢判定部17は、顔向きの変化量が姿勢判定時間内において、設定された閾値(以下、姿勢判定閾値という)以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する。つまり、姿勢判定部17は、顔向き変化量算出部15から、姿勢判定時間内における、乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定する。一方、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定する。An example of the posture determination by the posture determination unit 17 will be described. For example, the posture determination unit 17 acquires the maximum and minimum values of the pitch angle of the occupant's face as the amount of change in the face direction from the facial direction change amount calculation unit 15 within a set time (hereinafter referred to as the posture determination time). Then, the posture determination unit 17 determines whether the posture of the occupant is abnormal or not based on whether the amount of change in the face direction is equal to or greater than a set threshold (hereinafter referred to as the posture determination threshold) within the posture determination time. That is, the posture determination unit 17 acquires from the facial direction change amount calculation unit 15 the maximum value of the pitch angle relative to the reference position of the occupant's face direction within the posture determination time, and the minimum value of the pitch angle relative to the reference position of the occupant's face direction. Then, if the difference between the minimum value and the maximum value is equal to or greater than the posture determination threshold, the posture determination unit 17 determines that the posture of the occupant is abnormal. On the other hand, if the difference between the minimum value and the maximum value is less than the posture determination threshold, the posture determination unit 17 determines that the posture of the occupant is not abnormal.

ここで、乗員は、瞬間的な睡眠に陥らなくても、例えば、前方視野の確保のためにゆっくりと顔向きを変化させる場合がある。一方で、上述のように姿勢判定部17が、姿勢判定時間内における顔向きの変化量を用いて姿勢判定を行えば、乗員が瞬間的な睡眠に陥らずに、ゆっくりと顔向きが変化した場合を、乗員が睡眠に陥ったと誤検出することを抑制できる。Here, even if the occupant does not fall asleep instantly, for example, there are cases where the occupant slowly changes the direction of the face to ensure a good forward field of vision. On the other hand, if the posture determination unit 17 performs posture determination using the amount of change in the direction of the face within the posture determination time as described above, it is possible to prevent erroneous detection that the occupant has fallen asleep when the occupant does not fall asleep instantly and instead slowly changes the direction of the face.

また、姿勢判定部17は、顔領域の大きさを用いて姿勢判定を行ってもよい。乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。このとき、検出される乗員の顔領域の大きさに変化が生じる。そのため、姿勢判定部17は、例えば、特徴量算出部13から特徴量として顔領域の大きさを取得し、顔領域の大きさが設定された範囲外にあれば、乗員の姿勢が異常であると判定し、顔領域の大きさが設定された範囲内にあれば乗員の姿勢が異常でないと判定するようにしてもよい。この場合、姿勢判定部17は、顔向き変化量算出部15と接続せず、特徴量算出部13と接続するようにすればよい。 The posture determination unit 17 may also perform posture determination using the size of the face area. When an occupant falls asleep momentarily, the occupant may lean back in a direction away from the image capture device 20, or nod or collapse in a direction toward the image capture device 20. At this time, a change occurs in the size of the detected face area of the occupant. For this reason, the posture determination unit 17 may, for example, acquire the size of the face area as a feature from the feature calculation unit 13, and determine that the posture of the occupant is abnormal if the size of the face area is outside a set range, and determine that the posture of the occupant is not abnormal if the size of the face area is within the set range. In this case, the posture determination unit 17 may be connected to the feature calculation unit 13 without being connected to the face direction change amount calculation unit 15.

さらに、姿勢判定部17は、撮像装置20と乗員との距離を用いて姿勢判定を行ってもよい。上述したように、乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。そのため、撮像装置20をTOFカメラ等の撮像装置20と被写体との距離を反映した画像を撮像可能な撮像装置20で構成し、撮像画像に含まれる、乗員と撮像装置20との距離を示す距離データを用いて姿勢が異常であるか否かを判定することが可能である。Furthermore, the posture determination unit 17 may perform posture determination using the distance between the imaging device 20 and the occupant. As described above, when an occupant falls asleep momentarily, the occupant may lean back in a direction away from the imaging device 20, or nod or collapse in a direction toward the imaging device 20. For this reason, the imaging device 20 may be configured as an imaging device 20 capable of capturing an image that reflects the distance between the imaging device 20 and a subject, such as a TOF camera, and distance data indicating the distance between the occupant and the imaging device 20, which is included in the captured image, may be used to determine whether the posture is abnormal.

姿勢判定部17は、例えば、画像取得部11が取得した撮像画像に含まれる乗員の顔と撮像装置20との距離が、設定された範囲外にあれば、乗員の姿勢が異常であると判定し、乗員の顔と撮像装置20との距離が設定された範囲内にあれば乗員の姿勢が異常でないと判定する。この場合、特徴量算出部13を、撮像画像に含まれる乗員の顔と撮像装置20との距離を算出可能なように構成し、姿勢判定部17と特徴量算出部13とを接続すればよい。For example, the posture determination unit 17 determines that the posture of the occupant is abnormal if the distance between the face of the occupant included in the captured image acquired by the image acquisition unit 11 and the imaging device 20 is outside a set range, and determines that the posture of the occupant is not abnormal if the distance between the face of the occupant and the imaging device 20 is within a set range. In this case, the feature calculation unit 13 is configured to be able to calculate the distance between the face of the occupant included in the captured image and the imaging device 20, and the posture determination unit 17 and the feature calculation unit 13 are connected.

なお、姿勢判定部17は、車両に備えられた深度センサ等、乗員との距離を取得可能なセンサから取得した、乗員とセンサとの距離を示す距離データを用いて姿勢が異常であるか否かを判定することも可能である。すなわち、上述の例では、TOFカメラも深度センサに含まれる。The attitude determination unit 17 can also determine whether the attitude is abnormal by using distance data indicating the distance between the occupant and a sensor, which is acquired from a sensor capable of acquiring the distance from the occupant, such as a depth sensor provided in the vehicle. That is, in the above example, the TOF camera is also included in the depth sensor.

睡眠検出部18は、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。睡眠検出部18は、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったことを検出する。The sleep detection unit 18 detects whether the occupant is asleep using the judgment results of the slowing down judgment unit 16 and the judgment results of the posture judgment unit 17. When the slowing down judgment unit 16 judges that the occupant has a slowing of perception and the posture judgment unit 17 judges that the posture of the occupant is abnormal, the sleep detection unit 18 detects that the occupant has fallen asleep.

そして、睡眠検出部18は、検出結果を、車両に搭載された車載機器の制御を行う車両制御装置(図示せず)へ出力し、車両に搭載された報知部50を作動させて報知を行わせる。また、報知部50は、睡眠検出装置10に備えてもよい。なお、睡眠検出装置10と車両制御装置は接続されている。ここで、報知部50は、例えば、車両に搭載されたスピーカ又はディスプレイの少なくとも一方でもよいし、乗員が所持している携帯端末等であってもよい。報知部50は、睡眠検出部18により乗員が睡眠に陥ったことが検出された場合、乗員に向けて居眠り運転を防止させるため警告音を発する等して報知を行う。また、乗員が所持している携帯端末に報知を行わせる場合、睡眠検出装置10を通信部(図示せず)と接続し、通信部と携帯端末との間で通信を行わせればよい。なお、睡眠検出部18により、乗員が睡眠に陥ったことが検出された場合、車両制御装置によって眠気を解消するように空調等の車載機器の制御を行ってもよい。Then, the sleep detection unit 18 outputs the detection result to a vehicle control device (not shown) that controls the in-vehicle equipment mounted on the vehicle, and activates the notification unit 50 mounted on the vehicle to make a notification. The notification unit 50 may also be provided in the sleep detection device 10. The sleep detection device 10 and the vehicle control device are connected. Here, the notification unit 50 may be, for example, at least one of a speaker or a display mounted on the vehicle, or a mobile terminal carried by the occupant. When the sleep detection unit 18 detects that the occupant has fallen asleep, the notification unit 50 issues a notification by emitting a warning sound to prevent the occupant from falling asleep while driving. When the notification is made to a mobile terminal carried by the occupant, the sleep detection device 10 may be connected to a communication unit (not shown) and communication may be performed between the communication unit and the mobile terminal. When the sleep detection unit 18 detects that the occupant has fallen asleep, the vehicle control device may control in-vehicle equipment such as air conditioning to eliminate drowsiness.

睡眠検出部18による乗員の睡眠検出の結果について説明する。図5は、実施の形態1に係る睡眠検出装置10の睡眠検出結果を示す説明図である。図5Aは、比較例における睡眠検出結果を示した図であり、図5Bは、本実施の形態に係る睡眠検出装置10の睡眠検出結果を示した図である。図5A及び図5Bの縦軸は検出結果を示しており、横軸は時間を示している。図5A及び図5Bでは、点がプロットされた時間において、乗員が睡眠に陥ったと検出されたことを表している。The results of occupant sleep detection by the sleep detection unit 18 will now be described. Figure 5 is an explanatory diagram showing the sleep detection results of the sleep detection device 10 of embodiment 1. Figure 5A is a diagram showing the sleep detection results in a comparative example, and Figure 5B is a diagram showing the sleep detection results of the sleep detection device 10 of this embodiment. The vertical axis of Figures 5A and 5B shows the detection results, and the horizontal axis shows time. In Figures 5A and 5B, the points indicate that the occupant was detected as having fallen asleep at the time they are plotted.

図5Aの比較例は、睡眠検出処理において、姿勢判定部17の判定結果のみで乗員の睡眠を検出したものである。乗員は、車両に乗車しているとき、様々な要因によって顔向きが変化する。図5中に示す時間t1において、実際に乗員が瞬間的な睡眠に陥っている。しかしながら、図5Aに示すように、比較例では、t1以外にも乗員が睡眠に陥ったと検出されており、乗員の睡眠の検出精度が悪い。 In the comparative example of Figure 5A, the sleep detection process detects the sleep of an occupant based only on the judgment result of the posture judgment unit 17. When an occupant is in a vehicle, the direction of their face changes due to various factors. At time t1 shown in Figure 5, the occupant actually falls asleep for a moment. However, as shown in Figure 5A, in the comparative example, the occupant is detected as having fallen asleep at times other than t1, and the accuracy of detecting the sleep of the occupant is poor.

一方、本実施の形態に係る睡眠検出装置10においては、鈍化判定部16によって乗員に知覚の鈍化が発生したと判定された後に、姿勢判定部17によって乗員の姿勢が異常であると判定された場合に、乗員が睡眠に陥ったとするようにした。そのため、図5Bに示すように、瞬間的な睡眠に陥らず、単に乗員の顔向きが変化した場合は、乗員が睡眠に陥ったと誤検出せず、実際に乗員が瞬間的な睡眠に陥った時間t1のみ、乗員が睡眠に陥ったことが検出できる。このように、睡眠検出処理において、姿勢判定部17の判定結果及び鈍化判定部16の判定結果を用いることで、乗員の睡眠の検出精度を向上できる。なお、姿勢判定部17による姿勢判定を、顔向きを用いたものでなく、顔領域の大きさを用いたものとしても、乗員とセンサとの距離を用いたものとしても同様の結果が得られ、図5Bに示すように、精度よく乗員の睡眠を検出できる。On the other hand, in the sleep detection device 10 according to the present embodiment, if the posture determination unit 17 determines that the posture of the occupant is abnormal after the slowing determination unit 16 determines that the occupant has experienced a slowing of perception, the occupant is determined to have fallen asleep. Therefore, as shown in FIG. 5B, if the occupant does not fall into instantaneous sleep but simply changes the direction of his/her face, the occupant is not erroneously detected as having fallen asleep, and it is possible to detect that the occupant has fallen asleep only for the time t1 when the occupant actually fell into instantaneous sleep. In this way, by using the determination results of the posture determination unit 17 and the determination results of the slowing determination unit 16 in the sleep detection process, the accuracy of detecting the sleep of the occupant can be improved. Note that the same results can be obtained even if the posture determination unit 17 uses the size of the face area or the distance between the occupant and the sensor instead of the direction of the face, and the occupant's sleep can be detected with high accuracy, as shown in FIG. 5B.

次に、睡眠検出装置10の動作例について説明する。図6及び図7は、それぞれ実施の形態1に係る睡眠検出装置10の動作例を示すフローチャートである。以下、睡眠検出装置10が、乗員の顔向きを用いて、鈍化判定及び姿勢判定をそれぞれ行う例を挙げて説明する。また、図6及び図7のフローチャートには、睡眠検出装置10の動作を終了する処理が示されていないが、睡眠検出装置10は、車両制御装置から、動作を終了する旨の指令を取得したら動作を終了する。なお、図6及び図7に示す処理は、睡眠検出装置10の電源がオンにされた状態で、例えば所定の間隔で繰り返される。Next, an example of the operation of the sleep detection device 10 will be described. Figures 6 and 7 are flowcharts each showing an example of the operation of the sleep detection device 10 according to embodiment 1. Below, an example will be described in which the sleep detection device 10 performs a slowing down judgment and a posture judgment using the facial direction of the occupant. In addition, although the flowcharts in Figures 6 and 7 do not show the process of terminating the operation of the sleep detection device 10, the sleep detection device 10 terminates its operation when it receives a command to terminate its operation from the vehicle control device. Note that the process shown in Figures 6 and 7 is repeated, for example, at a predetermined interval, while the power supply of the sleep detection device 10 is turned on.

まず、睡眠検出装置10の画像取得部11は、撮像装置20から撮像画像を取得する(ST1)。そして、画像取得部11は、取得した撮像画像を特徴点検出部12に出力する。次いで、特徴点検出部12は、撮像画像を用いて、撮像画像における乗員の顔パーツを検出し、乗員の顔の特徴点を抽出する(ST2)。そして、特徴量算出部13は、抽出された特徴点を用いて、撮像画像から抽出された乗員の特徴量を算出する(ST3)。以下、説明のために、図6に示すST1~ST3の処理をまとめて、特徴量算出処理ST101という。First, the image acquisition unit 11 of the sleep detection device 10 acquires an image from the imaging device 20 (ST1). Then, the image acquisition unit 11 outputs the acquired image to the feature point detection unit 12. Next, the feature point detection unit 12 uses the captured image to detect facial features of the occupant in the captured image and extracts feature points of the occupant's face (ST2). Then, the feature amount calculation unit 13 uses the extracted feature points to calculate the feature amount of the occupant extracted from the captured image (ST3). For the sake of explanation, the processes ST1 to ST3 shown in Figure 6 are hereinafter collectively referred to as feature amount calculation process ST101.

図7に基づき睡眠検出装置10の動作例について説明する。特徴量算出処理ST101にて乗員の特徴量を算出したら、顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は検出した乗員の顔向きを、顔向き変化量算出部15に出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。ここで、顔向きの変化量は、記憶部に記録されていてもよい。An example of the operation of the sleep detection device 10 will be described with reference to FIG. 7. After calculating the features of the occupant in the feature calculation process ST101, the face direction detection unit 14 acquires the features and detects the face direction of the occupant extracted from the captured image (ST102). The face direction detection unit 14 then outputs the detected face direction of the occupant to the face direction change amount calculation unit 15. Next, the face direction change amount calculation unit 15 calculates the amount of change in the face direction of the occupant using the face direction of the occupant acquired from the face direction detection unit 14 (ST103). Here, the amount of change in the face direction may be recorded in the memory unit.

次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、変化量として、例えば、顔向き変化量算出部15から乗員の顔向きを示すピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16は、取得した変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。Next, the slowing determination unit 16 determines whether or not the occupant's perception is being slowed (ST104). The slowing determination unit 16 acquires, as the amount of change, for example, the standard deviation of the pitch angle indicating the occupant's facial direction over a set period from the facial direction change amount calculation unit 15. If the acquired amount of change is equal to or greater than the slowing determination threshold, the slowing determination unit 16 determines that the occupant's perception is not being slowed (ST104; NO) and outputs the determination result to the sleep detection unit 18. Next, the processing of the sleep detection device 10 proceeds to ST101. On the other hand, if the acquired amount of change is less than the slowing determination threshold, the slowing determination unit 16 determines that the occupant is in a state in which perception is being slowed (ST104; YES) and proceeds to the processing of the next ST105.

次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。ここで、鈍化判定部16は、例えば、取得した標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したと判定する。Next, the slowing judgment unit 16 judges whether the state in which the occupant's perception is being slowed has continued for more than the slowing judgment time (ST105). Here, the slowing judgment unit 16 judges that the state in which the occupant's perception is being slowed has continued for more than the slowing judgment time, for example, if the state in which the acquired standard deviation is less than the slowing judgment threshold has continued for more than the slowing judgment time.

鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員の知覚に鈍化が発生していないと判定し、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定して、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置10の処理は、次に説明するST106に進む。If the slowing judgment unit 16 determines that the state in which the occupant's perception is being slowed has not continued for more than the slowing judgment time (ST105; NO), it judges that the occupant's perception is not being slowed, and the processing of the sleep detection device 10 proceeds to ST101. On the other hand, if the slowing judgment unit 16 determines that the state in which the occupant's perception is being slowed has continued for more than the slowing judgment time (ST105; YES), it judges that the occupant's perception is being slowed, and outputs the judgment result to the sleep detection unit 18. Then, the processing of the sleep detection device 10 proceeds to ST106, which will be described next.

次に、睡眠検出装置10の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、例えば、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、例えば、変化量として、設定された期間における乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角の最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、次いで、睡眠検出装置10の処理は、ST101に進む。Next, the posture determination unit 17 of the sleep detection device 10 acquires the amount of change in the facial direction of the occupant from the facial direction change amount calculation unit 15 (ST106). For example, the posture determination unit 17 acquires the amount of change in the facial direction from the facial direction change amount calculation unit 15, and determines whether the posture of the occupant is abnormal based on whether the amount of change in the facial direction is equal to or greater than the posture determination threshold (ST107). For example, the posture determination unit 17 acquires, as the amount of change, the maximum value of the pitch angle relative to the reference position of the facial direction of the occupant during the set period, and the minimum value of the pitch angle relative to the reference position of the facial direction of the occupant. Then, if the difference between the minimum value and the maximum value is less than the posture determination threshold, the posture determination unit 17 determines that the posture of the occupant is not abnormal (ST107; NO), and the processing of the sleep detection device 10 then proceeds to ST101.

一方、姿勢判定部17は、変化量として取得した、ピッチ角の最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、睡眠検出装置10の処理は、次に説明するST108に進む。On the other hand, if the difference between the minimum and maximum pitch angle values obtained as the amount of change is greater than or equal to the posture determination threshold, the posture determination unit 17 determines that the occupant's posture is abnormal (ST107; YES), and the processing of the sleep detection device 10 proceeds to ST108, which will be described next.

姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。例えば、姿勢判定部17は、乗員の顔のピッチ角が最大となった撮像画像を取得したフレームAと、乗員の顔のピッチ角が最小となった撮像画像を取得したフレームBとを参照し、フレームAとフレームBとの間に経過した時間を算出する。そして、算出した経過時間が姿勢判定時間以下であれば、姿勢判定時間内において、乗員の顔向きの変化量が姿勢判定閾値以上となったと判断する。なお、上述の処理は、顔向き変化量算出部15が姿勢判定時間内におけるピッチ角の最小値と最大値とを算出すれば省略可能である。The posture determination unit 17 determines whether the posture of the occupant is determined to be abnormal within the posture determination time (ST108). For example, the posture determination unit 17 refers to frame A, which is an image in which the pitch angle of the occupant's face is at its maximum, and frame B, which is an image in which the pitch angle of the occupant's face is at its minimum, and calculates the time that has elapsed between frame A and frame B. If the calculated elapsed time is equal to or less than the posture determination time, it is determined that the amount of change in the occupant's facial direction during the posture determination time has exceeded the posture determination threshold. Note that the above-mentioned process can be omitted if the facial direction change amount calculation unit 15 calculates the minimum and maximum pitch angles during the posture determination time.

姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、睡眠検出装置10の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて警告音を発する等して報知を行う(ST109)。If the posture determination unit 17 determines that the occupant's posture is abnormal not within the posture determination time (ST108; NO), the processing of the sleep detection device 10 proceeds to ST101. That is, if the processing of ST108 determines that the occupant's posture is abnormal not within the posture determination time, the determination result that the occupant's posture is abnormal in the processing of ST107 is rejected. On the other hand, if the posture determination unit 17 determines that the occupant's posture is abnormal within the set posture determination time (ST108; YES), it determines that the occupant's posture is abnormal and outputs the determination result to the sleep detection unit 18. Then, the sleep detection unit 18 detects that the occupant has fallen asleep, and the alarm unit 50 notifies the occupant by emitting an alarm sound or the like (ST109).

次に、睡眠検出装置10の機能を実現するハードウェア構成について説明する。図8は、実施の形態1に係る睡眠検出装置10のハードウェア構成例を示す図である。睡眠検出装置10における画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の機能は、処理回路によって実現される。すなわち、睡眠検出装置10の、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、図8Aに示すように専用のハードウェアである処理回路10aであってもよいし、図8Bに示すようにメモリ10cに格納されているプログラムを実行するプロセッサ10bであってもよい。Next, a hardware configuration for realizing the functions of the sleep detection device 10 will be described. FIG. 8 is a diagram showing an example of a hardware configuration of the sleep detection device 10 according to the first embodiment. The functions of the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 in the sleep detection device 10 are realized by a processing circuit. That is, the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 of the sleep detection device 10 may be a processing circuit 10a, which is dedicated hardware, as shown in FIG. 8A, or a processor 10b that executes a program stored in the memory 10c as shown in FIG. 8B.

図8Aに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18が専用のハードウェアである場合、処理回路10aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。8A, when the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 are dedicated hardware, the processing circuit 10a corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-programmable Gate Array), or a combination thereof. The functions of each unit of the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 may be realized by a processing circuit, or the functions of each unit may be realized by a single processing circuit.

図8Bに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18がプロセッサ10bである場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ10cに格納される。プロセッサ10bは、メモリ10cに記憶されたプログラムを読み出して実行することにより、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能を実現する。すなわち、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、プロセッサ10bにより実行されるときに、図4に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ10cを備える。また、これらのプログラムは、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の手順又は方法をコンピュータに実行させるものであるともいえる。8B, when the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 are processor 10b, the functions of each unit are realized by software, firmware, or a combination of software and firmware. The software or firmware is described as a program and stored in memory 10c. Processor 10b realizes the functions of the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 by reading and executing the program stored in memory 10c. That is, the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18 include a memory 10c for storing a program which, when executed by the processor 10b, results in the execution of each step shown in Fig. 4. It can also be said that these programs cause a computer to execute the procedures or methods of the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face direction detection unit 14, the face direction change amount calculation unit 15, the slowing down determination unit 16, the posture determination unit 17, and the sleep detection unit 18.

ここで、プロセッサ10bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ10cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。Here, the processor 10b is, for example, a CPU (Central Processing Unit), a processing device, an arithmetic device, a processor, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor). The memory 10c may be, for example, a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically EPROM), or may be a magnetic disk such as a hard disk or a flexible disk, or may be an optical disk such as a mini disk, a CD (Compact Disc), or a DVD (Digital Versatile Disc).

なお、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、睡眠検出装置10における処理回路10aは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。また、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の少なくとも一部の機能を、外部サーバに実行させてもよい。In addition, the functions of the image acquisition unit 11, feature point detection unit 12, feature amount calculation unit 13, face direction detection unit 14, face direction change amount calculation unit 15, slowing down determination unit 16, posture determination unit 17, and sleep detection unit 18 may be partially realized by dedicated hardware and partially realized by software or firmware. In this way, the processing circuit 10a in the sleep detection device 10 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination of these. In addition, at least some of the functions of the image acquisition unit 11, feature point detection unit 12, feature amount calculation unit 13, face direction detection unit 14, face direction change amount calculation unit 15, slowing down determination unit 16, posture determination unit 17, and sleep detection unit 18 may be executed by an external server.

このように、睡眠検出装置10に、車両に搭載され車両の内部の乗員を撮像する撮像装置20から、乗員が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、画像取得部11が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備え、睡眠検出部18は、姿勢判定部17により乗員の姿勢が異常であると判定され、鈍化判定部16により乗員に知覚の鈍化が発生していると判定された場合、乗員が睡眠に陥ったとするものであると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。In this way, the sleep detection device 10 includes an image acquisition unit 11 that acquires an image of the occupant from an imaging device 20 that is mounted on the vehicle and captures an image of the occupant inside the vehicle, a slowing of perception determination unit 16 that determines whether the occupant extracted from the image acquired by the image acquisition unit 11 has experienced a dulling of perception, a posture determination unit 17 that determines whether the posture of the occupant extracted from the image acquired by the image acquisition unit 11 is abnormal, and a sleep detection unit 18 that detects the occupant's sleep using the determination results of the slowing of perception determination unit 16 and the posture determination unit 17. When the posture determination unit 17 determines that the posture of the occupant is abnormal and the slowing of perception determination unit 16 determines that the occupant has experienced a dulling of perception, the sleep detection unit 18 detects momentary sleep of the occupant and can improve the accuracy of detection of occupant sleep.

なお、本実施の形態において、顔向き検出部14が、乗員の顔の鼻の位置を用いて検出する例について説明したが、顔向き検出部14が、顔向きの検出に用いる顔パーツは限定しない。例えば、顔向き検出部14は、特徴量算出部13から特徴量として、右目の位置、左目の位置、及び右目と左目との間の距離を取得し、顔向きの検出に用いてもよい。また、顔向き検出部14は、例えば、乗員の肩の位置等、顔以外の身体に器官に関する特徴点を検出してもよい。In this embodiment, an example has been described in which the face direction detection unit 14 detects the face direction using the position of the nose on the face of the occupant, but the facial parts that the face direction detection unit 14 uses to detect the face direction are not limited. For example, the face direction detection unit 14 may obtain the position of the right eye, the position of the left eye, and the distance between the right eye and the left eye as features from the feature calculation unit 13 and use them to detect the face direction. In addition, the face direction detection unit 14 may detect feature points related to organs of the body other than the face, such as the position of the occupant's shoulders.

実施の形態2.
図9は、実施の形態2に係る睡眠検出システム101の構成例を示すブロック図である。実施の形態2に係る睡眠検出装置30は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部32と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部32の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。本実施の形態では、鈍化判定部32が、撮像画像から抽出された乗員の顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
Embodiment 2.
FIG. 9 is a block diagram showing a configuration example of a sleep detection system 101 according to the second embodiment. As in the first embodiment, the sleep detection device 30 according to the second embodiment includes an image acquisition unit 11 for acquiring an image, a desensitization determination unit 32 for determining whether or not the occupant extracted from the image has a desensitization, a posture determination unit 17 for determining whether or not the posture of the occupant extracted from the image is abnormal, and a sleep detection unit 18 for detecting the sleep of the occupant using the determination results of the desensitization determination unit 32 and the determination results of the posture determination unit 17. This embodiment is different from the first embodiment in that the desensitization determination unit 32 determines whether or not the occupant has a desensitization using face information of the occupant extracted from the image. The same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted.

乗員が瞬間的な睡眠に陥る前には、例えば、覚醒度が高いときと比較して、瞬きが減る、瞬きの速度が遅くなる、開眼度が低下する、表情の変化が少なくなる等、知覚の鈍化に起因した行動の変化がみられる。そのため、鈍化判定は、実施の形態1で説明した顔向きの変化量を用いるのみでなく、乗員の顔の状態に関する情報である顔情報を用いて行うこともできる。Before an occupant falls into momentary sleep, for example, compared to when the level of alertness is high, there are changes in behavior due to a dulling of perception, such as less blinking, a slower blinking rate, less eye opening, and less change in facial expression. Therefore, the determination of the dulling of perception can be performed not only using the amount of change in face direction described in the first embodiment, but also using face information, which is information about the state of the face of the occupant.

まず、鈍化判定に用いる顔情報について説明する。顔情報とは、例えば、目の開眼度、瞬きの頻度、表情の変化等、乗員の顔の状態に関する情報である。図9に示すように、本実施の形態に係る睡眠検出装置30は、顔情報検出部31を備える。顔情報検出部31は、特徴量算出部13から取得した乗員の特徴量を用いて、乗員の顔情報を検出する。First, the facial information used in the slowing down judgment will be described. Facial information is information related to the facial state of the occupant, such as the degree of eye opening, blinking frequency, changes in facial expression, etc. As shown in FIG. 9, the sleep detection device 30 according to this embodiment includes a facial information detection unit 31. The facial information detection unit 31 detects the facial information of the occupant using the features of the occupant acquired from the feature calculation unit 13.

顔情報検出部31による顔情報の検出処理の例について説明する。顔情報として目の開眼度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13から、特徴量として目の上瞼及び下瞼の間の距離を取得し、この距離を顔情報として検出する。また、顔情報として瞬きの速度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとし、また、この距離が設定された閾値以上である場合に目が開いているとして、目が開いている状態から瞬きが行わるまでに経過した時間を顔情報として取得する。さらに、顔情報として瞬きの頻度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとして、前の瞬きと次の瞬きの間に経過した時間を顔情報として取得する。なお、顔情報検出部31の顔情報の検出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。An example of the detection process of face information by the face information detection unit 31 will be described. When acquiring the degree of eye opening as face information, the face information detection unit 31 acquires, for example, the distance between the upper eyelid and the lower eyelid as a feature from the feature calculation unit 13, and detects this distance as face information. When acquiring the speed of blinking as face information, the face information detection unit 31 acquires, for example, the distance between the upper eyelid and the lower eyelid as the feature calculation unit 13. Then, when this distance is less than a set threshold, it is determined that a blink has occurred, and when this distance is equal to or greater than the set threshold, it is determined that the eyes are open, and acquires, as face information, the time that has elapsed from the state in which the eyes are open until the blink occurs. Furthermore, when acquiring the frequency of blinking as face information, the face information detection unit 31 acquires, for example, the distance between the upper eyelid and the lower eyelid as the feature calculation unit 13. Then, when this distance is less than a set threshold, it is determined that a blink has occurred, and acquires, as face information, the time that has elapsed between the previous blink and the next blink. The face information detection process by the face information detection unit 31 is not limited to the above example, and various known algorithms can be used.

次に鈍化判定部32による鈍化判定例について説明する。鈍化判定部32は、顔情報検出部31から顔情報を取得し、顔情報を用いて乗員に知覚の鈍化が発生しているか否かを判定する。鈍化判定部32は、例えば、顔情報検出部31から顔情報として目の開眼度を取得した場合、目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、目の開眼度が鈍化判定閾値以上である場合、又は目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。Next, an example of a slowing judgment made by the slowing judgment unit 32 will be described. The slowing judgment unit 32 acquires face information from the face information detection unit 31, and uses the face information to judge whether or not the occupant has experienced a slowing of perception. For example, when the slowing judgment unit 32 acquires the degree of eye opening as face information from the face information detection unit 31, if the state in which the degree of eye opening is less than the slowing judgment threshold continues for more than the slowing judgment time, the slowing judgment unit 32 judges that the occupant has experienced a slowing of perception. On the other hand, if the degree of eye opening is greater than or equal to the slowing judgment threshold, or if the state in which the degree of eye opening is less than the slowing judgment threshold does not continue for more than the slowing judgment time, the slowing judgment unit 32 judges that the occupant has not experienced a slowing of perception.

また、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの速度を取得した場合、瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの速度が鈍化判定閾値以上である場合、又は瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。In addition, for example, when the slowing determination unit 32 acquires the blinking rate as face information from the face information detection unit 31, if the blinking rate continues to be less than the slowing determination threshold for a slowing determination time or more, it determines that the occupant has experienced a slowing of perception. On the other hand, if the blinking rate is greater than or equal to the slowing determination threshold, or if the blinking rate does not continue to be less than the slowing determination threshold for a slowing determination time or more, the slowing determination unit 32 determines that the occupant has not experienced a slowing of perception.

さらに、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの頻度を取得した場合、瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの頻度が鈍化判定閾値以上である場合、又は瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。Furthermore, for example, when the slowing determination unit 32 acquires the blinking frequency as face information from the face information detection unit 31, if the blinking frequency is below the slowing determination threshold and continues for a slowing determination time or longer, the slowing determination unit 32 determines that the occupant has experienced a slowing of perception. On the other hand, if the blinking frequency is above the slowing determination threshold or if the blinking frequency is below the slowing determination threshold and does not continue for a slowing determination time or longer, the slowing determination unit 32 determines that the occupant has not experienced a slowing of perception.

なお、鈍化判定について、鈍化判定閾値を用いて行う例について説明した。ここでの鈍化判定閾値は、実施の形態1における鈍化判定閾値とは異なる。つまり、実施の形態1における鈍化判定閾値は、顔向きの変化量についての閾値であるのに対し、実施の形態2における鈍化判定閾値は、顔情報についての閾値である。目の開眼度と比較する鈍化判定閾値は、目の開眼度についての閾値であり、瞬きの速度と比較する鈍化判定閾値は、瞬きの速度についての閾値であり、また、瞬きの頻度と比較する鈍化判定閾値は、瞬きの頻度についての閾値である。ここで、鈍化判定時間についても同様に、各判定で鈍化判定時間を異なるものとしてもよい。さらに、鈍化判定閾値は、予め定められた値であってもよいし、乗車時から所定の時間経過するまでに取得した顔情報を基準として設定された値であってもよい。乗車時は、乗員の覚醒度が高いと考えられ、覚醒度が高いときに取得した顔情報を基準とすれば、鈍化判定の精度を向上できるためである。 The slowing judgment threshold is different from the slowing judgment threshold in the first embodiment. That is, the slowing judgment threshold in the first embodiment is a threshold for the amount of change in the face direction, whereas the slowing judgment threshold in the second embodiment is a threshold for the face information. The slowing judgment threshold to be compared with the degree of eye opening is a threshold for the degree of eye opening, the slowing judgment threshold to be compared with the speed of blinking is a threshold for the speed of blinking, and the slowing judgment threshold to be compared with the frequency of blinking is a threshold for the frequency of blinking. Similarly, the slowing judgment time may be different for each judgment. Furthermore, the slowing judgment threshold may be a predetermined value, or may be a value set based on the face information acquired from the time of getting on until a predetermined time has elapsed. This is because the passenger's level of wakefulness is considered to be high when getting on, and the accuracy of the slowing judgment can be improved by using the face information acquired when the level of wakefulness is high as the standard.

次に、睡眠検出装置30の動作例について説明する。図10は、実施の形態2に係る睡眠検出装置30の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置30の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。Next, an example of the operation of the sleep detection device 30 will be described. Figure 10 is a flowchart showing an example of the operation of the sleep detection device 30 according to embodiment 2. Hereinafter, steps that are the same as those in the processing of the sleep detection device 30 according to embodiment 1 are given the same reference numerals as those shown in Figures 6 and 7, and descriptions thereof will be omitted or simplified.

まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出する(ST201)。以下では、顔情報検出部31が、顔情報として目の開眼度を検出し、鈍化判定部32が目の開眼度及び目の開眼度に関する鈍化判定閾値を用いて鈍化判定を行う例を挙げて説明する。First, after the features are calculated in the feature calculation process ST101, the face information detection unit 31 detects face information using the features acquired from the feature calculation unit 13 (ST201). Below, an example will be described in which the face information detection unit 31 detects the degree of eye opening as face information, and the slowing judgment unit 32 performs the slowing judgment using the degree of eye opening and a slowing judgment threshold value related to the degree of eye opening.

次に、鈍化判定部32は、乗員の知覚に鈍化が発生しているか否かを判定する(ST202)。鈍化判定部32は、例えば、顔情報検出部31から、顔情報として設定された期間における乗員の目の開眼度を取得する。そして、鈍化判定部32は、取得した開眼度が、鈍化判定閾値以上である場合、乗員に知覚の鈍化が発生していないと判定し(ST202;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、取得した乗員の眼の開眼度が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST202;YES)、次のST105の処理に進む。Next, the slowing judgment unit 32 judges whether or not the occupant's perception is being slowed (ST202). The slowing judgment unit 32 acquires, for example, from the face information detection unit 31, the degree of eye opening of the occupant during the period set as face information. If the acquired eye opening degree is equal to or greater than the slowing judgment threshold, the slowing judgment unit 32 judges that the occupant is not experiencing a slowing of perception (ST202; NO) and outputs the judgment result to the sleep detection unit 18. Next, the processing of the sleep detection device 30 proceeds to ST101. On the other hand, if the acquired eye opening degree of the occupant is less than the slowing judgment threshold, the slowing judgment unit 32 judges that the occupant is in a state in which a slowing of perception is occurring (ST202; YES) and proceeds to the processing of the next ST105.

次に、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部32が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員に知覚の鈍化が発生していないと判定し、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置30の処理は、次のST102に進む。Next, the dulling determination unit 32 determines whether the state in which the occupant's perception is dulled has continued for more than the dulling determination time (ST105). If the dulling determination unit 32 determines that the state in which the occupant's perception is dulled has not continued for more than the dulling determination time (ST105; NO), it determines that the occupant has not experienced dulling of perception, and the processing of the sleep detection device 30 proceeds to ST101. On the other hand, if the dulling determination unit 32 determines that the state in which the occupant's perception is dulled has continued for more than the dulling determination time (ST105; YES), it determines that the occupant has experienced dulling of perception, and outputs the determination result to the sleep detection unit 18. Then, the processing of the sleep detection device 30 proceeds to the next ST102.

顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、睡眠検出装置30の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、取得した変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、取得した変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。The face direction detection unit 14 acquires the feature amount and detects the face direction of the occupant extracted from the captured image (ST102). Then, the posture determination unit 17 of the sleep detection device 30 acquires the amount of change in the face direction of the occupant from the face direction change amount calculation unit 15 (ST106). The posture determination unit 17 acquires the amount of change in the face direction from the face direction change amount calculation unit 15, and determines whether the posture of the occupant is abnormal or not depending on whether the acquired amount of change is equal to or greater than the posture determination threshold (ST107). If the acquired amount of change is less than the posture determination threshold, the posture determination unit 17 determines that the posture of the occupant is not abnormal (ST107; NO) and outputs the determination result to the sleep detection unit 18. Next, the processing of the sleep detection device 30 proceeds to ST101. Note that, as in the first embodiment, the posture determination by the posture determination unit 17 does not use the face direction, and it is also possible to use the size of the face area and the distance between the occupant and the sensor.

一方、姿勢判定部17は、例えば、ピッチ角の最小値と最大値との差分が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、さらに、睡眠検出装置30の処理は、次に説明するST108に進む。On the other hand, if, for example, the difference between the minimum and maximum pitch angle values is greater than or equal to a set threshold value, the posture determination unit 17 determines that the occupant's posture is abnormal (ST107; YES), and the processing of the sleep detection device 30 proceeds to ST108, which will be described next.

姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であると判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置30の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。The posture determination unit 17 determines whether the posture of the occupant is determined to be abnormal within the posture determination time (ST108). If the posture determination unit 17 determines that the abnormality of the occupant's posture is not a determination made within the posture determination time (ST108; NO), it determines that the occupant's posture is not abnormal, and the processing of the sleep detection device 30 proceeds to ST101. In other words, if it is determined in the processing of ST108 that the abnormality of the occupant's posture is not a determination made within the posture determination time, the determination result that the occupant's posture is abnormal in the processing of ST107 is rejected.

一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定であると判断した場合(ST108;YES)、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて報知を行う(ST109)。On the other hand, if the posture determination unit 17 determines that the occupant's posture is abnormal within the posture determination time (ST108; YES), it outputs the determination result to the sleep detection unit 18. Then, the sleep detection unit 18 detects that the occupant has fallen asleep, and the notification unit 50 notifies the occupant (ST109).

このように、睡眠検出装置30に、特徴量算出部13が算出した特徴量を用いて、乗員の顔の状態に関する顔情報を検出する顔情報検出部31をさらに備え、鈍化判定部32が、顔情報検出部31が検出した顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定するものであると、乗員の瞬間的な睡眠の前に現れる知覚の鈍化を乗員の顔の状態から判定でき、乗員の瞬間的な睡眠を検出して、乗員の睡眠の検出精度を向上できる。In this way, if the sleep detection device 30 further includes a face information detection unit 31 that detects facial information related to the facial state of the occupant using the features calculated by the feature calculation unit 13, and the slowing down determination unit 32 uses the facial information detected by the face information detection unit 31 to determine whether or not the occupant is experiencing a slowing of perception, the slowing of perception that occurs before the occupant falls asleep can be determined from the state of the occupant's face, and the occupant's momentary sleep can be detected, thereby improving the accuracy of detecting the occupant's sleep.

なお、本実施の形態において、鈍化判定部32が、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度を鈍化判定に用いる例について説明したが、鈍化判定部32が鈍化判定に用いる顔情報は、目の開眼度に限らない。例えば、鈍化判定部32は、顔情報検出部31から、目の開眼度、瞬きの速度、及び瞬きの頻度を顔情報として取得し、取得した顔情報のうち少なくともいずれかが、設定された閾値未満であれば、乗員に知覚の鈍化が発生していると判定してもよい。In this embodiment, an example has been described in which the slowing determination unit 32 acquires the degree of eye opening as face information from the face information detection unit 31 and uses the degree of eye opening for the slowing determination, but the face information used by the slowing determination unit 32 for the slowing determination is not limited to the degree of eye opening. For example, the slowing determination unit 32 may acquire the degree of eye opening, blink speed, and blink frequency as face information from the face information detection unit 31, and determine that the occupant has a slowed perception if at least any of the acquired face information is below a set threshold.

実施の形態3.
図11は、実施の形態3に係る睡眠検出システム102の構成例を示すブロック図である。実施の形態3に係る睡眠検出装置40は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部42と、を備える。本実施の形態では、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
Embodiment 3.
FIG. 11 is a block diagram showing a configuration example of a sleep detection system 102 according to a third embodiment. As in the first embodiment, the sleep detection device 40 according to the third embodiment includes an image acquisition unit 11 for acquiring an image, a slowing determination unit 16 for determining whether or not the occupant extracted from the image has a dulled sense, a posture determination unit 17 for determining whether or not the posture of the occupant extracted from the image is abnormal, and a sleep detection unit 42 for detecting sleep of the occupant using the determination results of the slowing determination unit 16 and the posture determination unit 17. In this embodiment, the sleep detection unit 42 is different from the first embodiment in that it determines whether or not the occupant has a dulled sense by using the calculation result of the sleepiness level of the sleepiness level calculation unit 41 in addition to the determination results of the slowing determination unit 16 and the posture determination unit 17. The same components as those in the first embodiment are denoted by the same reference numerals, and their description will be omitted.

本実施の形態の睡眠検出装置40は、顔情報検出部31及び乗員の眠気レベルを算出する眠気レベル算出部41を備える。なお、顔情報検出部31の構成については、実施の形態2に説明した構成と同様のため、説明を省略する。ここで、覚醒度が高い状態から、覚醒度が低い状態まで段階的に分けられた眠気の尺度を眠気レベルという。本開示においては、覚醒度が最も高い状態を眠気レベル1、覚醒度が最も低い状態を眠気レベル9とし、覚醒度が低くなるにつれて、眠気レベル1から眠気レベル9に推移していくものとする。The sleep detection device 40 of this embodiment includes a face information detection unit 31 and a drowsiness level calculation unit 41 that calculates the drowsiness level of the occupant. Note that the configuration of the face information detection unit 31 is the same as that described in embodiment 2, and therefore description thereof is omitted. Here, the scale of drowsiness divided into stages from a high alertness state to a low alertness state is called drowsiness level. In this disclosure, the highest alertness state is drowsiness level 1, and the lowest alertness state is drowsiness level 9, and as the alertness level decreases, the drowsiness level transitions from drowsiness level 1 to drowsiness level 9.

乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある場合がある。そのため、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いることで、乗員の睡眠の検出結果の信頼性を向上することができる。When a passenger's perception is dulled, the passenger may be in a high drowsiness state. Therefore, the sleep detection unit 42 uses the drowsiness level calculation result of the drowsiness level calculation unit 41 in addition to the judgment results of the dulling judgment unit 16 and the posture judgment unit 17, thereby improving the reliability of the detection result of the passenger's sleep.

眠気レベル算出部41による眠気レベルの算出について説明する。眠気レベル算出部41は、顔情報検出部31から顔情報を取得し、乗員の眠気レベルを算出する。例えば、目の開眼度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、目の開眼度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。The calculation of the drowsiness level by the drowsiness level calculation unit 41 will be described. The drowsiness level calculation unit 41 acquires face information from the face information detection unit 31 and calculates the drowsiness level of the occupant. For example, when acquiring the degree of eye opening as face information, the drowsiness level calculation unit 41 acquires the degree of eye opening from the face information detection unit 31, and calculates the drowsiness level of the occupant to be higher as the degree of eye opening decreases. In this case, multiple thresholds are set for the degree of eye opening, and the drowsiness level is calculated based on whether or not it is below each threshold.

また、例えば、瞬きの速度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの速度を取得し、瞬きの速度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの速度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。In addition, for example, when the blink rate is acquired as face information, the drowsiness level calculation unit 41 acquires the blink rate from the face information detection unit 31, and calculates the drowsiness level of the occupant to be higher as the blink rate decreases. In this case, multiple thresholds are set for the blink rate, and the drowsiness level is calculated based on whether the blink rate is less than each threshold.

さらに、例えば、瞬きの頻度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの頻度を取得し、瞬きの頻度が少なくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの頻度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。なお、眠気レベル算出部41による眠気レベルの算出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。そして、眠気レベル算出部41による算出結果は、睡眠検出部42に出力される。Furthermore, for example, when blink frequency is acquired as face information, the drowsiness level calculation unit 41 acquires the blink frequency from the face information detection unit 31, and calculates the drowsiness level of the occupant to be higher as the blink frequency decreases. In this case, multiple thresholds may be set for the blink frequency, and the drowsiness level may be calculated based on whether the blink frequency is below each threshold. Note that the drowsiness level calculation process by the drowsiness level calculation unit 41 is not limited to the above example, and various known algorithms may be used. The calculation result by the drowsiness level calculation unit 41 is then output to the sleep detection unit 42.

次に、本実施の形態に係る睡眠検出部42について説明する。睡眠検出部42は、眠気レベル算出部41による算出結果を取得し、眠気レベル算出部41が算出した乗員の眠気レベルが設定された眠気レベル、すなわち設定された閾値以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。ここで、睡眠検出部42は、眠気レベルが、乗員が眠気を感じていると考えられる眠気レベル以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出すると好ましい。上述したように、乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある、つまり乗員が眠気を感じている場合があるためである。そして、眠気レベルが設定された閾値以上である場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されれば、睡眠検出部42は、乗員が睡眠に陥ったことを検出する。Next, the sleep detection unit 42 according to this embodiment will be described. The sleep detection unit 42 acquires the calculation result by the sleepiness level calculation unit 41, and if the drowsiness level of the occupant calculated by the sleepiness level calculation unit 41 is equal to or higher than the set drowsiness level, i.e., the set threshold value, detects the sleep of the occupant using the judgment result of the slowing judgment unit 16 and the judgment result of the posture judgment unit 17. Here, if the drowsiness level is equal to or higher than the drowsiness level at which the occupant is considered to be feeling drowsy, it is preferable that the sleep detection unit 42 detects the sleep of the occupant using the judgment result of the slowing judgment unit 16 and the judgment result of the posture judgment unit 17. As described above, when the occupant has a slowed sense of perception, the drowsiness level is high, that is, the occupant may feel drowsy. Then, if the drowsiness level is equal to or higher than the set threshold value, the slowing judgment unit 16 judges that the occupant has a slowed sense of perception, and the posture judgment unit 17 judges that the posture of the occupant is abnormal, the sleep detection unit 42 detects that the occupant has fallen asleep.

次に、睡眠検出装置40の動作例について説明する。図12は、実施の形態3に係る睡眠検出装置40の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置40の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。Next, an example of the operation of the sleep detection device 40 will be described. FIG. 12 is a flowchart showing an example of the operation of the sleep detection device 40 according to embodiment 3. Hereinafter, steps that are the same as those in the processing of the sleep detection device 40 according to embodiment 1 are given the same reference numerals as those shown in FIG. 6 and FIG. 7, and descriptions thereof will be omitted or simplified.

まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出し(ST301)、検出した顔情報を眠気レベル算出部41に出力する。以下では、顔情報検出部31が、顔情報として乗員の目の開眼度を検出し、眠気レベル算出部41が目の開眼度を用いて乗員の眠気レベルの算出を行う例を挙げて説明する。First, after calculating the features in the feature calculation process ST101, the face information detection unit 31 detects face information using the features acquired from the feature calculation unit 13 (ST301), and outputs the detected face information to the drowsiness level calculation unit 41. Below, an example will be described in which the face information detection unit 31 detects the degree of eye opening of the occupant as face information, and the drowsiness level calculation unit 41 calculates the drowsiness level of the occupant using the degree of eye opening.

次に、眠気レベル算出部41は、顔情報として取得した乗員の目の開閉度を用いて、乗員の眠気レベルを算出し(ST302)、算出した乗員の眠気レベルを睡眠検出部42に出力する。ここで、眠気レベル算出部41は、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。Next, the drowsiness level calculation unit 41 calculates the drowsiness level of the occupant using the degree of eye opening and closing of the occupant acquired as face information (ST302), and outputs the calculated drowsiness level of the occupant to the sleep detection unit 42. Here, the drowsiness level calculation unit 41 acquires the degree of eye opening as face information from the face information detection unit 31, and calculates the drowsiness level of the occupant to be higher as the degree of eye opening becomes smaller.

そして、睡眠検出部42は、取得した眠気レベルが設定された閾値以上であるか否かを判定する(ST303)。睡眠検出部42により、眠気レベルが設定された閾値未満であると判定された場合(ST303;NO)、睡眠検出装置40の処理は、ST101に進む。一方、睡眠検出部42により、眠気レベルが設定された閾値以上であると判定された場合(ST303;YES)、睡眠検出装置40の処理は、ST102に進む。Then, the sleep detection unit 42 determines whether the acquired drowsiness level is equal to or greater than the set threshold (ST303). If the sleep detection unit 42 determines that the drowsiness level is less than the set threshold (ST303; NO), the processing of the sleep detection device 40 proceeds to ST101. On the other hand, if the sleep detection unit 42 determines that the drowsiness level is equal to or greater than the set threshold (ST303; YES), the processing of the sleep detection device 40 proceeds to ST102.

次に、顔向き検出部14は、乗員の特徴量を取得し、撮像画像における乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は、顔向き変化量算出部15に検出した乗員の顔向きを出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。Next, the face direction detection unit 14 acquires the features of the occupant and detects the face direction of the occupant in the captured image (ST102). The face direction detection unit 14 then outputs the detected face direction of the occupant to the face direction change amount calculation unit 15. Next, the face direction change amount calculation unit 15 calculates the amount of change in the face direction of the occupant using the face direction of the occupant acquired from the face direction detection unit 14 (ST103).

次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、例えば、顔向き変化量算出部15から乗員の顔向きの変化量を取得する。そして、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。なお、実施の形態2と同様に、鈍化判定部16による鈍化判定は、顔向きを用いるものでなく、顔情報を用いたものでも可能である。Next, the slowing determination unit 16 determines whether or not the occupant's perception is slowed (ST104). The slowing determination unit 16 acquires, for example, the amount of change in the occupant's facial direction from the facial direction change amount calculation unit 15. If the acquired amount of change in the facial direction is equal to or greater than the slowing determination threshold, the slowing determination unit 16 determines that the occupant's perception is not slowed (ST104; NO) and outputs the determination result to the sleep detection unit 42. Next, the processing of the sleep detection device 40 proceeds to ST101. On the other hand, if the acquired amount of change in the facial direction is less than the slowing determination threshold, the slowing determination unit 16 determines that the occupant is in a state in which perception is slowed (ST104; YES) and proceeds to the next processing of ST105. Note that, as in the second embodiment, the slowing determination by the slowing determination unit 16 can be made using face information instead of facial direction.

次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力し、睡眠検出装置40の処理は、次に説明するST106に進む。Next, the slowing judgment unit 16 judges whether the state in which the occupant's perception is slowed has continued for more than the slowing judgment time (ST105). If the slowing judgment unit 16 judges that the state in which the occupant's perception is slowed has not continued for more than the slowing judgment time (ST105; NO), the processing of the sleep detection device 40 proceeds to ST101. On the other hand, if the slowing judgment unit 16 judges that the state in which the occupant's perception is slowed has continued for more than the slowing judgment time (ST105; YES), it judges that the occupant's perception is slowed, outputs the judgment result to the sleep detection unit 18, and the processing of the sleep detection device 40 proceeds to ST106, which will be described next.

次に、睡眠検出装置40の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、顔向きの変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101の処理に進む。Next, the posture determination unit 17 of the sleep detection device 40 acquires the amount of change in the facial direction of the occupant from the facial direction change amount calculation unit 15 (ST106). The posture determination unit 17 acquires the amount of change in the facial direction from the facial direction change amount calculation unit 15, and determines whether the posture of the occupant is abnormal or not depending on whether the amount of change in the facial direction is equal to or greater than the posture determination threshold (ST107). If the amount of change in the facial direction is less than the posture determination threshold, the posture determination unit 17 determines that the posture of the occupant is not abnormal (ST107; NO) and outputs the determination result to the sleep detection unit 42. Next, the processing of the sleep detection device 40 proceeds to processing of ST101.

一方、姿勢判定部17は、顔向きの変化量が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、次に説明するST108の処理に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。On the other hand, if the change in face direction is equal to or greater than the set threshold, the posture determination unit 17 determines that the occupant's posture is abnormal (ST107; YES) and proceeds to the processing of ST108, which will be described next. Note that, as in embodiment 1, the posture determination by the posture determination unit 17 does not have to use the face direction, but can also use the size of the face area and the distance between the occupant and the sensor.

姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置40の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。The posture determination unit 17 determines whether the posture of the occupant is determined to be abnormal within the posture determination time (ST108). If the posture determination unit 17 determines that the determination that the posture of the occupant is abnormal is not made within the posture determination time (ST108; NO), it determines that the posture of the occupant is not abnormal, and the processing of the sleep detection device 40 proceeds to ST101. In other words, if it is determined in the processing of ST108 that the determination that the posture of the occupant is abnormal is not made within the posture determination time, the determination result that the posture of the occupant is abnormal in the processing of ST107 is rejected.

一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定して、判定結果を睡眠検出部42に出力する。そして、睡眠検出部42は、乗員が睡眠に陥ったとし、報知部50は乗員に向けて警報を行う(ST109)。On the other hand, if the posture determination unit 17 determines that the occupant's posture is abnormal within the set posture determination time (ST108; YES), it determines that the occupant's posture is abnormal and outputs the determination result to the sleep detection unit 42. Then, the sleep detection unit 42 determines that the occupant has fallen asleep, and the alarm unit 50 issues an alarm to the occupant (ST109).

このように、本実施の形態における睡眠検出装置40は、乗員の顔の状態に関する顔情報を用いて、乗員の眠気レベルを算出する眠気レベル算出部41をさらに備え、睡眠検出部42は、乗員の眠気レベルが設定された閾値以上にあると判定された場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されたら、乗員が睡眠に陥ったことを検出するものである。このようにすると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できるとともに、眠気レベルの算出結果を用いれば、知覚の鈍化は覚醒度が低い状態で発生する可能性があるため、乗員の睡眠の検出結果の信頼性を向上できる。In this way, the sleep detection device 40 in this embodiment further includes a drowsiness level calculation unit 41 that calculates the drowsiness level of the occupant using face information related to the state of the occupant's face, and the sleep detection unit 42 detects that the occupant has fallen asleep if the drowsiness level of the occupant is determined to be equal to or higher than a set threshold, the slowing determination unit 16 determines that the occupant has a slowing of perception, and the posture determination unit 17 determines that the posture of the occupant is abnormal. In this way, momentary sleep of the occupant can be detected, and the accuracy of detecting sleep of the occupant can be improved, and if the calculation result of the drowsiness level is used, the reliability of the detection result of sleep of the occupant can be improved because the slowing of perception may occur in a state of low alertness.

なお、実施の形態1~3において、鈍化判定部による鈍化判定、姿勢判定部による姿勢判定、及び眠気レベル算出部による眠気レベルの算出は、乗員の特徴量を用いて行うものとして説明したが、鈍化判定、姿勢判定、及び眠気レベルの算出は、乗員の特徴量を用いて行うものに限定しない。鈍化判定、姿勢判定、及び眠気レベルの算出は、例えば、機械学習を用いたものであってもよい。鈍化判定を、機械学習を用いたものとする場合、鈍化判定部に学習装置を備え、学習装置に、例えば、知覚の鈍化が発生しているときの乗員を撮像した画像と、知覚の鈍化が発生していないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、鈍化判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の知覚に鈍化が発生しているか否かを判定すればよい。In the first to third embodiments, the slowing judgment by the slowing judgment unit, the posture judgment by the posture judgment unit, and the calculation of the drowsiness level by the drowsiness level calculation unit have been described as being performed using the characteristic amounts of the occupant. However, the slowing judgment, posture judgment, and calculation of the drowsiness level are not limited to being performed using the characteristic amounts of the occupant. The slowing judgment, posture judgment, and calculation of the drowsiness level may be performed using, for example, machine learning. When the slowing judgment is performed using machine learning, the slowing judgment unit is provided with a learning device, and, for example, an image captured of the occupant when perception slowing occurs and an image captured of the occupant when perception slowing does not occur are input to the learning device for learning. Then, the learning device of the slowing judgment unit may be caused to acquire the captured image from the image acquisition unit, and it may be determined whether or not the occupant's perception in the captured image has been slowed.

また、姿勢判定を、機械学習を用いたものとする場合、姿勢判定部に学習装置を備え、学習装置に、例えば、のけぞる、うなずく、倒れこむ等して、姿勢が異常であるときの乗員を撮像した画像と、姿勢が異常でないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、姿勢判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の姿勢が異常であるか否かを判定すればよい。 In addition, when posture determination is performed using machine learning, a learning device is provided in the posture determination unit, and images of the occupant when their posture is abnormal, for example, when they are leaning back, nodding, or collapsing, and images of the occupant when their posture is normal are input to the learning device for learning. The learning device of the posture determination unit then acquires the captured images from the image acquisition unit, and determines whether the posture of the occupant in the captured images is abnormal or not.

さらに、眠気レベルの算出を、機械学習を用いたものとする場合、眠気レベル算出部に学習装置を備え、学習装置に、例えば、段階的に分けられた眠気レベルに対応した乗員を撮像した画像をそれぞれ入力して学習させる。そして、眠気レベル算出部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の眠気レベルを算出すればよい。Furthermore, when the drowsiness level is calculated using machine learning, the drowsiness level calculation unit is provided with a learning device, and images of occupants corresponding to the graded drowsiness levels are input to the learning device to learn the images. The learning device of the drowsiness level calculation unit then acquires the captured images from the image acquisition unit, and calculates the drowsiness level of the occupant in the captured images.

また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。 Furthermore, the embodiments disclosed in this specification may be freely combined within their scope, and each embodiment may be modified or omitted as appropriate.

10、30、40 睡眠検出装置、10a 処理回路、10b プロセッサ、10c メモリ、11 画像取得部、12 特徴点検出部、13 特徴量算出部、14 顔向き検出部、15 顔向き変化量算出部、16、32 鈍化判定部、17 姿勢判定部、18、42 睡眠検出部、20 撮像装置、31 顔情報検出部、41 眠気レベル算出部、50 報知部、100、101、102 睡眠検出システム、201 運転席、202 助手席、211、212 乗員、300 撮像画像、301 顔領域、311 目尻、312 目頭、313 上瞼、314 下瞼、315 鼻根、316 鼻尖、317 上唇、318 下唇、319 口角。10, 30, 40 Sleep detection device, 10a Processing circuit, 10b Processor, 10c Memory, 11 Image acquisition unit, 12 Feature point detection unit, 13 Feature amount calculation unit, 14 Face direction detection unit, 15 Face direction change amount calculation unit, 16, 32 Desensitization determination unit, 17 Posture determination unit, 18, 42 Sleep detection unit, 20 Imaging device, 31 Face information detection unit, 41 Drowsiness level calculation unit, 50 Notification unit, 100, 101, 102 Sleep detection system, 201 Driver's seat, 202 Passenger seat, 211, 212 Passenger, 300 Captured image, 301 Face area, 311 Eye corner, 312 Eye corner, 313 Upper eyelid, 314 Lower eyelid, 315 Nose root, 316 Nose tip, 317 Upper lip, 318 Lower lip, 319 corner of mouth.

Claims (12)

車両に搭載され前記車両の内部の乗員を撮像する撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
前記鈍化判定部は、前記乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出装置。
an image acquisition unit that acquires an image of an occupant from an imaging device that is mounted on a vehicle and captures an image of the occupant inside the vehicle;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects the sleep of the occupant by using a determination result of the deceleration determination unit and a determination result of the posture determination unit,
the slowing determination unit determines that the occupant has a slowed sense of perception when a state in which the index value indicating a change in the facial direction of the occupant is less than a slowing determination threshold continues for a slowing determination time or more after it has been determined that the index value is less than the slowing determination threshold,
The sleep detection device is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定された後に、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合に、前記乗員が前記マイクロスリープに陥ったとする
ことを特徴とする請求項1に記載の睡眠検出装置。
The sleep detection device according to claim 1, characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the posture determination unit determines that the posture of the occupant is abnormal after the slowing of perception determination unit determines that the occupant has experienced slowing of perception.
前記姿勢判定部は、前記乗員との距離を取得するセンサから取得した前記乗員と前記センサとの距離が、設定された範囲外である場合、前記乗員の姿勢が異常であると判定する ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。 The sleep detection device according to claim 1 or 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the distance between the occupant and the sensor acquired from the sensor that acquires the distance to the occupant is outside a set range. 前記姿勢判定部は、前記撮像画像から抽出された前記乗員の顔パーツが含まれる領域である顔領域の大きさが、設定された範囲外である場合、前記乗員の姿勢が異常であると判定する
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the size of a face area, which is an area including facial parts of the occupant extracted from the captured image, is outside a set range.
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the amount of change in the facial direction of the occupant calculated by the facial direction change amount calculation unit within a set posture determination time becomes equal to or greater than a set posture determination threshold.
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記鈍化判定部は、前記顔向き変化量算出部が前記指標値として算出した前記乗員の顔向きの変化量が前記鈍化判定閾値未満であると判定された後に、前記乗員の顔向きの変化量が前記鈍化判定閾値未満である状態が、設定された鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の睡眠検出装置。
a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
The sleep detection device of any one of claims 1 to 4, characterized in that the slowing determination unit determines that the occupant has experienced a slowing of perception when, after it is determined that the amount of change in the facial direction of the occupant calculated as the index value by the facial direction change amount calculation unit is less than the slowing determination threshold, the state in which the amount of change in the facial direction of the occupant is less than the slowing determination threshold continues for a set slowing determination time or more.
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記鈍化判定部は、前記顔向き変化量算出部が前記指標値として算出した前記乗員の顔向きの変化量が前記鈍化判定閾値未満であると判定された後に、前記乗員の顔向きの変化量が前記鈍化判定閾値未満である状態が前記鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定し、
前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
the slowing determination unit determines that the occupant has a slowed perception when a state in which the amount of change in the facial direction of the occupant calculated as the index value by the facial direction change amount calculation unit is less than the slowing determination threshold continues for more than the slowing determination time,
The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the amount of change in the facial direction of the occupant calculated by the facial direction change amount calculation unit within a set posture determination time becomes equal to or greater than a set posture determination threshold.
車両に搭載され前記車両の内部の乗員を撮像する撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔の状態に関する顔情報を検出する顔情報検出部と、を備え、
前記顔情報検出部は、前記乗員の、目の開眼度、瞬きの速度及び瞬きの頻度の少なくともいずれかを前記顔情報として検出し、
前記鈍化判定部は、前記乗員の、目の開眼度、瞬きの速度及び瞬きの頻度の少なくともいずれかが鈍化判定閾値未満であると判定された後に、前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出装置。
an image acquisition unit that acquires an image of an occupant from an imaging device that is mounted on a vehicle and captures an image of the occupant inside the vehicle;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects whether the occupant is asleep by using a determination result of the deceleration determination unit and a determination result of the posture determination unit;
a face information detection unit that detects face information related to a face state of the occupant extracted from the captured image acquired by the image acquisition unit,
the face information detection unit detects at least one of an eye opening degree, a blinking speed, and a blinking frequency of the occupant as the face information;
the slowing determination unit determines that the occupant has a slowed sense of perception when at least one of the degree of eye opening, the blinking rate, and the blinking frequency of the occupant is determined to be less than a slowing determination threshold and the state in which the degree of eye opening, the blinking rate, and the blinking frequency of the occupant is less than the slowing determination threshold continues for a slowing determination time or more;
The sleep detection device is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
前記顔情報検出部が検出した前記顔情報を用いて、前記乗員の眠気レベルを算出する眠気レベル算出部をさらに備え、
前記睡眠検出部は、前記眠気レベル算出部により前記乗員の眠気レベルが設定された閾値以上にあると判定され、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合に、前記乗員が前記マイクロスリープに陥ったとする
ことを特徴とする請求項8に記載の睡眠検出装置。
a drowsiness level calculation unit that calculates a drowsiness level of the occupant by using the face information detected by the face information detection unit,
The sleep detection device according to claim 8, characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the drowsiness level calculation unit determines that the occupant's drowsiness level is equal to or higher than a set threshold, the dulling determination unit determines that the occupant is experiencing a dulling of perception, and the posture determination unit determines that the occupant's posture is abnormal.
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の状態に関する顔情報を検出する顔情報検出部と、
前記顔情報検出部が検出した前記顔情報を用いて、前記乗員の眠気レベルを算出する眠気レベル算出部と、をさらに備え、
前記睡眠検出部は、前記眠気レベル算出部により、前記乗員の眠気レベルが設定された閾値以上にあると判定された場合に、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定されたら、前記乗員が前記マイクロスリープに陥ったとする
ことを特徴とする請求項1から請求項7のいずれか一項に記載の睡眠検出装置。
a face information detection unit that detects face information related to a state of the occupant extracted from the captured image acquired by the image acquisition unit;
a drowsiness level calculation unit that calculates a drowsiness level of the occupant by using the face information detected by the face information detection unit,
The sleep detection device according to any one of claims 1 to 7, characterized in that when the drowsiness level calculation unit determines that the occupant's drowsiness level is equal to or higher than a set threshold, the sleep detection unit determines that the occupant is experiencing a dulling of perception, and when the posture determination unit determines that the occupant's posture is abnormal, the sleep detection unit determines that the occupant has fallen into microsleep.
前記車両に搭載され、前記睡眠検出部により前記乗員が前記マイクロスリープに陥ったことが検出された場合、前記乗員に向けて報知を行う報知部をさらに備えた
ことを特徴とする請求項1から請求項10のいずれか一項に記載の睡眠検出装置。
The sleep detection device according to any one of claims 1 to 10, further comprising an alarm unit that is mounted on the vehicle and that notifies the occupant when the sleep detection unit detects that the occupant has fallen into microsleep.
車両に搭載され前記車両の内部の乗員を撮像する撮像装置と、
前記撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
前記鈍化判定部は、前記乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出システム。
An imaging device mounted in a vehicle for imaging an occupant inside the vehicle;
an image acquisition unit that acquires an image of the occupant from the imaging device;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects the sleep of the occupant by using a determination result of the deceleration determination unit and a determination result of the posture determination unit,
the slowing determination unit determines that the occupant has a slowed sense of perception when a state in which the index value indicating a change in the facial direction of the occupant is less than a slowing determination threshold continues for a slowing determination time or more after it has been determined that the index value is less than the slowing determination threshold,
The sleep detection system is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
JP2022564938A 2020-11-27 2020-11-27 Sleep detection device and sleep detection system Active JP7550879B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044237 WO2022113275A1 (en) 2020-11-27 2020-11-27 Sleep detection device and sleep detection system

Publications (3)

Publication Number Publication Date
JPWO2022113275A1 JPWO2022113275A1 (en) 2022-06-02
JPWO2022113275A5 JPWO2022113275A5 (en) 2023-02-03
JP7550879B2 true JP7550879B2 (en) 2024-09-13

Family

ID=81755449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022564938A Active JP7550879B2 (en) 2020-11-27 2020-11-27 Sleep detection device and sleep detection system

Country Status (3)

Country Link
JP (1) JP7550879B2 (en)
DE (1) DE112020007803T5 (en)
WO (1) WO2022113275A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077798B (en) * 2023-04-10 2023-07-28 南京信息工程大学 Hypnotizing method based on combination of voice induction and computer vision
CN118470695B (en) * 2024-07-12 2024-10-11 杭州锐见智行科技有限公司 Method and device for identifying sleep in automobile cabin, electronic equipment and medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198313A (en) 2009-02-25 2010-09-09 Denso Corp Device for specifying degree of eye opening
JP2014092965A (en) 2012-11-05 2014-05-19 Denso Corp Occupant monitoring device
JP2016539446A (en) 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2017049636A (en) 2015-08-31 2017-03-09 マツダ株式会社 Driver state detection device
JP2019148491A (en) 2018-02-27 2019-09-05 オムロン株式会社 Occupant monitoring device
JP2020086907A (en) 2018-11-26 2020-06-04 トヨタ自動車株式会社 Careless driving determination device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3115457B2 (en) * 1993-08-16 2000-12-04 三菱電機株式会社 Driver abnormal condition alarm device
JP4259585B2 (en) 2007-03-08 2009-04-30 株式会社デンソー Sleepiness determination device, program, and sleepiness determination method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198313A (en) 2009-02-25 2010-09-09 Denso Corp Device for specifying degree of eye opening
JP2014092965A (en) 2012-11-05 2014-05-19 Denso Corp Occupant monitoring device
JP2016539446A (en) 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2017049636A (en) 2015-08-31 2017-03-09 マツダ株式会社 Driver state detection device
JP2019148491A (en) 2018-02-27 2019-09-05 オムロン株式会社 Occupant monitoring device
JP2020086907A (en) 2018-11-26 2020-06-04 トヨタ自動車株式会社 Careless driving determination device

Also Published As

Publication number Publication date
DE112020007803T5 (en) 2023-11-16
WO2022113275A1 (en) 2022-06-02
JPWO2022113275A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
JP6998564B2 (en) Arousal level estimation device and arousal level estimation method
JP5585648B2 (en) Awakening level determination device, awakening level determination method, and program
JP6573193B2 (en) Determination device, determination method, and determination program
US20160272217A1 (en) Two-step sleepy driving prevention apparatus through recognizing operation, front face, eye, and mouth shape
US11430231B2 (en) Emotion estimation device and emotion estimation method
US20160159217A1 (en) System and method for determining drowsy state of driver
JP7550879B2 (en) Sleep detection device and sleep detection system
US11195108B2 (en) Abnormality detection device and abnormality detection method for a user
JP7328089B2 (en) Eye closure determination device
US20190147268A1 (en) Eyelid opening/closing determination apparatus and drowsiness detection apparatus
JP2018128974A (en) Driver status monitoring device
WO2023017595A1 (en) Occupant state determining device, occupant state determining method, and occupant state determining system
JP7024332B2 (en) Driver monitor system
JP2020194229A (en) Driver state determination device, driver state determination method, and driver state determination program
US20240233405A9 (en) Occupant detection device, occupant detection system, and occupant detection method
JP6689470B1 (en) Information processing apparatus, program, and information processing method
JP5050794B2 (en) Sleepiness detection device, sleepiness detection method
JP7046748B2 (en) Driver status determination device and driver status determination method
WO2024047856A1 (en) Drowsiness estimation device and drowsiness estimation method
JP2021129700A (en) Reference value determination device and reference value determination method
JP6594595B2 (en) Inoperable state determination device and inoperable state determination method
JP7647187B2 (en) Eye opening/closing determination device and eye opening/closing determination method
JP7420277B2 (en) Operating state determination device, method, and program
CN113168757B (en) Method for Determining Driver Alertness Level
JP7325687B2 (en) Sleepiness estimation device and sleepiness estimation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240903

R150 Certificate of patent or registration of utility model

Ref document number: 7550879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20240913