JP7550879B2 - Sleep detection device and sleep detection system - Google Patents
Sleep detection device and sleep detection system Download PDFInfo
- Publication number
- JP7550879B2 JP7550879B2 JP2022564938A JP2022564938A JP7550879B2 JP 7550879 B2 JP7550879 B2 JP 7550879B2 JP 2022564938 A JP2022564938 A JP 2022564938A JP 2022564938 A JP2022564938 A JP 2022564938A JP 7550879 B2 JP7550879 B2 JP 7550879B2
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- slowing
- posture
- unit
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 298
- 238000004364 calculation method Methods 0.000 claims description 104
- 230000008859 change Effects 0.000 claims description 92
- 230000008447 perception Effects 0.000 claims description 83
- 206010041349 Somnolence Diseases 0.000 claims description 78
- 230000002159 abnormal effect Effects 0.000 claims description 66
- 230000001815 facial effect Effects 0.000 claims description 63
- 238000003384 imaging method Methods 0.000 claims description 44
- 230000004397 blinking Effects 0.000 claims description 23
- 238000000586 desensitisation Methods 0.000 claims description 12
- 230000001953 sensory effect Effects 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 description 47
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 21
- 210000000744 eyelid Anatomy 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000036626 alertness Effects 0.000 description 7
- 208000032140 Sleepiness Diseases 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000037321 sleepiness Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 206010062519 Poor quality sleep Diseases 0.000 description 2
- 208000028752 abnormal posture Diseases 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000002747 voluntary effect Effects 0.000 description 2
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
- B60K28/066—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Description
本開示は、睡眠検出装置及び睡眠検出システムに関する。 The present disclosure relates to a sleep detection device and a sleep detection system.
自動車等の車両を運転する乗員の居眠り運転を防止するために、乗員の顔や姿勢の状態を検出し、乗員が感じる眠気を推定する技術が提案されている。従来、強い眠気に至るまでに、段階的に眠気の状態が変化することから、目の開眼度及び目と眉との距離等、眠気の兆候に関連する情報を用いて、段階的に分けられた眠気ステージのうち、乗員がどの眠気ステージにあるのかを推定していた(例えば、特許文献1参照)。In order to prevent occupants of vehicles such as automobiles from falling asleep while driving, a technology has been proposed that detects the state of the occupant's face and posture and estimates the drowsiness felt by the occupant. Conventionally, because the state of drowsiness changes in stages before reaching strong drowsiness, information related to signs of drowsiness, such as the degree of eye opening and the distance between the eyes and eyebrows, was used to estimate which stage of drowsiness the occupant is in among the stages divided into stages (see, for example, Patent Document 1).
乗員は、瞬間的に眠って倒れこむ等、いわゆるマイクロスリープに陥る場合があり、居眠り運転を防止するためには、前述の瞬間的な睡眠を検出する必要がある。しかしながら、乗員がどの眠気ステージにあるのかを推定していただけでは、瞬間的な睡眠を検出できず、乗員の睡眠の検出精度が悪いという課題があった。Occupants may momentarily fall asleep and collapse, resulting in what is known as microsleep, and in order to prevent drowsy driving, it is necessary to detect the aforementioned momentary sleep. However, simply estimating the drowsiness stage in which the occupant is in is not enough to detect momentary sleep, resulting in poor accuracy in detecting occupant sleep.
本開示は、上述の課題を解決するためになされたもので、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上する睡眠検出装置を提供することを目的とする。 The present disclosure has been made to solve the above-mentioned problems, and aims to provide a sleep detection device that detects momentary sleep of an occupant and improves the accuracy of detecting occupant sleep.
本開示に係る睡眠検出装置は、車両に搭載され車両の内部の乗員を撮像する撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、鈍化判定部は、乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員がマイクロスリープに陥ったとするものである。 The sleep detection device according to the present disclosure includes an image acquisition unit that acquires an image of an occupant from an imaging device mounted on a vehicle and imaging an occupant inside the vehicle, a slowing determination unit that determines whether the occupant extracted from the image acquired by the image acquisition unit has experienced a dulling of perception, a posture determination unit that determines whether the posture of the occupant extracted from the image acquired by the image acquisition unit is abnormal, and a sleep detection unit that detects sleep of the occupant using the determination results of the slowing determination unit and the posture determination unit, wherein the slowing determination unit determines that the occupant has experienced a dulling of perception when an index value indicating a change in the occupant's facial direction is determined to be less than a slowing determination threshold and the state in which the index value is less than the slowing determination threshold continues for more than a slowing determination time , and the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced a dulling of perception and the posture determination unit determines that the occupant's posture is abnormal.
また、本開示に係る睡眠検出システムは、車両に搭載され車両の内部の乗員を撮像する撮像装置と、撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、鈍化判定部は、乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員がマイクロスリープに陥ったとするものである。 In addition, the sleep detection system according to the present disclosure includes an imaging device mounted on a vehicle for imaging an occupant inside the vehicle, an image acquisition unit for acquiring an image of the occupant from the imaging device, a slowing determination unit for determining whether or not the occupant extracted from the image acquired by the image acquisition unit has experienced a dulling of perception, a posture determination unit for determining whether or not the posture of the occupant extracted from the image acquired by the image acquisition unit is abnormal, and a sleep detection unit for detecting sleep of the occupant using the determination results of the slowing determination unit and the posture determination unit, wherein the slowing determination unit determines that the occupant has experienced a dulling of perception when an index value indicating a change in the occupant's facial direction is determined to be less than a slowing determination threshold and the state in which the index value is less than the slowing determination threshold continues for more than a slowing determination time , and the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced a dulling of perception and the posture determination unit determines that the occupant's posture is abnormal.
本開示によれば、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。 According to the present disclosure, it is possible to detect momentary sleep of an occupant and improve the accuracy of detecting occupant sleep.
以下、図面に基づいて実施の形態について説明する。 Below, the embodiment is explained based on the drawings.
実施の形態1.
図1は、実施の形態1に係る睡眠検出システム100の構成例を示すブロック図である。睡眠検出システム100は、睡眠検出装置10及び撮像装置20を備えており、睡眠検出装置10及び撮像装置20はそれぞれ車両に搭載される。
Embodiment 1.
1 is a block diagram showing an example of a configuration of a
図2は、実施の形態1に係る撮像装置20の撮像範囲を示す説明図である。図2では、睡眠検出装置10を搭載した車両の内部を上方から見ている。撮像装置20は、例えば広角カメラ、赤外線カメラ等で構成され、車両の内部を撮像する。また、撮像装置20は、撮像装置20と被写体との距離を反映した画像を撮像可能な、TOF(Time-of-flight)カメラ等の距離画像センサであってもよい。撮像装置20は、例えば30~60fps(frames per second)の間隔で車両内部を撮像して、撮像した画像を睡眠検出装置10の画像取得部11へ出力する。以下、撮像装置20により撮像された画像を、撮像画像という。
Figure 2 is an explanatory diagram showing the imaging range of the
図2の例において、撮像装置20の撮像領域を領域Aで示している。撮像装置20は、少なくとも運転席201及び助手席202にそれぞれ着座する乗員211及び乗員212を同時に撮像可能なように、一台又は複数台、インストルメントパネル、ステアリングコラム、ルームミラー等に配置される。ここで、撮像装置20は、図示していない後部座席を撮像範囲に含んでいてもよい。以下、撮像装置20の撮像対象となる乗員211、212をまとめて「乗員」ともいう。すなわち、乗員は運転者を含むものである。In the example of Figure 2, the imaging area of the
図1に戻り、睡眠検出装置10の各構成について説明する。睡眠検出装置10は、撮像装置20から乗員が撮像された撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16及び姿勢判定部17のそれぞれの判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。Returning to Fig. 1, the components of the
画像取得部11は、撮像装置20から車両の内部の乗員が撮像された撮像画像を取得する。また、睡眠検出装置10は、撮像装置20から撮像画像を取得する度に、後述する睡眠検出の処理を行うと好ましい。そして、画像取得部11が取得した撮像画像は、次に説明する特徴点検出部12に出力される。The
特徴点検出部12は、画像取得部11が取得した撮像画像から、乗員の身体の器官に関する特徴点を抽出する。特徴点検出部12による特徴点の抽出処理は、公知の種々のアルゴリズムを用いることができるものであり、これらのアルゴリズムの詳細な説明は省略する。例えば、特徴点検出部12は、乗員の顔に関する特徴点を抽出する場合、複数個の顔パーツ(例えば、右目、左目、右眉、左眉、鼻、及び口)の各々に対応する複数個の特徴点を検出する処理を実行する。The feature
特徴点検出部12の特徴点の検出処理について説明する。図3は、実施の形態1に係る睡眠検出装置10の特徴点検出部12の検出処理を示す説明図である。図3Aは撮像画像300についての説明図であり、図3Bは顔領域301についての説明図であり、図3Cは特徴点についての説明図である。特徴点検出部12は、画像取得部11から例えば図3Aに示す撮像画像300を取得する。そして、特徴点検出部12は、画像取得部11から取得した撮像画像300に対して、顔パーツが含まれる領域である顔領域301を検出する。例えば、特徴点検出部12は、図3Aの撮像画像300に対して、図3Bに示す顔領域301を検出する。The detection process of the feature
特徴点検出部12は、検出した顔領域301内で、例えば図3Cに示すように、目に関して、両目尻311、両目頭312、両上瞼313、及び両下瞼314等の、顔パーツの構成要素の位置情報を取得する。また、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、鼻に関して、鼻根315、鼻尖316、鼻背、及び鼻翼等の、顔パーツの構成要素の位置情報を取得する。さらに、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、口に関して、上唇317、下唇318、及び口角319等の、顔パーツの位置情報を取得する。特徴点検出部12が取得する各顔パーツの構成要素の位置情報は、図3Aで示した撮像画像300の特定の位置Oを始点とした座標、又は図3Aで示した撮像画像300における中心を始点とした座標等を示す情報である。そして、特徴点検出部12が取得した位置情報が、特徴点として検出される。なお、特徴点検出部12が検出した特徴点は、睡眠検出装置10の記憶部(図示せず)に記録されてもよい。The feature
そして、特徴量算出部13は、特徴点検出部12が抽出した特徴点から、乗員の特徴量を算出する。ここで、乗員の特徴量とは、具体的には、例えば、右目と左目との距離、乗員の顔における鼻の位置等、乗員の特徴点間の位置関係を示す情報である。また、特徴量算出部13は、顔領域301の撮像画像300における大きさ、座標等、顔領域301の位置情報を取得してもよい。特徴量の算出についても、公知の種々のアルゴリズムを用いることができる。なお、特徴量算出部13が算出した特徴量についても、睡眠検出装置10の記憶部に記録されてもよい。The feature
顔向き検出部14は、特徴量算出部13が算出した特徴量を用いて、画像取得部11が取得した撮像画像における乗員の顔向きを検出する。ここで、例えば、基準位置に対して乗員の顔のロール角、ピッチ角、及びヨー角の少なくともいずれかを検出して、乗員の顔向きを検出すればよい。なお、顔向き検出部14が検出した顔向きについても、睡眠検出装置10の記憶部に記録されてもよい。The face
顔向き検出部14の顔向きの検出処理について説明する。図4は、実施の形態1に係る睡眠検出装置10の顔向き検出部14の顔向き検出処理を示す説明図である。例えば、図4Aから図4Cに示すように、顔向き検出部14は、鼻尖316と両目の位置関係を取得する。また、顔向き検出部14は、鼻尖316と両目の位置関係から、乗員の顔向きを検出する。The face direction detection process of the face
図4Aの場合、顔向き検出部14は、鼻尖316が左目の目尻311を通る直線Qa付近に位置していることから、乗員の顔向きは右であると検出する。図4Bの場合、顔向き検出部14は、鼻尖316が両眼頭312の間に位置していることから、乗員の顔向きは正面であると検出する。図4Cの場合、顔向き検出部14は、鼻尖316が右目の目尻311を通る直線Qb付近に位置していることから、顔向き検出部14は、乗員の顔向きは左であると検出する。このように、顔向き検出部14は、乗員の顔の左右の向き、すなわち、乗員の顔のヨー角を検出する。In the case of Fig. 4A, the face
また、例えば図4Bに示すように、顔向き検出部14は、鼻尖316が位置する点を通る直線Qcを利用して、乗員の顔の上下の向き、すなわち、乗員の顔のピッチ角を検出する。なお、直線Qcは、例えば、乗員が上下方向、及び左右方向のいずれにおいても正面を向いている状態の撮像画像から設定すればよい。なお、顔向き検出部14による乗員の顔向き検出処理については、公知の種々のアルゴリズムを用いることができ、乗員の顔のロール角の検出処理についても公知の種々のアルゴリズムを用いることができる。また、後述の姿勢判定部17による乗員の姿勢の判定処理には、乗員の顔のロール角及びピッチ角の少なくともいずれかを用いると好ましい。乗員が瞬間的な睡眠に陥る場合は、うなずき、倒れこみ、又はのけぞりが伴う。これにより、瞬間的な睡眠に陥った乗員は、顔のロール角及びピッチ角の少なくともいずれかが変化するため、ロール角及びピッチ角の少なくともいずれかを後述の姿勢判定処理に用いれば、姿勢判定結果の信頼性を向上できる。
As shown in FIG. 4B, the face
顔向き変化量算出部15は、顔向き検出部14が検出した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する。乗員の顔向きの変化量とは、例えば、フレームAにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角と、フレームBにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角との差分である。ここで、乗員の顔向きの変化量とは、乗員の顔の角度の変化量だけでなく、撮像画像における乗員の顔の位置又は顔領域の大きさ、座標の変化量も含むものである。なお、変化量とは、各パラメータの差分のみではなく、複数の撮像画像で検出された各パラメータより算出された平均値からの差分でもよく、複数の撮像画像で検出された各パラメータより算出された中央値及び標準偏差等であってもよい。The facial orientation change
次に、鈍化判定部16について説明する。鈍化判定部16は、撮像画像より抽出された乗員に、知覚の鈍化が発生しているか否かを判定する。ここで、乗員に知覚の鈍化が発生しているとは、乗員が外部からの刺激に対して強い反応を示さない状態にあることをいう。乗員が瞬間的な睡眠に陥る場合、この瞬間的な睡眠の前には、乗員に知覚の鈍化が発生することが分かっている。したがって、乗員の瞬間的な睡眠を精度よく検出するためには、乗員に知覚の鈍化が発生しているか否かを判定する必要がある。Next, the slowing down
乗員に知覚の鈍化が発生している場合、例えば、覚醒時と比較して、顔の動きが少なくなる等、特徴的な行動の変化がみられる。この行動の変化は、乗員が外部からの刺激に対して強い反応を示さなくなったことを意味しており、知覚の鈍化が発生した乗員には、覚醒時と比較して随意的な動作が少なくなる。When an occupant experiences sensory dulling, they will exhibit characteristic behavioral changes, such as less facial movement compared to when they are awake. This behavioral change means that the occupant no longer shows a strong reaction to external stimuli, and occupants with sensory dulling will perform fewer voluntary movements compared to when they are awake.
鈍化判定部16が乗員の顔向きを用いて、乗員の知覚に鈍化が発生しているか否かを判定する例を挙げて説明する。なお、説明のため、乗員の知覚に鈍化が発生しているか否かの判定を鈍化判定ともいう。鈍化判定部16は、顔向きの変化量が設定された閾値(以下、鈍化判定閾値という)未満である状態が、設定された時間(以下、鈍化判定時間という)以上継続した場合、乗員に随意的な行動が少なくなったとして、乗員の知覚に鈍化が発生していると判定する。一方、顔向きの変化量が鈍化判定閾値以上である場合、又は顔向きの変化量が鈍化判定閾値未満である状態が鈍化判定時間以上継続しなかった場合、乗員に随意的な行動がみられるとして、乗員の知覚に鈍化が発生していないと判定する。An example will be described in which the slowing
乗員に知覚の鈍化が発生する場合は、乗員から随意的な動作が見られなくなった状態(以下、鈍化状態という)は所定の時間継続する。一方で、乗員は覚醒状態にありながらも、運転中に顔向きの変化が少なくなる場合もある。そのため、鈍化状態が設定された鈍化判定時間以上継続した場合に、鈍化判定の判定結果を、後述の睡眠検出処理に反映することで、乗員の睡眠の検出精度を向上することができる。When a dulled state occurs in an occupant, the state in which the occupant is no longer able to make voluntary movements (hereinafter referred to as the dulled state) continues for a predetermined period of time. On the other hand, even if the occupant is awake, there may be cases in which the occupant changes the direction of their face less while driving. Therefore, if the dulled state continues for a set dulling judgment time or longer, the result of the dulling judgment can be reflected in the sleep detection process described below, thereby improving the accuracy of detecting whether the occupant is sleeping.
鈍化判定部16は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満であり、標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続していれば、すなわち標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間以上であれば、乗員の知覚に鈍化が発生していると判定する。一方、鈍化判定部16は、取得した標準偏差が鈍化判定閾値以上であれば、乗員の知覚に鈍化が発生していないと判定する。また、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間未満であっても、乗員の知覚に鈍化が発生していないと判定する。さらに、鈍化判定部16は、判定結果を後述する睡眠検出部18に出力する。The slowing
次に、姿勢判定部17について説明する。姿勢判定部17は、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。乗員は、瞬間的に睡眠に陥る場合、うなずき、倒れこみ、又はのけぞり等、異常な姿勢が伴う。そのため、姿勢判定部17により、乗員が異常な姿勢であるか否かを判定して、姿勢判定部17の判定結果を後述の睡眠検出処理に用いる。Next, the
姿勢判定部17は、例えば、顔向き変化量算出部15が算出した顔向きの変化量を用いて、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。そして、姿勢判定部17は判定結果を睡眠検出部18に出力する。なお、説明のため、姿勢判定部17による乗員の姿勢が異常であるか否かの判定を、姿勢判定ともいう。The
姿勢判定部17による姿勢判定例について説明する。例えば、姿勢判定部17は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された時間(以下、姿勢判定時間という)内における最大値及び最小値を取得する。そして、姿勢判定部17は、顔向きの変化量が姿勢判定時間内において、設定された閾値(以下、姿勢判定閾値という)以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する。つまり、姿勢判定部17は、顔向き変化量算出部15から、姿勢判定時間内における、乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定する。一方、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定する。An example of the posture determination by the
ここで、乗員は、瞬間的な睡眠に陥らなくても、例えば、前方視野の確保のためにゆっくりと顔向きを変化させる場合がある。一方で、上述のように姿勢判定部17が、姿勢判定時間内における顔向きの変化量を用いて姿勢判定を行えば、乗員が瞬間的な睡眠に陥らずに、ゆっくりと顔向きが変化した場合を、乗員が睡眠に陥ったと誤検出することを抑制できる。Here, even if the occupant does not fall asleep instantly, for example, there are cases where the occupant slowly changes the direction of the face to ensure a good forward field of vision. On the other hand, if the
また、姿勢判定部17は、顔領域の大きさを用いて姿勢判定を行ってもよい。乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。このとき、検出される乗員の顔領域の大きさに変化が生じる。そのため、姿勢判定部17は、例えば、特徴量算出部13から特徴量として顔領域の大きさを取得し、顔領域の大きさが設定された範囲外にあれば、乗員の姿勢が異常であると判定し、顔領域の大きさが設定された範囲内にあれば乗員の姿勢が異常でないと判定するようにしてもよい。この場合、姿勢判定部17は、顔向き変化量算出部15と接続せず、特徴量算出部13と接続するようにすればよい。
The
さらに、姿勢判定部17は、撮像装置20と乗員との距離を用いて姿勢判定を行ってもよい。上述したように、乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。そのため、撮像装置20をTOFカメラ等の撮像装置20と被写体との距離を反映した画像を撮像可能な撮像装置20で構成し、撮像画像に含まれる、乗員と撮像装置20との距離を示す距離データを用いて姿勢が異常であるか否かを判定することが可能である。Furthermore, the
姿勢判定部17は、例えば、画像取得部11が取得した撮像画像に含まれる乗員の顔と撮像装置20との距離が、設定された範囲外にあれば、乗員の姿勢が異常であると判定し、乗員の顔と撮像装置20との距離が設定された範囲内にあれば乗員の姿勢が異常でないと判定する。この場合、特徴量算出部13を、撮像画像に含まれる乗員の顔と撮像装置20との距離を算出可能なように構成し、姿勢判定部17と特徴量算出部13とを接続すればよい。For example, the
なお、姿勢判定部17は、車両に備えられた深度センサ等、乗員との距離を取得可能なセンサから取得した、乗員とセンサとの距離を示す距離データを用いて姿勢が異常であるか否かを判定することも可能である。すなわち、上述の例では、TOFカメラも深度センサに含まれる。The
睡眠検出部18は、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。睡眠検出部18は、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったことを検出する。The
そして、睡眠検出部18は、検出結果を、車両に搭載された車載機器の制御を行う車両制御装置(図示せず)へ出力し、車両に搭載された報知部50を作動させて報知を行わせる。また、報知部50は、睡眠検出装置10に備えてもよい。なお、睡眠検出装置10と車両制御装置は接続されている。ここで、報知部50は、例えば、車両に搭載されたスピーカ又はディスプレイの少なくとも一方でもよいし、乗員が所持している携帯端末等であってもよい。報知部50は、睡眠検出部18により乗員が睡眠に陥ったことが検出された場合、乗員に向けて居眠り運転を防止させるため警告音を発する等して報知を行う。また、乗員が所持している携帯端末に報知を行わせる場合、睡眠検出装置10を通信部(図示せず)と接続し、通信部と携帯端末との間で通信を行わせればよい。なお、睡眠検出部18により、乗員が睡眠に陥ったことが検出された場合、車両制御装置によって眠気を解消するように空調等の車載機器の制御を行ってもよい。Then, the
睡眠検出部18による乗員の睡眠検出の結果について説明する。図5は、実施の形態1に係る睡眠検出装置10の睡眠検出結果を示す説明図である。図5Aは、比較例における睡眠検出結果を示した図であり、図5Bは、本実施の形態に係る睡眠検出装置10の睡眠検出結果を示した図である。図5A及び図5Bの縦軸は検出結果を示しており、横軸は時間を示している。図5A及び図5Bでは、点がプロットされた時間において、乗員が睡眠に陥ったと検出されたことを表している。The results of occupant sleep detection by the
図5Aの比較例は、睡眠検出処理において、姿勢判定部17の判定結果のみで乗員の睡眠を検出したものである。乗員は、車両に乗車しているとき、様々な要因によって顔向きが変化する。図5中に示す時間t1において、実際に乗員が瞬間的な睡眠に陥っている。しかしながら、図5Aに示すように、比較例では、t1以外にも乗員が睡眠に陥ったと検出されており、乗員の睡眠の検出精度が悪い。
In the comparative example of Figure 5A, the sleep detection process detects the sleep of an occupant based only on the judgment result of the
一方、本実施の形態に係る睡眠検出装置10においては、鈍化判定部16によって乗員に知覚の鈍化が発生したと判定された後に、姿勢判定部17によって乗員の姿勢が異常であると判定された場合に、乗員が睡眠に陥ったとするようにした。そのため、図5Bに示すように、瞬間的な睡眠に陥らず、単に乗員の顔向きが変化した場合は、乗員が睡眠に陥ったと誤検出せず、実際に乗員が瞬間的な睡眠に陥った時間t1のみ、乗員が睡眠に陥ったことが検出できる。このように、睡眠検出処理において、姿勢判定部17の判定結果及び鈍化判定部16の判定結果を用いることで、乗員の睡眠の検出精度を向上できる。なお、姿勢判定部17による姿勢判定を、顔向きを用いたものでなく、顔領域の大きさを用いたものとしても、乗員とセンサとの距離を用いたものとしても同様の結果が得られ、図5Bに示すように、精度よく乗員の睡眠を検出できる。On the other hand, in the
次に、睡眠検出装置10の動作例について説明する。図6及び図7は、それぞれ実施の形態1に係る睡眠検出装置10の動作例を示すフローチャートである。以下、睡眠検出装置10が、乗員の顔向きを用いて、鈍化判定及び姿勢判定をそれぞれ行う例を挙げて説明する。また、図6及び図7のフローチャートには、睡眠検出装置10の動作を終了する処理が示されていないが、睡眠検出装置10は、車両制御装置から、動作を終了する旨の指令を取得したら動作を終了する。なお、図6及び図7に示す処理は、睡眠検出装置10の電源がオンにされた状態で、例えば所定の間隔で繰り返される。Next, an example of the operation of the
まず、睡眠検出装置10の画像取得部11は、撮像装置20から撮像画像を取得する(ST1)。そして、画像取得部11は、取得した撮像画像を特徴点検出部12に出力する。次いで、特徴点検出部12は、撮像画像を用いて、撮像画像における乗員の顔パーツを検出し、乗員の顔の特徴点を抽出する(ST2)。そして、特徴量算出部13は、抽出された特徴点を用いて、撮像画像から抽出された乗員の特徴量を算出する(ST3)。以下、説明のために、図6に示すST1~ST3の処理をまとめて、特徴量算出処理ST101という。First, the
図7に基づき睡眠検出装置10の動作例について説明する。特徴量算出処理ST101にて乗員の特徴量を算出したら、顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は検出した乗員の顔向きを、顔向き変化量算出部15に出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。ここで、顔向きの変化量は、記憶部に記録されていてもよい。An example of the operation of the
次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、変化量として、例えば、顔向き変化量算出部15から乗員の顔向きを示すピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16は、取得した変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。Next, the slowing
次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。ここで、鈍化判定部16は、例えば、取得した標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したと判定する。Next, the slowing
鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員の知覚に鈍化が発生していないと判定し、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定して、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置10の処理は、次に説明するST106に進む。If the slowing
次に、睡眠検出装置10の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、例えば、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、例えば、変化量として、設定された期間における乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角の最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、次いで、睡眠検出装置10の処理は、ST101に進む。Next, the
一方、姿勢判定部17は、変化量として取得した、ピッチ角の最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、睡眠検出装置10の処理は、次に説明するST108に進む。On the other hand, if the difference between the minimum and maximum pitch angle values obtained as the amount of change is greater than or equal to the posture determination threshold, the
姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。例えば、姿勢判定部17は、乗員の顔のピッチ角が最大となった撮像画像を取得したフレームAと、乗員の顔のピッチ角が最小となった撮像画像を取得したフレームBとを参照し、フレームAとフレームBとの間に経過した時間を算出する。そして、算出した経過時間が姿勢判定時間以下であれば、姿勢判定時間内において、乗員の顔向きの変化量が姿勢判定閾値以上となったと判断する。なお、上述の処理は、顔向き変化量算出部15が姿勢判定時間内におけるピッチ角の最小値と最大値とを算出すれば省略可能である。The
姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、睡眠検出装置10の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて警告音を発する等して報知を行う(ST109)。If the
次に、睡眠検出装置10の機能を実現するハードウェア構成について説明する。図8は、実施の形態1に係る睡眠検出装置10のハードウェア構成例を示す図である。睡眠検出装置10における画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の機能は、処理回路によって実現される。すなわち、睡眠検出装置10の、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、図8Aに示すように専用のハードウェアである処理回路10aであってもよいし、図8Bに示すようにメモリ10cに格納されているプログラムを実行するプロセッサ10bであってもよい。Next, a hardware configuration for realizing the functions of the
図8Aに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18が専用のハードウェアである場合、処理回路10aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。8A, when the
図8Bに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18がプロセッサ10bである場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ10cに格納される。プロセッサ10bは、メモリ10cに記憶されたプログラムを読み出して実行することにより、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能を実現する。すなわち、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、プロセッサ10bにより実行されるときに、図4に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ10cを備える。また、これらのプログラムは、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の手順又は方法をコンピュータに実行させるものであるともいえる。8B, when the
ここで、プロセッサ10bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ10cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。Here, the
なお、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、睡眠検出装置10における処理回路10aは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。また、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の少なくとも一部の機能を、外部サーバに実行させてもよい。In addition, the functions of the
このように、睡眠検出装置10に、車両に搭載され車両の内部の乗員を撮像する撮像装置20から、乗員が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、画像取得部11が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備え、睡眠検出部18は、姿勢判定部17により乗員の姿勢が異常であると判定され、鈍化判定部16により乗員に知覚の鈍化が発生していると判定された場合、乗員が睡眠に陥ったとするものであると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。In this way, the
なお、本実施の形態において、顔向き検出部14が、乗員の顔の鼻の位置を用いて検出する例について説明したが、顔向き検出部14が、顔向きの検出に用いる顔パーツは限定しない。例えば、顔向き検出部14は、特徴量算出部13から特徴量として、右目の位置、左目の位置、及び右目と左目との間の距離を取得し、顔向きの検出に用いてもよい。また、顔向き検出部14は、例えば、乗員の肩の位置等、顔以外の身体に器官に関する特徴点を検出してもよい。In this embodiment, an example has been described in which the face
実施の形態2.
図9は、実施の形態2に係る睡眠検出システム101の構成例を示すブロック図である。実施の形態2に係る睡眠検出装置30は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部32と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部32の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。本実施の形態では、鈍化判定部32が、撮像画像から抽出された乗員の顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
Embodiment 2.
FIG. 9 is a block diagram showing a configuration example of a
乗員が瞬間的な睡眠に陥る前には、例えば、覚醒度が高いときと比較して、瞬きが減る、瞬きの速度が遅くなる、開眼度が低下する、表情の変化が少なくなる等、知覚の鈍化に起因した行動の変化がみられる。そのため、鈍化判定は、実施の形態1で説明した顔向きの変化量を用いるのみでなく、乗員の顔の状態に関する情報である顔情報を用いて行うこともできる。Before an occupant falls into momentary sleep, for example, compared to when the level of alertness is high, there are changes in behavior due to a dulling of perception, such as less blinking, a slower blinking rate, less eye opening, and less change in facial expression. Therefore, the determination of the dulling of perception can be performed not only using the amount of change in face direction described in the first embodiment, but also using face information, which is information about the state of the face of the occupant.
まず、鈍化判定に用いる顔情報について説明する。顔情報とは、例えば、目の開眼度、瞬きの頻度、表情の変化等、乗員の顔の状態に関する情報である。図9に示すように、本実施の形態に係る睡眠検出装置30は、顔情報検出部31を備える。顔情報検出部31は、特徴量算出部13から取得した乗員の特徴量を用いて、乗員の顔情報を検出する。First, the facial information used in the slowing down judgment will be described. Facial information is information related to the facial state of the occupant, such as the degree of eye opening, blinking frequency, changes in facial expression, etc. As shown in FIG. 9, the
顔情報検出部31による顔情報の検出処理の例について説明する。顔情報として目の開眼度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13から、特徴量として目の上瞼及び下瞼の間の距離を取得し、この距離を顔情報として検出する。また、顔情報として瞬きの速度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとし、また、この距離が設定された閾値以上である場合に目が開いているとして、目が開いている状態から瞬きが行わるまでに経過した時間を顔情報として取得する。さらに、顔情報として瞬きの頻度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとして、前の瞬きと次の瞬きの間に経過した時間を顔情報として取得する。なお、顔情報検出部31の顔情報の検出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。An example of the detection process of face information by the face
次に鈍化判定部32による鈍化判定例について説明する。鈍化判定部32は、顔情報検出部31から顔情報を取得し、顔情報を用いて乗員に知覚の鈍化が発生しているか否かを判定する。鈍化判定部32は、例えば、顔情報検出部31から顔情報として目の開眼度を取得した場合、目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、目の開眼度が鈍化判定閾値以上である場合、又は目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。Next, an example of a slowing judgment made by the slowing
また、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの速度を取得した場合、瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの速度が鈍化判定閾値以上である場合、又は瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。In addition, for example, when the slowing
さらに、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの頻度を取得した場合、瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの頻度が鈍化判定閾値以上である場合、又は瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。Furthermore, for example, when the slowing
なお、鈍化判定について、鈍化判定閾値を用いて行う例について説明した。ここでの鈍化判定閾値は、実施の形態1における鈍化判定閾値とは異なる。つまり、実施の形態1における鈍化判定閾値は、顔向きの変化量についての閾値であるのに対し、実施の形態2における鈍化判定閾値は、顔情報についての閾値である。目の開眼度と比較する鈍化判定閾値は、目の開眼度についての閾値であり、瞬きの速度と比較する鈍化判定閾値は、瞬きの速度についての閾値であり、また、瞬きの頻度と比較する鈍化判定閾値は、瞬きの頻度についての閾値である。ここで、鈍化判定時間についても同様に、各判定で鈍化判定時間を異なるものとしてもよい。さらに、鈍化判定閾値は、予め定められた値であってもよいし、乗車時から所定の時間経過するまでに取得した顔情報を基準として設定された値であってもよい。乗車時は、乗員の覚醒度が高いと考えられ、覚醒度が高いときに取得した顔情報を基準とすれば、鈍化判定の精度を向上できるためである。 The slowing judgment threshold is different from the slowing judgment threshold in the first embodiment. That is, the slowing judgment threshold in the first embodiment is a threshold for the amount of change in the face direction, whereas the slowing judgment threshold in the second embodiment is a threshold for the face information. The slowing judgment threshold to be compared with the degree of eye opening is a threshold for the degree of eye opening, the slowing judgment threshold to be compared with the speed of blinking is a threshold for the speed of blinking, and the slowing judgment threshold to be compared with the frequency of blinking is a threshold for the frequency of blinking. Similarly, the slowing judgment time may be different for each judgment. Furthermore, the slowing judgment threshold may be a predetermined value, or may be a value set based on the face information acquired from the time of getting on until a predetermined time has elapsed. This is because the passenger's level of wakefulness is considered to be high when getting on, and the accuracy of the slowing judgment can be improved by using the face information acquired when the level of wakefulness is high as the standard.
次に、睡眠検出装置30の動作例について説明する。図10は、実施の形態2に係る睡眠検出装置30の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置30の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。Next, an example of the operation of the
まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出する(ST201)。以下では、顔情報検出部31が、顔情報として目の開眼度を検出し、鈍化判定部32が目の開眼度及び目の開眼度に関する鈍化判定閾値を用いて鈍化判定を行う例を挙げて説明する。First, after the features are calculated in the feature calculation process ST101, the face
次に、鈍化判定部32は、乗員の知覚に鈍化が発生しているか否かを判定する(ST202)。鈍化判定部32は、例えば、顔情報検出部31から、顔情報として設定された期間における乗員の目の開眼度を取得する。そして、鈍化判定部32は、取得した開眼度が、鈍化判定閾値以上である場合、乗員に知覚の鈍化が発生していないと判定し(ST202;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、取得した乗員の眼の開眼度が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST202;YES)、次のST105の処理に進む。Next, the slowing
次に、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部32が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員に知覚の鈍化が発生していないと判定し、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置30の処理は、次のST102に進む。Next, the dulling
顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、睡眠検出装置30の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、取得した変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、取得した変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。The face
一方、姿勢判定部17は、例えば、ピッチ角の最小値と最大値との差分が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、さらに、睡眠検出装置30の処理は、次に説明するST108に進む。On the other hand, if, for example, the difference between the minimum and maximum pitch angle values is greater than or equal to a set threshold value, the
姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であると判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置30の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。The
一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定であると判断した場合(ST108;YES)、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて報知を行う(ST109)。On the other hand, if the
このように、睡眠検出装置30に、特徴量算出部13が算出した特徴量を用いて、乗員の顔の状態に関する顔情報を検出する顔情報検出部31をさらに備え、鈍化判定部32が、顔情報検出部31が検出した顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定するものであると、乗員の瞬間的な睡眠の前に現れる知覚の鈍化を乗員の顔の状態から判定でき、乗員の瞬間的な睡眠を検出して、乗員の睡眠の検出精度を向上できる。In this way, if the
なお、本実施の形態において、鈍化判定部32が、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度を鈍化判定に用いる例について説明したが、鈍化判定部32が鈍化判定に用いる顔情報は、目の開眼度に限らない。例えば、鈍化判定部32は、顔情報検出部31から、目の開眼度、瞬きの速度、及び瞬きの頻度を顔情報として取得し、取得した顔情報のうち少なくともいずれかが、設定された閾値未満であれば、乗員に知覚の鈍化が発生していると判定してもよい。In this embodiment, an example has been described in which the slowing
実施の形態3.
図11は、実施の形態3に係る睡眠検出システム102の構成例を示すブロック図である。実施の形態3に係る睡眠検出装置40は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部42と、を備える。本実施の形態では、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
Embodiment 3.
FIG. 11 is a block diagram showing a configuration example of a
本実施の形態の睡眠検出装置40は、顔情報検出部31及び乗員の眠気レベルを算出する眠気レベル算出部41を備える。なお、顔情報検出部31の構成については、実施の形態2に説明した構成と同様のため、説明を省略する。ここで、覚醒度が高い状態から、覚醒度が低い状態まで段階的に分けられた眠気の尺度を眠気レベルという。本開示においては、覚醒度が最も高い状態を眠気レベル1、覚醒度が最も低い状態を眠気レベル9とし、覚醒度が低くなるにつれて、眠気レベル1から眠気レベル9に推移していくものとする。The
乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある場合がある。そのため、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いることで、乗員の睡眠の検出結果の信頼性を向上することができる。When a passenger's perception is dulled, the passenger may be in a high drowsiness state. Therefore, the
眠気レベル算出部41による眠気レベルの算出について説明する。眠気レベル算出部41は、顔情報検出部31から顔情報を取得し、乗員の眠気レベルを算出する。例えば、目の開眼度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、目の開眼度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。The calculation of the drowsiness level by the drowsiness
また、例えば、瞬きの速度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの速度を取得し、瞬きの速度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの速度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。In addition, for example, when the blink rate is acquired as face information, the drowsiness
さらに、例えば、瞬きの頻度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの頻度を取得し、瞬きの頻度が少なくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの頻度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。なお、眠気レベル算出部41による眠気レベルの算出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。そして、眠気レベル算出部41による算出結果は、睡眠検出部42に出力される。Furthermore, for example, when blink frequency is acquired as face information, the drowsiness
次に、本実施の形態に係る睡眠検出部42について説明する。睡眠検出部42は、眠気レベル算出部41による算出結果を取得し、眠気レベル算出部41が算出した乗員の眠気レベルが設定された眠気レベル、すなわち設定された閾値以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。ここで、睡眠検出部42は、眠気レベルが、乗員が眠気を感じていると考えられる眠気レベル以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出すると好ましい。上述したように、乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある、つまり乗員が眠気を感じている場合があるためである。そして、眠気レベルが設定された閾値以上である場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されれば、睡眠検出部42は、乗員が睡眠に陥ったことを検出する。Next, the
次に、睡眠検出装置40の動作例について説明する。図12は、実施の形態3に係る睡眠検出装置40の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置40の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。Next, an example of the operation of the
まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出し(ST301)、検出した顔情報を眠気レベル算出部41に出力する。以下では、顔情報検出部31が、顔情報として乗員の目の開眼度を検出し、眠気レベル算出部41が目の開眼度を用いて乗員の眠気レベルの算出を行う例を挙げて説明する。First, after calculating the features in the feature calculation process ST101, the face
次に、眠気レベル算出部41は、顔情報として取得した乗員の目の開閉度を用いて、乗員の眠気レベルを算出し(ST302)、算出した乗員の眠気レベルを睡眠検出部42に出力する。ここで、眠気レベル算出部41は、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。Next, the drowsiness
そして、睡眠検出部42は、取得した眠気レベルが設定された閾値以上であるか否かを判定する(ST303)。睡眠検出部42により、眠気レベルが設定された閾値未満であると判定された場合(ST303;NO)、睡眠検出装置40の処理は、ST101に進む。一方、睡眠検出部42により、眠気レベルが設定された閾値以上であると判定された場合(ST303;YES)、睡眠検出装置40の処理は、ST102に進む。Then, the
次に、顔向き検出部14は、乗員の特徴量を取得し、撮像画像における乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は、顔向き変化量算出部15に検出した乗員の顔向きを出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。Next, the face
次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、例えば、顔向き変化量算出部15から乗員の顔向きの変化量を取得する。そして、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。なお、実施の形態2と同様に、鈍化判定部16による鈍化判定は、顔向きを用いるものでなく、顔情報を用いたものでも可能である。Next, the slowing
次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力し、睡眠検出装置40の処理は、次に説明するST106に進む。Next, the slowing
次に、睡眠検出装置40の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、顔向きの変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101の処理に進む。Next, the
一方、姿勢判定部17は、顔向きの変化量が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、次に説明するST108の処理に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。On the other hand, if the change in face direction is equal to or greater than the set threshold, the
姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置40の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。The
一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定して、判定結果を睡眠検出部42に出力する。そして、睡眠検出部42は、乗員が睡眠に陥ったとし、報知部50は乗員に向けて警報を行う(ST109)。On the other hand, if the
このように、本実施の形態における睡眠検出装置40は、乗員の顔の状態に関する顔情報を用いて、乗員の眠気レベルを算出する眠気レベル算出部41をさらに備え、睡眠検出部42は、乗員の眠気レベルが設定された閾値以上にあると判定された場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されたら、乗員が睡眠に陥ったことを検出するものである。このようにすると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できるとともに、眠気レベルの算出結果を用いれば、知覚の鈍化は覚醒度が低い状態で発生する可能性があるため、乗員の睡眠の検出結果の信頼性を向上できる。In this way, the
なお、実施の形態1~3において、鈍化判定部による鈍化判定、姿勢判定部による姿勢判定、及び眠気レベル算出部による眠気レベルの算出は、乗員の特徴量を用いて行うものとして説明したが、鈍化判定、姿勢判定、及び眠気レベルの算出は、乗員の特徴量を用いて行うものに限定しない。鈍化判定、姿勢判定、及び眠気レベルの算出は、例えば、機械学習を用いたものであってもよい。鈍化判定を、機械学習を用いたものとする場合、鈍化判定部に学習装置を備え、学習装置に、例えば、知覚の鈍化が発生しているときの乗員を撮像した画像と、知覚の鈍化が発生していないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、鈍化判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の知覚に鈍化が発生しているか否かを判定すればよい。In the first to third embodiments, the slowing judgment by the slowing judgment unit, the posture judgment by the posture judgment unit, and the calculation of the drowsiness level by the drowsiness level calculation unit have been described as being performed using the characteristic amounts of the occupant. However, the slowing judgment, posture judgment, and calculation of the drowsiness level are not limited to being performed using the characteristic amounts of the occupant. The slowing judgment, posture judgment, and calculation of the drowsiness level may be performed using, for example, machine learning. When the slowing judgment is performed using machine learning, the slowing judgment unit is provided with a learning device, and, for example, an image captured of the occupant when perception slowing occurs and an image captured of the occupant when perception slowing does not occur are input to the learning device for learning. Then, the learning device of the slowing judgment unit may be caused to acquire the captured image from the image acquisition unit, and it may be determined whether or not the occupant's perception in the captured image has been slowed.
また、姿勢判定を、機械学習を用いたものとする場合、姿勢判定部に学習装置を備え、学習装置に、例えば、のけぞる、うなずく、倒れこむ等して、姿勢が異常であるときの乗員を撮像した画像と、姿勢が異常でないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、姿勢判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の姿勢が異常であるか否かを判定すればよい。 In addition, when posture determination is performed using machine learning, a learning device is provided in the posture determination unit, and images of the occupant when their posture is abnormal, for example, when they are leaning back, nodding, or collapsing, and images of the occupant when their posture is normal are input to the learning device for learning. The learning device of the posture determination unit then acquires the captured images from the image acquisition unit, and determines whether the posture of the occupant in the captured images is abnormal or not.
さらに、眠気レベルの算出を、機械学習を用いたものとする場合、眠気レベル算出部に学習装置を備え、学習装置に、例えば、段階的に分けられた眠気レベルに対応した乗員を撮像した画像をそれぞれ入力して学習させる。そして、眠気レベル算出部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の眠気レベルを算出すればよい。Furthermore, when the drowsiness level is calculated using machine learning, the drowsiness level calculation unit is provided with a learning device, and images of occupants corresponding to the graded drowsiness levels are input to the learning device to learn the images. The learning device of the drowsiness level calculation unit then acquires the captured images from the image acquisition unit, and calculates the drowsiness level of the occupant in the captured images.
また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。 Furthermore, the embodiments disclosed in this specification may be freely combined within their scope, and each embodiment may be modified or omitted as appropriate.
10、30、40 睡眠検出装置、10a 処理回路、10b プロセッサ、10c メモリ、11 画像取得部、12 特徴点検出部、13 特徴量算出部、14 顔向き検出部、15 顔向き変化量算出部、16、32 鈍化判定部、17 姿勢判定部、18、42 睡眠検出部、20 撮像装置、31 顔情報検出部、41 眠気レベル算出部、50 報知部、100、101、102 睡眠検出システム、201 運転席、202 助手席、211、212 乗員、300 撮像画像、301 顔領域、311 目尻、312 目頭、313 上瞼、314 下瞼、315 鼻根、316 鼻尖、317 上唇、318 下唇、319 口角。10, 30, 40 Sleep detection device, 10a Processing circuit, 10b Processor, 10c Memory, 11 Image acquisition unit, 12 Feature point detection unit, 13 Feature amount calculation unit, 14 Face direction detection unit, 15 Face direction change amount calculation unit, 16, 32 Desensitization determination unit, 17 Posture determination unit, 18, 42 Sleep detection unit, 20 Imaging device, 31 Face information detection unit, 41 Drowsiness level calculation unit, 50 Notification unit, 100, 101, 102 Sleep detection system, 201 Driver's seat, 202 Passenger seat, 211, 212 Passenger, 300 Captured image, 301 Face area, 311 Eye corner, 312 Eye corner, 313 Upper eyelid, 314 Lower eyelid, 315 Nose root, 316 Nose tip, 317 Upper lip, 318 Lower lip, 319 corner of mouth.
Claims (12)
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
前記鈍化判定部は、前記乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出装置。 an image acquisition unit that acquires an image of an occupant from an imaging device that is mounted on a vehicle and captures an image of the occupant inside the vehicle;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects the sleep of the occupant by using a determination result of the deceleration determination unit and a determination result of the posture determination unit,
the slowing determination unit determines that the occupant has a slowed sense of perception when a state in which the index value indicating a change in the facial direction of the occupant is less than a slowing determination threshold continues for a slowing determination time or more after it has been determined that the index value is less than the slowing determination threshold,
The sleep detection device is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
ことを特徴とする請求項1に記載の睡眠検出装置。 The sleep detection device according to claim 1, characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the posture determination unit determines that the posture of the occupant is abnormal after the slowing of perception determination unit determines that the occupant has experienced slowing of perception.
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。 The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the size of a face area, which is an area including facial parts of the occupant extracted from the captured image, is outside a set range.
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。 a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the amount of change in the facial direction of the occupant calculated by the facial direction change amount calculation unit within a set posture determination time becomes equal to or greater than a set posture determination threshold.
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記鈍化判定部は、前記顔向き変化量算出部が前記指標値として算出した前記乗員の顔向きの変化量が前記鈍化判定閾値未満であると判定された後に、前記乗員の顔向きの変化量が前記鈍化判定閾値未満である状態が、設定された鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の睡眠検出装置。 a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
The sleep detection device of any one of claims 1 to 4, characterized in that the slowing determination unit determines that the occupant has experienced a slowing of perception when, after it is determined that the amount of change in the facial direction of the occupant calculated as the index value by the facial direction change amount calculation unit is less than the slowing determination threshold, the state in which the amount of change in the facial direction of the occupant is less than the slowing determination threshold continues for a set slowing determination time or more.
前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
前記鈍化判定部は、前記顔向き変化量算出部が前記指標値として算出した前記乗員の顔向きの変化量が前記鈍化判定閾値未満であると判定された後に、前記乗員の顔向きの変化量が前記鈍化判定閾値未満である状態が前記鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定し、
前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。 a face direction detection unit that detects a face direction of the occupant extracted from the captured image acquired by the image acquisition unit;
a face direction change amount calculation unit that calculates a change amount of the face direction of the occupant detected by the face direction detection unit,
the slowing determination unit determines that the occupant has a slowed perception when a state in which the amount of change in the facial direction of the occupant calculated as the index value by the facial direction change amount calculation unit is less than the slowing determination threshold continues for more than the slowing determination time,
The sleep detection device according to claim 1 or claim 2, characterized in that the posture determination unit determines that the posture of the occupant is abnormal if the amount of change in the facial direction of the occupant calculated by the facial direction change amount calculation unit within a set posture determination time becomes equal to or greater than a set posture determination threshold.
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔の状態に関する顔情報を検出する顔情報検出部と、を備え、
前記顔情報検出部は、前記乗員の、目の開眼度、瞬きの速度及び瞬きの頻度の少なくともいずれかを前記顔情報として検出し、
前記鈍化判定部は、前記乗員の、目の開眼度、瞬きの速度及び瞬きの頻度の少なくともいずれかが鈍化判定閾値未満であると判定された後に、前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出装置。 an image acquisition unit that acquires an image of an occupant from an imaging device that is mounted on a vehicle and captures an image of the occupant inside the vehicle;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects whether the occupant is asleep by using a determination result of the deceleration determination unit and a determination result of the posture determination unit;
a face information detection unit that detects face information related to a face state of the occupant extracted from the captured image acquired by the image acquisition unit,
the face information detection unit detects at least one of an eye opening degree, a blinking speed, and a blinking frequency of the occupant as the face information;
the slowing determination unit determines that the occupant has a slowed sense of perception when at least one of the degree of eye opening, the blinking rate, and the blinking frequency of the occupant is determined to be less than a slowing determination threshold and the state in which the degree of eye opening, the blinking rate, and the blinking frequency of the occupant is less than the slowing determination threshold continues for a slowing determination time or more;
The sleep detection device is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
前記睡眠検出部は、前記眠気レベル算出部により前記乗員の眠気レベルが設定された閾値以上にあると判定され、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合に、前記乗員が前記マイクロスリープに陥ったとする
ことを特徴とする請求項8に記載の睡眠検出装置。 a drowsiness level calculation unit that calculates a drowsiness level of the occupant by using the face information detected by the face information detection unit,
The sleep detection device according to claim 8, characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the drowsiness level calculation unit determines that the occupant's drowsiness level is equal to or higher than a set threshold, the dulling determination unit determines that the occupant is experiencing a dulling of perception, and the posture determination unit determines that the occupant's posture is abnormal.
前記顔情報検出部が検出した前記顔情報を用いて、前記乗員の眠気レベルを算出する眠気レベル算出部と、をさらに備え、
前記睡眠検出部は、前記眠気レベル算出部により、前記乗員の眠気レベルが設定された閾値以上にあると判定された場合に、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定されたら、前記乗員が前記マイクロスリープに陥ったとする
ことを特徴とする請求項1から請求項7のいずれか一項に記載の睡眠検出装置。 a face information detection unit that detects face information related to a state of the occupant extracted from the captured image acquired by the image acquisition unit;
a drowsiness level calculation unit that calculates a drowsiness level of the occupant by using the face information detected by the face information detection unit,
The sleep detection device according to any one of claims 1 to 7, characterized in that when the drowsiness level calculation unit determines that the occupant's drowsiness level is equal to or higher than a set threshold, the sleep detection unit determines that the occupant is experiencing a dulling of perception, and when the posture determination unit determines that the occupant's posture is abnormal, the sleep detection unit determines that the occupant has fallen into microsleep.
ことを特徴とする請求項1から請求項10のいずれか一項に記載の睡眠検出装置。 The sleep detection device according to any one of claims 1 to 10, further comprising an alarm unit that is mounted on the vehicle and that notifies the occupant when the sleep detection unit detects that the occupant has fallen into microsleep.
前記撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
前記鈍化判定部は、前記乗員の顔向きの変化を示す指標値が鈍化判定閾値未満であると判定された後に、当該指標値が前記鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、当該乗員に知覚の鈍化が発生していると判定し、
前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員がマイクロスリープに陥ったとする
ことを特徴とする睡眠検出システム。 An imaging device mounted in a vehicle for imaging an occupant inside the vehicle;
an image acquisition unit that acquires an image of the occupant from the imaging device;
a sensory desensitization determination unit that determines whether or not the occupant has sensory desensitization extracted from the captured image acquired by the image acquisition unit;
a posture determination unit that determines whether or not the posture of the occupant extracted from the captured image acquired by the image acquisition unit is abnormal;
a sleep detection unit that detects the sleep of the occupant by using a determination result of the deceleration determination unit and a determination result of the posture determination unit,
the slowing determination unit determines that the occupant has a slowed sense of perception when a state in which the index value indicating a change in the facial direction of the occupant is less than a slowing determination threshold continues for a slowing determination time or more after it has been determined that the index value is less than the slowing determination threshold,
The sleep detection system is characterized in that the sleep detection unit determines that the occupant has fallen into microsleep when the slowing determination unit determines that the occupant has experienced slowing of perception and the posture determination unit determines that the occupant's posture is abnormal.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/044237 WO2022113275A1 (en) | 2020-11-27 | 2020-11-27 | Sleep detection device and sleep detection system |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022113275A1 JPWO2022113275A1 (en) | 2022-06-02 |
JPWO2022113275A5 JPWO2022113275A5 (en) | 2023-02-03 |
JP7550879B2 true JP7550879B2 (en) | 2024-09-13 |
Family
ID=81755449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564938A Active JP7550879B2 (en) | 2020-11-27 | 2020-11-27 | Sleep detection device and sleep detection system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7550879B2 (en) |
DE (1) | DE112020007803T5 (en) |
WO (1) | WO2022113275A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116077798B (en) * | 2023-04-10 | 2023-07-28 | 南京信息工程大学 | Hypnotizing method based on combination of voice induction and computer vision |
CN118470695B (en) * | 2024-07-12 | 2024-10-11 | 杭州锐见智行科技有限公司 | Method and device for identifying sleep in automobile cabin, electronic equipment and medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010198313A (en) | 2009-02-25 | 2010-09-09 | Denso Corp | Device for specifying degree of eye opening |
JP2014092965A (en) | 2012-11-05 | 2014-05-19 | Denso Corp | Occupant monitoring device |
JP2016539446A (en) | 2013-10-29 | 2016-12-15 | キム,ジェ−チョル | A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape |
JP2017049636A (en) | 2015-08-31 | 2017-03-09 | マツダ株式会社 | Driver state detection device |
JP2019148491A (en) | 2018-02-27 | 2019-09-05 | オムロン株式会社 | Occupant monitoring device |
JP2020086907A (en) | 2018-11-26 | 2020-06-04 | トヨタ自動車株式会社 | Careless driving determination device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3115457B2 (en) * | 1993-08-16 | 2000-12-04 | 三菱電機株式会社 | Driver abnormal condition alarm device |
JP4259585B2 (en) | 2007-03-08 | 2009-04-30 | 株式会社デンソー | Sleepiness determination device, program, and sleepiness determination method |
-
2020
- 2020-11-27 JP JP2022564938A patent/JP7550879B2/en active Active
- 2020-11-27 WO PCT/JP2020/044237 patent/WO2022113275A1/en active Application Filing
- 2020-11-27 DE DE112020007803.5T patent/DE112020007803T5/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010198313A (en) | 2009-02-25 | 2010-09-09 | Denso Corp | Device for specifying degree of eye opening |
JP2014092965A (en) | 2012-11-05 | 2014-05-19 | Denso Corp | Occupant monitoring device |
JP2016539446A (en) | 2013-10-29 | 2016-12-15 | キム,ジェ−チョル | A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape |
JP2017049636A (en) | 2015-08-31 | 2017-03-09 | マツダ株式会社 | Driver state detection device |
JP2019148491A (en) | 2018-02-27 | 2019-09-05 | オムロン株式会社 | Occupant monitoring device |
JP2020086907A (en) | 2018-11-26 | 2020-06-04 | トヨタ自動車株式会社 | Careless driving determination device |
Also Published As
Publication number | Publication date |
---|---|
DE112020007803T5 (en) | 2023-11-16 |
WO2022113275A1 (en) | 2022-06-02 |
JPWO2022113275A1 (en) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6998564B2 (en) | Arousal level estimation device and arousal level estimation method | |
JP5585648B2 (en) | Awakening level determination device, awakening level determination method, and program | |
JP6573193B2 (en) | Determination device, determination method, and determination program | |
US20160272217A1 (en) | Two-step sleepy driving prevention apparatus through recognizing operation, front face, eye, and mouth shape | |
US11430231B2 (en) | Emotion estimation device and emotion estimation method | |
US20160159217A1 (en) | System and method for determining drowsy state of driver | |
JP7550879B2 (en) | Sleep detection device and sleep detection system | |
US11195108B2 (en) | Abnormality detection device and abnormality detection method for a user | |
JP7328089B2 (en) | Eye closure determination device | |
US20190147268A1 (en) | Eyelid opening/closing determination apparatus and drowsiness detection apparatus | |
JP2018128974A (en) | Driver status monitoring device | |
WO2023017595A1 (en) | Occupant state determining device, occupant state determining method, and occupant state determining system | |
JP7024332B2 (en) | Driver monitor system | |
JP2020194229A (en) | Driver state determination device, driver state determination method, and driver state determination program | |
US20240233405A9 (en) | Occupant detection device, occupant detection system, and occupant detection method | |
JP6689470B1 (en) | Information processing apparatus, program, and information processing method | |
JP5050794B2 (en) | Sleepiness detection device, sleepiness detection method | |
JP7046748B2 (en) | Driver status determination device and driver status determination method | |
WO2024047856A1 (en) | Drowsiness estimation device and drowsiness estimation method | |
JP2021129700A (en) | Reference value determination device and reference value determination method | |
JP6594595B2 (en) | Inoperable state determination device and inoperable state determination method | |
JP7647187B2 (en) | Eye opening/closing determination device and eye opening/closing determination method | |
JP7420277B2 (en) | Operating state determination device, method, and program | |
CN113168757B (en) | Method for Determining Driver Alertness Level | |
JP7325687B2 (en) | Sleepiness estimation device and sleepiness estimation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7550879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20240913 |