[go: up one dir, main page]

JP7639322B2 - Human state estimation method and estimation system - Google Patents

Human state estimation method and estimation system Download PDF

Info

Publication number
JP7639322B2
JP7639322B2 JP2020206868A JP2020206868A JP7639322B2 JP 7639322 B2 JP7639322 B2 JP 7639322B2 JP 2020206868 A JP2020206868 A JP 2020206868A JP 2020206868 A JP2020206868 A JP 2020206868A JP 7639322 B2 JP7639322 B2 JP 7639322B2
Authority
JP
Japan
Prior art keywords
probability
person
gaze
evaluated
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020206868A
Other languages
Japanese (ja)
Other versions
JP2022094060A (en
Inventor
耕二 岩瀬
明秀 ▲高▼見
和夫 坂本
雄策 武田
慎一 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020206868A priority Critical patent/JP7639322B2/en
Publication of JP2022094060A publication Critical patent/JP2022094060A/en
Application granted granted Critical
Publication of JP7639322B2 publication Critical patent/JP7639322B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

ここに開示された技術は、人間状態推定方法及び推定システムに関する技術分野に属する。 The technology disclosed herein belongs to the technical field of human state estimation methods and estimation systems.

従来より、被評価者の周辺を示す画像から、被評価者の視界に写る物の被評価者に対する誘目性を表すサリエンシーマップを作成して、該サリエンシーマップを用いて、被評価者の種々の状態を推定することが検討されている。 Conventionally, it has been considered to create a saliency map from an image showing the subject's surroundings, which represents the attractiveness of objects in the subject's field of vision, and to use the saliency map to estimate various states of the subject.

例えば、特許文献1には、サリエンシーマップを用いて、被評価者の視線が向けられている対象物を推定するようにしている。具体的には、特許文献1には、視線方向の検出結果に基づいて、車両の周辺を示す撮像画像内において運転者(被評価者)の視線が向けられている注視領域を抽出し、撮像画像に含まれる物体を認識し、撮像画像および車両情報に基づいて、撮像画像のトップダウンサリエンシーマップを生成し、認識された物体のうち、トップダウンサリエンシーマップにおいてサリエンシーを有する物体を、運転者の視線が向けられている視認対象物の候補として検出し、注視領域の抽出結果および視認対象物の候補の検出結果に基づいて、運転者の視線が向けられている視認対象物を判定する、ことが開示されている。 For example, in Patent Document 1, a saliency map is used to estimate the object at which the gaze of the person being evaluated is directed. Specifically, Patent Document 1 discloses that, based on the gaze direction detection result, a gaze area at which the driver (person being evaluated) is directed in a captured image showing the periphery of the vehicle is extracted, objects included in the captured image are recognized, a top-down saliency map of the captured image is generated based on the captured image and vehicle information, objects having saliency in the top-down saliency map among the recognized objects are detected as candidates for the visual object at which the driver's gaze is directed, and the visual object at which the driver's gaze is directed is determined based on the gaze area extraction result and the detection result of the candidate visual object.

また、特許文献1では、トップダウンサリエンシーマップとして、運転者の見る順番や、体格、癖等の個人差、撮像画像が得られたシーンの曖昧性、視線検出部により検出される視線方向の揺らぎ等を吸収したサリエンシーマップと定義している。 Patent document 1 also defines a top-down saliency map as a saliency map that absorbs factors such as the driver's viewing order, individual differences such as physique and habits, ambiguity of the scene from which the captured image was obtained, and fluctuations in the gaze direction detected by the gaze detection unit.

特開2020-71528号公報JP 2020-71528 A

ところで、本願発明者らが鋭意研究したところ、サリエンシーマップを利用することで、被評価者の状態を推定することができることが分かった。すなわち、被評価者が正常状態であるときと、漫然状態であるときとでは、被評価者の視界におけるサリエンシーと被評価者の視線の動きとの関係に違いが生じ、この違いを評価することで被評価者の状態を推定できることが分かった。 However, after extensive research, the inventors of the present application found that the state of the person being evaluated can be estimated by using a saliency map. In other words, when the person being evaluated is in a normal state and when he or she is absent-minded, there is a difference in the relationship between the saliency in the person's field of vision and the movement of the person's gaze, and by evaluating this difference, the state of the person being evaluated can be estimated.

このサリエンシーマップを用いた評価において、特許文献1のトップダウンサリエンシーマップのように、一義的に決まるサリエンシーマップを用いると推定精度が向上することが期待される。しかしながら、運転者の癖等の個人差や画像の曖昧さをどのように吸収するかを定義することは非常に困難であり、最悪の場合、被評価者の状態推定に必要な情報まで吸収してしまい、かえって推定精度を低くしてしまうおそれがある。また、サリエンシーマップの生成する際の演算量が膨大になり、推定時間が長くなるおそれもある。 In evaluations using this saliency map, it is expected that the estimation accuracy will improve if a uniquely determined saliency map, such as the top-down saliency map in Patent Document 1, is used. However, it is very difficult to define how to absorb individual differences such as driver habits and image ambiguity, and in the worst case scenario, there is a risk that the information necessary for estimating the state of the person being evaluated will be absorbed, which could actually lower the estimation accuracy. In addition, the amount of calculation required to generate a saliency map can be enormous, which could lengthen the estimation time.

ここに開示された技術は斯かる点に鑑みてなされたものであり、その目的とするところは、サリエンシーマップを用いた人間状態の推定において、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することにある。 The technology disclosed here has been developed in consideration of these points, and its purpose is to estimate the human state of the person being evaluated with as high accuracy as possible using calculations that are as simple as possible when estimating the human state using a saliency map.

前記課題を解決するために、ここに開示された技術では、人間状態推定方法を対象として、被評価者の周辺情報を取得する周辺情報取工程と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、前記前方視界に対する前記被評価者の視線を取得する第1視線情報取得工程と、前記被評価者と同等の属性を有する他人である比較者の視線を取得する第2視線情報取得工程と、前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、前記第2視線情報取得工程で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程と、を含む、という構成とした。 In order to solve the above problem, the technology disclosed herein is directed to a human state estimation method, and includes a peripheral information acquisition step of acquiring peripheral information of the person being evaluated, a visual field image acquisition step of acquiring an image included in the forward visual field of the person being evaluated, a map generation step of generating a saliency map for the image acquired in the visual field image acquisition step, a first gaze information acquisition step of acquiring the gaze of the person being evaluated with respect to the forward visual field, a second gaze information acquisition step of acquiring the gaze of a comparison person who is another person having attributes similar to the person being evaluated, a first probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated acquired in the first gaze information acquisition step will be equal to or greater than a predetermined threshold, a second probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the comparison person acquired in the second gaze information acquisition step will be equal to or greater than the predetermined threshold, and an abnormality estimation step of estimating whether the person being evaluated is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step.

この構成によると、従来のように、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する被評価者と同等の属性を有する他人(比較者)の視線の関係との比較を行えば、トップダウンサリエンシーマップを用いなくとも、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, it is not necessary to absorb individual differences such as the habits of the person being evaluated when generating a saliency map, as in the past, and this makes it easier to generate a saliency map. Furthermore, by comparing the relationship of the person being evaluated's gaze to the saliency map with the relationship of the gaze of another person (comparator) who has attributes similar to that of the person being evaluated to the saliency map, it is possible to improve the accuracy of estimating the human state of the person being evaluated without using a top-down saliency map. Therefore, the human state of the person being evaluated can be accurately estimated with as simple a calculation as possible.

尚、ここでいう「属性」とは、比較者の位置する空間、比較者の年齢、対象ジョブ(車両の運転や工場での製品の選別)に対する比較者の熟練度等をいう。 Note that "attributes" here refer to the space in which the comparator is located, the comparator's age, the comparator's level of expertise in the target job (driving a vehicle or sorting products in a factory), etc.

前記人間状態推定方法において、前記異常推定工程は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する工程である、とういう構成でもよい。 In the human state estimation method, the abnormality estimation process may be configured to estimate that the subject is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a preset specific value.

この構成によると、被評価者が一瞬だけ目を奪われてしまうことで、第1確率と第2確率との間に乖離が生じてしまい、これにより被評価者が異常状態であると推定されることを抑制することができる。これにより、被評価者の人間状態の推定精度を向上させることができる。 With this configuration, if the person being evaluated is distracted for just a moment, a deviation occurs between the first probability and the second probability, which can prevent the person being estimated to be in an abnormal state. This can improve the accuracy of estimating the human state of the person being evaluated.

前記人間状態推定方法において、前記第2視線情報取得工程は、2人以上の前記比較者の視線をそれぞれ取得する工程であり、前記第2確率演算工程は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする工程である、という構成でもよい。 In the human state estimation method, the second gaze information acquisition step may be a step of acquiring the gazes of two or more of the comparators, and the second probability calculation step may be a step of determining the saliency at the position on the saliency map indicated by each gaze of each of the comparators, calculating the probability that each saliency is equal to or greater than the predetermined threshold, and setting the average of the probabilities or one probability selected from the probabilities as the second probability.

この構成によると、被評価者と各比較者との僅かな違いをある程度吸収することができる。これにより、被評価者の人間状態の推定精度をより向上させることができる。 This configuration makes it possible to absorb slight differences between the person being evaluated and each comparison subject to a certain degree. This makes it possible to further improve the accuracy of estimating the human state of the person being evaluated.

ここに開示された技術の他の態様では、人間状態推定方法を対象として、被評価者が位置する空間を含む周辺情報を取得する周辺情報取工程と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、前記前方視界に対する前記被評価者の視線を取得する第1視線情報取得工程と、前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、過去に同じ空間にいた前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程と、を含む、という構成とした。 In another aspect of the technology disclosed herein, the human state estimation method includes a peripheral information acquisition step of acquiring peripheral information including the space in which the person being evaluated is located, a visual field image acquisition step of acquiring an image included in the forward visual field of the person being evaluated, a map generation step of generating a saliency map for the image acquired in the visual field image acquisition step, a first gaze information acquisition step of acquiring the gaze of the person being evaluated with respect to the forward visual field, a first probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated acquired in the first gaze information acquisition step will be equal to or greater than a predetermined threshold, a second probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated who was in the same space in the past will be equal to or greater than the predetermined threshold, and an abnormality estimation step of estimating whether the person being evaluated is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step.

この構成によると、過去の被評価者と比較するため、トップダウンサリエンシーマップを用いなくても、被評価者の癖や体格などの個人差を出来る限り吸収することができる。これにより、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, since the evaluation is compared with past evaluation subjects, it is possible to absorb as many individual differences as possible, such as the subject's habits and physique, without using a top-down saliency map. This makes it possible to accurately estimate the subject's human condition with as simple a calculation as possible.

ここに開示された技術は、人間評価システムをも対象とする。具体的には、人間状態推定システムを対象として、被評価者の周辺情報を取得する周辺情報取部と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得部と、前記視界画像取得部で取得された画像に対してサリエンシーマップを生成するマップ生成部と、前記前方視界に対する前記被評価者の視線情報を取得する視線情報取得部と、前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する比較者視線情報取得部と、前記視線情報取得部で取得された前記被評価者の視線情報が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算部と、前記比較者視線情報取得部で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算部と、前記第1確率演算部で算出された第1確率と前記第2確率演算部で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定部と、を備える、という構成とした。 The technology disclosed here also applies to human evaluation systems. Specifically, the human state estimation system is configured to include a peripheral information acquisition unit that acquires peripheral information of the person being evaluated, a visual field image acquisition unit that acquires an image included in the forward visual field of the person being evaluated, a map generation unit that generates a saliency map for the image acquired by the visual field image acquisition unit, a gaze information acquisition unit that acquires gaze information of the person being evaluated with respect to the forward visual field, a comparator gaze information acquisition unit that acquires gaze information of a comparator who is another person having attributes similar to the person being evaluated, a first probability calculation unit that calculates the probability that the saliency at a position on the saliency map indicated by the gaze information acquisition unit of the person being evaluated acquired by the gaze information acquisition unit is equal to or greater than a predetermined threshold, a second probability calculation unit that calculates the probability that the saliency at a position on the saliency map indicated by the gaze of the comparator acquired by the comparator gaze information acquisition unit is equal to or greater than the predetermined threshold, and an abnormality estimation unit that estimates whether the person being evaluated is in an abnormal state based on the first probability calculated by the first probability calculation unit and the second probability calculated by the second probability calculation unit.

この構成であっても、従来のように、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する比較者の視線の関係との比較を行えば、トップダウンサリエンシーマップを用いなくとも、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 Even with this configuration, it is not necessary to absorb individual differences such as the habits of the person being evaluated when generating a saliency map, as in the past, so it is easy to generate a saliency map. Furthermore, by comparing the relationship of the person being evaluated's gaze to the saliency map with the relationship of the comparison person's gaze to the saliency map, it is possible to improve the accuracy of estimating the human state of the person being evaluated without using a top-down saliency map. Therefore, the human state of the person being evaluated can be accurately estimated with as simple a calculation as possible.

前記人間状態推定システムにおいて、前記異常推定部は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する、という構成でもよい。 In the human state estimation system, the abnormality estimation unit may be configured to estimate that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a preset specific value.

この構成によると、被評価者の人間状態の推定精度を向上させることができる。 This configuration can improve the accuracy of estimating the human state of the person being evaluated.

前記人間状態推定システムにおいて、前記比較者視線情報取得部は、2人以上の前記比較者の視線をそれぞれ取得し、前記第2確率演算部は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする、という構成でもよい。 In the human state estimation system, the comparator gaze information acquisition unit may acquire the gazes of two or more of the comparators, and the second probability calculation unit may determine the saliency at the position on the saliency map indicated by each gaze of each of the comparators, calculate the probability that each saliency is equal to or greater than the predetermined threshold, and set the second probability to the average of the probabilities or one probability selected from the probabilities.

この構成によると、被評価者の人間状態の推定精度をより向上させることができる。 This configuration can further improve the accuracy of estimating the human state of the person being evaluated.

前記人間状態推定システムにおいて、前記被評価者の視線に関する情報を記憶する記憶部を更に備え、前記第2確率演算部は、前記被評価者の周囲に前記比較者が存在しないときには、過去に同じ空間にいた前記被評価者の視線に関する情報を前記記憶部から読み出して、過去の前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を前記第2確率として算出する、という構成でもよい。 The human state estimation system may further include a memory unit that stores information regarding the gaze of the person being evaluated, and the second probability calculation unit, when the comparison person is not present around the person being evaluated, reads out from the memory unit information regarding the gaze of the person being evaluated who was in the same space in the past, and calculates the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated in the past will be equal to or greater than the predetermined threshold as the second probability, when the comparison person is not present around the person being evaluated.

この構成によると、例えば、深夜に車両を運転しているなど、比較者が近くに存在しにくい状況であっても、被評価者の人間状態を精度良く推定することができる。また、評価者の過去の視線に関する情報は記憶されているため、第2確率を容易に算出することができる。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, the human state of the person being evaluated can be estimated with high accuracy even in a situation where a comparison person is unlikely to be nearby, such as when driving a vehicle late at night. In addition, since information about the evaluator's past line of sight is stored, the second probability can be easily calculated. Therefore, the human state of the person being evaluated can be estimated with high accuracy using calculations that are as simple as possible.

以上説明したように、ここに開示された技術によると、被評価者と同等の属性の他人である比較者や過去に同じ空間にいたときの被評価者と比較するため、トップダウンサリエンシーマップを用いる必要がなく、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 As described above, the technology disclosed herein makes it possible to accurately estimate the human state of the person being evaluated using calculations that are as simple as possible, without the need to use a top-down saliency map, because it compares the person being evaluated with a comparator who has similar attributes to the person being evaluated, or with the person being evaluated when they were in the same space in the past.

図1は、本実施形態1に係る人間状態推定システムにより車両の運転者の人間状態を推定する場合における、車両の内部の概略図である。FIG. 1 is a schematic diagram of the inside of a vehicle when the human state of a driver of the vehicle is estimated by a human state estimating system according to the first embodiment. 図2は、車両を前側から見た正面図である。FIG. 2 is a front view of the vehicle as seen from the front side. 図3は、人間状態推定システムの構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the human state estimation system. 図4は、人間状態推定システムにおける車両とクラウドサーバとの関係を示す概略図である。FIG. 4 is a schematic diagram showing the relationship between a vehicle and a cloud server in the human state estimation system. 図5は、カメラにより撮影された車両前側の外部環境を示す図である。FIG. 5 is a diagram showing the external environment in front of the vehicle captured by a camera. 図6は、カメラで撮影された画像に基づいて算出されたサリエンシーの分布を示す図である。FIG. 6 is a diagram showing the distribution of saliency calculated based on images captured by a camera. 図7は、運転者の注視点のサリエンシーを示すグラフである。FIG. 7 is a graph showing the saliency of the driver's gaze point. 図8は、比較者の注視点のサリエンシーを示すグラフである。FIG. 8 is a graph showing the saliency of the gaze points of the comparison subjects. 図9は、比較者の注視点における閾値を超える割合と運転者の注視点における閾値を超える割合とを比較したROC曲線を示すグラフである。FIG. 9 is a graph showing an ROC curve comparing the rate at which the comparison subject's gaze point exceeds the threshold with the rate at which the driver's gaze point exceeds the threshold. 図10は、図9に示すROC曲線からAUC値を算出する概念を示す図である。FIG. 10 is a diagram showing the concept of calculating the AUC value from the ROC curve shown in FIG. 図11は、人間状態推定のフローチャートである。FIG. 11 is a flowchart of human state estimation. 図12は、本実施形態2に係る人間状態推定システムにより工場の作業者の人間状態を推定する場合における、工場内の状態を示す概略図である。FIG. 12 is a schematic diagram showing a state in a factory when the human state of workers in the factory is estimated by the human state estimation system according to the second embodiment. 図13は、カメラ等の配置を例示する平面図である。FIG. 13 is a plan view illustrating an example of the arrangement of cameras and the like. 図14は、本実施形態2に係る人間状態推定システムの構成を示すブロック図である。FIG. 14 is a block diagram showing the configuration of a human state estimating system according to the second embodiment. 図15は、本実施形態2に係る人間状態推定システムによる人間状態推定のフローチャートである。FIG. 15 is a flowchart of human state estimation by the human state estimation system according to the second embodiment. 図16は、本実施形態3に係る人間状態推定システムを車両に対して採用した場合の構成を示すブロック図である。FIG. 16 is a block diagram showing a configuration in which the human state estimating system according to the third embodiment is applied to a vehicle. 図17は、本実施形態3に係る人間状態推定システムによる人間状態推定のフローチャートである。FIG. 17 is a flowchart of human state estimation by the human state estimation system according to the third embodiment. 図18は、本実施形態4に係る人間状態推定システムを車両に対して採用した場合の構成を示すブロック図である。FIG. 18 is a block diagram showing a configuration in which the human state estimating system according to the fourth embodiment is applied to a vehicle. 図19は、本実施形態4に係る人間状態推定システムによる人間状態推定のフローチャートの一部である。FIG. 19 is a part of a flowchart of human state estimation by the human state estimation system according to the fourth embodiment. 図20は、本実施形態4に係る人間状態推定システムによる人間状態推定のフローチャートの残部である。FIG. 20 shows the remaining part of the flowchart of human state estimation by the human state estimation system according to the fourth embodiment.

〈実施形態1〉
以下、例示的な実施形態1について、図面を参照しながら詳細に説明する。実施形態1は、人間状態推定システム50(図3参照)を自動車の運転手を対象に適用した場合である。尚、以下の実施形態1の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。
First Embodiment
An exemplary embodiment 1 will be described in detail below with reference to the drawings. In the embodiment 1, a human state estimation system 50 (see FIG. 3) is applied to a driver of a vehicle. In the following description of the embodiment 1, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. In addition, the left side when looking at the front side from the rear side is referred to as the left side, and the opposite is referred to as the right side.

図1は、人間状態推定システム50が採用された自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール8が配置されている。 Figure 1 shows a schematic diagram of the interior of a vehicle in which a human state estimation system 50 is used. This vehicle is a right-hand drive vehicle, with the steering wheel 8 located on the right side.

車室内において、運転席から見て車両前側にはフロントウィンドウガラス1が配置されている。フロントウィンドウガラス1は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス1は、左右のフロントピラートリム2と、ルーフトリム3と、インストルメントパネル4とによって区画されている。 In the vehicle interior, a windshield glass 1 is disposed at the front of the vehicle as viewed from the driver's seat. When viewed from inside the vehicle interior, the windshield glass 1 is defined by a number of vehicle components. Specifically, the windshield glass 1 is defined by left and right front pillar trims 2, a roof trim 3, and an instrument panel 4.

左右のフロントピラートリム2は、フロントウィンドウガラス1の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム2は、各フロントピラー12に沿って配置されている。各フロントピラートリム2は、図1に示すように、上側に向かって互いに離間するように斜めに傾斜してそれぞれ配置されている。 The left and right front pillar trims 2 each form the outer boundary of the front windshield glass 1 in the vehicle width direction. Each front pillar trim 2 is disposed along each front pillar 12. As shown in FIG. 1, each front pillar trim 2 is disposed at an angle so that they are spaced apart from each other toward the upper side.

ルーフトリム3は、フロントウィンドウガラス1の上側の境界を構成している。ルーフトリム3は、車両のルーフパネル13の車室内側を覆っている。フロントウィンドウガラス1の車幅方向の中央でかつルーフトリム3のやや下側の部分には、バックミラー5が取り付けられている。ルーフトリム3におけるバックミラー5の近傍部分には、車室内、特に、運転者(以下、被評価者という)の顔面を撮影する車内カメラ101(図3参照)が設けられている。車内カメラ101は、被評価者の瞳孔の変化を検出できる程度に高性能なカメラで構成されている。 The roof trim 3 forms the upper boundary of the front windshield glass 1. The roof trim 3 covers the inside of the vehicle cabin of the roof panel 13 of the vehicle. A rearview mirror 5 is attached to the center of the front windshield glass 1 in the vehicle width direction and slightly below the roof trim 3. An in-vehicle camera 101 (see Figure 3) is provided in the roof trim 3 near the rearview mirror 5 to capture images of the interior of the vehicle cabin, and in particular the face of the driver (hereinafter referred to as the person being evaluated). The in-vehicle camera 101 is a high-performance camera that is capable of detecting changes in the pupils of the person being evaluated.

インストルメントパネル4は、フロントウィンドウガラス1の下側の境界を構成している。インストルメントパネル4には、メーターボックスやディスプレイ7が設けられている。 The instrument panel 4 forms the lower boundary of the front windshield glass 1. The instrument panel 4 is provided with a meter box and a display 7.

また、前記車両は、左右のフロントピラー12よりも車幅方向外側に、サイドミラー6をそれぞれ有している。各サイドミラー6は、運転席に着座した被評価者がサイドドアのウィンドウ越しに見ることが出来るように配置されている。 The vehicle also has side mirrors 6 located on the outside of the left and right front pillars 12 in the vehicle width direction. Each side mirror 6 is positioned so that the subject sitting in the driver's seat can see through the side door window.

前記車両は、図2に示すように、車両前側の外部環境を撮影するための車外カメラ100が設けられている。車外カメラ100は、車両の前側端部であって、車両のボンネット9よりもやや下側に配置されている。 As shown in FIG. 2, the vehicle is provided with an exterior camera 100 for capturing images of the external environment in front of the vehicle. The exterior camera 100 is located at the front end of the vehicle, slightly below the bonnet 9 of the vehicle.

本実施形態に係る人間状態推定システム50は、被評価者の視線移動と、自車両の周囲に存在する、被評価者と同等の属性を有する他の運転者(以下、比較者という)の視線移動とを比較することで、被評価者の状態を推定する。ここでいう「属性」とは、比較者の位置する空間、比較者の年齢、対象ジョブ(ここでは車両の運転)に対する比較者の熟練度等をいう。つまり、比較者とは、例えば、被評価者と同じ空間に位置し、被評価者と同程度であり、被評価者と運転レベルが同程度の運転者をいう。尚、比較者の属性は、被評価者と厳密に同じである必要はなく、被評価者と同程度とみなせる属性であればよい。 The human state estimation system 50 according to this embodiment estimates the state of the person being evaluated by comparing the gaze movements of the person being evaluated with the gaze movements of other drivers (hereinafter referred to as comparators) who are present around the vehicle and have attributes similar to those of the person being evaluated. The "attributes" referred to here refer to the space in which the comparator is located, the age of the comparator, the proficiency of the comparator in the target job (driving a vehicle in this case), and the like. In other words, a comparator refers to, for example, a driver who is located in the same space as the person being evaluated, is at the same level as the person being evaluated, and has a driving level similar to that of the person being evaluated. The attributes of the comparator do not need to be strictly the same as those of the person being evaluated, as long as they can be considered to be at the same level as those of the person being evaluated.

図3は、人間状態推定システム50の構成を概略的に示す。人間状態推定システム50は、一部の演算にクラウドサーバ70を利用する。クラウドサーバ70は、被評価者の運転する自車両VAから被評価者の情報を取得するとともに、比較者の運転する他車両VBから比較者の情報を取得する。 Figure 3 shows a schematic configuration of the human state estimation system 50. The human state estimation system 50 uses a cloud server 70 for some of its calculations. The cloud server 70 acquires information about the person being evaluated from the vehicle VA driven by the person being evaluated, and acquires information about the comparator from another vehicle VB driven by the comparator.

自車両VAは、被評価者の視線情報を算出するためのコントローラ60を有する。このコントローラ60は、周知のマイクロコンピュータをベースとするコントローラであって、プログラムを実行する中央演算処理装置(Central Processing Unit:CPU)と、例えばRAM(Random Access Memory)やROM(Read Only Memory)により構成されてプログラム及びデータを格納するメモリと、電気信号の入出力をする入出力バスと、を備えている。 The vehicle VA has a controller 60 for calculating the gaze information of the person being evaluated. This controller 60 is a controller based on a well-known microcomputer, and includes a central processing unit (CPU) for executing programs, a memory configured, for example, from a random access memory (RAM) or a read only memory (ROM) for storing programs and data, and an input/output bus for inputting and outputting electrical signals.

コントローラ60は、図3に示すように、各種のセンサと接続されている。センサは、例えば、
被評価者の前方視界に含まれる画像を取得する車外カメラ100と、
被評価者の顔面を撮影する車内カメラ101と、
自車両VAの車速を検出する車速センサ102と、
自車両VAに入力される前後加速度を検出する加速度センサ103と、
自車両VAに入力される横加速度を検出するヨーレートセンサ104と、
ステアリングホイール8に連動して回動するステアリングシャフトの回動角から自車両VAの操舵角を検出する操舵角センサ105と、
前記ステアリングシャフトを介してステアリングホイール8に入力する操舵トルクを検出する操舵トルクセンサ106と、
自車両VAのアクセルペダルの踏み込み量からアクセル開度を検出するアクセル開度センサ107と、
自車両VAのブレーキペダルの踏み込み量からブレーキ圧を検出するブレーキ圧センサ108と、
全地球測位システム(Global Positioning System:GPS)を利用して、自車両VAの位置を検出するGPSセンサ109と、
を含む。
The controller 60 is connected to various sensors as shown in FIG.
An exterior camera 100 for capturing an image included in the forward field of view of the subject;
An in-vehicle camera 101 that captures the face of the person being evaluated;
A vehicle speed sensor 102 for detecting the speed of the host vehicle VA;
An acceleration sensor 103 for detecting a longitudinal acceleration input to the host vehicle VA;
A yaw rate sensor 104 for detecting a lateral acceleration input to the host vehicle VA;
a steering angle sensor 105 for detecting a steering angle of the host vehicle VA from a rotation angle of a steering shaft which rotates in conjunction with the steering wheel 8;
a steering torque sensor 106 for detecting a steering torque input to the steering wheel 8 via the steering shaft;
an accelerator opening sensor 107 that detects an accelerator opening from an amount of depression of an accelerator pedal of the host vehicle VA;
A brake pressure sensor 108 that detects a brake pressure based on a depression amount of a brake pedal of the host vehicle VA;
A GPS sensor 109 that detects the position of the host vehicle VA using a Global Positioning System (GPS);
Includes.

また、コントローラ60は、クラウドサーバ70からの情報を取得するクラウドサーバ受信機71と接続されている。クラウドサーバ受信機71とクラウドサーバ70とは無線通信により通信可能である。 The controller 60 is also connected to a cloud server receiver 71 that acquires information from the cloud server 70. The cloud server receiver 71 and the cloud server 70 can communicate with each other via wireless communication.

コントローラ60は、車内カメラ101により撮影された被評価者の眼球から、被評価者の視線方向を算出する視線算出部61を有する。視線算出部61は、例えば、被評価者が車内カメラ101のレンズを覗いた状態を基準にして、そこからの被評価者の瞳孔の変化を検知することで被評価者の視線方向を算出する。視線方向の算出は、被評価者の左目及び右目のどちらか一方から算出してもよいし、被評価者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、被評価者の瞳孔の変化から被評価者の視線方向を算出することが困難であるときには、被評価者の顔面の向きを更に考慮して視線方向を算出してもよい。自車両VAの車内カメラ101及びコントローラ60は、視線情報取得部を構成する。 The controller 60 has a gaze calculation unit 61 that calculates the gaze direction of the person being evaluated from the eyeball of the person being evaluated photographed by the in-vehicle camera 101. The gaze calculation unit 61 calculates the gaze direction of the person being evaluated, for example, by detecting changes in the pupil of the person being evaluated based on the state in which the person is looking into the lens of the in-vehicle camera 101. The gaze direction may be calculated from either the left or right eye of the person being evaluated, or may be calculated as the average of the gaze directions (gaze vectors) obtained from both eyes of the person being evaluated. In addition, when it is difficult to calculate the gaze direction of the person being evaluated from changes in the pupil of the person being evaluated, the gaze direction may be calculated by further taking into account the direction of the person's face. The in-vehicle camera 101 and the controller 60 of the vehicle VA constitute a gaze information acquisition unit.

コントローラ60は、車外カメラ100が取得した画像データに基づいて、車両前側の物標に対して、被評価者の視線の惹きつけやすさを示すサリエンシーを算出して、サリエンシーマップを生成するマップ生成部62を有する。サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。すなわち、サリエンシーが高いとは、顕著性が高いことを表し、サリエンシーが高い領域とは周囲に対して目立つ領域のことである。より具体的には、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域は、サリエンシーが高くなる。 The controller 60 has a map generator 62 that calculates saliency, which indicates how easily an object in front of the vehicle attracts the subject's gaze, based on image data acquired by the exterior camera 100, and generates a saliency map. Saliency is a visual feature consisting of salience that changes from moment to moment due to color, brightness, movement, etc. In other words, high saliency indicates high salience, and an area with high saliency is an area that stands out compared to its surroundings. More specifically, an area that has a large color difference or brightness difference compared to the surrounding areas, or that moves significantly compared to its surroundings, has high saliency.

自車両VAは、各種センサ100~109からの情報をクラウドサーバ70に送信するためのクラウドサーバ送信機72を有する。クラウドサーバ送信機72とクラウドサーバ70とは無線通信により通信可能である。 The vehicle VA has a cloud server transmitter 72 for transmitting information from the various sensors 100 to 109 to the cloud server 70. The cloud server transmitter 72 and the cloud server 70 can communicate with each other via wireless communication.

自車両VAは、推定された被評価者の状態に応じて、自車両VAの操舵や加減速などの運転を支援する運転支援装置110を有する。 The vehicle VA has a driving assistance device 110 that assists in steering, accelerating, decelerating, and other driving of the vehicle VA according to the estimated state of the person being evaluated.

他車両VBの構成は、基本的には自車両VAと同じであるため、詳細な説明を省略する。他車両VBの視線算出部61は、比較者の視線情報を取得する比較者視線情報取得部を構成する。 The configuration of the other vehicle VB is basically the same as that of the host vehicle VA, so a detailed description will be omitted. The gaze calculation unit 61 of the other vehicle VB constitutes a comparison person gaze information acquisition unit that acquires the gaze information of the comparison person.

クラウドサーバ70は、自車両VA及び他車両VBのGPSセンサ109からの情報に基づいて、自車両VAの周囲に位置する他車両VBを検出する。GPSセンサ109及びクラウドサーバ70は、周辺情報取得部を構成する。 The cloud server 70 detects other vehicles VB located around the host vehicle VA based on information from the GPS sensors 109 of the host vehicle VA and the other vehicles VB. The GPS sensor 109 and the cloud server 70 constitute a surrounding information acquisition unit.

自車両VA及び他車両VBから取得した各種センサ100~109からの情報に基づいて、他車両VBの運転者の属性が被評価者の属性と同等であるか否かを判定する。クラウドサーバ70は、図4に示すように、自車両VAの周囲に位置する複数の他車両VBのそれぞれから情報を取得して、各他車両VBの運転者の属性と被評価者の属性とをそれぞれ比較する。そして、クラウドサーバ70は、各他車両VBの運転者から被評価者と同等の属性の運転者を比較者として選択する。クラウドサーバ70は、比較者が2人以上存在するときには、比較者を2人以上選択する。クラウドサーバ70は、各他車両VBの走行距離や走行頻度、加減速のタイミングなどから、各他車両VBの運転者の属性と被評価者の属性とが同じであるか否かを判定する。 Based on information from various sensors 100-109 acquired from the vehicle VA and the other vehicle VB, the cloud server 70 determines whether the attributes of the driver of the other vehicle VB are equivalent to the attributes of the person being evaluated. As shown in FIG. 4, the cloud server 70 acquires information from each of the multiple other vehicles VB located around the vehicle VA, and compares the attributes of the driver of each other vehicle VB with the attributes of the person being evaluated. The cloud server 70 then selects a driver of each other vehicle VB who has attributes equivalent to the person being evaluated as a comparator. When there are two or more comparators, the cloud server 70 selects two or more comparators. The cloud server 70 determines whether the attributes of the driver of each other vehicle VB are the same as the attributes of the person being evaluated based on the driving distance, driving frequency, and timing of acceleration and deceleration of each other vehicle VB.

クラウドサーバ70は、自車両VAからサリエンシーマップ及び被評価者の視線方向に基づいて、被評価者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(以下、第1確率という)を算出する。また、クラウドサーバ70は、他車両VBからサリエンシーマップ及び比較者の視線方向に基づいて、比較者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(以下、第2確率という)を算出する。第1確率及び第2確率の算出方法については後述する。クラウドサーバ70は、第1確率演算部及び第2確率演算部を構成する。 The cloud server 70 calculates the probability (hereinafter referred to as the first probability) that the saliency at a position on the saliency map indicated by the gaze information of the person being evaluated will be equal to or greater than a predetermined threshold based on the saliency map from the subject's vehicle VA and the gaze direction of the person being evaluated. The cloud server 70 also calculates the probability (hereinafter referred to as the second probability) that the saliency at a position on the saliency map indicated by the gaze information of the person being evaluated will be equal to or greater than a predetermined threshold based on the saliency map from the other vehicle VB and the gaze direction of the person being evaluated. The calculation methods of the first probability and the second probability will be described later. The cloud server 70 constitutes a first probability calculation unit and a second probability calculation unit.

クラウドサーバ70は、算出した第1確率及び第2確率に基づいて、被評価者が異常状態であるかを推定する。クラウドサーバ70は、推定結果を自車両VAに送信する。クラウドサーバ70は、異常推定部を構成する。 The cloud server 70 estimates whether the person being evaluated is in an abnormal state based on the calculated first probability and second probability. The cloud server 70 transmits the estimation result to the vehicle VA. The cloud server 70 constitutes an abnormality estimation unit.

(サリエンシーマップの生成)
次に、マップ生成部62によるサリエンシーマップに生成について説明する。
(Generating saliency maps)
Next, generation of the saliency map by the map generating unit 62 will be described.

図5は、車外カメラ100が撮影した被評価者の前方視界に含まれる画像である。この画像に示す前方視界には、車道150と、車道150上の白線151とが含まれている。また、この画像D1に示された外部環境には、他車両161と、車道150の右側に形成された壁162と、壁162よりも右側の領域に植えられた樹木163と、壁162よりも右側の領域に広がる丘164と、車道150の左側に形成された森林165が含まれている。また、この画像D1に示された外部環境には、建物166と、建物166及び森林165の上側に広がる空167が含まれている。 Figure 5 is an image captured by the exterior camera 100 and included in the forward field of view of the subject. The forward field of view shown in this image includes the roadway 150 and the white line 151 on the roadway 150. The external environment shown in image D1 also includes another vehicle 161, a wall 162 formed on the right side of the roadway 150, trees 163 planted in the area to the right of the wall 162, a hill 164 extending into the area to the right of the wall 162, and a forest 165 formed on the left side of the roadway 150. The external environment shown in image D1 also includes a building 166 and the sky 167 extending above the building 166 and the forest 165.

マップ生成部62は、撮像された画像に対してサリエンシーを算出して、サリエンシーマップを生成する。前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。マップ生成部62は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的なサリエンシーマップを生成する。 The map generation unit 62 calculates saliency for the captured image and generates a saliency map. As described above, saliency changes depending on the color, brightness, movement, etc. of the target. The map generation unit 62 calculates saliency for each feature, such as saliency based on color, saliency based on brightness, and saliency based on movement, and generates a saliency map for each feature, and then adds them together to generate the final saliency map.

例えば、色に基づくサリエンシーについては、マップ生成部62は、画像における周囲との色差が大きい部分には、該色差が小さい部分と比較して、近傍領域のサリエンシーを高くする。尚、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)+(G2-G1)+(B2-B1)}1/2
マップ生成部62は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, for saliency based on color, the map generator 62 increases the saliency of a nearby area in an area with a large color difference from the surroundings in the image, compared to an area with a small color difference. Note that the color difference is calculated by the following formula when the RGB of a pixel is (R1, G1, B1) and the RGB of another pixel is (R2, G2, B2).
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The map generating unit 62 may calculate the saliency so that it continuously increases as the color difference increases, or may set a number of thresholds and calculate the saliency so that it increases by a certain value each time the threshold is exceeded.

また、例えば、輝度に基づくサリエンシーについては、マップ生成部62は、画像における周囲との輝度差が大きい部分には、該輝度差が小さい部分と比較して、近傍領域のサリエンシーを高くする。マップ生成部62は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。 For example, with regard to saliency based on luminance, the map generating unit 62 increases the saliency of nearby areas in areas of the image where the luminance difference from the surroundings is large, compared to areas where the luminance difference is small. The map generating unit 62 may calculate the saliency so that it is continuously higher as the luminance difference increases, or may set multiple thresholds and calculate the saliency so that it increases by a certain value each time the threshold is exceeded.

さらに、動きに基づくサリエンシーについては、マップ生成部62は、自車両VAに対して相対的な動きが大きいものに対して、サリエンシーを高くする。例えば、空167を鳥が横切ったとき等には、鳥の周囲部分のサリエンシーを高くする。 Furthermore, for saliency based on movement, the map generation unit 62 increases the saliency for objects with large relative movement with respect to the host vehicle VA. For example, when a bird crosses the sky 167, the saliency of the area surrounding the bird is increased.

尚、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップ(ここではサリエンシーマップ)の算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 The calculation of saliency itself can be performed using known computer programs available on the Internet, etc. Also, known computer programs can be used to calculate the saliency map for each feature (here, the saliency map) and to integrate each saliency map.

図6は、車外カメラ100で撮影された画像に対してサリエンシーを算出した場合のサリエンシーマップである。図6に示すように、例えば、樹木163及び森林165における空167との境界部分や、車道150の左側の白線151は、色差や輝度差が高くなるためサリエンシーの高い領域(高サリエンシー領域)となっている。逆に車道150や空167は大部分が類似して、色差等が低いため、サリエンシーの低い部分が多くなる。 Figure 6 is a saliency map when saliency is calculated for an image captured by the exterior camera 100. As shown in Figure 6, for example, the boundary between trees 163 and forest 165 and sky 167, and the white line 151 on the left side of the roadway 150 are areas of high saliency (high saliency areas) because of high color difference and brightness difference. Conversely, the roadway 150 and sky 167 are largely similar and have low color difference, resulting in many areas of low saliency.

自車両VAと他車両VBとは、厳密には位置が異なるため、各マップ生成部62が生成する各サリエンシーマップは厳密には一致しない。しかし、物標の大半が共通してさえいれば、このサリエンシーマップのずれは、後述する人間状態を推定する上で問題とならない程度のずれである。 The positions of the vehicle VA and the other vehicle VB are different to be exact, so the saliency maps generated by each map generation unit 62 do not strictly match. However, as long as the majority of the targets are the same, the discrepancy in the saliency maps is not significant enough to cause problems when estimating the human state, as described below.

(人間状態の推定)
次に人間状態の推定について図7~図10を参照しながら説明する。
(Estimation of the human condition)
Next, estimation of a human state will be described with reference to FIGS.

図7は、被評価者の注視点、すなわち、被評価者の視線の先にある点のサリエンシーをプロットしたものである。このグラフは、視線算出部61により被評価者の視線方向を割り出して、該視線方向の先にある注視点をサリエンシーマップに当てはめて、該サリエンシーマップから当該注視点のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。 Figure 7 plots the saliency of the gaze point of the person being evaluated, i.e., the point in the direction of the person being evaluated's line of sight. This graph is generated by determining the gaze direction of the person being evaluated using the gaze calculation unit 61, applying the gaze point in the direction of the gaze to a saliency map, and determining the saliency of the gaze point from the saliency map. Each of these points is determined at a predetermined sampling period.

一方で、図8は、比較者の注視点、すなわち、比較者の視線の先にある点のサリエンシーをプロットしたものである。このグラフは、他車両VBの視線算出部61により比較者の視線方向を割り出して、該視線方向の先にある注視点を他車両VBのマップ生成部62が生成したサリエンシーマップに当てはめて、該サリエンシーマップから当該注視点のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。 On the other hand, Figure 8 plots the saliency of the comparator's gaze point, i.e., the point in the direction of the comparator's line of sight. This graph is generated by determining the gaze direction of the comparator using the gaze calculation unit 61 of the other vehicle VB, applying the gaze point in the direction of that gaze to the saliency map generated by the map generation unit 62 of the other vehicle VB, and determining the saliency of that gaze point from the saliency map. Each of these points is determined at a predetermined sampling period.

クラウドサーバ70は、図7及び図8のグラフをそれぞれ作成した後は、比較者の注視点における閾値を超える割合と被評価者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図7及び図8のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図7及び図8のグラフにおいて最小値以下になるまで繰り返す。被評価者の注視点における閾値を超える割合が第1確率に相当し、比較者の注視点における閾値を超える割合が第2確率に相当する。 After creating the graphs of FIG. 7 and FIG. 8, the cloud server 70 obtains a receiver operating characteristic (ROC) curve of the percentage of points at which the threshold is exceeded at the gaze point of the comparator and the percentage of points at which the threshold is exceeded at the gaze point of the assessee. Specifically, in the first step, the threshold is set to a value greater than the maximum value in the graphs of FIG. 7 and FIG. 8. Next, in the second step, the percentage of points at which the threshold is exceeded is obtained for each threshold while lowering the threshold. This second step is then repeated until the threshold becomes equal to or less than the minimum value in the graphs of FIG. 7 and FIG. 8. The percentage of points at which the threshold is exceeded at the gaze point of the assessee corresponds to a first probability, and the percentage of points at which the threshold is exceeded at the gaze point of the comparator corresponds to a second probability.

図7及び図8に示すグラフは、所定時間毎に区切って生成される。所定時間は、ROC曲線を作成するのに十分な時間でかつ出来る限り早期に人間状態を推定できる時間に設定されている。所定時間は、例えば30秒である。 The graphs shown in Figures 7 and 8 are generated in intervals of a predetermined time. The predetermined time is set to a time that is sufficient to create an ROC curve and that allows for an estimation of the human state as early as possible. The predetermined time is, for example, 30 seconds.

クラウドサーバ70は、前記第1及び第2ステップの後、第3ステップとして、第2確率を横軸にとりかつ第1確率を縦軸にとって、図9のようなROC曲線を作成する。図9のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, the cloud server 70 creates an ROC curve as shown in FIG. 9 as a third step by plotting the second probability on the horizontal axis and the first probability on the vertical axis. In the graph of FIG. 9, since both the horizontal and vertical axes are probabilities, the minimum value of the curve is 0 and the maximum value is 1.

図9において破線は、被評価者の視線の動きと比較者の視線の視線の動きとにほとんど差がないことを表す。これに対して、図9の曲線C1のように、曲線が上側に凸に広がる場合は、被評価者の注視点は、比較者の注視点よりも閾値を超える割合が高いことを表す。すなわち、図9の曲線C1のような形状の曲線が算出されたときは、被評価者の視線が、比較者の視線と比較して、高サリエンシー領域を見る傾向にあることを意味している。一方で、図9の曲線C2のように、曲線が下側に凸に広がる場合は、被評価者の注視点は、比較者の注視点よりも閾値を超える割合が低いことを表す。すなわち、図9の曲線C2のような形状の曲線が算出されたときは、被評価者の視線が、比較者の視線と比較して、サリエンシーの低い領域(低サリエンシー領域)を見る傾向にあることを意味している。 In FIG. 9, the dashed line indicates that there is almost no difference between the gaze movement of the subject and the gaze movement of the comparator. In contrast, when the curve spreads upward in a convex shape, as in the curve C1 in FIG. 9, it indicates that the gaze of the subject exceeds the threshold more frequently than the gaze of the comparator. In other words, when a curve with a shape like the curve C1 in FIG. 9 is calculated, it means that the gaze of the subject tends to look at the high saliency area compared to the gaze of the comparator. On the other hand, when the curve spreads downward in a convex shape, as in the curve C2 in FIG. 9, it indicates that the gaze of the subject exceeds the threshold less frequently than the gaze of the comparator. In other words, when a curve with a shape like the curve C2 in FIG. 9 is calculated, it means that the gaze of the subject tends to look at the low saliency area compared to the gaze of the comparator.

本実施形態では、クラウドサーバ70は、第4ステップとして、ROC曲線の下側の面積であるAUC(Area Under Curve)値を求める。AUC値は、例えば、ROC曲線が曲線C1である場合には、図10のハッチングが付された領域の面積に相当する。AUC値を算出することで、第1確率と第2確率との乖離の度合い、すなわち、被評価者の視線と比較者の視線との乖離の度合いを評価することができる。具体的には、被評価者の視線が比較者よりも高サリエンシー領域を向く傾向が強くなると、AUC値が大きくなり、一方で、被評価者の視線が比較者よりも低サリエンシー領域を向く傾向が強くなると、AUC値が小さくなる。 In this embodiment, the cloud server 70 calculates the AUC (Area Under Curve) value, which is the area under the ROC curve, as a fourth step. For example, when the ROC curve is curve C1, the AUC value corresponds to the area of the hatched region in FIG. 10. By calculating the AUC value, it is possible to evaluate the degree of deviation between the first probability and the second probability, that is, the degree of deviation between the gaze of the person being evaluated and the gaze of the comparator. Specifically, when the gaze of the person being evaluated tends to be directed toward the high saliency region more than the comparator, the AUC value becomes larger, whereas when the gaze of the person being evaluated tends to be directed toward the low saliency region more than the comparator, the AUC value becomes smaller.

次に、第5ステップとして、予め設定された計測期間分の各AUC値のうち、基準値から所定値以上乖離するAUC値の割合である推定指標値を算出する。計測期間は、所定時間よりも長い期間であり、計測期間には複数の所定時間が含まれる。本実施形態では、基準値を0.5に設定している。すなわち、比較者は、被評価者と同じ属性を有するため、被評価者が正常な状態であれば、第1確率と第2確率とはあまり差が生じない。したがって、被評価者が正常な状態であれば、AUC値は0.5になるためである。本実施形態では、前記所定値は、マイナス側が0.2に設定され、プラス側が0.1に設定されている。プラス側がマイナス側と比べて厳しい基準となっているのは、被評価者が漫然状態等の異常状態にあるときには、被評価者は高サリエンシー領域に視線を向ける傾向にあるためである。推定指標値は、被評価者の注視点のサリエンシーと比較者の注視点のサリエンシーとのずれを表している。具体的には、推定指標値が大きいほど、被評価者の注視点のサリエンシーと比較者の注視点のサリエンシーとのずれが大きいことを表す。 Next, as a fifth step, an estimated index value is calculated, which is the ratio of AUC values that deviate from the reference value by a predetermined value or more among each AUC value for a preset measurement period. The measurement period is longer than the predetermined time, and includes a plurality of predetermined times. In this embodiment, the reference value is set to 0.5. That is, since the comparator has the same attributes as the person being evaluated, if the person being evaluated is in a normal state, there is not much difference between the first probability and the second probability. Therefore, if the person being evaluated is in a normal state, the AUC value will be 0.5. In this embodiment, the negative side of the predetermined value is set to 0.2, and the positive side is set to 0.1. The reason why the positive side is a stricter standard than the negative side is that when the person being evaluated is in an abnormal state such as a absent-minded state, the person being evaluated tends to direct his or her gaze toward a high saliency area. The estimated index value represents the deviation between the saliency of the person being evaluated's gaze point and the saliency of the person being compared. Specifically, the larger the estimated index value, the greater the discrepancy between the saliency of the subject's gaze point and the saliency of the comparison subject's gaze point.

そして、クラウドサーバ70は、第6ステップとして、推定指標値が予め設定された特定値以上であるか否かを判定する。具体的には、推定指標値が特定値以上であれば、被評価者が比較者とは異なる状態、すなわち異常状態であると推定する。本実施形態では、特定値は60%に設定されている。 Then, in the sixth step, the cloud server 70 determines whether the estimated index value is equal to or greater than a specific value set in advance. Specifically, if the estimated index value is equal to or greater than a specific value, it is estimated that the person being evaluated is in a different state from the comparator, i.e., in an abnormal state. In this embodiment, the specific value is set to 60%.

このように、被評価者が注視した箇所のサリエンシーと、比較者が注視した箇所のサリエンシーとを比較するようにすれば、高サリエンシー領域の多さや広がり等の、走行シーンへの依存性を低減することができる。 In this way, by comparing the saliency of the areas gazed upon by the person being evaluated with the saliency of the areas gazed upon by the comparison person, it is possible to reduce dependency on the driving scene, such as the number and extent of high saliency areas.

特に、被評価者の視線に基づく第1確率と比較者の視線に基づく第2確率とを比較して、AUC値を算出することで、被評価者の人間状態を精度良く推定することができる。具体的には、例えば、被評価者が高サリエンシー領域を見た割合を算出するだけでは、高サリエンシー領域がサリエンシーマップ全体に広がる走行シーンであった場合に、たとえ被評価者が視界領域全体を偏りなく見ていたとしても、被評価者は高サリエンシー領域を見る頻度が高いと判定されてしまう。また、被評価者が運転経験の浅い運転者であるときには、視野が狭くなる傾向にあり、視線が特定の箇所に偏ってしまうことがある。本実施形態のように、比較者が注視した箇所のサリエンシーとの比較を行うようにすれば、高サリエンシー領域の多さや広がり等の走行シーンの依存性や被評価者間の個人差の依存性を低減することができる。これにより、被評価者の視線情報に基づいて、被評価者の人間状態を精度良く推定することができる。 In particular, the first probability based on the gaze of the assessee and the second probability based on the gaze of the comparator are compared to calculate the AUC value, and the human state of the assessee can be accurately estimated. Specifically, for example, if the rate at which the assessee looks at the high saliency area is calculated, even if the assessee looks at the entire field of view without bias, the assessee will be determined to look at the high saliency area frequently when the high saliency area is spread over the entire saliency map. In addition, when the assessee is a driver with little driving experience, the field of view tends to be narrow, and the gaze may be biased to a specific location. As in this embodiment, by comparing with the saliency of the location gazed by the comparator, the dependency of the driving scene, such as the number and spread of high saliency areas, and the dependency of individual differences between assessees can be reduced. This makes it possible to accurately estimate the human state of the assessee based on the gaze information of the assessee.

尚、被評価者の周囲に比較者が存在しないときには、クラウドサーバ70が、自車両VAのコントローラ60が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。そして、ランダム点のサリエンシーから第2確率を算出する。被評価者が正常な状態であれば、基本的には、被評価者の視線は、高サリエンシー領域に引っ張られることなく、視界全体に万遍なく向く。このため、ランダム点のサリエンシーから算出した第2確率と第1確率とを比較した場合も、被評価者が正常な状態であれば、ACUは0.5に近い値になる。したがって、ランダム点のサリエンシーから第2確率を算出したとしても、精度が大きく低下することはない。 When there is no comparison person around the person being evaluated, the cloud server 70 randomly specifies multiple coordinates on the saliency map generated by the controller 60 of the subject vehicle VA, and calculates the saliency of each coordinate. The second probability is then calculated from the saliency of the random points. If the person being evaluated is in a normal state, the person's gaze is basically directed evenly across the entire field of vision without being pulled toward high saliency areas. For this reason, even when the second probability calculated from the saliency of the random points is compared with the first probability, if the person being evaluated is in a normal state, the ACU will be close to 0.5. Therefore, even if the second probability is calculated from the saliency of the random points, there is no significant decrease in accuracy.

(フローチャート)
次に、人間状態推定システム50より被評価者の人間状態を推定する処理動作を図11のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human state estimating system 50 will be described with reference to the flowchart of FIG.

まず、ステップS101において、人間状態推定システム50は、自車両VAの周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。 First, in step S101, the human state estimation system 50 acquires various data including information about the surroundings of the vehicle VA and an image of the subject's forward field of vision.

次に、ステップS102において、人間状態推定システム50は、自車両VAの車内カメラ101で撮像された画像から被評価者の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS102の時点で、自車両VAのコントローラ60は、前記ステップS101で取得した画像データを基にサリエンシーマップを生成している。このステップS102で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。 Next, in step S102, the human state estimation system 50 acquires gaze information of the person being evaluated from the image captured by the in-vehicle camera 101 of the subject's vehicle VA. Although not shown in the flowchart, at the time of step S102, the controller 60 of the subject's vehicle VA has generated a saliency map based on the image data acquired in step S101. The gaze information of the person being evaluated acquired in step S102 includes the saliency in the direction of the subject's gaze.

次に、ステップS103において、人間状態推定システム50は、自車両VAの周囲に比較者となり得る他車両VBの運転者が存在するか否かを判定する。人間状態推定システム50は、他車両VBの位置情報や運転に関する各種センサ102~108の検出結果に基づいて、比較者の有無を判定する。人間状態推定システム50は、比較者が存在するYESのときには、ステップS104に進む。一方で、人間状態推定システム50は、比較者が存在しないNOのときには、ステップS108に進む。 Next, in step S103, the human state estimation system 50 determines whether or not a driver of another vehicle VB who could be a comparator is present around the host vehicle VA. The human state estimation system 50 determines the presence or absence of a comparator based on the position information of the other vehicle VB and the detection results of the various sensors 102-108 related to driving. If the result is YES, meaning that a comparator is present, the human state estimation system 50 proceeds to step S104. On the other hand, if the result is NO, meaning that a comparator is not present, the human state estimation system 50 proceeds to step S108.

前記ステップS104では、人間状態推定システム50は、他車両VBの車内カメラ101で撮像された画像から比較者の視線情報を取得する。尚、このステップS104は、前記ステップS103の判定後に行うのではなく、実際には、他車両VBにおいて、前記ステップS102と同時進行で行われている。また、フローチャートでは省略しているが、このステップS104の時点で、他車両VBのコントローラ60も、他車両VBで取得された画像データを基にサリエンシーマップを生成している。このステップS104で取得される比較者の視線情報は、比較者の視線の先のサリエンシーも含む情報である。 In step S104, the human state estimation system 50 acquires gaze information of the comparator from the image captured by the in-vehicle camera 101 of the other vehicle VB. Note that this step S104 is not performed after the judgment of step S103, but is actually performed in the other vehicle VB simultaneously with step S102. Also, although it is omitted in the flowchart, at the time of this step S104, the controller 60 of the other vehicle VB also generates a saliency map based on the image data acquired by the other vehicle VB. The gaze information of the comparator acquired in this step S104 is information that includes the saliency in the direction of the comparator's gaze.

次に、ステップS105において、人間状態推定システム50は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム50は、所定時間が経過したYESのときには、ステップS106に進む。一方で、人間状態推定システム50は、所定時間が経過していないNOのときには、ステップS101に戻る。尚、ステップS101まで戻るのは、所定時間が経過するまでの間に、被評価者の周囲の状況が変化して、比較者の有無等にも変化があるためである。 Next, in step S105, the human state estimation system 50 determines whether a predetermined time has elapsed, and in particular whether gaze information of the person being evaluated and the comparison person has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 50 proceeds to step S106. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 50 returns to step S101. The reason for returning to step S101 is that the situation around the person being evaluated changes before the predetermined time has elapsed, and there is also a change in the presence or absence of a comparison person, etc.

前記ステップS106では、人間状態推定システム50は、被評価者の視線情報から第1確率を算出する。 In step S106, the human state estimation system 50 calculates the first probability from the gaze information of the person being evaluated.

次に、ステップS107では、人間状態推定システム50は、比較者の視線情報から第2確率を算出する。 Next, in step S107, the human state estimation system 50 calculates a second probability from the gaze information of the comparison person.

一方で、前記ステップS103の判定がNOであるときに進むステップS108では、人間状態推定システム50は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は、30秒程度である。人間状態推定システム50は、所定時間が経過したYESのときには、ステップS109に進む。一方で、人間状態推定システム50は、所定時間が経過していないNOのときには、ステップS101に戻る。 On the other hand, in step S108, which is reached when the determination in step S103 is NO, the human state estimation system 50 determines whether a predetermined time has elapsed, and in particular whether gaze information of the assessee and comparison person has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 50 proceeds to step S109. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 50 returns to step S101.

前記ステップS109では、人間状態推定システム50は、被評価者の視線情報から第1確率を算出する。 In step S109, the human state estimation system 50 calculates the first probability from the gaze information of the person being evaluated.

次に、ステップS110では、人間状態推定システム50は、自車両VAのコントローラ60が生成したサリエンシーマップから選択したランダム点から第2確率を算出する。 Next, in step S110, the human state estimation system 50 calculates a second probability from a random point selected from the saliency map generated by the controller 60 of the host vehicle VA.

次いで、ステップS111において、人間状態推定システム50は、前記ステップS106若しくは前記ステップS109で算出された第1確率と、前記ステップS107若しくは前記ステップS110で算出された第2確率とに基づいてROC曲線を算出する。 Next, in step S111, the human state estimation system 50 calculates an ROC curve based on the first probability calculated in step S106 or step S109 and the second probability calculated in step S107 or step S110.

次に、ステップS112において、人間状態推定システム50は、前記ステップS111で算出したROC曲線からAUC値を算出する。 Next, in step S112, the human state estimation system 50 calculates an AUC value from the ROC curve calculated in step S111.

続いて、ステップS113において、人間状態推定システム50は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム50は、計測期間分のAUC値が得られているYESのときには、ステップS114に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS101に戻り、計測期間分のAUC値が得られるまで、ステップS101~S112を繰り返す。 Next, in step S113, the human state estimation system 50 determines whether data for the measurement period, i.e., AUC values for the measurement period, have been obtained. If AUC values for the measurement period have been obtained (YES), the human state estimation system 50 proceeds to step S114, whereas if AUC values for the measurement period have not been obtained (NO), the human state estimation system 50 returns to step S101 and repeats steps S101 to S112 until AUC values for the measurement period are obtained.

そして、ステップS114において、人間状態推定システム50は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム50は、推定指標値が特定値以上であるYESのときには、ステップS115に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム50は、推定指標値が特定値未満であるNOのときには、ステップS115に進んで、被評価者に異常は生じていないと判定する。 Then, in step S114, the human state estimation system 50 determines whether the estimated index value calculated from the AUC value for the measurement period is equal to or greater than a predetermined specific value. If the estimated index value is equal to or greater than the specific value (YES), the human state estimation system 50 proceeds to step S115 and determines that an abnormality has occurred in the person being evaluated. On the other hand, if the estimated index value is less than the specific value (NO), the human state estimation system 50 proceeds to step S115 and determines that no abnormality has occurred in the person being evaluated.

前記ステップS115及び前記ステップS116の後は、リターンする。 After steps S115 and S116, return.

クラウドサーバ70は、推定結果を自車両VAのコントローラ60に送信する。自車両VAのコントローラ60は、被評価者に異常が生じているという結果を受信したときには、運転支援装置110により被評価者による自車両VAの運転を支援する。また、被評価者の状態が自車両VAの運転を継続できない程度であると推定されたときには、自車両VAのコントローラ60は、運転支援装置110により、自車両VAを路肩に移動させた後、自車両VAを停車させる。尚、自車両VAのコントローラ60は、被評価者に「大丈夫ですか」、「少し休みませんか」などの問いかけをするように、スピーカ等の報知装置に制御信号を送信してもよい。 The cloud server 70 transmits the estimation result to the controller 60 of the vehicle VA. When the controller 60 of the vehicle VA receives a result indicating that an abnormality has occurred in the person being evaluated, the controller 60 of the vehicle VA assists the person being evaluated in driving the vehicle VA using the driving assistance device 110. When the controller 60 of the vehicle VA estimates that the condition of the person being evaluated is such that the person being evaluated is unable to continue driving the vehicle VA, the controller 60 of the vehicle VA moves the vehicle VA to the shoulder of the road using the driving assistance device 110, and then stops the vehicle VA. The controller 60 of the vehicle VA may transmit a control signal to an alarm device such as a speaker to ask the person being evaluated, for example, "Are you okay?" or "Would you like to take a break?".

クラウドサーバ70は、前記ステップS103において、比較者が2人以上いるときには、2人以上の比較者を選択する。クラウドサーバ70が比較者を2人以上選択するときには、各比較者に対して第2確率が算出された後、クラウドサーバ70は、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。 In step S103, when there are two or more comparators, the cloud server 70 selects two or more comparators. When the cloud server 70 selects two or more comparators, after the second probability is calculated for each comparator, the cloud server 70 calculates the average value of each second probability and calculates the ROC curve using the average value as the final second probability.

したがって、本実施形態1に係る人間状態推定システム50は、被評価者の周辺情報を取得し(周辺情報取工程)、被評価者の前方視界に含まれる画像を取得し(視界画像取得工程)、取得された画像に対してサリエンシーマップを生成し(マップ生成工程)、被評価者の視線情報を取得し(第1視線情報取得工程)、被評価者と同等の属性を有する他人である比較者の視線情報を取得し(第2視線情報取得工程)、被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる第1確率を算出し(第1確率演算工程)、比較者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる第2確率を算出し(第2確率演算工程)、第1確率と第2確率とに基づいて、被評価者が異常状態であるかを推定する。これにより、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する比較者の視線の関係との比較を行えば、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 Therefore, the human state estimation system 50 according to the first embodiment acquires peripheral information of the person being evaluated (peripheral information acquisition process), acquires an image included in the forward field of view of the person being evaluated (field of view image acquisition process), generates a saliency map for the acquired image (map generation process), acquires gaze information of the person being evaluated (first gaze information acquisition process), acquires gaze information of a comparator who is another person having attributes similar to the person being evaluated (second gaze information acquisition process), calculates a first probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated is equal to or greater than a predetermined threshold (first probability calculation process), calculates a second probability that the saliency at a position on the saliency map indicated by the gaze of the comparator is equal to or greater than a predetermined threshold (second probability calculation process), and estimates whether the person being evaluated is in an abnormal state based on the first probability and the second probability. This makes it easier to generate the saliency map because it is not necessary to absorb individual differences such as the habits of the person being evaluated when generating the saliency map. Furthermore, by comparing the relationship of the gaze of the person being evaluated to the saliency map with the relationship of the gaze of the comparison person to the saliency map, it is possible to improve the accuracy of estimating the human state of the person being evaluated. Therefore, the human state of the person being evaluated can be estimated with high accuracy using calculations that are as simple as possible.

また、本実施形態1では、人間状態推定システム50は、第1確率と第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、被評価者が異常状態にあると推定する。これにより、一瞬だけ目を奪われてしまい第1確率と第2確率との間に乖離が生じることで、被評価者が異常状態であると推定されてしまうのを抑制することができる。この結果、被評価者の人間状態の推定精度を向上させることができる。 In addition, in this embodiment 1, the human state estimation system 50 estimates that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability diverge by a predetermined value or more is equal to or greater than a specific value set in advance. This makes it possible to prevent the person being evaluated from being estimated to be in an abnormal state due to a momentary distraction that causes a divergence between the first probability and the second probability. As a result, the accuracy of estimating the human state of the person being evaluated can be improved.

また、本実施形態1では、人間状態推定システム50は、2人以上の比較者が存在するときには、それぞれ比較者の視線情報をそれぞれ取得して、各比較者の各視線が示すサリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値を最終的な第2確率とする。これにより、被評価者と各比較者との僅かな違いをある程度吸収することができる。この結果、被評価者の人間状態の推定精度をより向上させることができる。 In addition, in this embodiment 1, when there are two or more comparators, the human state estimation system 50 acquires the gaze information of each of the comparators, determines the saliency at the position on the saliency map indicated by each gaze of each comparator, calculates the probability that each saliency will be equal to or greater than the predetermined threshold, and sets the average of these probabilities as the final second probability. This makes it possible to absorb slight differences between the person being evaluated and each of the comparators to a certain extent. As a result, the estimation accuracy of the human state of the person being evaluated can be further improved.

〈実施形態2〉
以下、実施形態2について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Second Embodiment
Hereinafter, the second embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first embodiment, and detailed description thereof will be omitted.

実施形態2は、人間状態推定システム250(図14参照)を工場の作業員を対象に適用した場合である。例示する工場では、図12に示すように、被評価者HAとしての作業員は、コンベア装置220上を流れる製品Pの検品を行う作業員である。被評価者HAが作業を行うラインには、被評価者HAを含む複数人の作業員(図12及び図13では2人)が作業を行っている。以下の説明では、作業員から見てコンベア装置220側を前側といい、作業員から見てコンベア装置220とは反対側を後側という。また、図12及び図13に示す被評価者HA以外の作業者が、被評価者HAと同等の属性を有する他人である比較者HBであるとして説明する。尚、ここでいう、属性は、例えば、年齢、伸長、作業の熟練度(作業の経験年数)などである。 In the second embodiment, the human state estimation system 250 (see FIG. 14) is applied to factory workers. In the illustrated factory, as shown in FIG. 12, the worker who is the assessee HA is a worker who inspects the product P flowing on the conveyor device 220. On the line where the assessee HA works, multiple workers including the assessee HA (two workers in FIGS. 12 and 13) are working. In the following explanation, the side of the conveyor device 220 from the worker's perspective is referred to as the front side, and the side opposite the conveyor device 220 from the worker's perspective is referred to as the rear side. In addition, the workers other than the assessee HA shown in FIGS. 12 and 13 are described as comparators HB, who are other people with attributes equivalent to the assessee HA. The attributes referred to here are, for example, age, height, and work proficiency (years of work experience).

図13及び図14は、本実施形態2に係る人間状態推定システム250の構成を概略的に示す。人間状態推定システム250は、被評価者HA及び比較者HBの前方視界の画像を取得する後方カメラ200を備える。後方カメラ200は、定点カメラであって、被評価者HA及び比較者HBの後側に位置する。後方カメラ200は、被評価者HAの前方視界の画像と、比較者HBの前方視界の画像とをそれぞれ取得できるように、複数(ここでは2つ)設けられている。人間状態推定システム250は、被評価者HA及び比較者HBの視線を取得するための前方カメラ201を有する。前方カメラ201は、定点カメラであって、被評価者HA及び比較者HBの前側に位置する。前方カメラ201は、被評価者HA及び比較者HBの瞳孔の変化を検出できる程度に高性能なカメラで構成されている。 13 and 14 show a schematic configuration of the human state estimation system 250 according to the second embodiment. The human state estimation system 250 includes a rear camera 200 that captures images of the forward field of view of the assessee HA and the comparator HB. The rear camera 200 is a fixed camera and is located behind the assessee HA and the comparator HB. A plurality of rear cameras 200 (two in this example) are provided so that an image of the forward field of view of the assessee HA and an image of the forward field of view of the comparator HB can be captured. The human state estimation system 250 includes a front camera 201 for capturing the line of sight of the assessee HA and the comparator HB. The front camera 201 is a fixed camera and is located in front of the assessee HA and the comparator HB. The front camera 201 is configured as a high-performance camera capable of detecting changes in the pupils of the assessee HA and the comparator HB.

人間状態推定システム250は、被評価者HA及び比較者HBの視線情報を算出するためのコントローラ260を有する。このコントローラ260は、周知のマイクロコンピュータをベースとするコントローラであって、プログラムを実行する中央演算処理装置(Central Processing Unit:CPU)と、例えばRAM(Random Access Memory)やROM(Read Only Memory)により構成されてプログラム及びデータを格納するメモリと、電気信号の入出力をする入出力バスと、を備えている。コントローラ260には、後方カメラ200及び前方カメラ201からの画像データが入力される。また、コントローラ260は、後述するクラウドサーバ270からの情報を取得するクラウドサーバ受信機271と接続されている。クラウドサーバ受信機271とクラウドサーバ270とは無線通信により通信可能である。 The human state estimation system 250 has a controller 260 for calculating the gaze information of the assessee HA and the comparator HB. The controller 260 is a controller based on a well-known microcomputer, and includes a central processing unit (CPU) for executing a program, a memory configured, for example, of a RAM (Random Access Memory) or a ROM (Read Only Memory) for storing programs and data, and an input/output bus for inputting and outputting electrical signals. Image data from the rear camera 200 and the front camera 201 are input to the controller 260. The controller 260 is also connected to a cloud server receiver 271 for acquiring information from a cloud server 270, which will be described later. The cloud server receiver 271 and the cloud server 270 can communicate with each other via wireless communication.

コントローラ260は、前方カメラ201により撮影された被評価者の眼球から、被評価者HA及び比較者HBの視線方向を算出する視線算出部261を有する。視線算出部261による視線の算出方法は、前述の実施形態1における視線算出部61と同じ方法を採用することができるため、詳細な説明を省略する。 The controller 260 has a gaze calculation unit 261 that calculates the gaze direction of the subject HA and the comparator HB from the subject's eyeball photographed by the front camera 201. The gaze calculation method used by the gaze calculation unit 261 can be the same as that used by the gaze calculation unit 61 in the first embodiment described above, and therefore a detailed description thereof will be omitted.

コントローラ60は、後方カメラ200が取得した画像データに基づいて、被評価者HA及び比較者HBの前方視界に存在する物標に対して、被評価者HA及び比較者HBの視線の惹きつけやすさを示すサリエンシーを算出して、サリエンシーマップを生成するマップ生成部262を有する。マップ生成部262によるサリエンシーマップの生成方法は、前述の実施形態1におけるマップ生成部262と同じ方法を採用することができるため、詳細な説明を省略する。 The controller 60 has a map generation unit 262 that calculates saliency, which indicates the likelihood that an object present in the forward field of view of the subject HA and the comparator HB will attract the gaze of the subject HA and the comparator HB, based on image data acquired by the rear camera 200, and generates a saliency map. The method of generating the saliency map by the map generation unit 262 can be the same as that of the map generation unit 262 in the first embodiment described above, and therefore a detailed description thereof will be omitted.

本実施形態2の人間状態推定システム250も演算の一部にクラウドサーバ270を用いる。コントローラ260は、後方カメラ200及び前方カメラ201からの情報、被評価者HA及び比較者HBの視線情報、及びサリエンシーマップをクラウドサーバ270に送信するためのクラウドサーバ送信機272を有する。クラウドサーバ送信機272とクラウドサーバ270とは無線通信により通信可能である。 The human state estimation system 250 of this embodiment 2 also uses a cloud server 270 for part of the calculation. The controller 260 has a cloud server transmitter 272 for transmitting information from the rear camera 200 and the front camera 201, the gaze information of the assessee HA and the comparator HB, and the saliency map to the cloud server 270. The cloud server transmitter 272 and the cloud server 270 can communicate with each other via wireless communication.

クラウドサーバ270は、複数の作業者から比較者HBを選択する機能を有する。クラウドサーバ270は、後方カメラ200及び前方カメラ201が撮影した画像から被評価者HA及び他の作業者を特定する。クラウドサーバ270は、特定した他の作業者の中から被評価者HAと同等の属性を有する比較者HBを選定する。図12及び図13では、比較者HBが1人であるが、クラウドサーバ70は、比較者HBが2人以上存在するときには、比較者HBを2人以上選択する。 The cloud server 270 has a function of selecting a comparator HB from multiple workers. The cloud server 270 identifies the person being evaluated HA and other workers from images captured by the rear camera 200 and the front camera 201. The cloud server 270 selects a comparator HB having attributes equivalent to those of the person being evaluated HA from the other workers identified. In Figures 12 and 13, there is one comparator HB, but when there are two or more comparators HB, the cloud server 70 selects two or more comparators HB.

クラウドサーバ270は、コントローラ260から取得した情報に基づいて、被評価者HAの視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(つまり、第1確率)を算出する。また、クラウドサーバ270は、コントローラ260から取得した情報に基づいて、比較者HBの視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(つまり、第2確率)を算出する。クラウドサーバ270による第1及び第2確率の算出方法は、前述の実施形態1における算出方法と同じ方法を採用できるため、詳細な説明を省略する。本実施形態2では、クラウドサーバ270が第1確率演算部及び第2確率演算部を構成する。 Based on the information acquired from the controller 260, the cloud server 270 calculates the probability that the saliency at the position on the saliency map indicated by the gaze information of the assessee HA will be equal to or greater than a predetermined threshold (i.e., the first probability). Also, based on the information acquired from the controller 260, the cloud server 270 calculates the probability that the saliency at the position on the saliency map indicated by the gaze information of the comparator HB will be equal to or greater than a predetermined threshold (i.e., the second probability). The method of calculating the first and second probabilities by the cloud server 270 can be the same as the calculation method in the first embodiment described above, and therefore a detailed description will be omitted. In this second embodiment, the cloud server 270 constitutes the first probability calculation unit and the second probability calculation unit.

クラウドサーバ270は、算出した第1確率及び第2確率に基づいて、被評価者HAが異常状態であるかを推定する。被評価者HAの異常状態の推定方法は前述の実施形態1と同じであり、推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。 The cloud server 270 estimates whether the assessee HA is in an abnormal state based on the calculated first probability and second probability. The method of estimating the abnormal state of the assessee HA is the same as in the above-mentioned embodiment 1, and the reference value and predetermined value that serve as the calculation criteria for the estimated index value, and the specific value that serves as the criterion for determining the abnormal state can be the same values as in the above-mentioned embodiment 1.

クラウドサーバ270は、クラウドサーバ受信機271を介して推定結果をコントローラ260に送信する。コントローラ260は、クラウドサーバ270から被評価者HAが異常であるという推定結果を取得したときに、そのことを作業員や作業員を監視する監視者に報知するための報知装置210を有する。報知装置210は、例えば、スピーカや監視者が確認可能なディスプレイ等の表示装置である。報知装置210は、作業員に「大丈夫ですか」等の問いかけをしたり、表示装置に異常者ありの表示をしたりする。 The cloud server 270 transmits the estimation result to the controller 260 via the cloud server receiver 271. When the controller 260 receives an estimation result from the cloud server 270 indicating that the assessee HA is abnormal, the controller 260 has an alarm device 210 for notifying the worker or the supervisor monitoring the worker of this fact. The alarm device 210 is, for example, a display device such as a speaker or a display that can be confirmed by the supervisor. The alarm device 210 asks the worker questions such as "Are you OK?" and displays a message on the display device that there is an abnormal person.

また、コントローラ260は、コンベア装置220を制御するように構成されている。コントローラ260は、被評価者HAが異常であるという推定結果を取得したときにコンベア装置220を一次的に停止させたり、被評価者HAへの処置(ラインから外す等)が完了したときにコンベア装置220の作動を再開させたりする。 The controller 260 is also configured to control the conveyor device 220. The controller 260 temporarily stops the conveyor device 220 when it obtains an inferred result that the subject HA is abnormal, and resumes operation of the conveyor device 220 when treatment of the subject HA (such as removing him/her from the line) is completed.

(フローチャート)
次に、人間状態推定システム250より被評価者の人間状態を推定する処理動作を図12のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human state estimating system 250 will be described with reference to the flowchart of FIG.

まず、ステップS201において、人間状態推定システム250は、被評価者HAの周辺情報及び被評価者HAの前方視界の画像を含む各種データを取得する。 First, in step S201, the human state estimation system 250 acquires various data including surrounding information of the person being evaluated HA and an image of the person being evaluated HA's forward field of vision.

次に、ステップS202において、人間状態推定システム250は、前方カメラ201で撮像された画像から被評価者HAの視線情報を取得する。尚、フローチャートでは省略しているが、このステップS202の時点で、コントローラ260は、前記ステップS101で取得した画像データを基にサリエンシーマップを生成している。このステップS202で取得される被評価者HAの視線情報は、被評価者HAの視線の先のサリエンシーも含む情報である。 Next, in step S202, the human state estimation system 250 acquires gaze information of the person being evaluated HA from the image captured by the forward camera 201. Although not shown in the flowchart, at the time of this step S202, the controller 260 has generated a saliency map based on the image data acquired in step S101. The gaze information of the person being evaluated HA acquired in this step S202 includes information on the saliency ahead of the person being evaluated HA's gaze.

次に、ステップS203において、人間状態推定システム250は、前方カメラ201で撮像された画像から比較者HBの視線情報を取得する。このステップS203で取得される比較者HBの視線情報は、比較者HBの視線の先のサリエンシーも含む情報である。 Next, in step S203, the human state estimation system 250 acquires gaze information of the comparator HB from the image captured by the front camera 201. The gaze information of the comparator HB acquired in step S203 includes saliency in the direction of the gaze of the comparator HB.

次いで、ステップS204において、人間状態推定システム250は、所定時間が経過したか否か、特に被評価者HA及び比較者HBの視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム250は、所定時間が経過したYESのときには、ステップS205に進む。一方で、人間状態推定システム250は、所定時間が経過していないNOのときには、ステップS201に戻る。 Next, in step S204, the human state estimation system 250 determines whether a predetermined time has elapsed, in particular whether the gaze information of the assessee HA and the comparator HB has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 250 proceeds to step S205. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 250 returns to step S201.

前記ステップS205では、人間状態推定システム250は、被評価者HAの視線情報から第1確率を算出する。 In step S205, the human state estimation system 250 calculates the first probability from the gaze information of the person being evaluated HA.

次に、ステップS206では、人間状態推定システム250は、比較者HBの視線情報から第2確率を算出する。 Next, in step S206, the human state estimation system 250 calculates the second probability from the gaze information of the comparison person HB.

次いで、ステップS207において、人間状態推定システム250は、前記ステップS205で算出された第1確率と、前記ステップS206で算出された第2確率とに基づいてROC曲線を算出する。 Next, in step S207, the human state estimation system 250 calculates an ROC curve based on the first probability calculated in step S205 and the second probability calculated in step S206.

次に、ステップS208において、人間状態推定システム250は、前記ステップS207で算出したROC曲線からAUC値を算出する。 Next, in step S208, the human state estimation system 250 calculates the AUC value from the ROC curve calculated in step S207.

続いて、ステップS208において、人間状態推定システム250は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム250は、計測期間分のAUC値が得られているYESのときには、ステップS210に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS201に戻り、計測期間分のAUC値が得られるまで、ステップS201~S208を繰り返す。 Next, in step S208, the human state estimation system 250 determines whether data for the measurement period, i.e., AUC values for the measurement period, have been obtained. If AUC values for the measurement period have been obtained (YES), the human state estimation system 250 proceeds to step S210, whereas if AUC values for the measurement period have not been obtained (NO), the human state estimation system 250 returns to step S201 and repeats steps S201 to S208 until AUC values for the measurement period are obtained.

そして、ステップS210において、人間状態推定システム250は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム250は、推定指標値が特定値以上であるYESのときには、ステップS211に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム250は、推定指標値が特定値未満であるNOのときには、ステップS212に進んで、被評価者に異常は生じていないと判定する。 Then, in step S210, the human state estimation system 250 determines whether the estimated index value calculated from the AUC value for the measurement period is equal to or greater than a predetermined specific value. If the estimated index value is equal to or greater than the specific value (YES), the human state estimation system 250 proceeds to step S211 and determines that an abnormality has occurred in the person being evaluated. On the other hand, if the estimated index value is less than the specific value (NO), the human state estimation system 250 proceeds to step S212 and determines that no abnormality has occurred in the person being evaluated.

前記ステップS211及び前記ステップS212の後は、リターンする。 After steps S211 and S212, return.

クラウドサーバ270は、比較者HBが2人以上いるときには、2人以上の比較者を選択する。クラウドサーバ270が比較者HBを2人以上選択するときには、前述の実施形態1と同様に、クラウドサーバ70は、各比較者HBに対して第2確率を算出した後、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。 When there are two or more comparators HB, the cloud server 270 selects two or more comparators. When the cloud server 270 selects two or more comparators HB, similar to the above-mentioned embodiment 1, the cloud server 70 calculates the second probability for each comparator HB, then calculates the average value of each second probability, and calculates the ROC curve using the average value as the final second probability.

したがって、本実施形態2の人間状態推定システム250のように、ここに開示された技術は、工場における作業者の監視システムのような利用も可能である。 Therefore, like the human state estimation system 250 of this embodiment 2, the technology disclosed here can also be used as a worker monitoring system in a factory.

〈実施形態3〉
以下、実施形態3について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1及び2と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Third Embodiment
Hereinafter, the third embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first and second embodiments, and detailed description thereof will be omitted.

実施形態3は、人間状態推定システム350を自動車の運転手を対象に適用した点では、前述の実施形態1と共通しているが、推定方法が前述の実施形態1とは異なる。 The third embodiment is similar to the first embodiment in that the human state estimation system 350 is applied to the driver of a vehicle, but the estimation method is different from that of the first embodiment.

本実施形態3において、図16に示すように、人間状態推定システム350は、記憶装置380を備える。記憶装置380は、被評価者としての運転手の過去の視線情報が記憶する。この視線情報は、被評価者の視線の先のサリエンシーも含む情報である。記憶装置380は、自車両のコントローラ360と通信可能に構成されている。 In this embodiment 3, as shown in FIG. 16, the human state estimation system 350 includes a storage device 380. The storage device 380 stores past gaze information of the driver as the person being evaluated. This gaze information includes saliency in the direction of the person being evaluated. The storage device 380 is configured to be able to communicate with the controller 360 of the vehicle.

コントローラ360は、視線算出部361及びマップ生成部362に加えて、被評価者の視線情報に基づいて、被評価者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(第1確率)を算出する確率演算部363を有する。確率演算部363による第1確率の算出方法は、前述の実施形態1及び2で説明した算出方法と同じ方法を採用できるため、詳細な説明を省略する。 In addition to the gaze calculation unit 361 and the map generation unit 362, the controller 360 has a probability calculation unit 363 that calculates the probability (first probability) that the saliency at a position on the saliency map indicated by the gaze information of the person being evaluated will be equal to or greater than a predetermined threshold, based on the gaze information of the person being evaluated. The method of calculating the first probability by the probability calculation unit 363 can be the same as the calculation method described in the first and second embodiments, and therefore a detailed description thereof will be omitted.

確率演算部363は、過去に同じ空間にいた被評価者の視線情報を記憶装置380から読み出して、過去の被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する。本実施形態3では、過去の被評価者の視線情報に基づく確率が第2確率に相当する。第2確率の算出方法は、第1確率の算出方法と同じであるため、詳細な説明を省略する。尚、コントローラ360は、記憶装置380に、過去に同じ空間にいた被評価者の視線情報が存在しないときには、マップ生成部362が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。そして、コントローラ360は、ランダム点のサリエンシーから第2確率を算出する。 The probability calculation unit 363 reads out the gaze information of the person being evaluated who was in the same space in the past from the storage device 380, and calculates the probability that the saliency at the position on the saliency map indicated by the gaze of the person being evaluated in the past will be equal to or greater than a predetermined threshold. In this embodiment 3, the probability based on the gaze information of the person being evaluated in the past corresponds to the second probability. The method of calculating the second probability is the same as the method of calculating the first probability, and therefore a detailed explanation will be omitted. When the gaze information of the person being evaluated who was in the same space in the past does not exist in the storage device 380, the controller 360 randomly specifies multiple coordinates on the saliency map generated by the map generation unit 362, and determines the saliency of each coordinate. The controller 360 then calculates the second probability from the saliency of the random points.

また、コントローラ360は、確率演算部363が算出した第1確率及び第2確率に基づいて、被評価者の人間状態を推定して、被評価者に異常が生じているか否かを判定する異常判定部364を有する。異常判定部364は、前述の実施形態1及び2のクラウドサーバ70,270のように、第1確率及び第2確率からROC曲線を求めて、該ROC曲線に対してAUC値を算出する。そして、異常判定部364は、計測期間分の各AUC値に基づいて推定指標値を算出して、該推定指標値に基づいて被評価者に異常が生じているか否かを判定する。推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。 The controller 360 also has an abnormality determination unit 364 that estimates the human state of the person being evaluated based on the first probability and the second probability calculated by the probability calculation unit 363 and determines whether or not an abnormality has occurred in the person being evaluated. The abnormality determination unit 364, like the cloud servers 70 and 270 in the above-mentioned embodiments 1 and 2, obtains an ROC curve from the first probability and the second probability and calculates an AUC value for the ROC curve. The abnormality determination unit 364 then calculates an estimated index value based on each AUC value for the measurement period and determines whether or not an abnormality has occurred in the person being evaluated based on the estimated index value. The reference value and the predetermined value that are the calculation criteria for the estimated index value, and the specific value that is the judgment criterion for the abnormal state can be the same values as those in the above-mentioned embodiment 1.

(フローチャート)
次に、人間状態推定システム350より被評価者の人間状態を推定する処理動作を図17のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human state estimating system 350 will be described with reference to the flowchart of FIG.

まず、ステップS301において、人間状態推定システム350は、自車両の周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。 First, in step S301, the human state estimation system 350 acquires various data including information about the surroundings of the vehicle and an image of the person being evaluated's forward field of vision.

次に、ステップS302において、人間状態推定システム350は、自車両の車内カメラ101で撮像された画像から被評価者の現在の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS302の時点で、コントローラ360は、前記ステップS301で取得した画像データを基にサリエンシーマップを生成している。このステップS302で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。 Next, in step S302, the human state estimation system 350 acquires the current gaze information of the person being evaluated from the image captured by the in-vehicle camera 101 of the subject's vehicle. Although not shown in the flowchart, at the time of this step S302, the controller 360 has generated a saliency map based on the image data acquired in step S301. The gaze information of the person being evaluated acquired in this step S302 includes the saliency ahead of the person being evaluated.

次に、ステップS303におい、人間状態推定システム350は、記憶装置380に同じ空間における被評価者の過去の視線情報が記憶されているか否かを判定する。記憶装置380に過去の視線情報が記憶されているYESのときには、ステップS304に進む一方で、記憶装置380に過去の視線情報が記憶されていないNOのときには、ステップS308に進む。尚、過去の視線情報は、過去の被評価者の視線の先のサリエンシーも含む情報である。 Next, in step S303, the human state estimation system 350 determines whether past gaze information of the person being evaluated in the same space is stored in the storage device 380. If past gaze information is stored in the storage device 380 (YES), the process proceeds to step S304, whereas if past gaze information is not stored in the storage device 380 (NO), the process proceeds to step S308. Note that past gaze information includes saliency in the direction of the person being evaluated in the past.

前記ステップS304では、人間状態推定システム350は、記憶装置380から過去の視線情報を取得する。 In step S304, the human state estimation system 350 acquires past gaze information from the storage device 380.

次に、ステップS305において、人間状態推定システム350は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム350は、所定時間が経過したYESのときには、ステップS306に進む。一方で、人間状態推定システム350は、所定時間が経過していないNOのときには、ステップS301に戻る。 Next, in step S305, the human state estimation system 350 determines whether a predetermined time has elapsed, and in particular whether the current gaze information of the person being evaluated has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 350 proceeds to step S306. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 350 returns to step S301.

前記ステップS306では、人間状態推定システム350は、被評価者の現在の視線情報から第1確率を算出する。 In step S306, the human state estimation system 350 calculates the first probability from the current gaze information of the person being evaluated.

次に、ステップS307では、人間状態推定システム350は、被評価者の過去の視線情報から第2確率を算出する。 Next, in step S307, the human state estimation system 350 calculates the second probability from the subject's past gaze information.

一方で、前記ステップS303の判定がNOであるときに進むステップS308では、人間状態推定システム350は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム350は、所定時間が経過したYESのときには、ステップS309に進む。一方で、人間状態推定システム350は、所定時間が経過していないNOのときには、ステップS301に戻る。 On the other hand, in step S308, which is reached when the determination in step S303 is NO, the human state estimation system 350 determines whether a predetermined time has elapsed, and in particular whether the current gaze information of the person being evaluated has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the result is YES, that is, the predetermined time has elapsed, the human state estimation system 350 proceeds to step S309. On the other hand, if the result is NO, that is, the predetermined time has not elapsed, the human state estimation system 350 returns to step S301.

前記ステップS309では、人間状態推定システム350は、被評価者の現在の視線情報から第1確率を算出する。 In step S309, the human state estimation system 350 calculates the first probability from the current gaze information of the person being evaluated.

次に、ステップS310では、人間状態推定システム350は、サリエンシーマップから選択したランダム点から第2確率を算出する。 Next, in step S310, the human state estimation system 350 calculates a second probability from the random point selected from the saliency map.

次いで、ステップS311において、人間状態推定システム350は、前記ステップS306若しくは前記ステップS309で算出された第1確率と、前記ステップS307若しくは前記ステップS310で算出された第2確率とに基づいてROC曲線を算出する。 Next, in step S311, the human state estimation system 350 calculates an ROC curve based on the first probability calculated in step S306 or step S309 and the second probability calculated in step S307 or step S310.

次に、ステップS312において、コントローラ360は、前記ステップS311で算出したROC曲線からAUC値を算出する。 Next, in step S312, the controller 360 calculates the AUC value from the ROC curve calculated in step S311.

続いて、ステップS313において、人間状態推定システム350は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム350は、計測期間分のAUC値が得られているYESのときには、ステップS314に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS301に戻り、計測期間分のAUC値が得られるまで、ステップS301~S312を繰り返す。 Next, in step S313, the human state estimation system 350 determines whether data for the measurement period, i.e., AUC values for the measurement period, have been obtained. If AUC values for the measurement period have been obtained (YES), the human state estimation system 350 proceeds to step S314, whereas if AUC values for the measurement period have not been obtained (NO), the human state estimation system 350 returns to step S301 and repeats steps S301 to S312 until AUC values for the measurement period are obtained.

そして、ステップS314において、人間状態推定システム350は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム350は、推定指標値が特定値以上であるYESのときには、ステップS315に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム350は、推定指標値が特定値未満であるNOのときには、ステップS316に進んで、被評価者に異常は生じていないと判定する。 Then, in step S314, the human state estimation system 350 determines whether the estimated index value calculated from the AUC value for the measurement period is equal to or greater than a predetermined specific value. If the estimated index value is equal to or greater than the specific value (YES), the human state estimation system 350 proceeds to step S315 and determines that an abnormality has occurred in the person being evaluated. On the other hand, if the estimated index value is less than the specific value (NO), the human state estimation system 350 proceeds to step S316 and determines that no abnormality has occurred in the person being evaluated.

前記ステップS315及び前記ステップS316の後は、リターンする。 After steps S315 and S316, return.

このように、本実施形態3では、被評価者が位置する空間を含む周辺情報を取得し(周辺情報取工程)、被評価者の前方視界に含まれる画像を取得し(視界画像取得工程)、前方視界の画像に対してサリエンシーマップを生成し(マップ生成工程)、前方視界に対する被評価者の視線情報を取得し(視線情報取得工程)、被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出し(第1確率演算工程)、過去に同じ空間にいた被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出し(第2確率演算工程)、第1確率と第2確率とに基づいて、被評価者が異常状態であるかを推定する(異常推定工程)。これにより、過去の被評価者と比較するため、従来のようにトップダウンサリエンシーマップを作成しなくても、被評価者の癖や体格などの個人差を出来る限り吸収することができる。これにより、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 In this way, in the third embodiment, peripheral information including the space in which the person being evaluated is located is acquired (peripheral information acquisition process), an image included in the forward field of view of the person being evaluated is acquired (field of view image acquisition process), a saliency map is generated for the image of the forward field of view (map generation process), gaze information of the person being evaluated for the forward field of view is acquired (gaze information acquisition process), the probability that the saliency at the position on the saliency map indicated by the gaze of the person being evaluated is equal to or greater than a predetermined threshold is calculated (first probability calculation process), the probability that the saliency at the position on the saliency map indicated by the gaze of the person being evaluated who was in the same space in the past is equal to or greater than a predetermined threshold is calculated (second probability calculation process), and based on the first probability and the second probability, it is estimated whether the person being evaluated is in an abnormal state (abnormality estimation process). As a result, it is possible to absorb as much individual difference as possible, such as the habits and physique of the person being evaluated, without creating a top-down saliency map as in the past in order to compare with the person being evaluated. As a result, it is possible to accurately estimate the human state of the person being evaluated with as simple calculation as possible.

〈実施形態4〉
以下、実施形態4について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1~3と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Fourth embodiment
Hereinafter, the fourth embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first to third embodiments, and detailed description thereof will be omitted.

実施形態4は、人間状態推定システム450を自動車の運転手を対象に適用した点では、前述の実施形態1及び3と共通しているが、推定方法が前述の実施形態1及び3とは異なる。 The fourth embodiment is similar to the first and third embodiments in that the human state estimation system 450 is applied to the driver of a vehicle, but the estimation method is different from the first and third embodiments.

本実施形態4に係る人間状態推定システム450において、自車両VAは、記憶装置480を備える。記憶装置480は、被評価者としての運転手の過去の視線情報が記憶する。この視線情報は、被評価者の視線の先のサリエンシーも含む情報である。記憶装置480は、自車両VAのコントローラ460と通信可能に構成されている。図18では、他車両VBは、記憶装置を備えていないが、他車両VBも比較者の過去の視線情報を記憶する記憶装置を備えていてもよい。 In the human state estimation system 450 according to the fourth embodiment, the vehicle VA is equipped with a storage device 480. The storage device 480 stores the past gaze information of the driver as the person being evaluated. This gaze information includes the saliency of the person being evaluated. The storage device 480 is configured to be able to communicate with the controller 460 of the vehicle VA. In FIG. 18, the other vehicle VB does not have a storage device, but the other vehicle VB may also have a storage device that stores the past gaze information of the comparison person.

人間状態推定システム450は、基本的には、前述の実施形態1と同様に、クラウドサーバ70が、自車両VAの周辺情報に基づいて、自車両VAの周辺に存在する比較者となる運転者が運転する他車両VBを選択する。そして、クラウドサーバ70は、他車両VBのコントローラ460から比較者の視線情報を取得する。しかしながら、人間状態推定システム450は、クラウドサーバ70が、比較者となる運転者が運転する他車両VBが自車両VAの周辺に存在しないと判定したときには、自車両VAのコントローラ460が、同じ空間における被評価者の過去の視線情報を記憶装置480から取得して、クラウドサーバ70に送信する。また、人間状態推定システム450は、自車両VAの周辺に比較者となる運転者が運転する他車両VBが存在せず、かつ同じ空間における被評価者の過去の視線情報も記憶装置480に存在しないときには、クラウドサーバ70が、マップ生成部462が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。 In the human state estimation system 450, basically, as in the first embodiment described above, the cloud server 70 selects another vehicle VB driven by a driver who is a comparator present in the vicinity of the vehicle VA based on the surrounding information of the vehicle VA. Then, the cloud server 70 acquires the gaze information of the comparator from the controller 460 of the other vehicle VB. However, in the human state estimation system 450, when the cloud server 70 determines that the other vehicle VB driven by the driver who is a comparator does not exist in the vicinity of the vehicle VA, the controller 460 of the vehicle VA acquires the past gaze information of the subject in the same space from the storage device 480 and transmits it to the cloud server 70. In addition, in the human state estimation system 450, when the other vehicle VB driven by the driver who is a comparator does not exist in the vicinity of the vehicle VA and the past gaze information of the subject in the same space does not exist in the storage device 480, the cloud server 70 randomly specifies multiple coordinates on the saliency map generated by the map generation unit 462, and obtains the saliency of each coordinate.

人間状態推定システム450は、基本的には前述の実施形態1と同様に、サリエンシーマップの生成、並びに、被評価者及び比較者の視線情報の取得については、自車両VA及び他車両VBのコントローラ460が行う。一方で、前記第1確率及び前記第2確率の算出、ROC曲線及びAUC値の算出、並びに、被評価者の人間状態の推定についてはクラウドサーバ70を利用する。推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。 In the human state estimation system 450, the controllers 460 of the subject vehicle VA and the other vehicle VB generate the saliency map and acquire the gaze information of the subject and the comparison subject, as in the first embodiment described above. On the other hand, the cloud server 70 is used to calculate the first probability and the second probability, calculate the ROC curve and AUC value, and estimate the human state of the subject. The same values as in the first embodiment described above can be used for the reference value and the predetermined value that are the calculation criteria for the estimated index value, and the specific value that is the criterion for determining an abnormal state.

(フローチャート)
次に、人間状態推定システム450より被評価者の人間状態を推定する処理動作を図19及び20のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person being evaluated by the human state estimation system 450 will be described with reference to the flowcharts of FIGS.

まず、ステップS401において、人間状態推定システム450は、自車両VAの周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。 First, in step S401, the human state estimation system 450 acquires various data including information about the surroundings of the vehicle VA and an image of the subject's forward field of vision.

次に、ステップS402において、人間状態推定システム450は、自車両VAの車内カメラ101で撮像された画像から被評価者の現在の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS402の時点で、自車両VAのコントローラ460は、前記ステップS401で取得した画像データを基にサリエンシーマップを生成している。このステップS402で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。 Next, in step S402, the human state estimation system 450 acquires the current gaze information of the person being evaluated from the image captured by the in-vehicle camera 101 of the subject's vehicle VA. Although not shown in the flowchart, at the time of this step S402, the controller 460 of the subject's vehicle VA has generated a saliency map based on the image data acquired in step S401. The gaze information of the person being evaluated acquired in this step S402 includes the saliency ahead of the subject's gaze.

次に、ステップS500のサブルーチンにより、前記第1確率及び前記第2確率を算出する。 Next, the first probability and the second probability are calculated by the subroutine of step S500.

このステップS500のサブルーチンは、図20に示すように、まず、ステップS501において、人間状態推定システム450は、自車両VAの周囲に比較者となり得る他車両VBの運転者が存在するか否かを判定する。人間状態推定システム450は、他車両VBの位置情報や運転に関する各種センサ102~108の検出結果に基づいて、比較者の有無を判定する。人間状態推定システム450は、比較者が存在するYESのときには、ステップS502に進む。一方で、人間状態推定システム450は、比較者が存在しないNOのときには、ステップS506に進む。 As shown in FIG. 20, in the subroutine of step S500, first, in step S501, the human state estimation system 450 determines whether or not there is a driver of another vehicle VB who can be a comparator around the host vehicle VA. The human state estimation system 450 determines the presence or absence of a comparator based on the position information of the other vehicle VB and the detection results of the various sensors 102-108 related to driving. If the result is YES, meaning that a comparator is present, the human state estimation system 450 proceeds to step S502. On the other hand, if the result is NO, meaning that a comparator is not present, the human state estimation system 450 proceeds to step S506.

前記ステップS502では、人間状態推定システム450は、他車両VBの車内カメラ101で撮像された画像から比較者の視線情報を取得する。尚、このステップS502は、前記ステップS501の判定後に行うのではなく、実際には、他車両VBにおいて、前記ステップS402と同時進行で行われている。また、フローチャートでは省略しているが、このステップS502の時点で、他車両VBのコントローラ460も、他車両VBで取得された画像データを基にサリエンシーマップを生成している。このステップS502で取得される比較者の視線情報は、比較者の視線の先のサリエンシーも含む情報である。 In step S502, the human state estimation system 450 acquires gaze information of the comparator from the image captured by the in-vehicle camera 101 of the other vehicle VB. Note that this step S502 is not performed after the judgment of step S501, but is actually performed in the other vehicle VB simultaneously with step S402. Also, although it is omitted in the flowchart, at the time of step S502, the controller 460 of the other vehicle VB also generates a saliency map based on the image data acquired by the other vehicle VB. The gaze information of the comparator acquired in step S502 includes the saliency ahead of the comparator's gaze.

次に、ステップS503において、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS504に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。 Next, in step S503, the human state estimation system 450 determines whether a predetermined time has elapsed, and in particular whether gaze information of the person being evaluated and the comparison person has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 450 proceeds to step S504. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 450 returns to step S401.

前記ステップS504では、人間状態推定システム450は、被評価者の視線情報から第1確率を算出する。 In step S504, the human state estimation system 450 calculates the first probability from the gaze information of the person being evaluated.

次に、ステップS505では、人間状態推定システム450は、比較者の視線情報から第2確率を算出する。 Next, in step S505, the human state estimation system 450 calculates a second probability from the gaze information of the comparison person.

一方で、前記ステップS501の判定がNOであるときに進むステップS506では、人間状態推定システム450は、記憶装置480に同じ空間における被評価者の過去の視線情報が記憶されているか否かを判定する。人間状態推定システム450は、記憶装置480に過去の視線情報が記憶されているYESのときには、ステップS507に進む。一方で、人間状態推定システム450は、記憶装置480に過去の視線情報が記憶されていないNOのときには、ステップS511に進む。尚、過去の視線情報は、過去の被評価者の視線の先のサリエンシーも含む情報である。 On the other hand, in step S506, which is reached when the determination in step S501 is NO, the human state estimation system 450 determines whether or not past gaze information of the person being evaluated in the same space is stored in the storage device 480. If the determination is YES, that is, past gaze information is stored in the storage device 480, the human state estimation system 450 proceeds to step S507. On the other hand, if the determination is NO, that is, that past gaze information is not stored in the storage device 480, the human state estimation system 450 proceeds to step S511. Note that past gaze information is information that also includes saliency in the direction of the person being evaluated in the past.

前記ステップS507では、人間状態推定システム450は、記憶装置480から過去の視線情報を取得する。 In step S507, the human state estimation system 450 acquires past gaze information from the storage device 480.

次に、ステップS508において、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS508に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。 Next, in step S508, the human state estimation system 450 determines whether a predetermined time has elapsed, and in particular whether the current gaze information of the person being evaluated has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the predetermined time has elapsed (YES), the human state estimation system 450 proceeds to step S508. On the other hand, if the predetermined time has not elapsed (NO), the human state estimation system 450 returns to step S401.

前記ステップS509では、人間状態推定システム450は、被評価者の現在の視線情報から第1確率を算出する。 In step S509, the human state estimation system 450 calculates the first probability from the current gaze information of the person being evaluated.

次に、ステップS510では、人間状態推定システム450は、被評価者の過去の視線情報から第2確率を算出する。 Next, in step S510, the human state estimation system 450 calculates the second probability from the subject's past gaze information.

一方で、前記ステップS506の判定がNOであるときに進むステップS511では、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS512に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。 On the other hand, in step S511, which is reached when the determination in step S506 is NO, the human state estimation system 450 determines whether or not a predetermined time has elapsed, and in particular whether or not the current gaze information of the person being evaluated has been acquired for a predetermined time. This predetermined time is approximately 30 seconds. If the result is YES, that is, the predetermined time has elapsed, the human state estimation system 450 proceeds to step S512. On the other hand, if the result is NO, that is, the predetermined time has not elapsed, the human state estimation system 450 returns to step S401.

前記ステップS512では、人間状態推定システム450は、被評価者の現在の視線情報から第1確率を算出する。 In step S512, the human state estimation system 450 calculates the first probability from the current gaze information of the person being evaluated.

次に、ステップS513では、人間状態推定システム450は、サリエンシーマップから選択したランダム点から第2確率を算出する。 Next, in step S513, the human state estimation system 450 calculates a second probability from the random point selected from the saliency map.

前記ステップS505、前記ステップS510、及び前記ステップ513の後は、図19に示すステップS403に進む。このステップS403では、人間状態推定システム450は、前記ステップS504、前記ステップS509、若しくは前記ステップS512で算出された第1確率と、前記ステップS505、前記ステップS510、若しくは前記ステップS513で算出された第2確率とに基づいてROC曲線を算出する。 After steps S505, S510, and S513, the process proceeds to step S403 shown in FIG. 19. In step S403, the human state estimation system 450 calculates an ROC curve based on the first probability calculated in step S504, S509, or S512, and the second probability calculated in step S505, S510, or S513.

次に、ステップS404において、人間状態推定システム450は、前記ステップS403で算出したROC曲線からAUC値を算出する。 Next, in step S404, the human state estimation system 450 calculates the AUC value from the ROC curve calculated in step S403.

続いて、ステップS405において、人間状態推定システム450は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム450は、計測期間分のAUC値が得られているYESのときには、ステップS406に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS401に戻り、計測期間分のAUC値が得られるまで、ステップS401~S404、及びS500を繰り返す。 Next, in step S405, the human state estimation system 450 determines whether data for the measurement period, i.e., AUC values for the measurement period, have been obtained. If AUC values for the measurement period have been obtained (YES), the human state estimation system 450 proceeds to step S406, whereas if AUC values for the measurement period have not been obtained (NO), the human state estimation system 450 returns to step S401 and repeats steps S401 to S404 and S500 until AUC values for the measurement period are obtained.

そして、ステップS406において、人間状態推定システム450は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム450は、推定指標値が特定値以上であるYESのときには、ステップS407に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム450は、推定指標値が特定値未満であるNOのときには、ステップS408に進んで、被評価者に異常は生じていないと判定する。 Then, in step S406, the human state estimation system 450 determines whether the estimated index value calculated from the AUC value for the measurement period is equal to or greater than a predetermined specific value. If the estimated index value is equal to or greater than the specific value (YES), the human state estimation system 450 proceeds to step S407 and determines that an abnormality has occurred in the person being evaluated. On the other hand, if the estimated index value is less than the specific value (NO), the human state estimation system 450 proceeds to step S408 and determines that no abnormality has occurred in the person being evaluated.

前記ステップS407及び前記ステップS408の後は、リターンする。 After steps S407 and S408, return.

クラウドサーバ70は、前記ステップS501において、比較者が2人以上いるときには、前述の実施形態1と同様に、2人以上の比較者を選択する。クラウドサーバ70が比較者を2人以上選択するときには、各比較者に対して第2確率が算出された後、クラウドサーバ70は、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。 In step S501, when there are two or more comparators, the cloud server 70 selects two or more comparators, as in the first embodiment described above. When the cloud server 70 selects two or more comparators, after the second probability is calculated for each comparator, the cloud server 70 calculates the average value of each second probability and calculates the ROC curve using the average value as the final second probability.

したがって、本実施形態4では、深夜に自動車を運転していたり、郊外を運転していたりなど、比較者が近くに存在にくい状況であっても、被評価者の人間状態を精度良く推定することができる。また、被評価者の過去の視線に関する情報に基づいて第2確率を算出するため、第2確率を容易にかつ精度良く算出することができる。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 Therefore, in this embodiment 4, the human state of the person being evaluated can be estimated with high accuracy even in situations where a comparison person is unlikely to be nearby, such as when driving a car late at night or driving in the suburbs. In addition, since the second probability is calculated based on information about the person being evaluated's past line of sight, the second probability can be calculated easily and with high accuracy. Therefore, the human state of the person being evaluated can be estimated with high accuracy using calculations that are as simple as possible.

(その他の実施形態)
ここに開示された技術は、前述の実施形態に限られるものではなく、請求の範囲の主旨を逸脱しない範囲で代用が可能である。
Other Embodiments
The technology disclosed herein is not limited to the above-described embodiment, and may be substituted without departing from the spirit and scope of the claims.

前述の実施形態1、2、及び4では、第1確率及び第2確率の算出をクラウドサーバ70,270が行っていた。これに限らず、実施形態1、2、及び4の構成でも、第1確率及び第2確率の算出をコントローラ60,260,460が実行するようにしてもよい。また、実施形態1、2、及び4の構成でも、被評価者の人間状態推定をコントローラ60,260,460が実行するようにしてもよい。このとき、実施形態1及び4においては、自車両VAのコントローラ60,460は、他車両VBのコントローラ60,460から第2確率に関する情報を取得する必要がある。 In the above-described first, second, and fourth embodiments, the first probability and the second probability are calculated by the cloud server 70, 270. However, in the configurations of the first, second, and fourth embodiments, the calculation of the first probability and the second probability may be performed by the controller 60, 260, 460. In the configurations of the first, second, and fourth embodiments, the estimation of the human state of the person being evaluated may be performed by the controller 60, 260, 460. In this case, in the first and fourth embodiments, the controller 60, 460 of the host vehicle VA needs to obtain information regarding the second probability from the controller 60, 460 of the other vehicle VB.

また、前述の実施形態2では、比較者HBの視線情報から第2確率を算出するようにしていた。これに限らず、実施形態2のように人間状態推定システムを工場に適用する場合であっても、実施形態3及び4のように、過去の被評価者HAの視線情報に基づいて第2確率を算出するようにしてもよい。 In addition, in the above-mentioned embodiment 2, the second probability is calculated from the gaze information of the comparator HB. However, even when the human state estimation system is applied to a factory as in embodiment 2, the second probability may be calculated based on the gaze information of the assessee HA in the past as in embodiments 3 and 4.

また、前述の実施形態1~4では、ROC曲線を算出した後に、AUC値を算出して、該AUC値に基づいて被評価者の人間状態を推定していた。これに限らず、例えば、ROC曲線が、基準値から乖離する割合を算出することで、被評価者の人間状態を推定してもよい。このときの基準値は、例えば、第1確率と第2確率が一致している場合に形成される直線上の値を採用することができる。 In addition, in the above-mentioned first to fourth embodiments, after calculating the ROC curve, the AUC value is calculated, and the human condition of the person being evaluated is estimated based on the AUC value. This is not limiting, and for example, the human condition of the person being evaluated may be estimated by calculating the rate at which the ROC curve deviates from a reference value. The reference value in this case may be, for example, a value on a straight line formed when the first probability and the second probability are the same.

前述の実施形態は単なる例示に過ぎず、本開示の範囲を限定的に解釈してはならない。本開示の範囲は請求の範囲によって定義され、請求の範囲の均等範囲に属する変形や変更は、全て本開示の範囲内のものである。 The above-described embodiments are merely examples and should not be interpreted as limiting the scope of the present disclosure. The scope of the present disclosure is defined by the claims, and all modifications and variations that fall within the scope of the claims are within the scope of the present disclosure.

ここに開示された技術は、サリエンシーマップを用いた人間状態の推定において、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定する際に有用である。 The technology disclosed here is useful in estimating the human state of a person being evaluated using a saliency map, with accurate estimation using calculations as simple as possible.

50,250,350,450 人間状態推定システム
60,260,360,460 コントローラ
61,261,361,461 視線算出部(第1視線情報取得部、第2視線情報取得部)
62,262,362,462 マップ生成部
363 確率演算部(第1確率演算部、第2確率演算部)
364 異常判定部
70,270 クラウドサーバ(周辺情報取得部、第1確率演算部、第2確率演算部、異常判定部)
50, 250, 350, 450 Human state estimation system 60, 260, 360, 460 Controller 61, 261, 361, 461 Gaze calculation unit (first gaze information acquisition unit, second gaze information acquisition unit)
62, 262, 362, 462 Map generation unit 363 Probability calculation unit (first probability calculation unit, second probability calculation unit)
364 Abnormality determination unit 70, 270 Cloud server (peripheral information acquisition unit, first probability calculation unit, second probability calculation unit, abnormality determination unit)

Claims (5)

人間状態推定方法であって、
被評価者の周辺情報を取得する周辺情報取工程と、
前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、
前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、
前記前方視界に対する前記被評価者の視線情報を取得する第1視線情報取得工程と、
前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する第2視線情報取得工程と、
前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、
前記第2視線情報取得工程で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、
前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程とを含み、
前記異常推定工程は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する工程であることを特徴とする人間状態推定方法。
A human state estimation method, comprising:
A peripheral information acquisition step of acquiring peripheral information of the person being evaluated;
A visual field image acquisition process for acquiring an image included in the subject's forward visual field;
a map generation step of generating a saliency map for the image acquired in the field of view image acquisition step;
A first gaze information acquisition step of acquiring gaze information of the subject with respect to the forward field of view;
A second gaze information acquisition step of acquiring gaze information of a comparator who is another person having attributes equivalent to the assessee;
A first probability calculation step of calculating a probability that the saliency at a position on the saliency map indicated by the gaze of the subject acquired in the first gaze information acquisition step is equal to or greater than a predetermined threshold;
a second probability calculation step of calculating a probability that the saliency at a position on the saliency map indicated by the gaze of the comparison person acquired in the second gaze information acquisition step is equal to or greater than the predetermined threshold;
and an abnormality estimation step of estimating whether the subject is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step ,
The human state estimation method, characterized in that the abnormality inference process is a process of inferring that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a predetermined specific value .
請求項に記載の人間状態推定方法において、
前記第2視線情報取得工程は、2人以上の前記比較者の視線情報をそれぞれ取得する工程であり、
前記第2確率演算工程は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする工程であることを特徴とする人間状態推定方法。
The human state estimation method according to claim 1 ,
The second gaze information acquisition step is a step of acquiring gaze information of two or more of the comparators,
The human state estimation method, characterized in that the second probability calculation process is a process of determining saliency at positions on the saliency map indicated by each gaze of each of the comparators, calculating the probability that each saliency will be greater than or equal to the specified threshold, and setting the average value of each probabilities or one probability selected from the respective probabilities as the second probability.
人間状態推定システムであって、
被評価者の周辺情報を取得する周辺情報取部と、
前記被評価者の前方視界に含まれる画像を取得する視界画像取得部と、
前記視界画像取得部で取得された画像に対してサリエンシーマップを生成するマップ生成部と、
前記前方視界に対する前記被評価者の視線情報を取得する視線情報取得部と、
前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する比較者視線情報取得部と、
前記視線情報取得部で取得された前記被評価者の視線情報が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算部と、
前記比較者視線情報取得部で取得された前記比較者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算部と、
前記第1確率演算部で算出された第1確率と前記第2確率演算部で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定部とを備え
前記異常推定部は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定することを特徴とする人間状態推定システム。
A human state estimation system, comprising:
A peripheral information acquisition unit that acquires peripheral information of the person being evaluated;
A visual field image acquisition unit that acquires an image included in the forward visual field of the subject;
A map generation unit that generates a saliency map for the image acquired by the field of view image acquisition unit;
A gaze information acquisition unit that acquires gaze information of the subject with respect to the forward field of view;
A comparison person's gaze information acquisition unit that acquires gaze information of a comparison person who is another person having attributes equivalent to the evaluation person;
A first probability calculation unit that calculates a probability that the saliency at a position on the saliency map indicated by the gaze information of the subject acquired by the gaze information acquisition unit is equal to or greater than a predetermined threshold;
a second probability calculation unit that calculates a probability that the saliency at a position on the saliency map indicated by the gaze of the comparator acquired by the comparator gaze information acquisition unit is equal to or greater than the predetermined threshold;
an abnormality estimation unit that estimates whether the subject is in an abnormal state based on the first probability calculated by the first probability calculation unit and the second probability calculated by the second probability calculation unit;
The human state estimation system is characterized in that the abnormality estimation unit estimates that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a predetermined specific value .
請求項に記載の人間状態推定システムにおいて、
前記比較者視線情報取得部は、2人以上の前記比較者の視線をそれぞれ取得し、
前記第2確率演算部は、前記各比較者の各視線が示すサリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とすることを特徴とする人間状態推定システム。
The human state estimation system according to claim 3 ,
The comparator gaze information acquisition unit acquires gazes of two or more comparators,
The second probability calculation unit obtains saliency at positions on the saliency map indicated by each gaze of each of the comparators, calculates the probability that each saliency will be greater than or equal to the specified threshold, and sets the average value of each probabilities or one probability selected from the respective probabilities as the second probability.
請求項3又は4に記載の人間状態推定システムにおいて、
前記被評価者の視線に関する情報を記憶する記憶部を更に備え、
前記第2確率演算部は、前記被評価者の周囲に前記比較者が存在しないときには、過去に同じ空間にいた前記被評価者の視線に関する情報を前記記憶部から読み出して、過去の前記被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を前記第2確率として算出することを特徴とする人間状態推定システム。
The human state estimation system according to claim 3 or 4 ,
Further comprising a storage unit for storing information regarding the gaze of the person to be evaluated;
The human state estimation system is characterized in that, when the comparison person is not present around the person being evaluated, the second probability calculation unit reads information regarding the gaze of the person being evaluated who was in the same space in the past from the memory unit, and calculates as the second probability the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated in the past will be greater than or equal to the specified threshold.
JP2020206868A 2020-12-14 2020-12-14 Human state estimation method and estimation system Active JP7639322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020206868A JP7639322B2 (en) 2020-12-14 2020-12-14 Human state estimation method and estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020206868A JP7639322B2 (en) 2020-12-14 2020-12-14 Human state estimation method and estimation system

Publications (2)

Publication Number Publication Date
JP2022094060A JP2022094060A (en) 2022-06-24
JP7639322B2 true JP7639322B2 (en) 2025-03-05

Family

ID=82088475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020206868A Active JP7639322B2 (en) 2020-12-14 2020-12-14 Human state estimation method and estimation system

Country Status (1)

Country Link
JP (1) JP7639322B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013254409A (en) 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc Careless driving detection device and program
JP2017227963A (en) 2016-06-20 2017-12-28 富士通株式会社 Sight line analysis program, sight line analyzer and sight line analysis method
JP2018094294A (en) 2016-12-16 2018-06-21 トヨタ自動車株式会社 State estimation system
JP2020071537A (en) 2018-10-29 2020-05-07 アイシン精機株式会社 Driving support apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013254409A (en) 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc Careless driving detection device and program
JP2017227963A (en) 2016-06-20 2017-12-28 富士通株式会社 Sight line analysis program, sight line analyzer and sight line analysis method
JP2018094294A (en) 2016-12-16 2018-06-21 トヨタ自動車株式会社 State estimation system
JP2020071537A (en) 2018-10-29 2020-05-07 アイシン精機株式会社 Driving support apparatus

Also Published As

Publication number Publication date
JP2022094060A (en) 2022-06-24

Similar Documents

Publication Publication Date Title
EP2523839B1 (en) Combining driver and environment sensing for vehicular safety systems
US10640122B2 (en) Driving consciousness estimation device
EP2564766B1 (en) Visual input of vehicle operator
KR102051142B1 (en) System for managing dangerous driving index for vehicle and method therof
US10653350B2 (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
EP1721782B1 (en) Driving support equipment for vehicles
US11455810B2 (en) Driver attention state estimation
EP2687407A1 (en) Apparatus and method for localizing sound image for vehicle's driver
US10684695B2 (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2020035437A (en) Vehicle system, method to be implemented in vehicle system, and driver assistance system
WO2019049709A1 (en) Image processing device, image processing method, and image display system
JP4872245B2 (en) Pedestrian recognition device
WO2019155914A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
CN110352037A (en) Operation adaptability decision maker, operation adaptability determination method and operation adaptability decision procedure
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7342637B2 (en) Vehicle control device and driver condition determination method
JP7639322B2 (en) Human state estimation method and estimation system
EP3270764B1 (en) Situational awareness monitoring method and apparatus
JP2018094294A (en) State estimation system
JP7342635B2 (en) Driver state estimation device and driver state estimation method
JP7322667B2 (en) Driver state estimation device
JP7276083B2 (en) Driver state estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250203

R150 Certificate of patent or registration of utility model

Ref document number: 7639322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150