JP7639322B2 - Human state estimation method and estimation system - Google Patents
Human state estimation method and estimation system Download PDFInfo
- Publication number
- JP7639322B2 JP7639322B2 JP2020206868A JP2020206868A JP7639322B2 JP 7639322 B2 JP7639322 B2 JP 7639322B2 JP 2020206868 A JP2020206868 A JP 2020206868A JP 2020206868 A JP2020206868 A JP 2020206868A JP 7639322 B2 JP7639322 B2 JP 7639322B2
- Authority
- JP
- Japan
- Prior art keywords
- probability
- person
- gaze
- evaluated
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
ここに開示された技術は、人間状態推定方法及び推定システムに関する技術分野に属する。 The technology disclosed herein belongs to the technical field of human state estimation methods and estimation systems.
従来より、被評価者の周辺を示す画像から、被評価者の視界に写る物の被評価者に対する誘目性を表すサリエンシーマップを作成して、該サリエンシーマップを用いて、被評価者の種々の状態を推定することが検討されている。 Conventionally, it has been considered to create a saliency map from an image showing the subject's surroundings, which represents the attractiveness of objects in the subject's field of vision, and to use the saliency map to estimate various states of the subject.
例えば、特許文献1には、サリエンシーマップを用いて、被評価者の視線が向けられている対象物を推定するようにしている。具体的には、特許文献1には、視線方向の検出結果に基づいて、車両の周辺を示す撮像画像内において運転者(被評価者)の視線が向けられている注視領域を抽出し、撮像画像に含まれる物体を認識し、撮像画像および車両情報に基づいて、撮像画像のトップダウンサリエンシーマップを生成し、認識された物体のうち、トップダウンサリエンシーマップにおいてサリエンシーを有する物体を、運転者の視線が向けられている視認対象物の候補として検出し、注視領域の抽出結果および視認対象物の候補の検出結果に基づいて、運転者の視線が向けられている視認対象物を判定する、ことが開示されている。
For example, in
また、特許文献1では、トップダウンサリエンシーマップとして、運転者の見る順番や、体格、癖等の個人差、撮像画像が得られたシーンの曖昧性、視線検出部により検出される視線方向の揺らぎ等を吸収したサリエンシーマップと定義している。
ところで、本願発明者らが鋭意研究したところ、サリエンシーマップを利用することで、被評価者の状態を推定することができることが分かった。すなわち、被評価者が正常状態であるときと、漫然状態であるときとでは、被評価者の視界におけるサリエンシーと被評価者の視線の動きとの関係に違いが生じ、この違いを評価することで被評価者の状態を推定できることが分かった。 However, after extensive research, the inventors of the present application found that the state of the person being evaluated can be estimated by using a saliency map. In other words, when the person being evaluated is in a normal state and when he or she is absent-minded, there is a difference in the relationship between the saliency in the person's field of vision and the movement of the person's gaze, and by evaluating this difference, the state of the person being evaluated can be estimated.
このサリエンシーマップを用いた評価において、特許文献1のトップダウンサリエンシーマップのように、一義的に決まるサリエンシーマップを用いると推定精度が向上することが期待される。しかしながら、運転者の癖等の個人差や画像の曖昧さをどのように吸収するかを定義することは非常に困難であり、最悪の場合、被評価者の状態推定に必要な情報まで吸収してしまい、かえって推定精度を低くしてしまうおそれがある。また、サリエンシーマップの生成する際の演算量が膨大になり、推定時間が長くなるおそれもある。
In evaluations using this saliency map, it is expected that the estimation accuracy will improve if a uniquely determined saliency map, such as the top-down saliency map in
ここに開示された技術は斯かる点に鑑みてなされたものであり、その目的とするところは、サリエンシーマップを用いた人間状態の推定において、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することにある。 The technology disclosed here has been developed in consideration of these points, and its purpose is to estimate the human state of the person being evaluated with as high accuracy as possible using calculations that are as simple as possible when estimating the human state using a saliency map.
前記課題を解決するために、ここに開示された技術では、人間状態推定方法を対象として、被評価者の周辺情報を取得する周辺情報取工程と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、前記前方視界に対する前記被評価者の視線を取得する第1視線情報取得工程と、前記被評価者と同等の属性を有する他人である比較者の視線を取得する第2視線情報取得工程と、前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、前記第2視線情報取得工程で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程と、を含む、という構成とした。 In order to solve the above problem, the technology disclosed herein is directed to a human state estimation method, and includes a peripheral information acquisition step of acquiring peripheral information of the person being evaluated, a visual field image acquisition step of acquiring an image included in the forward visual field of the person being evaluated, a map generation step of generating a saliency map for the image acquired in the visual field image acquisition step, a first gaze information acquisition step of acquiring the gaze of the person being evaluated with respect to the forward visual field, a second gaze information acquisition step of acquiring the gaze of a comparison person who is another person having attributes similar to the person being evaluated, a first probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated acquired in the first gaze information acquisition step will be equal to or greater than a predetermined threshold, a second probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the comparison person acquired in the second gaze information acquisition step will be equal to or greater than the predetermined threshold, and an abnormality estimation step of estimating whether the person being evaluated is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step.
この構成によると、従来のように、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する被評価者と同等の属性を有する他人(比較者)の視線の関係との比較を行えば、トップダウンサリエンシーマップを用いなくとも、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, it is not necessary to absorb individual differences such as the habits of the person being evaluated when generating a saliency map, as in the past, and this makes it easier to generate a saliency map. Furthermore, by comparing the relationship of the person being evaluated's gaze to the saliency map with the relationship of the gaze of another person (comparator) who has attributes similar to that of the person being evaluated to the saliency map, it is possible to improve the accuracy of estimating the human state of the person being evaluated without using a top-down saliency map. Therefore, the human state of the person being evaluated can be accurately estimated with as simple a calculation as possible.
尚、ここでいう「属性」とは、比較者の位置する空間、比較者の年齢、対象ジョブ(車両の運転や工場での製品の選別)に対する比較者の熟練度等をいう。 Note that "attributes" here refer to the space in which the comparator is located, the comparator's age, the comparator's level of expertise in the target job (driving a vehicle or sorting products in a factory), etc.
前記人間状態推定方法において、前記異常推定工程は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する工程である、とういう構成でもよい。 In the human state estimation method, the abnormality estimation process may be configured to estimate that the subject is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a preset specific value.
この構成によると、被評価者が一瞬だけ目を奪われてしまうことで、第1確率と第2確率との間に乖離が生じてしまい、これにより被評価者が異常状態であると推定されることを抑制することができる。これにより、被評価者の人間状態の推定精度を向上させることができる。 With this configuration, if the person being evaluated is distracted for just a moment, a deviation occurs between the first probability and the second probability, which can prevent the person being estimated to be in an abnormal state. This can improve the accuracy of estimating the human state of the person being evaluated.
前記人間状態推定方法において、前記第2視線情報取得工程は、2人以上の前記比較者の視線をそれぞれ取得する工程であり、前記第2確率演算工程は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする工程である、という構成でもよい。 In the human state estimation method, the second gaze information acquisition step may be a step of acquiring the gazes of two or more of the comparators, and the second probability calculation step may be a step of determining the saliency at the position on the saliency map indicated by each gaze of each of the comparators, calculating the probability that each saliency is equal to or greater than the predetermined threshold, and setting the average of the probabilities or one probability selected from the probabilities as the second probability.
この構成によると、被評価者と各比較者との僅かな違いをある程度吸収することができる。これにより、被評価者の人間状態の推定精度をより向上させることができる。 This configuration makes it possible to absorb slight differences between the person being evaluated and each comparison subject to a certain degree. This makes it possible to further improve the accuracy of estimating the human state of the person being evaluated.
ここに開示された技術の他の態様では、人間状態推定方法を対象として、被評価者が位置する空間を含む周辺情報を取得する周辺情報取工程と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、前記前方視界に対する前記被評価者の視線を取得する第1視線情報取得工程と、前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、過去に同じ空間にいた前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程と、を含む、という構成とした。 In another aspect of the technology disclosed herein, the human state estimation method includes a peripheral information acquisition step of acquiring peripheral information including the space in which the person being evaluated is located, a visual field image acquisition step of acquiring an image included in the forward visual field of the person being evaluated, a map generation step of generating a saliency map for the image acquired in the visual field image acquisition step, a first gaze information acquisition step of acquiring the gaze of the person being evaluated with respect to the forward visual field, a first probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated acquired in the first gaze information acquisition step will be equal to or greater than a predetermined threshold, a second probability calculation step of calculating the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated who was in the same space in the past will be equal to or greater than the predetermined threshold, and an abnormality estimation step of estimating whether the person being evaluated is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step.
この構成によると、過去の被評価者と比較するため、トップダウンサリエンシーマップを用いなくても、被評価者の癖や体格などの個人差を出来る限り吸収することができる。これにより、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, since the evaluation is compared with past evaluation subjects, it is possible to absorb as many individual differences as possible, such as the subject's habits and physique, without using a top-down saliency map. This makes it possible to accurately estimate the subject's human condition with as simple a calculation as possible.
ここに開示された技術は、人間評価システムをも対象とする。具体的には、人間状態推定システムを対象として、被評価者の周辺情報を取得する周辺情報取部と、前記被評価者の前方視界に含まれる画像を取得する視界画像取得部と、前記視界画像取得部で取得された画像に対してサリエンシーマップを生成するマップ生成部と、前記前方視界に対する前記被評価者の視線情報を取得する視線情報取得部と、前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する比較者視線情報取得部と、前記視線情報取得部で取得された前記被評価者の視線情報が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算部と、前記比較者視線情報取得部で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算部と、前記第1確率演算部で算出された第1確率と前記第2確率演算部で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定部と、を備える、という構成とした。 The technology disclosed here also applies to human evaluation systems. Specifically, the human state estimation system is configured to include a peripheral information acquisition unit that acquires peripheral information of the person being evaluated, a visual field image acquisition unit that acquires an image included in the forward visual field of the person being evaluated, a map generation unit that generates a saliency map for the image acquired by the visual field image acquisition unit, a gaze information acquisition unit that acquires gaze information of the person being evaluated with respect to the forward visual field, a comparator gaze information acquisition unit that acquires gaze information of a comparator who is another person having attributes similar to the person being evaluated, a first probability calculation unit that calculates the probability that the saliency at a position on the saliency map indicated by the gaze information acquisition unit of the person being evaluated acquired by the gaze information acquisition unit is equal to or greater than a predetermined threshold, a second probability calculation unit that calculates the probability that the saliency at a position on the saliency map indicated by the gaze of the comparator acquired by the comparator gaze information acquisition unit is equal to or greater than the predetermined threshold, and an abnormality estimation unit that estimates whether the person being evaluated is in an abnormal state based on the first probability calculated by the first probability calculation unit and the second probability calculated by the second probability calculation unit.
この構成であっても、従来のように、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する比較者の視線の関係との比較を行えば、トップダウンサリエンシーマップを用いなくとも、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 Even with this configuration, it is not necessary to absorb individual differences such as the habits of the person being evaluated when generating a saliency map, as in the past, so it is easy to generate a saliency map. Furthermore, by comparing the relationship of the person being evaluated's gaze to the saliency map with the relationship of the comparison person's gaze to the saliency map, it is possible to improve the accuracy of estimating the human state of the person being evaluated without using a top-down saliency map. Therefore, the human state of the person being evaluated can be accurately estimated with as simple a calculation as possible.
前記人間状態推定システムにおいて、前記異常推定部は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する、という構成でもよい。 In the human state estimation system, the abnormality estimation unit may be configured to estimate that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a preset specific value.
この構成によると、被評価者の人間状態の推定精度を向上させることができる。 This configuration can improve the accuracy of estimating the human state of the person being evaluated.
前記人間状態推定システムにおいて、前記比較者視線情報取得部は、2人以上の前記比較者の視線をそれぞれ取得し、前記第2確率演算部は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする、という構成でもよい。 In the human state estimation system, the comparator gaze information acquisition unit may acquire the gazes of two or more of the comparators, and the second probability calculation unit may determine the saliency at the position on the saliency map indicated by each gaze of each of the comparators, calculate the probability that each saliency is equal to or greater than the predetermined threshold, and set the second probability to the average of the probabilities or one probability selected from the probabilities.
この構成によると、被評価者の人間状態の推定精度をより向上させることができる。 This configuration can further improve the accuracy of estimating the human state of the person being evaluated.
前記人間状態推定システムにおいて、前記被評価者の視線に関する情報を記憶する記憶部を更に備え、前記第2確率演算部は、前記被評価者の周囲に前記比較者が存在しないときには、過去に同じ空間にいた前記被評価者の視線に関する情報を前記記憶部から読み出して、過去の前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を前記第2確率として算出する、という構成でもよい。 The human state estimation system may further include a memory unit that stores information regarding the gaze of the person being evaluated, and the second probability calculation unit, when the comparison person is not present around the person being evaluated, reads out from the memory unit information regarding the gaze of the person being evaluated who was in the same space in the past, and calculates the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated in the past will be equal to or greater than the predetermined threshold as the second probability, when the comparison person is not present around the person being evaluated.
この構成によると、例えば、深夜に車両を運転しているなど、比較者が近くに存在しにくい状況であっても、被評価者の人間状態を精度良く推定することができる。また、評価者の過去の視線に関する情報は記憶されているため、第2確率を容易に算出することができる。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 With this configuration, the human state of the person being evaluated can be estimated with high accuracy even in a situation where a comparison person is unlikely to be nearby, such as when driving a vehicle late at night. In addition, since information about the evaluator's past line of sight is stored, the second probability can be easily calculated. Therefore, the human state of the person being evaluated can be estimated with high accuracy using calculations that are as simple as possible.
以上説明したように、ここに開示された技術によると、被評価者と同等の属性の他人である比較者や過去に同じ空間にいたときの被評価者と比較するため、トップダウンサリエンシーマップを用いる必要がなく、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 As described above, the technology disclosed herein makes it possible to accurately estimate the human state of the person being evaluated using calculations that are as simple as possible, without the need to use a top-down saliency map, because it compares the person being evaluated with a comparator who has similar attributes to the person being evaluated, or with the person being evaluated when they were in the same space in the past.
〈実施形態1〉
以下、例示的な実施形態1について、図面を参照しながら詳細に説明する。実施形態1は、人間状態推定システム50(図3参照)を自動車の運転手を対象に適用した場合である。尚、以下の実施形態1の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。
First Embodiment
An
図1は、人間状態推定システム50が採用された自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール8が配置されている。
Figure 1 shows a schematic diagram of the interior of a vehicle in which a human
車室内において、運転席から見て車両前側にはフロントウィンドウガラス1が配置されている。フロントウィンドウガラス1は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス1は、左右のフロントピラートリム2と、ルーフトリム3と、インストルメントパネル4とによって区画されている。
In the vehicle interior, a
左右のフロントピラートリム2は、フロントウィンドウガラス1の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム2は、各フロントピラー12に沿って配置されている。各フロントピラートリム2は、図1に示すように、上側に向かって互いに離間するように斜めに傾斜してそれぞれ配置されている。
The left and right front pillar trims 2 each form the outer boundary of the
ルーフトリム3は、フロントウィンドウガラス1の上側の境界を構成している。ルーフトリム3は、車両のルーフパネル13の車室内側を覆っている。フロントウィンドウガラス1の車幅方向の中央でかつルーフトリム3のやや下側の部分には、バックミラー5が取り付けられている。ルーフトリム3におけるバックミラー5の近傍部分には、車室内、特に、運転者(以下、被評価者という)の顔面を撮影する車内カメラ101(図3参照)が設けられている。車内カメラ101は、被評価者の瞳孔の変化を検出できる程度に高性能なカメラで構成されている。
The roof trim 3 forms the upper boundary of the
インストルメントパネル4は、フロントウィンドウガラス1の下側の境界を構成している。インストルメントパネル4には、メーターボックスやディスプレイ7が設けられている。
The
また、前記車両は、左右のフロントピラー12よりも車幅方向外側に、サイドミラー6をそれぞれ有している。各サイドミラー6は、運転席に着座した被評価者がサイドドアのウィンドウ越しに見ることが出来るように配置されている。
The vehicle also has side mirrors 6 located on the outside of the left and right front pillars 12 in the vehicle width direction. Each
前記車両は、図2に示すように、車両前側の外部環境を撮影するための車外カメラ100が設けられている。車外カメラ100は、車両の前側端部であって、車両のボンネット9よりもやや下側に配置されている。
As shown in FIG. 2, the vehicle is provided with an
本実施形態に係る人間状態推定システム50は、被評価者の視線移動と、自車両の周囲に存在する、被評価者と同等の属性を有する他の運転者(以下、比較者という)の視線移動とを比較することで、被評価者の状態を推定する。ここでいう「属性」とは、比較者の位置する空間、比較者の年齢、対象ジョブ(ここでは車両の運転)に対する比較者の熟練度等をいう。つまり、比較者とは、例えば、被評価者と同じ空間に位置し、被評価者と同程度であり、被評価者と運転レベルが同程度の運転者をいう。尚、比較者の属性は、被評価者と厳密に同じである必要はなく、被評価者と同程度とみなせる属性であればよい。
The human
図3は、人間状態推定システム50の構成を概略的に示す。人間状態推定システム50は、一部の演算にクラウドサーバ70を利用する。クラウドサーバ70は、被評価者の運転する自車両VAから被評価者の情報を取得するとともに、比較者の運転する他車両VBから比較者の情報を取得する。
Figure 3 shows a schematic configuration of the human
自車両VAは、被評価者の視線情報を算出するためのコントローラ60を有する。このコントローラ60は、周知のマイクロコンピュータをベースとするコントローラであって、プログラムを実行する中央演算処理装置(Central Processing Unit:CPU)と、例えばRAM(Random Access Memory)やROM(Read Only Memory)により構成されてプログラム及びデータを格納するメモリと、電気信号の入出力をする入出力バスと、を備えている。
The vehicle VA has a
コントローラ60は、図3に示すように、各種のセンサと接続されている。センサは、例えば、
被評価者の前方視界に含まれる画像を取得する車外カメラ100と、
被評価者の顔面を撮影する車内カメラ101と、
自車両VAの車速を検出する車速センサ102と、
自車両VAに入力される前後加速度を検出する加速度センサ103と、
自車両VAに入力される横加速度を検出するヨーレートセンサ104と、
ステアリングホイール8に連動して回動するステアリングシャフトの回動角から自車両VAの操舵角を検出する操舵角センサ105と、
前記ステアリングシャフトを介してステアリングホイール8に入力する操舵トルクを検出する操舵トルクセンサ106と、
自車両VAのアクセルペダルの踏み込み量からアクセル開度を検出するアクセル開度センサ107と、
自車両VAのブレーキペダルの踏み込み量からブレーキ圧を検出するブレーキ圧センサ108と、
全地球測位システム(Global Positioning System:GPS)を利用して、自車両VAの位置を検出するGPSセンサ109と、
を含む。
The
An
An in-
A
An
A
a
a
an
A
A
Includes.
また、コントローラ60は、クラウドサーバ70からの情報を取得するクラウドサーバ受信機71と接続されている。クラウドサーバ受信機71とクラウドサーバ70とは無線通信により通信可能である。
The
コントローラ60は、車内カメラ101により撮影された被評価者の眼球から、被評価者の視線方向を算出する視線算出部61を有する。視線算出部61は、例えば、被評価者が車内カメラ101のレンズを覗いた状態を基準にして、そこからの被評価者の瞳孔の変化を検知することで被評価者の視線方向を算出する。視線方向の算出は、被評価者の左目及び右目のどちらか一方から算出してもよいし、被評価者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、被評価者の瞳孔の変化から被評価者の視線方向を算出することが困難であるときには、被評価者の顔面の向きを更に考慮して視線方向を算出してもよい。自車両VAの車内カメラ101及びコントローラ60は、視線情報取得部を構成する。
The
コントローラ60は、車外カメラ100が取得した画像データに基づいて、車両前側の物標に対して、被評価者の視線の惹きつけやすさを示すサリエンシーを算出して、サリエンシーマップを生成するマップ生成部62を有する。サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。すなわち、サリエンシーが高いとは、顕著性が高いことを表し、サリエンシーが高い領域とは周囲に対して目立つ領域のことである。より具体的には、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域は、サリエンシーが高くなる。
The
自車両VAは、各種センサ100~109からの情報をクラウドサーバ70に送信するためのクラウドサーバ送信機72を有する。クラウドサーバ送信機72とクラウドサーバ70とは無線通信により通信可能である。
The vehicle VA has a
自車両VAは、推定された被評価者の状態に応じて、自車両VAの操舵や加減速などの運転を支援する運転支援装置110を有する。
The vehicle VA has a driving
他車両VBの構成は、基本的には自車両VAと同じであるため、詳細な説明を省略する。他車両VBの視線算出部61は、比較者の視線情報を取得する比較者視線情報取得部を構成する。
The configuration of the other vehicle VB is basically the same as that of the host vehicle VA, so a detailed description will be omitted. The
クラウドサーバ70は、自車両VA及び他車両VBのGPSセンサ109からの情報に基づいて、自車両VAの周囲に位置する他車両VBを検出する。GPSセンサ109及びクラウドサーバ70は、周辺情報取得部を構成する。
The
自車両VA及び他車両VBから取得した各種センサ100~109からの情報に基づいて、他車両VBの運転者の属性が被評価者の属性と同等であるか否かを判定する。クラウドサーバ70は、図4に示すように、自車両VAの周囲に位置する複数の他車両VBのそれぞれから情報を取得して、各他車両VBの運転者の属性と被評価者の属性とをそれぞれ比較する。そして、クラウドサーバ70は、各他車両VBの運転者から被評価者と同等の属性の運転者を比較者として選択する。クラウドサーバ70は、比較者が2人以上存在するときには、比較者を2人以上選択する。クラウドサーバ70は、各他車両VBの走行距離や走行頻度、加減速のタイミングなどから、各他車両VBの運転者の属性と被評価者の属性とが同じであるか否かを判定する。
Based on information from various sensors 100-109 acquired from the vehicle VA and the other vehicle VB, the
クラウドサーバ70は、自車両VAからサリエンシーマップ及び被評価者の視線方向に基づいて、被評価者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(以下、第1確率という)を算出する。また、クラウドサーバ70は、他車両VBからサリエンシーマップ及び比較者の視線方向に基づいて、比較者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(以下、第2確率という)を算出する。第1確率及び第2確率の算出方法については後述する。クラウドサーバ70は、第1確率演算部及び第2確率演算部を構成する。
The
クラウドサーバ70は、算出した第1確率及び第2確率に基づいて、被評価者が異常状態であるかを推定する。クラウドサーバ70は、推定結果を自車両VAに送信する。クラウドサーバ70は、異常推定部を構成する。
The
(サリエンシーマップの生成)
次に、マップ生成部62によるサリエンシーマップに生成について説明する。
(Generating saliency maps)
Next, generation of the saliency map by the
図5は、車外カメラ100が撮影した被評価者の前方視界に含まれる画像である。この画像に示す前方視界には、車道150と、車道150上の白線151とが含まれている。また、この画像D1に示された外部環境には、他車両161と、車道150の右側に形成された壁162と、壁162よりも右側の領域に植えられた樹木163と、壁162よりも右側の領域に広がる丘164と、車道150の左側に形成された森林165が含まれている。また、この画像D1に示された外部環境には、建物166と、建物166及び森林165の上側に広がる空167が含まれている。
Figure 5 is an image captured by the
マップ生成部62は、撮像された画像に対してサリエンシーを算出して、サリエンシーマップを生成する。前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。マップ生成部62は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的なサリエンシーマップを生成する。
The
例えば、色に基づくサリエンシーについては、マップ生成部62は、画像における周囲との色差が大きい部分には、該色差が小さい部分と比較して、近傍領域のサリエンシーを高くする。尚、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)2+(G2-G1)2+(B2-B1)2}1/2
マップ生成部62は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, for saliency based on color, the
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The
また、例えば、輝度に基づくサリエンシーについては、マップ生成部62は、画像における周囲との輝度差が大きい部分には、該輝度差が小さい部分と比較して、近傍領域のサリエンシーを高くする。マップ生成部62は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, with regard to saliency based on luminance, the
さらに、動きに基づくサリエンシーについては、マップ生成部62は、自車両VAに対して相対的な動きが大きいものに対して、サリエンシーを高くする。例えば、空167を鳥が横切ったとき等には、鳥の周囲部分のサリエンシーを高くする。
Furthermore, for saliency based on movement, the
尚、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップ(ここではサリエンシーマップ)の算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 The calculation of saliency itself can be performed using known computer programs available on the Internet, etc. Also, known computer programs can be used to calculate the saliency map for each feature (here, the saliency map) and to integrate each saliency map.
図6は、車外カメラ100で撮影された画像に対してサリエンシーを算出した場合のサリエンシーマップである。図6に示すように、例えば、樹木163及び森林165における空167との境界部分や、車道150の左側の白線151は、色差や輝度差が高くなるためサリエンシーの高い領域(高サリエンシー領域)となっている。逆に車道150や空167は大部分が類似して、色差等が低いため、サリエンシーの低い部分が多くなる。
Figure 6 is a saliency map when saliency is calculated for an image captured by the
自車両VAと他車両VBとは、厳密には位置が異なるため、各マップ生成部62が生成する各サリエンシーマップは厳密には一致しない。しかし、物標の大半が共通してさえいれば、このサリエンシーマップのずれは、後述する人間状態を推定する上で問題とならない程度のずれである。
The positions of the vehicle VA and the other vehicle VB are different to be exact, so the saliency maps generated by each
(人間状態の推定)
次に人間状態の推定について図7~図10を参照しながら説明する。
(Estimation of the human condition)
Next, estimation of a human state will be described with reference to FIGS.
図7は、被評価者の注視点、すなわち、被評価者の視線の先にある点のサリエンシーをプロットしたものである。このグラフは、視線算出部61により被評価者の視線方向を割り出して、該視線方向の先にある注視点をサリエンシーマップに当てはめて、該サリエンシーマップから当該注視点のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。
Figure 7 plots the saliency of the gaze point of the person being evaluated, i.e., the point in the direction of the person being evaluated's line of sight. This graph is generated by determining the gaze direction of the person being evaluated using the
一方で、図8は、比較者の注視点、すなわち、比較者の視線の先にある点のサリエンシーをプロットしたものである。このグラフは、他車両VBの視線算出部61により比較者の視線方向を割り出して、該視線方向の先にある注視点を他車両VBのマップ生成部62が生成したサリエンシーマップに当てはめて、該サリエンシーマップから当該注視点のサリエンシーを求めることで生成される。この各点は所定のサンプリング周期毎に求められる。
On the other hand, Figure 8 plots the saliency of the comparator's gaze point, i.e., the point in the direction of the comparator's line of sight. This graph is generated by determining the gaze direction of the comparator using the
クラウドサーバ70は、図7及び図8のグラフをそれぞれ作成した後は、比較者の注視点における閾値を超える割合と被評価者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図7及び図8のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図7及び図8のグラフにおいて最小値以下になるまで繰り返す。被評価者の注視点における閾値を超える割合が第1確率に相当し、比較者の注視点における閾値を超える割合が第2確率に相当する。
After creating the graphs of FIG. 7 and FIG. 8, the
図7及び図8に示すグラフは、所定時間毎に区切って生成される。所定時間は、ROC曲線を作成するのに十分な時間でかつ出来る限り早期に人間状態を推定できる時間に設定されている。所定時間は、例えば30秒である。 The graphs shown in Figures 7 and 8 are generated in intervals of a predetermined time. The predetermined time is set to a time that is sufficient to create an ROC curve and that allows for an estimation of the human state as early as possible. The predetermined time is, for example, 30 seconds.
クラウドサーバ70は、前記第1及び第2ステップの後、第3ステップとして、第2確率を横軸にとりかつ第1確率を縦軸にとって、図9のようなROC曲線を作成する。図9のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。
After the first and second steps, the
図9において破線は、被評価者の視線の動きと比較者の視線の視線の動きとにほとんど差がないことを表す。これに対して、図9の曲線C1のように、曲線が上側に凸に広がる場合は、被評価者の注視点は、比較者の注視点よりも閾値を超える割合が高いことを表す。すなわち、図9の曲線C1のような形状の曲線が算出されたときは、被評価者の視線が、比較者の視線と比較して、高サリエンシー領域を見る傾向にあることを意味している。一方で、図9の曲線C2のように、曲線が下側に凸に広がる場合は、被評価者の注視点は、比較者の注視点よりも閾値を超える割合が低いことを表す。すなわち、図9の曲線C2のような形状の曲線が算出されたときは、被評価者の視線が、比較者の視線と比較して、サリエンシーの低い領域(低サリエンシー領域)を見る傾向にあることを意味している。 In FIG. 9, the dashed line indicates that there is almost no difference between the gaze movement of the subject and the gaze movement of the comparator. In contrast, when the curve spreads upward in a convex shape, as in the curve C1 in FIG. 9, it indicates that the gaze of the subject exceeds the threshold more frequently than the gaze of the comparator. In other words, when a curve with a shape like the curve C1 in FIG. 9 is calculated, it means that the gaze of the subject tends to look at the high saliency area compared to the gaze of the comparator. On the other hand, when the curve spreads downward in a convex shape, as in the curve C2 in FIG. 9, it indicates that the gaze of the subject exceeds the threshold less frequently than the gaze of the comparator. In other words, when a curve with a shape like the curve C2 in FIG. 9 is calculated, it means that the gaze of the subject tends to look at the low saliency area compared to the gaze of the comparator.
本実施形態では、クラウドサーバ70は、第4ステップとして、ROC曲線の下側の面積であるAUC(Area Under Curve)値を求める。AUC値は、例えば、ROC曲線が曲線C1である場合には、図10のハッチングが付された領域の面積に相当する。AUC値を算出することで、第1確率と第2確率との乖離の度合い、すなわち、被評価者の視線と比較者の視線との乖離の度合いを評価することができる。具体的には、被評価者の視線が比較者よりも高サリエンシー領域を向く傾向が強くなると、AUC値が大きくなり、一方で、被評価者の視線が比較者よりも低サリエンシー領域を向く傾向が強くなると、AUC値が小さくなる。
In this embodiment, the
次に、第5ステップとして、予め設定された計測期間分の各AUC値のうち、基準値から所定値以上乖離するAUC値の割合である推定指標値を算出する。計測期間は、所定時間よりも長い期間であり、計測期間には複数の所定時間が含まれる。本実施形態では、基準値を0.5に設定している。すなわち、比較者は、被評価者と同じ属性を有するため、被評価者が正常な状態であれば、第1確率と第2確率とはあまり差が生じない。したがって、被評価者が正常な状態であれば、AUC値は0.5になるためである。本実施形態では、前記所定値は、マイナス側が0.2に設定され、プラス側が0.1に設定されている。プラス側がマイナス側と比べて厳しい基準となっているのは、被評価者が漫然状態等の異常状態にあるときには、被評価者は高サリエンシー領域に視線を向ける傾向にあるためである。推定指標値は、被評価者の注視点のサリエンシーと比較者の注視点のサリエンシーとのずれを表している。具体的には、推定指標値が大きいほど、被評価者の注視点のサリエンシーと比較者の注視点のサリエンシーとのずれが大きいことを表す。 Next, as a fifth step, an estimated index value is calculated, which is the ratio of AUC values that deviate from the reference value by a predetermined value or more among each AUC value for a preset measurement period. The measurement period is longer than the predetermined time, and includes a plurality of predetermined times. In this embodiment, the reference value is set to 0.5. That is, since the comparator has the same attributes as the person being evaluated, if the person being evaluated is in a normal state, there is not much difference between the first probability and the second probability. Therefore, if the person being evaluated is in a normal state, the AUC value will be 0.5. In this embodiment, the negative side of the predetermined value is set to 0.2, and the positive side is set to 0.1. The reason why the positive side is a stricter standard than the negative side is that when the person being evaluated is in an abnormal state such as a absent-minded state, the person being evaluated tends to direct his or her gaze toward a high saliency area. The estimated index value represents the deviation between the saliency of the person being evaluated's gaze point and the saliency of the person being compared. Specifically, the larger the estimated index value, the greater the discrepancy between the saliency of the subject's gaze point and the saliency of the comparison subject's gaze point.
そして、クラウドサーバ70は、第6ステップとして、推定指標値が予め設定された特定値以上であるか否かを判定する。具体的には、推定指標値が特定値以上であれば、被評価者が比較者とは異なる状態、すなわち異常状態であると推定する。本実施形態では、特定値は60%に設定されている。
Then, in the sixth step, the
このように、被評価者が注視した箇所のサリエンシーと、比較者が注視した箇所のサリエンシーとを比較するようにすれば、高サリエンシー領域の多さや広がり等の、走行シーンへの依存性を低減することができる。 In this way, by comparing the saliency of the areas gazed upon by the person being evaluated with the saliency of the areas gazed upon by the comparison person, it is possible to reduce dependency on the driving scene, such as the number and extent of high saliency areas.
特に、被評価者の視線に基づく第1確率と比較者の視線に基づく第2確率とを比較して、AUC値を算出することで、被評価者の人間状態を精度良く推定することができる。具体的には、例えば、被評価者が高サリエンシー領域を見た割合を算出するだけでは、高サリエンシー領域がサリエンシーマップ全体に広がる走行シーンであった場合に、たとえ被評価者が視界領域全体を偏りなく見ていたとしても、被評価者は高サリエンシー領域を見る頻度が高いと判定されてしまう。また、被評価者が運転経験の浅い運転者であるときには、視野が狭くなる傾向にあり、視線が特定の箇所に偏ってしまうことがある。本実施形態のように、比較者が注視した箇所のサリエンシーとの比較を行うようにすれば、高サリエンシー領域の多さや広がり等の走行シーンの依存性や被評価者間の個人差の依存性を低減することができる。これにより、被評価者の視線情報に基づいて、被評価者の人間状態を精度良く推定することができる。 In particular, the first probability based on the gaze of the assessee and the second probability based on the gaze of the comparator are compared to calculate the AUC value, and the human state of the assessee can be accurately estimated. Specifically, for example, if the rate at which the assessee looks at the high saliency area is calculated, even if the assessee looks at the entire field of view without bias, the assessee will be determined to look at the high saliency area frequently when the high saliency area is spread over the entire saliency map. In addition, when the assessee is a driver with little driving experience, the field of view tends to be narrow, and the gaze may be biased to a specific location. As in this embodiment, by comparing with the saliency of the location gazed by the comparator, the dependency of the driving scene, such as the number and spread of high saliency areas, and the dependency of individual differences between assessees can be reduced. This makes it possible to accurately estimate the human state of the assessee based on the gaze information of the assessee.
尚、被評価者の周囲に比較者が存在しないときには、クラウドサーバ70が、自車両VAのコントローラ60が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。そして、ランダム点のサリエンシーから第2確率を算出する。被評価者が正常な状態であれば、基本的には、被評価者の視線は、高サリエンシー領域に引っ張られることなく、視界全体に万遍なく向く。このため、ランダム点のサリエンシーから算出した第2確率と第1確率とを比較した場合も、被評価者が正常な状態であれば、ACUは0.5に近い値になる。したがって、ランダム点のサリエンシーから第2確率を算出したとしても、精度が大きく低下することはない。
When there is no comparison person around the person being evaluated, the
(フローチャート)
次に、人間状態推定システム50より被評価者の人間状態を推定する処理動作を図11のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human
まず、ステップS101において、人間状態推定システム50は、自車両VAの周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。
First, in step S101, the human
次に、ステップS102において、人間状態推定システム50は、自車両VAの車内カメラ101で撮像された画像から被評価者の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS102の時点で、自車両VAのコントローラ60は、前記ステップS101で取得した画像データを基にサリエンシーマップを生成している。このステップS102で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。
Next, in step S102, the human
次に、ステップS103において、人間状態推定システム50は、自車両VAの周囲に比較者となり得る他車両VBの運転者が存在するか否かを判定する。人間状態推定システム50は、他車両VBの位置情報や運転に関する各種センサ102~108の検出結果に基づいて、比較者の有無を判定する。人間状態推定システム50は、比較者が存在するYESのときには、ステップS104に進む。一方で、人間状態推定システム50は、比較者が存在しないNOのときには、ステップS108に進む。
Next, in step S103, the human
前記ステップS104では、人間状態推定システム50は、他車両VBの車内カメラ101で撮像された画像から比較者の視線情報を取得する。尚、このステップS104は、前記ステップS103の判定後に行うのではなく、実際には、他車両VBにおいて、前記ステップS102と同時進行で行われている。また、フローチャートでは省略しているが、このステップS104の時点で、他車両VBのコントローラ60も、他車両VBで取得された画像データを基にサリエンシーマップを生成している。このステップS104で取得される比較者の視線情報は、比較者の視線の先のサリエンシーも含む情報である。
In step S104, the human
次に、ステップS105において、人間状態推定システム50は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム50は、所定時間が経過したYESのときには、ステップS106に進む。一方で、人間状態推定システム50は、所定時間が経過していないNOのときには、ステップS101に戻る。尚、ステップS101まで戻るのは、所定時間が経過するまでの間に、被評価者の周囲の状況が変化して、比較者の有無等にも変化があるためである。
Next, in step S105, the human
前記ステップS106では、人間状態推定システム50は、被評価者の視線情報から第1確率を算出する。
In step S106, the human
次に、ステップS107では、人間状態推定システム50は、比較者の視線情報から第2確率を算出する。
Next, in step S107, the human
一方で、前記ステップS103の判定がNOであるときに進むステップS108では、人間状態推定システム50は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は、30秒程度である。人間状態推定システム50は、所定時間が経過したYESのときには、ステップS109に進む。一方で、人間状態推定システム50は、所定時間が経過していないNOのときには、ステップS101に戻る。
On the other hand, in step S108, which is reached when the determination in step S103 is NO, the human
前記ステップS109では、人間状態推定システム50は、被評価者の視線情報から第1確率を算出する。
In step S109, the human
次に、ステップS110では、人間状態推定システム50は、自車両VAのコントローラ60が生成したサリエンシーマップから選択したランダム点から第2確率を算出する。
Next, in step S110, the human
次いで、ステップS111において、人間状態推定システム50は、前記ステップS106若しくは前記ステップS109で算出された第1確率と、前記ステップS107若しくは前記ステップS110で算出された第2確率とに基づいてROC曲線を算出する。
Next, in step S111, the human
次に、ステップS112において、人間状態推定システム50は、前記ステップS111で算出したROC曲線からAUC値を算出する。
Next, in step S112, the human
続いて、ステップS113において、人間状態推定システム50は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム50は、計測期間分のAUC値が得られているYESのときには、ステップS114に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS101に戻り、計測期間分のAUC値が得られるまで、ステップS101~S112を繰り返す。
Next, in step S113, the human
そして、ステップS114において、人間状態推定システム50は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム50は、推定指標値が特定値以上であるYESのときには、ステップS115に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム50は、推定指標値が特定値未満であるNOのときには、ステップS115に進んで、被評価者に異常は生じていないと判定する。
Then, in step S114, the human
前記ステップS115及び前記ステップS116の後は、リターンする。 After steps S115 and S116, return.
クラウドサーバ70は、推定結果を自車両VAのコントローラ60に送信する。自車両VAのコントローラ60は、被評価者に異常が生じているという結果を受信したときには、運転支援装置110により被評価者による自車両VAの運転を支援する。また、被評価者の状態が自車両VAの運転を継続できない程度であると推定されたときには、自車両VAのコントローラ60は、運転支援装置110により、自車両VAを路肩に移動させた後、自車両VAを停車させる。尚、自車両VAのコントローラ60は、被評価者に「大丈夫ですか」、「少し休みませんか」などの問いかけをするように、スピーカ等の報知装置に制御信号を送信してもよい。
The
クラウドサーバ70は、前記ステップS103において、比較者が2人以上いるときには、2人以上の比較者を選択する。クラウドサーバ70が比較者を2人以上選択するときには、各比較者に対して第2確率が算出された後、クラウドサーバ70は、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。
In step S103, when there are two or more comparators, the
したがって、本実施形態1に係る人間状態推定システム50は、被評価者の周辺情報を取得し(周辺情報取工程)、被評価者の前方視界に含まれる画像を取得し(視界画像取得工程)、取得された画像に対してサリエンシーマップを生成し(マップ生成工程)、被評価者の視線情報を取得し(第1視線情報取得工程)、被評価者と同等の属性を有する他人である比較者の視線情報を取得し(第2視線情報取得工程)、被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる第1確率を算出し(第1確率演算工程)、比較者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる第2確率を算出し(第2確率演算工程)、第1確率と第2確率とに基づいて、被評価者が異常状態であるかを推定する。これにより、サリエンシーマップを生成する際に被評価者の癖等の個人差等を吸収する必要がないため、サリエンシーマップの生成が容易になる。また、サリエンシーマップに対する被評価者の視線の関係と、サリエンシーマップに対する比較者の視線の関係との比較を行えば、被評価者の人間状態の推定精度を向上させることが可能である。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。
Therefore, the human
また、本実施形態1では、人間状態推定システム50は、第1確率と第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、被評価者が異常状態にあると推定する。これにより、一瞬だけ目を奪われてしまい第1確率と第2確率との間に乖離が生じることで、被評価者が異常状態であると推定されてしまうのを抑制することができる。この結果、被評価者の人間状態の推定精度を向上させることができる。
In addition, in this
また、本実施形態1では、人間状態推定システム50は、2人以上の比較者が存在するときには、それぞれ比較者の視線情報をそれぞれ取得して、各比較者の各視線が示すサリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値を最終的な第2確率とする。これにより、被評価者と各比較者との僅かな違いをある程度吸収することができる。この結果、被評価者の人間状態の推定精度をより向上させることができる。
In addition, in this
〈実施形態2〉
以下、実施形態2について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Second Embodiment
Hereinafter, the second embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first embodiment, and detailed description thereof will be omitted.
実施形態2は、人間状態推定システム250(図14参照)を工場の作業員を対象に適用した場合である。例示する工場では、図12に示すように、被評価者HAとしての作業員は、コンベア装置220上を流れる製品Pの検品を行う作業員である。被評価者HAが作業を行うラインには、被評価者HAを含む複数人の作業員(図12及び図13では2人)が作業を行っている。以下の説明では、作業員から見てコンベア装置220側を前側といい、作業員から見てコンベア装置220とは反対側を後側という。また、図12及び図13に示す被評価者HA以外の作業者が、被評価者HAと同等の属性を有する他人である比較者HBであるとして説明する。尚、ここでいう、属性は、例えば、年齢、伸長、作業の熟練度(作業の経験年数)などである。
In the second embodiment, the human state estimation system 250 (see FIG. 14) is applied to factory workers. In the illustrated factory, as shown in FIG. 12, the worker who is the assessee HA is a worker who inspects the product P flowing on the
図13及び図14は、本実施形態2に係る人間状態推定システム250の構成を概略的に示す。人間状態推定システム250は、被評価者HA及び比較者HBの前方視界の画像を取得する後方カメラ200を備える。後方カメラ200は、定点カメラであって、被評価者HA及び比較者HBの後側に位置する。後方カメラ200は、被評価者HAの前方視界の画像と、比較者HBの前方視界の画像とをそれぞれ取得できるように、複数(ここでは2つ)設けられている。人間状態推定システム250は、被評価者HA及び比較者HBの視線を取得するための前方カメラ201を有する。前方カメラ201は、定点カメラであって、被評価者HA及び比較者HBの前側に位置する。前方カメラ201は、被評価者HA及び比較者HBの瞳孔の変化を検出できる程度に高性能なカメラで構成されている。
13 and 14 show a schematic configuration of the human
人間状態推定システム250は、被評価者HA及び比較者HBの視線情報を算出するためのコントローラ260を有する。このコントローラ260は、周知のマイクロコンピュータをベースとするコントローラであって、プログラムを実行する中央演算処理装置(Central Processing Unit:CPU)と、例えばRAM(Random Access Memory)やROM(Read Only Memory)により構成されてプログラム及びデータを格納するメモリと、電気信号の入出力をする入出力バスと、を備えている。コントローラ260には、後方カメラ200及び前方カメラ201からの画像データが入力される。また、コントローラ260は、後述するクラウドサーバ270からの情報を取得するクラウドサーバ受信機271と接続されている。クラウドサーバ受信機271とクラウドサーバ270とは無線通信により通信可能である。
The human
コントローラ260は、前方カメラ201により撮影された被評価者の眼球から、被評価者HA及び比較者HBの視線方向を算出する視線算出部261を有する。視線算出部261による視線の算出方法は、前述の実施形態1における視線算出部61と同じ方法を採用することができるため、詳細な説明を省略する。
The
コントローラ60は、後方カメラ200が取得した画像データに基づいて、被評価者HA及び比較者HBの前方視界に存在する物標に対して、被評価者HA及び比較者HBの視線の惹きつけやすさを示すサリエンシーを算出して、サリエンシーマップを生成するマップ生成部262を有する。マップ生成部262によるサリエンシーマップの生成方法は、前述の実施形態1におけるマップ生成部262と同じ方法を採用することができるため、詳細な説明を省略する。
The
本実施形態2の人間状態推定システム250も演算の一部にクラウドサーバ270を用いる。コントローラ260は、後方カメラ200及び前方カメラ201からの情報、被評価者HA及び比較者HBの視線情報、及びサリエンシーマップをクラウドサーバ270に送信するためのクラウドサーバ送信機272を有する。クラウドサーバ送信機272とクラウドサーバ270とは無線通信により通信可能である。
The human
クラウドサーバ270は、複数の作業者から比較者HBを選択する機能を有する。クラウドサーバ270は、後方カメラ200及び前方カメラ201が撮影した画像から被評価者HA及び他の作業者を特定する。クラウドサーバ270は、特定した他の作業者の中から被評価者HAと同等の属性を有する比較者HBを選定する。図12及び図13では、比較者HBが1人であるが、クラウドサーバ70は、比較者HBが2人以上存在するときには、比較者HBを2人以上選択する。
The
クラウドサーバ270は、コントローラ260から取得した情報に基づいて、被評価者HAの視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(つまり、第1確率)を算出する。また、クラウドサーバ270は、コントローラ260から取得した情報に基づいて、比較者HBの視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(つまり、第2確率)を算出する。クラウドサーバ270による第1及び第2確率の算出方法は、前述の実施形態1における算出方法と同じ方法を採用できるため、詳細な説明を省略する。本実施形態2では、クラウドサーバ270が第1確率演算部及び第2確率演算部を構成する。
Based on the information acquired from the
クラウドサーバ270は、算出した第1確率及び第2確率に基づいて、被評価者HAが異常状態であるかを推定する。被評価者HAの異常状態の推定方法は前述の実施形態1と同じであり、推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。
The
クラウドサーバ270は、クラウドサーバ受信機271を介して推定結果をコントローラ260に送信する。コントローラ260は、クラウドサーバ270から被評価者HAが異常であるという推定結果を取得したときに、そのことを作業員や作業員を監視する監視者に報知するための報知装置210を有する。報知装置210は、例えば、スピーカや監視者が確認可能なディスプレイ等の表示装置である。報知装置210は、作業員に「大丈夫ですか」等の問いかけをしたり、表示装置に異常者ありの表示をしたりする。
The
また、コントローラ260は、コンベア装置220を制御するように構成されている。コントローラ260は、被評価者HAが異常であるという推定結果を取得したときにコンベア装置220を一次的に停止させたり、被評価者HAへの処置(ラインから外す等)が完了したときにコンベア装置220の作動を再開させたりする。
The
(フローチャート)
次に、人間状態推定システム250より被評価者の人間状態を推定する処理動作を図12のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human
まず、ステップS201において、人間状態推定システム250は、被評価者HAの周辺情報及び被評価者HAの前方視界の画像を含む各種データを取得する。
First, in step S201, the human
次に、ステップS202において、人間状態推定システム250は、前方カメラ201で撮像された画像から被評価者HAの視線情報を取得する。尚、フローチャートでは省略しているが、このステップS202の時点で、コントローラ260は、前記ステップS101で取得した画像データを基にサリエンシーマップを生成している。このステップS202で取得される被評価者HAの視線情報は、被評価者HAの視線の先のサリエンシーも含む情報である。
Next, in step S202, the human
次に、ステップS203において、人間状態推定システム250は、前方カメラ201で撮像された画像から比較者HBの視線情報を取得する。このステップS203で取得される比較者HBの視線情報は、比較者HBの視線の先のサリエンシーも含む情報である。
Next, in step S203, the human
次いで、ステップS204において、人間状態推定システム250は、所定時間が経過したか否か、特に被評価者HA及び比較者HBの視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム250は、所定時間が経過したYESのときには、ステップS205に進む。一方で、人間状態推定システム250は、所定時間が経過していないNOのときには、ステップS201に戻る。
Next, in step S204, the human
前記ステップS205では、人間状態推定システム250は、被評価者HAの視線情報から第1確率を算出する。
In step S205, the human
次に、ステップS206では、人間状態推定システム250は、比較者HBの視線情報から第2確率を算出する。
Next, in step S206, the human
次いで、ステップS207において、人間状態推定システム250は、前記ステップS205で算出された第1確率と、前記ステップS206で算出された第2確率とに基づいてROC曲線を算出する。
Next, in step S207, the human
次に、ステップS208において、人間状態推定システム250は、前記ステップS207で算出したROC曲線からAUC値を算出する。
Next, in step S208, the human
続いて、ステップS208において、人間状態推定システム250は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム250は、計測期間分のAUC値が得られているYESのときには、ステップS210に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS201に戻り、計測期間分のAUC値が得られるまで、ステップS201~S208を繰り返す。
Next, in step S208, the human
そして、ステップS210において、人間状態推定システム250は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム250は、推定指標値が特定値以上であるYESのときには、ステップS211に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム250は、推定指標値が特定値未満であるNOのときには、ステップS212に進んで、被評価者に異常は生じていないと判定する。
Then, in step S210, the human
前記ステップS211及び前記ステップS212の後は、リターンする。 After steps S211 and S212, return.
クラウドサーバ270は、比較者HBが2人以上いるときには、2人以上の比較者を選択する。クラウドサーバ270が比較者HBを2人以上選択するときには、前述の実施形態1と同様に、クラウドサーバ70は、各比較者HBに対して第2確率を算出した後、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。
When there are two or more comparators HB, the
したがって、本実施形態2の人間状態推定システム250のように、ここに開示された技術は、工場における作業者の監視システムのような利用も可能である。
Therefore, like the human
〈実施形態3〉
以下、実施形態3について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1及び2と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Third Embodiment
Hereinafter, the third embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first and second embodiments, and detailed description thereof will be omitted.
実施形態3は、人間状態推定システム350を自動車の運転手を対象に適用した点では、前述の実施形態1と共通しているが、推定方法が前述の実施形態1とは異なる。
The third embodiment is similar to the first embodiment in that the human
本実施形態3において、図16に示すように、人間状態推定システム350は、記憶装置380を備える。記憶装置380は、被評価者としての運転手の過去の視線情報が記憶する。この視線情報は、被評価者の視線の先のサリエンシーも含む情報である。記憶装置380は、自車両のコントローラ360と通信可能に構成されている。
In this
コントローラ360は、視線算出部361及びマップ生成部362に加えて、被評価者の視線情報に基づいて、被評価者の視線情報が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率(第1確率)を算出する確率演算部363を有する。確率演算部363による第1確率の算出方法は、前述の実施形態1及び2で説明した算出方法と同じ方法を採用できるため、詳細な説明を省略する。
In addition to the
確率演算部363は、過去に同じ空間にいた被評価者の視線情報を記憶装置380から読み出して、過去の被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する。本実施形態3では、過去の被評価者の視線情報に基づく確率が第2確率に相当する。第2確率の算出方法は、第1確率の算出方法と同じであるため、詳細な説明を省略する。尚、コントローラ360は、記憶装置380に、過去に同じ空間にいた被評価者の視線情報が存在しないときには、マップ生成部362が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。そして、コントローラ360は、ランダム点のサリエンシーから第2確率を算出する。
The
また、コントローラ360は、確率演算部363が算出した第1確率及び第2確率に基づいて、被評価者の人間状態を推定して、被評価者に異常が生じているか否かを判定する異常判定部364を有する。異常判定部364は、前述の実施形態1及び2のクラウドサーバ70,270のように、第1確率及び第2確率からROC曲線を求めて、該ROC曲線に対してAUC値を算出する。そして、異常判定部364は、計測期間分の各AUC値に基づいて推定指標値を算出して、該推定指標値に基づいて被評価者に異常が生じているか否かを判定する。推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。
The
(フローチャート)
次に、人間状態推定システム350より被評価者の人間状態を推定する処理動作を図17のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person to be evaluated by the human
まず、ステップS301において、人間状態推定システム350は、自車両の周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。
First, in step S301, the human
次に、ステップS302において、人間状態推定システム350は、自車両の車内カメラ101で撮像された画像から被評価者の現在の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS302の時点で、コントローラ360は、前記ステップS301で取得した画像データを基にサリエンシーマップを生成している。このステップS302で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。
Next, in step S302, the human
次に、ステップS303におい、人間状態推定システム350は、記憶装置380に同じ空間における被評価者の過去の視線情報が記憶されているか否かを判定する。記憶装置380に過去の視線情報が記憶されているYESのときには、ステップS304に進む一方で、記憶装置380に過去の視線情報が記憶されていないNOのときには、ステップS308に進む。尚、過去の視線情報は、過去の被評価者の視線の先のサリエンシーも含む情報である。
Next, in step S303, the human
前記ステップS304では、人間状態推定システム350は、記憶装置380から過去の視線情報を取得する。
In step S304, the human
次に、ステップS305において、人間状態推定システム350は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム350は、所定時間が経過したYESのときには、ステップS306に進む。一方で、人間状態推定システム350は、所定時間が経過していないNOのときには、ステップS301に戻る。
Next, in step S305, the human
前記ステップS306では、人間状態推定システム350は、被評価者の現在の視線情報から第1確率を算出する。
In step S306, the human
次に、ステップS307では、人間状態推定システム350は、被評価者の過去の視線情報から第2確率を算出する。
Next, in step S307, the human
一方で、前記ステップS303の判定がNOであるときに進むステップS308では、人間状態推定システム350は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム350は、所定時間が経過したYESのときには、ステップS309に進む。一方で、人間状態推定システム350は、所定時間が経過していないNOのときには、ステップS301に戻る。
On the other hand, in step S308, which is reached when the determination in step S303 is NO, the human
前記ステップS309では、人間状態推定システム350は、被評価者の現在の視線情報から第1確率を算出する。
In step S309, the human
次に、ステップS310では、人間状態推定システム350は、サリエンシーマップから選択したランダム点から第2確率を算出する。
Next, in step S310, the human
次いで、ステップS311において、人間状態推定システム350は、前記ステップS306若しくは前記ステップS309で算出された第1確率と、前記ステップS307若しくは前記ステップS310で算出された第2確率とに基づいてROC曲線を算出する。
Next, in step S311, the human
次に、ステップS312において、コントローラ360は、前記ステップS311で算出したROC曲線からAUC値を算出する。
Next, in step S312, the
続いて、ステップS313において、人間状態推定システム350は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム350は、計測期間分のAUC値が得られているYESのときには、ステップS314に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS301に戻り、計測期間分のAUC値が得られるまで、ステップS301~S312を繰り返す。
Next, in step S313, the human
そして、ステップS314において、人間状態推定システム350は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム350は、推定指標値が特定値以上であるYESのときには、ステップS315に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム350は、推定指標値が特定値未満であるNOのときには、ステップS316に進んで、被評価者に異常は生じていないと判定する。
Then, in step S314, the human
前記ステップS315及び前記ステップS316の後は、リターンする。 After steps S315 and S316, return.
このように、本実施形態3では、被評価者が位置する空間を含む周辺情報を取得し(周辺情報取工程)、被評価者の前方視界に含まれる画像を取得し(視界画像取得工程)、前方視界の画像に対してサリエンシーマップを生成し(マップ生成工程)、前方視界に対する被評価者の視線情報を取得し(視線情報取得工程)、被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出し(第1確率演算工程)、過去に同じ空間にいた被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出し(第2確率演算工程)、第1確率と第2確率とに基づいて、被評価者が異常状態であるかを推定する(異常推定工程)。これにより、過去の被評価者と比較するため、従来のようにトップダウンサリエンシーマップを作成しなくても、被評価者の癖や体格などの個人差を出来る限り吸収することができる。これにより、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。 In this way, in the third embodiment, peripheral information including the space in which the person being evaluated is located is acquired (peripheral information acquisition process), an image included in the forward field of view of the person being evaluated is acquired (field of view image acquisition process), a saliency map is generated for the image of the forward field of view (map generation process), gaze information of the person being evaluated for the forward field of view is acquired (gaze information acquisition process), the probability that the saliency at the position on the saliency map indicated by the gaze of the person being evaluated is equal to or greater than a predetermined threshold is calculated (first probability calculation process), the probability that the saliency at the position on the saliency map indicated by the gaze of the person being evaluated who was in the same space in the past is equal to or greater than a predetermined threshold is calculated (second probability calculation process), and based on the first probability and the second probability, it is estimated whether the person being evaluated is in an abnormal state (abnormality estimation process). As a result, it is possible to absorb as much individual difference as possible, such as the habits and physique of the person being evaluated, without creating a top-down saliency map as in the past in order to compare with the person being evaluated. As a result, it is possible to accurately estimate the human state of the person being evaluated with as simple calculation as possible.
〈実施形態4〉
以下、実施形態4について、図面を参照しながら詳細に説明する。尚、以下の説明において前記実施形態1~3と共通の部分については、同じ符号を付して、その詳細な説明を省略する。
Fourth embodiment
Hereinafter, the fourth embodiment will be described in detail with reference to the drawings. In the following description, the same reference numerals will be used to designate the same parts as those in the first to third embodiments, and detailed description thereof will be omitted.
実施形態4は、人間状態推定システム450を自動車の運転手を対象に適用した点では、前述の実施形態1及び3と共通しているが、推定方法が前述の実施形態1及び3とは異なる。
The fourth embodiment is similar to the first and third embodiments in that the human
本実施形態4に係る人間状態推定システム450において、自車両VAは、記憶装置480を備える。記憶装置480は、被評価者としての運転手の過去の視線情報が記憶する。この視線情報は、被評価者の視線の先のサリエンシーも含む情報である。記憶装置480は、自車両VAのコントローラ460と通信可能に構成されている。図18では、他車両VBは、記憶装置を備えていないが、他車両VBも比較者の過去の視線情報を記憶する記憶装置を備えていてもよい。
In the human
人間状態推定システム450は、基本的には、前述の実施形態1と同様に、クラウドサーバ70が、自車両VAの周辺情報に基づいて、自車両VAの周辺に存在する比較者となる運転者が運転する他車両VBを選択する。そして、クラウドサーバ70は、他車両VBのコントローラ460から比較者の視線情報を取得する。しかしながら、人間状態推定システム450は、クラウドサーバ70が、比較者となる運転者が運転する他車両VBが自車両VAの周辺に存在しないと判定したときには、自車両VAのコントローラ460が、同じ空間における被評価者の過去の視線情報を記憶装置480から取得して、クラウドサーバ70に送信する。また、人間状態推定システム450は、自車両VAの周辺に比較者となる運転者が運転する他車両VBが存在せず、かつ同じ空間における被評価者の過去の視線情報も記憶装置480に存在しないときには、クラウドサーバ70が、マップ生成部462が生成したサリエンシーマップに対してランダムに複数の座標を指定して、各座標のサリエンシーをそれぞれ求める。
In the human
人間状態推定システム450は、基本的には前述の実施形態1と同様に、サリエンシーマップの生成、並びに、被評価者及び比較者の視線情報の取得については、自車両VA及び他車両VBのコントローラ460が行う。一方で、前記第1確率及び前記第2確率の算出、ROC曲線及びAUC値の算出、並びに、被評価者の人間状態の推定についてはクラウドサーバ70を利用する。推定指標値の算出基準となる基準値及び所定値、並びに異常状態の判定基準となる特定値は、前述の実施形態1と同じ値を採用することができる。
In the human
(フローチャート)
次に、人間状態推定システム450より被評価者の人間状態を推定する処理動作を図19及び20のフローチャートに基づいて説明する。
(flowchart)
Next, the processing operation of estimating the human state of the person being evaluated by the human
まず、ステップS401において、人間状態推定システム450は、自車両VAの周辺情報及び被評価者の前方視界の画像を含む各種データを取得する。
First, in step S401, the human
次に、ステップS402において、人間状態推定システム450は、自車両VAの車内カメラ101で撮像された画像から被評価者の現在の視線情報を取得する。尚、フローチャートでは省略しているが、このステップS402の時点で、自車両VAのコントローラ460は、前記ステップS401で取得した画像データを基にサリエンシーマップを生成している。このステップS402で取得される被評価者の視線情報は、被評価者の視線の先のサリエンシーも含む情報である。
Next, in step S402, the human
次に、ステップS500のサブルーチンにより、前記第1確率及び前記第2確率を算出する。 Next, the first probability and the second probability are calculated by the subroutine of step S500.
このステップS500のサブルーチンは、図20に示すように、まず、ステップS501において、人間状態推定システム450は、自車両VAの周囲に比較者となり得る他車両VBの運転者が存在するか否かを判定する。人間状態推定システム450は、他車両VBの位置情報や運転に関する各種センサ102~108の検出結果に基づいて、比較者の有無を判定する。人間状態推定システム450は、比較者が存在するYESのときには、ステップS502に進む。一方で、人間状態推定システム450は、比較者が存在しないNOのときには、ステップS506に進む。
As shown in FIG. 20, in the subroutine of step S500, first, in step S501, the human
前記ステップS502では、人間状態推定システム450は、他車両VBの車内カメラ101で撮像された画像から比較者の視線情報を取得する。尚、このステップS502は、前記ステップS501の判定後に行うのではなく、実際には、他車両VBにおいて、前記ステップS402と同時進行で行われている。また、フローチャートでは省略しているが、このステップS502の時点で、他車両VBのコントローラ460も、他車両VBで取得された画像データを基にサリエンシーマップを生成している。このステップS502で取得される比較者の視線情報は、比較者の視線の先のサリエンシーも含む情報である。
In step S502, the human
次に、ステップS503において、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者及び比較者の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS504に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。
Next, in step S503, the human
前記ステップS504では、人間状態推定システム450は、被評価者の視線情報から第1確率を算出する。
In step S504, the human
次に、ステップS505では、人間状態推定システム450は、比較者の視線情報から第2確率を算出する。
Next, in step S505, the human
一方で、前記ステップS501の判定がNOであるときに進むステップS506では、人間状態推定システム450は、記憶装置480に同じ空間における被評価者の過去の視線情報が記憶されているか否かを判定する。人間状態推定システム450は、記憶装置480に過去の視線情報が記憶されているYESのときには、ステップS507に進む。一方で、人間状態推定システム450は、記憶装置480に過去の視線情報が記憶されていないNOのときには、ステップS511に進む。尚、過去の視線情報は、過去の被評価者の視線の先のサリエンシーも含む情報である。
On the other hand, in step S506, which is reached when the determination in step S501 is NO, the human
前記ステップS507では、人間状態推定システム450は、記憶装置480から過去の視線情報を取得する。
In step S507, the human
次に、ステップS508において、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS508に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。
Next, in step S508, the human
前記ステップS509では、人間状態推定システム450は、被評価者の現在の視線情報から第1確率を算出する。
In step S509, the human
次に、ステップS510では、人間状態推定システム450は、被評価者の過去の視線情報から第2確率を算出する。
Next, in step S510, the human
一方で、前記ステップS506の判定がNOであるときに進むステップS511では、人間状態推定システム450は、所定時間が経過したか否か、特に被評価者の現在の視線情報が所定時間分取得されたか否かを判定する。この所定時間は30秒程度である。人間状態推定システム450は、所定時間が経過したYESのときには、ステップS512に進む。一方で、人間状態推定システム450は、所定時間が経過していないNOのときには、ステップS401に戻る。
On the other hand, in step S511, which is reached when the determination in step S506 is NO, the human
前記ステップS512では、人間状態推定システム450は、被評価者の現在の視線情報から第1確率を算出する。
In step S512, the human
次に、ステップS513では、人間状態推定システム450は、サリエンシーマップから選択したランダム点から第2確率を算出する。
Next, in step S513, the human
前記ステップS505、前記ステップS510、及び前記ステップ513の後は、図19に示すステップS403に進む。このステップS403では、人間状態推定システム450は、前記ステップS504、前記ステップS509、若しくは前記ステップS512で算出された第1確率と、前記ステップS505、前記ステップS510、若しくは前記ステップS513で算出された第2確率とに基づいてROC曲線を算出する。
After steps S505, S510, and S513, the process proceeds to step S403 shown in FIG. 19. In step S403, the human
次に、ステップS404において、人間状態推定システム450は、前記ステップS403で算出したROC曲線からAUC値を算出する。
Next, in step S404, the human
続いて、ステップS405において、人間状態推定システム450は、計測期間分のデータ、すなわち、計測期間分のAUC値が得られたか否かを判定する。人間状態推定システム450は、計測期間分のAUC値が得られているYESのときには、ステップS406に進む一方で、計測期間分のAUC値が得られていないNOのときには、ステップS401に戻り、計測期間分のAUC値が得られるまで、ステップS401~S404、及びS500を繰り返す。
Next, in step S405, the human
そして、ステップS406において、人間状態推定システム450は、計測期間分のAUC値から算出される推定指標値が予め設定された特定値以上であるか否かを判定する。人間状態推定システム450は、推定指標値が特定値以上であるYESのときには、ステップS407に進んで、被評価者に異常が生じていると判定する。一方で、人間状態推定システム450は、推定指標値が特定値未満であるNOのときには、ステップS408に進んで、被評価者に異常は生じていないと判定する。
Then, in step S406, the human
前記ステップS407及び前記ステップS408の後は、リターンする。 After steps S407 and S408, return.
クラウドサーバ70は、前記ステップS501において、比較者が2人以上いるときには、前述の実施形態1と同様に、2人以上の比較者を選択する。クラウドサーバ70が比較者を2人以上選択するときには、各比較者に対して第2確率が算出された後、クラウドサーバ70は、各第2確率の平均値を求めて、該平均値を最終的な第2確率としてROC曲線を算出する。
In step S501, when there are two or more comparators, the
したがって、本実施形態4では、深夜に自動車を運転していたり、郊外を運転していたりなど、比較者が近くに存在にくい状況であっても、被評価者の人間状態を精度良く推定することができる。また、被評価者の過去の視線に関する情報に基づいて第2確率を算出するため、第2確率を容易にかつ精度良く算出することができる。したがって、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定することができる。
Therefore, in this
(その他の実施形態)
ここに開示された技術は、前述の実施形態に限られるものではなく、請求の範囲の主旨を逸脱しない範囲で代用が可能である。
Other Embodiments
The technology disclosed herein is not limited to the above-described embodiment, and may be substituted without departing from the spirit and scope of the claims.
前述の実施形態1、2、及び4では、第1確率及び第2確率の算出をクラウドサーバ70,270が行っていた。これに限らず、実施形態1、2、及び4の構成でも、第1確率及び第2確率の算出をコントローラ60,260,460が実行するようにしてもよい。また、実施形態1、2、及び4の構成でも、被評価者の人間状態推定をコントローラ60,260,460が実行するようにしてもよい。このとき、実施形態1及び4においては、自車両VAのコントローラ60,460は、他車両VBのコントローラ60,460から第2確率に関する情報を取得する必要がある。
In the above-described first, second, and fourth embodiments, the first probability and the second probability are calculated by the
また、前述の実施形態2では、比較者HBの視線情報から第2確率を算出するようにしていた。これに限らず、実施形態2のように人間状態推定システムを工場に適用する場合であっても、実施形態3及び4のように、過去の被評価者HAの視線情報に基づいて第2確率を算出するようにしてもよい。
In addition, in the above-mentioned
また、前述の実施形態1~4では、ROC曲線を算出した後に、AUC値を算出して、該AUC値に基づいて被評価者の人間状態を推定していた。これに限らず、例えば、ROC曲線が、基準値から乖離する割合を算出することで、被評価者の人間状態を推定してもよい。このときの基準値は、例えば、第1確率と第2確率が一致している場合に形成される直線上の値を採用することができる。 In addition, in the above-mentioned first to fourth embodiments, after calculating the ROC curve, the AUC value is calculated, and the human condition of the person being evaluated is estimated based on the AUC value. This is not limiting, and for example, the human condition of the person being evaluated may be estimated by calculating the rate at which the ROC curve deviates from a reference value. The reference value in this case may be, for example, a value on a straight line formed when the first probability and the second probability are the same.
前述の実施形態は単なる例示に過ぎず、本開示の範囲を限定的に解釈してはならない。本開示の範囲は請求の範囲によって定義され、請求の範囲の均等範囲に属する変形や変更は、全て本開示の範囲内のものである。 The above-described embodiments are merely examples and should not be interpreted as limiting the scope of the present disclosure. The scope of the present disclosure is defined by the claims, and all modifications and variations that fall within the scope of the claims are within the scope of the present disclosure.
ここに開示された技術は、サリエンシーマップを用いた人間状態の推定において、出来る限り簡単な演算で、被評価者の人間状態を精度良く推定する際に有用である。 The technology disclosed here is useful in estimating the human state of a person being evaluated using a saliency map, with accurate estimation using calculations as simple as possible.
50,250,350,450 人間状態推定システム
60,260,360,460 コントローラ
61,261,361,461 視線算出部(第1視線情報取得部、第2視線情報取得部)
62,262,362,462 マップ生成部
363 確率演算部(第1確率演算部、第2確率演算部)
364 異常判定部
70,270 クラウドサーバ(周辺情報取得部、第1確率演算部、第2確率演算部、異常判定部)
50, 250, 350, 450 Human
62, 262, 362, 462
364
Claims (5)
被評価者の周辺情報を取得する周辺情報取工程と、
前記被評価者の前方視界に含まれる画像を取得する視界画像取得工程と、
前記視界画像取得工程で取得された画像に対してサリエンシーマップを生成するマップ生成工程と、
前記前方視界に対する前記被評価者の視線情報を取得する第1視線情報取得工程と、
前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する第2視線情報取得工程と、
前記第1視線情報取得工程で取得された前記被評価者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算工程と、
前記第2視線情報取得工程で取得された前記比較者の視線が示す前記サリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算工程と、
前記第1確率演算工程で算出された第1確率と前記第2確率演算工程で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定工程とを含み、
前記異常推定工程は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定する工程であることを特徴とする人間状態推定方法。 A human state estimation method, comprising:
A peripheral information acquisition step of acquiring peripheral information of the person being evaluated;
A visual field image acquisition process for acquiring an image included in the subject's forward visual field;
a map generation step of generating a saliency map for the image acquired in the field of view image acquisition step;
A first gaze information acquisition step of acquiring gaze information of the subject with respect to the forward field of view;
A second gaze information acquisition step of acquiring gaze information of a comparator who is another person having attributes equivalent to the assessee;
A first probability calculation step of calculating a probability that the saliency at a position on the saliency map indicated by the gaze of the subject acquired in the first gaze information acquisition step is equal to or greater than a predetermined threshold;
a second probability calculation step of calculating a probability that the saliency at a position on the saliency map indicated by the gaze of the comparison person acquired in the second gaze information acquisition step is equal to or greater than the predetermined threshold;
and an abnormality estimation step of estimating whether the subject is in an abnormal state based on the first probability calculated in the first probability calculation step and the second probability calculated in the second probability calculation step ,
The human state estimation method, characterized in that the abnormality inference process is a process of inferring that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a predetermined specific value .
前記第2視線情報取得工程は、2人以上の前記比較者の視線情報をそれぞれ取得する工程であり、
前記第2確率演算工程は、前記各比較者の各視線が示す前記サリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とする工程であることを特徴とする人間状態推定方法。 The human state estimation method according to claim 1 ,
The second gaze information acquisition step is a step of acquiring gaze information of two or more of the comparators,
The human state estimation method, characterized in that the second probability calculation process is a process of determining saliency at positions on the saliency map indicated by each gaze of each of the comparators, calculating the probability that each saliency will be greater than or equal to the specified threshold, and setting the average value of each probabilities or one probability selected from the respective probabilities as the second probability.
被評価者の周辺情報を取得する周辺情報取部と、
前記被評価者の前方視界に含まれる画像を取得する視界画像取得部と、
前記視界画像取得部で取得された画像に対してサリエンシーマップを生成するマップ生成部と、
前記前方視界に対する前記被評価者の視線情報を取得する視線情報取得部と、
前記被評価者と同等の属性を有する他人である比較者の視線情報を取得する比較者視線情報取得部と、
前記視線情報取得部で取得された前記被評価者の視線情報が示す前記サリエンシーマップ上の位置におけるサリエンシーが、所定の閾値以上となる確率を算出する第1確率演算部と、
前記比較者視線情報取得部で取得された前記比較者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を算出する第2確率演算部と、
前記第1確率演算部で算出された第1確率と前記第2確率演算部で算出された第2確率とに基づいて、前記被評価者が異常状態であるかを推定する異常推定部とを備え、
前記異常推定部は、前記第1確率と前記第2確率とが、所定値以上乖離する割合が予め設定された特定値以上であるときには、前記被評価者が異常状態にあると推定することを特徴とする人間状態推定システム。 A human state estimation system, comprising:
A peripheral information acquisition unit that acquires peripheral information of the person being evaluated;
A visual field image acquisition unit that acquires an image included in the forward visual field of the subject;
A map generation unit that generates a saliency map for the image acquired by the field of view image acquisition unit;
A gaze information acquisition unit that acquires gaze information of the subject with respect to the forward field of view;
A comparison person's gaze information acquisition unit that acquires gaze information of a comparison person who is another person having attributes equivalent to the evaluation person;
A first probability calculation unit that calculates a probability that the saliency at a position on the saliency map indicated by the gaze information of the subject acquired by the gaze information acquisition unit is equal to or greater than a predetermined threshold;
a second probability calculation unit that calculates a probability that the saliency at a position on the saliency map indicated by the gaze of the comparator acquired by the comparator gaze information acquisition unit is equal to or greater than the predetermined threshold;
an abnormality estimation unit that estimates whether the subject is in an abnormal state based on the first probability calculated by the first probability calculation unit and the second probability calculated by the second probability calculation unit;
The human state estimation system is characterized in that the abnormality estimation unit estimates that the person being evaluated is in an abnormal state when the rate at which the first probability and the second probability deviate by a predetermined value or more is equal to or greater than a predetermined specific value .
前記比較者視線情報取得部は、2人以上の前記比較者の視線をそれぞれ取得し、
前記第2確率演算部は、前記各比較者の各視線が示すサリエンシーマップ上の位置におけるサリエンシーをそれぞれ求めて、各サリエンシーが前記所定の閾値以上となる確率をそれぞれ算出するとともに、各確率の平均値か又は各確率から選択された1つの確率を前記第2確率とすることを特徴とする人間状態推定システム。 The human state estimation system according to claim 3 ,
The comparator gaze information acquisition unit acquires gazes of two or more comparators,
The second probability calculation unit obtains saliency at positions on the saliency map indicated by each gaze of each of the comparators, calculates the probability that each saliency will be greater than or equal to the specified threshold, and sets the average value of each probabilities or one probability selected from the respective probabilities as the second probability.
前記被評価者の視線に関する情報を記憶する記憶部を更に備え、
前記第2確率演算部は、前記被評価者の周囲に前記比較者が存在しないときには、過去に同じ空間にいた前記被評価者の視線に関する情報を前記記憶部から読み出して、過去の前記被評価者の視線が示すサリエンシーマップ上の位置におけるサリエンシーが、前記所定の閾値以上となる確率を前記第2確率として算出することを特徴とする人間状態推定システム。 The human state estimation system according to claim 3 or 4 ,
Further comprising a storage unit for storing information regarding the gaze of the person to be evaluated;
The human state estimation system is characterized in that, when the comparison person is not present around the person being evaluated, the second probability calculation unit reads information regarding the gaze of the person being evaluated who was in the same space in the past from the memory unit, and calculates as the second probability the probability that the saliency at a position on the saliency map indicated by the gaze of the person being evaluated in the past will be greater than or equal to the specified threshold.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020206868A JP7639322B2 (en) | 2020-12-14 | 2020-12-14 | Human state estimation method and estimation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020206868A JP7639322B2 (en) | 2020-12-14 | 2020-12-14 | Human state estimation method and estimation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022094060A JP2022094060A (en) | 2022-06-24 |
JP7639322B2 true JP7639322B2 (en) | 2025-03-05 |
Family
ID=82088475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020206868A Active JP7639322B2 (en) | 2020-12-14 | 2020-12-14 | Human state estimation method and estimation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7639322B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013254409A (en) | 2012-06-08 | 2013-12-19 | Toyota Central R&D Labs Inc | Careless driving detection device and program |
JP2017227963A (en) | 2016-06-20 | 2017-12-28 | 富士通株式会社 | Sight line analysis program, sight line analyzer and sight line analysis method |
JP2018094294A (en) | 2016-12-16 | 2018-06-21 | トヨタ自動車株式会社 | State estimation system |
JP2020071537A (en) | 2018-10-29 | 2020-05-07 | アイシン精機株式会社 | Driving support apparatus |
-
2020
- 2020-12-14 JP JP2020206868A patent/JP7639322B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013254409A (en) | 2012-06-08 | 2013-12-19 | Toyota Central R&D Labs Inc | Careless driving detection device and program |
JP2017227963A (en) | 2016-06-20 | 2017-12-28 | 富士通株式会社 | Sight line analysis program, sight line analyzer and sight line analysis method |
JP2018094294A (en) | 2016-12-16 | 2018-06-21 | トヨタ自動車株式会社 | State estimation system |
JP2020071537A (en) | 2018-10-29 | 2020-05-07 | アイシン精機株式会社 | Driving support apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2022094060A (en) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2523839B1 (en) | Combining driver and environment sensing for vehicular safety systems | |
US10640122B2 (en) | Driving consciousness estimation device | |
EP2564766B1 (en) | Visual input of vehicle operator | |
KR102051142B1 (en) | System for managing dangerous driving index for vehicle and method therof | |
US10653350B2 (en) | Data processing device, monitoring system, awakening system, data processing method, and data processing program | |
EP1721782B1 (en) | Driving support equipment for vehicles | |
US11455810B2 (en) | Driver attention state estimation | |
EP2687407A1 (en) | Apparatus and method for localizing sound image for vehicle's driver | |
US10684695B2 (en) | Data processing device, monitoring system, awakening system, data processing method, and data processing program | |
JP2020035437A (en) | Vehicle system, method to be implemented in vehicle system, and driver assistance system | |
WO2019049709A1 (en) | Image processing device, image processing method, and image display system | |
JP4872245B2 (en) | Pedestrian recognition device | |
WO2019155914A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
CN110352037A (en) | Operation adaptability decision maker, operation adaptability determination method and operation adaptability decision procedure | |
JP7342636B2 (en) | Vehicle control device and driver condition determination method | |
JP7342637B2 (en) | Vehicle control device and driver condition determination method | |
JP7639322B2 (en) | Human state estimation method and estimation system | |
EP3270764B1 (en) | Situational awareness monitoring method and apparatus | |
JP2018094294A (en) | State estimation system | |
JP7342635B2 (en) | Driver state estimation device and driver state estimation method | |
JP7322667B2 (en) | Driver state estimation device | |
JP7276083B2 (en) | Driver state estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7639322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |