JP5092776B2 - Gaze direction detection device and gaze direction detection method - Google Patents
Gaze direction detection device and gaze direction detection method Download PDFInfo
- Publication number
- JP5092776B2 JP5092776B2 JP2008026887A JP2008026887A JP5092776B2 JP 5092776 B2 JP5092776 B2 JP 5092776B2 JP 2008026887 A JP2008026887 A JP 2008026887A JP 2008026887 A JP2008026887 A JP 2008026887A JP 5092776 B2 JP5092776 B2 JP 5092776B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- image
- driver
- display
- direction detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明は、運転者の視線方向を精度よく検出するためのキャリブレーション処理を実行する視線方向検出装置及び視線方向検出方法に関するものである。 The present invention relates to a gaze direction detection device and a gaze direction detection method for executing a calibration process for accurately detecting a gaze direction of a driver.
近年、車両の安全運転を支援するための様々なシステム(安全運転支援システム)が提案されている。こうした安全運転支援システムにおいて、例えば、車両外部の状況(歩行者、他の車両、障害物等の存在状況)に応じて運転者に対する警報を行う場合、運転者が気付いている状況についてまで警報が行われると煩わしいものとなる。そこで、運転者がどこを見ているのか(つまり運転者の視線方向)を検出し、運転者が気付いていない状況について警報を行うようなシステムが望まれる。このようなシステムを実現するには、運転者の視線方向を精度よく検出(推定)することが重要であり、そのためには、視線方向検出のキャリブレーション処理を行う必要がある。 In recent years, various systems (safe driving support systems) for supporting safe driving of vehicles have been proposed. In such a safe driving support system, for example, when a warning is given to the driver according to the situation outside the vehicle (existing situation of pedestrians, other vehicles, obstacles, etc.), the warning is given to the situation that the driver is aware of. When done, it becomes annoying. Therefore, a system that detects where the driver is looking (that is, the direction of the driver's line of sight) and issues a warning about a situation that the driver is not aware of is desired. In order to realize such a system, it is important to accurately detect (estimate) the driver's line-of-sight direction. For this purpose, it is necessary to perform a calibration process for detecting the line-of-sight direction.
例えば、特許文献1に記載の視線方向判定装置は、ヘッドレスト及びシートに内蔵された距離センサ(静電容量センサなど)を利用し、ヘッドレストのセンサから頭部角度、シートのセンサから肩部角度を検出することで、運転者の視線方向を推定する。そして、この装置では、運転者の体型によらず視線方向を精度よく検出できるようにするため、運転者が座席に着座したことを検出すると、頭部との距離を計測しながらヘッドレストを上下動させ、距離が最小となる位置でヘッドレストを停止するようにしている。つまり、ヘッドレストの位置を自動的に最適位置に設定することによるキャリブレーション処理を実行する。
しかしながら、前述した特許文献1に記載の手法では、ヘッドレストの上下動によるキャリブレーション処理の実行中に運転者が正面を向いているとは限らず、また、運転者自身も、正面を向いていることを正確に把握することができない。このため、キャリブレーション処理が適切に行われないという問題がある。 However, in the method described in Patent Document 1 described above, the driver is not always facing the front during the calibration process by the vertical movement of the headrest, and the driver is also facing the front. I can't figure out exactly. For this reason, there exists a problem that a calibration process is not performed appropriately.
本発明は、こうした問題にかんがみてなされたものであり、適切なキャリブレーション処理を実現することのできる視線方向検出装置及び視線方向検出方法を提供することを目的としている。 The present invention has been made in view of these problems, and an object of the present invention is to provide a gaze direction detection device and a gaze direction detection method capable of realizing appropriate calibration processing.
上記目的を達成するためになされた本発明の請求項1,4,6,11に記載の視線方向検出装置は、運転者を前方から撮影する撮影手段が搭載された車両で用いられ、撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行するものである。 The gaze direction detecting device according to claims 1 , 4, 6 , and 11 of the present invention made to achieve the above object is used in a vehicle equipped with a photographing means for photographing a driver from the front. The calibration process for detecting the driver's line-of-sight direction based on the captured image is executed.
そして、視線方向検出装置では、注視用画像表示手段が、運転者の前方に画像を表示する表示手段に運転者に注視させるための注視用画像を表示させ、撮影画像取得手段が、注視用画像表示手段により注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する。さらに、視線方向検出手段が、撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出し、キャリブレーション手段が、視線方向検出手段により検出された運転者の視線方向と注視用画像表示手段により表示された注視用画像の表示位置とに基づき、視線方向検出手段による視線方向検出のキャリブレーション処理を実行する。 In the gaze direction detection device, the gaze image display means displays a gaze image for causing the driver to gaze on the display means for displaying the image in front of the driver, and the captured image acquisition means performs the gaze image. A driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the display means is acquired. Further, the gaze direction detection means detects the driver's gaze direction based on the captured image acquired by the captured image acquisition means, and the calibration means detects the driver's gaze direction and the gaze direction detected by the gaze direction detection means. Based on the display position of the gaze image displayed by the image display means, the gaze direction detection calibration process by the gaze direction detection means is executed.
このような視線方向検出装置によれば、注視用画像を表示させて運転者に注視させることで、所望の視線方向での運転者の撮影画像が容易かつ正確に得られるため、適切なキャリブレーション処理を実現することができる。 According to such a gaze direction detection device, a driver's captured image in a desired gaze direction can be easily and accurately obtained by displaying a gaze image and causing the driver to gaze. Processing can be realized.
ここで、運転者に正面を注視させるための注視用画像としては、例えば請求項1に記載のように、運転者の撮影画像に対して鏡像変換を施した画像を表示させるようにするとよい。このようにすれば、運転者はあたかも鏡を見ているような状態で正面を向くこととなるため、運転者自身が正面を向いた状態を正確に把握することができる。 Here, the gaze image for gaze front to the driver, for example as described in claim 1, may be so as to display an image subjected to mirror image conversion to the driver of the captured image. In this way, since the driver turns to the front as if looking at the mirror, the driver can accurately grasp the state in which the driver has turned to the front.
また、請求項2,4,7,12に記載の視線方向検出装置では、注視用画像表示手段は、注視用画像を複数の位置に順次表示させ、撮影画像取得手段は、注視用画像表示手段により複数の位置に注視用画像が順次表示されている各状態で撮影手段により撮影された運転者の撮影画像を取得する。そして、視線方向検出手段は、撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、キャリブレーション手段は、視線方向検出手段により検出された運転者の視線方向とその状態で注視用画像表示手段により表示された注視用画像の表示位置とに基づき、視線方向検出手段による視線方向検出のキャリブレーション処理を実行する。 In the line-of-sight direction detecting device according to any one of claims 2, 4, 7, and 12 , the gaze image display means sequentially displays the gaze image at a plurality of positions, and the captured image acquisition means comprises the gaze image display means. Thus, a driver's photographed image photographed by the photographing means in each state in which gaze images are sequentially displayed at a plurality of positions is acquired. The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured images in each state acquired by the captured image acquisition means, and the calibration means detects the driver's line-of-sight detected by the line-of-sight direction detection means. Based on the direction and the display position of the gaze image displayed by the gaze image display means in that state, the gaze direction detection calibration processing by the gaze direction detection means is executed.
このような視線方向検出装置によれば、1つの視線方向のみに基づきキャリブレーション処理を実行する場合に比べ、より適切なキャリブレーション処理を実現することができる。 According to such a gaze direction detection device, it is possible to realize a more appropriate calibration process than when the calibration process is executed based on only one gaze direction.
特に、請求項3,4に記載のように、表示手段が、運転者が視認する画像の表示距離を変更可能に構成されており、注視用画像を表示する複数の位置に表示距離の異なる位置が含まれていれば、上下左右方向だけでなく、奥行き方向も加味したキャリブレーション処理を実行することができる。 In particular, as described in claims 3 and 4 , the display means is configured to be able to change the display distance of the image visually recognized by the driver, and the display distance is different at a plurality of positions for displaying the gaze image. Is included, it is possible to execute calibration processing in consideration of not only the vertical and horizontal directions but also the depth direction.
ところで、キャリブレーション処理の際に運転者がよそ見をするなどして注視用画像を正確に見ていなかったような場合には、適切でないキャリブレーション処理が実行されてしまうことが考えられる。 By the way, when the driver does not look at the gaze image accurately by looking away at the time of the calibration process, it is conceivable that an inappropriate calibration process is executed.
そこで、請求項5,6に記載の視線方向検出装置では、確認用画像表示手段が、キャリブレーション手段によりキャリブレーション処理が実行された後、注視用画像を注視用画像表示手段による表示位置とは異なる位置に表示させ、確認用画像取得手段が、確認用画像表示手段により注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する。そして、無効手段が、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向との関係に基づき、キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする。 Therefore, in the line-of-sight direction detection apparatus according to claims 5 and 6 , after the calibration processing is performed by the calibration unit, the confirmation image display unit displays the gaze image as the display position by the gaze image display unit. The images are displayed at different positions, and the confirmation image acquisition means acquires the driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the confirmation image display means. Then, the invalidation means detects the driver's direction detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. Based on the relationship with the line-of-sight direction, it is determined whether or not the calibration process by the calibration unit has been appropriately performed. If it is determined that the calibration process has not been performed properly, the calibration process is invalidated.
このような視線方向検出装置によれば、適切でないキャリブレーション処理が実行されてしまうことを防ぐことができる。
具体的には、例えば請求項8に記載の視線方向検出装置では、無効手段は、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向とを、同時に視認可能な状態で表示手段に表示させ、キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを運転者に判定させる。このような視線方向検出装置によれば、運転者の意思に従いキャリブレーション処理を実行することができる。
According to such a gaze direction detection device, it is possible to prevent an inappropriate calibration process from being executed.
Specifically, for example, in the gaze direction detecting device according to claim 8 , the invalid means is acquired by the confirmation image acquisition means in the display position of the gaze image displayed by the confirmation image display means and the state thereof. The driver's line-of-sight direction detected by the line-of-sight detection means based on the captured image is displayed on the display means in a state where it can be viewed at the same time, and whether or not the calibration process by the calibration means has been properly performed Let the person judge. According to such a gaze direction detection device, calibration processing can be executed according to the driver's intention.
一方、例えば請求項9に記載の視線方向検出装置では、無効手段は、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向との誤差が、所定の許容条件を満たす場合に、キャリブレーション手段によるキャリブレーション処理が適切に行われたと判定する。このような視線方向検出装置によれば、キャリブレーション処理が適切に行われたか否かの判定を自動で行うことができる。 On the other hand, in the gaze direction detecting device according to claim 9 , for example, the invalid means includes the display position of the gaze image displayed by the confirmation image display means, and the captured image acquired by the confirmation image acquisition means in that state. If the error from the driver's line-of-sight direction detected by the line-of-sight direction detection means satisfies a predetermined allowable condition, it is determined that the calibration process by the calibration means has been performed appropriately. According to such a gaze direction detecting device, it is possible to automatically determine whether or not the calibration process has been appropriately performed.
また、請求項10,11に記載の視線方向検出装置では、注視用画像表示手段は、注視用画像とともにその位置を知覚しやすくするためのグリッドを表示させる。このような視線方向検出装置によれば、キャリブレーション処理をより正確に行うことができる。 In the line-of-sight direction detection device according to claims 10 and 11 , the gaze image display means displays a grid for facilitating the perception of the position together with the gaze image. According to such a gaze direction detection device, the calibration process can be performed more accurately.
次に、請求項13〜16に記載の視線方向検出方法は、運転者を前方から撮影する撮影手段が搭載された車両で用いられ、撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行するためのものである。 Next, the gaze direction detection method according to any one of claims 13 to 16 is used in a vehicle equipped with an imaging unit for imaging the driver from the front, and calibration for detecting the gaze direction of the driver based on a captured image by the imaging unit. This is for executing the process.
そして、この視線方向検出方法は、運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、注視用画像表示ステップにて注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、視線方向検出ステップで検出された運転者の視線方向と注視用画像表示ステップで表示された注視用画像の表示位置とに基づき、視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップとを備える。 In this gaze direction detection method, a gaze image display step for displaying a gaze image for causing the driver to gaze on a display means for displaying an image in front of the driver, and a gaze image display step. A captured image acquisition step for acquiring a driver's captured image captured by the imaging means in a state in which the image for display is displayed, and a line of sight for detecting the driver's line of sight based on the captured image acquired in the captured image acquisition step Calibration of gaze direction detection in the gaze direction detection step based on the direction detection step, the gaze direction of the driver detected in the gaze direction detection step, and the display position of the gaze image displayed in the gaze image display step A calibration step for executing processing.
そして、請求項13〜16に記載の視線方向検出方法は、それぞれ請求項1,4,6,11と共通の特徴を有する。したがって、請求項13〜16に記載の視線方向検出方法によれば、それぞれ請求項1,4,6,11に記載の視線方向検出装置と同様の効果を得ることができる。 The gaze direction detection methods according to claims 13 to 16 have the same features as those of claims 1, 4, 6, and 11, respectively. Therefore, according to the gaze direction detecting method according to claim 13 to 16, respectively claim 1, it is possible to obtain the same effect as the gaze direction detecting apparatus according to 4,6,11.
以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.全体構成]
図1は、実施形態の検出用ECU10の概略構成を示すブロック図であり、図2は、この検出用ECU10が搭載された車両の室内を示す模式図である。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. overall structure]
FIG. 1 is a block diagram illustrating a schematic configuration of a detection ECU 10 according to the embodiment, and FIG. 2 is a schematic diagram illustrating an interior of a vehicle in which the detection ECU 10 is mounted.
図1に示すように、検出用ECU10は、カメラインタフェース(カメラIF)11と、顔向き検出器12と、視線方向検出器13と、ヘッドアップディスプレイインタフェース(HUDIF)14と、メモリ15と、コントローラ16とを備えている。 As shown in FIG. 1, the detection ECU 10 includes a camera interface (camera IF) 11, a face orientation detector 12, a line-of-sight direction detector 13, a head-up display interface (HUDIF) 14, a memory 15, and a controller. 16.
カメラインタフェース11は、車両室内に設置されたカメラ20(図2参照)からの撮影画像を入力するためのインタフェースである。ここで、カメラ20は、車両の運転者を前方から撮影する位置(例えばインパネ)に配置されており、運転者の顔面を正面から撮影可能となっている。 The camera interface 11 is an interface for inputting a photographed image from the camera 20 (see FIG. 2) installed in the vehicle compartment. Here, the camera 20 is disposed at a position (for example, an instrument panel) where the driver of the vehicle is photographed from the front, and the driver's face can be photographed from the front.
顔向き検出器12は、カメラインタフェース11を介して入力されたカメラ20による運転者の撮影画像を解析することにより、運転者の顔向きを検出する。なお、顔向き検出の手法としては、例えば、「S.Bakerら“Lucas-Kanade 20 years on: A unifying framework:Part 4” Technical Report CMU-RI-TR-04-14, Robotics Institute, Carnegie MellonUniversity, February, 2004.」に開示されている手法を利用することができる。 The face orientation detector 12 detects the driver's face orientation by analyzing the driver's photographed image by the camera 20 input via the camera interface 11. As the face orientation detection method, for example, “S. Baker et al.“ Lucas-Kanade 20 years on: A unifying framework: Part 4 ”Technical Report CMU-RI-TR-04-14, Robotics Institute, Carnegie Mellon University, The method disclosed in “February, 2004” can be used.
視線方向検出器13は、カメラインタフェース11を介して入力されたカメラ20による運転者の撮影画像を解析することにより、運転者の視線方向を検出する。なお、視線方向検出の手法としては、例えば、「T.Ishikawaら“Passive Driver Gaze Tracking With Active Appearance Model” Technical Report CMU-RI-TR-04-08, Robotics Institute, Carnegie MellonUniversity, January, 2004.」に開示されている手法を利用することができる。 The line-of-sight direction detector 13 detects the driver's line-of-sight direction by analyzing a photographed image of the driver by the camera 20 input via the camera interface 11. In addition, as a method of gaze direction detection, for example, “T.Ishikawa et al.“ Passive Driver Gaze Tracking With Active Appearance Model ”Technical Report CMU-RI-TR-04-08, Robotics Institute, Carnegie Mellon University, January, 2004.” Can be used.
ヘッドアップディスプレイインタフェース14は、車両室内に設置されたヘッドアップディスプレイ(以下、単に「HUD」という。)30(図2参照)に表示させる画像情報を出力するためのインタフェースである。ここで、HUD30は、ウィンドシールド(フロントガラス)1を利用して運転者の前方に画像を表示させる表示装置であり、具体的には、ウィンドシールド1よりも更に前方の虚像面で画像が視認される。 The head-up display interface 14 is an interface for outputting image information to be displayed on a head-up display (hereinafter simply referred to as “HUD”) 30 (see FIG. 2) installed in the vehicle compartment. Here, the HUD 30 is a display device that displays an image in front of the driver using the windshield (front glass) 1. Specifically, the image is visually recognized on a virtual image plane further forward than the windshield 1. Is done.
メモリ15は、各種情報を記憶するための記憶装置である。
コントローラ16は、CPU、ROM、RAMなどからなるマイクロコンピュータを中心に構成されており、各種処理を実行する。また、コントローラ16には、車両室内(本実施形態ではハンドル)に設置されたスイッチ40の操作情報が入力される。ここで、スイッチ40は、運転者が指で操作を行うための操作装置であり、本実施形態では少なくともOKボタン及びNGボタンを備えている。
The memory 15 is a storage device for storing various information.
The controller 16 is mainly configured by a microcomputer including a CPU, a ROM, a RAM, and the like, and executes various processes. Further, the controller 16 receives operation information of the switch 40 installed in the vehicle compartment (in this embodiment, the steering wheel). Here, the switch 40 is an operation device for the driver to perform an operation with a finger, and includes at least an OK button and an NG button in the present embodiment.
[2.コントローラが実行する処理]
本実施形態の検出用ECU10は、カメラ20による運転者の撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行する。なお、本実施形態でいうキャリブレーション処理とは、撮影画像に基づき視線方向を検出するアルゴリズムを、実際の視線方向及びその状態での撮影画像に基づき補正することで、運転者の個体差等に関係なく視線方向を精度よく検出可能とするための処理である。
[2. Processing executed by the controller]
The detection ECU 10 of the present embodiment executes a calibration process for detecting the driver's line-of-sight direction based on the driver's captured image by the camera 20. The calibration processing referred to in the present embodiment means that the algorithm for detecting the line-of-sight direction based on the captured image is corrected based on the actual line-of-sight direction and the captured image in that state, so that individual differences among the drivers can be obtained. This is a process for making it possible to detect the line-of-sight direction with high accuracy.
ここで、キャリブレーション処理を開始する操作が行われることにより検出用ECU10のコントローラ16が実行するメイン処理について、図3のフローチャートを用いて説明する。なお、キャリブレーション処理は、車両の停止状態で行われるものであり、初めて乗車するときのみに行うものとしてもよく、また、必要に応じて何度でも行うようにしてもよい。 Here, the main process executed by the controller 16 of the detection ECU 10 when the operation for starting the calibration process is performed will be described with reference to the flowchart of FIG. 3. Note that the calibration process is performed when the vehicle is stopped, and may be performed only when the vehicle is first boarded, or may be performed as many times as necessary.
コントローラ16は、メイン処理を開始すると、まずS100で、運転者が正面を向いている状態でのカメラ20による撮影画像を正面情報として取得する。
具体的には、図4に示すように、カメラ20で撮影中の運転者の顔画像を鏡像変換して、HUD30により運転者前方の虚像面に表示(動画としてリアルタイムで表示)させる。また、図示しないが、表示画像における目の位置を運転者に注視させるためのメッセージ(例えば「目の位置を見てください」)も表示させる。
When the main process is started, the controller 16 first acquires, as front information, an image captured by the camera 20 in a state where the driver is facing the front in S100.
Specifically, as shown in FIG. 4, the driver's face image being captured by the camera 20 is mirror-image converted and displayed on the virtual image plane ahead of the driver (displayed as a moving image in real time) by the HUD 30. Although not shown, a message (for example, “Look at the eye position”) for causing the driver to pay attention to the eye position in the display image is also displayed.
なお、運転者に対するメッセージは、HUD30により運転者前方の虚像面に文字列として表示させることに限定されるものではなく、例えば、音声で伝えるようにしてもよく、また、文字列表示と音声とを併用してもよい。 Note that the message to the driver is not limited to being displayed as a character string on the virtual image plane ahead of the driver by the HUD 30, but may be transmitted by voice, for example, May be used in combination.
また、運転者の顔画像(鏡面画像)は、図5(a)に示すようにそのまま表示してもよいが、例えば、図5(b)に示すように両目の各中心点(画像解析により得られる目尻と目頭との中点)を注視点として表示し、それ以外の部分(顔画像)については輝度を落とすなどして、注視点が強調されるようにしてもよい。また、注視点のみを表示することも可能である。 Further, the driver's face image (mirror image) may be displayed as it is as shown in FIG. 5 (a). For example, as shown in FIG. 5 (b), each center point of both eyes (by image analysis). It is also possible to display the point of interest and the center of the eye) as the point of interest, and emphasize the point of interest by reducing the brightness of the other part (face image). It is also possible to display only the gazing point.
ここで、HUD30により表示される運転者の顔画像は、実際の運転者に対してほぼ正面となる位置(上下左右に調整された位置)に表示されるように設定されており、運転者から見れば、あたかも正面に鏡があるかのような画像が表示されることとなる。そして、このようにして運転者に表示画像を一定時間注視させ、その間にカメラ20から入力した撮影画像(運転者が正面を向いた状態での顔画像)を正面情報(正面方向についてのキャリブレーション情報)として取得(メモリ15に保存)する。 Here, the driver's face image displayed by the HUD 30 is set so as to be displayed at a position that is substantially in front of the actual driver (position adjusted vertically and horizontally). If it sees, the image as if there is a mirror in the front will be displayed. In this manner, the driver gazes at the display image for a certain period of time, and the captured image (face image with the driver facing the front) input from the camera 20 during that time is the front information (calibration in the front direction). Information) (stored in the memory 15).
なお、以上のようなS100の処理は、あらかじめ決められたタイミングで順に進行するようにしてもよく、また、運転者がスイッチ40の操作により所望のタイミングで進行させるようにしてもよい。 Note that the processing of S100 as described above may proceed in order at a predetermined timing, or the driver may proceed at a desired timing by operating the switch 40.
続いて、S200では、運転者が正面以外の所定方向を向いている状態での顔画像についてもキャリブレーション情報として取得するとともに、取得したキャリブレーション情報に基づきキャリブレーション処理を実行する。具体的には、このキャリブレーション処理では、図6(a)に示すように、運転者に注視させるための点であるターゲットTをHUD30により運転者前方の虚像面に表示させ、このターゲットTの表示位置を複数箇所に変化させつつ各表示位置についての顔画像を取得する。図6(a)の例では、真正面の位置を中心点とする円周上でターゲットTの表示位置を一定時間ごとに複数箇所に変化させ、各表示位置についての顔画像を取得する。 Subsequently, in S200, a face image in a state where the driver is facing a predetermined direction other than the front is also acquired as calibration information, and calibration processing is executed based on the acquired calibration information. Specifically, in this calibration process, as shown in FIG. 6A, the target T, which is a point for the driver to watch, is displayed on the virtual image plane in front of the driver by the HUD 30, and the target T A face image for each display position is acquired while changing the display position to a plurality of locations. In the example of FIG. 6A, the display position of the target T is changed to a plurality of locations at regular intervals on the circumference centered on the position directly in front, and a face image for each display position is acquired.
なお、ターゲットTの表示位置は円周上に限定されるものではない。例えば、図6(b)に示すように矩形上や、図6(c)に示すように十字上や、図6(d)に示すようにグリッド上としてもよい。 The display position of the target T is not limited to the circumference. For example, it may be on a rectangle as shown in FIG. 6 (b), on a cross as shown in FIG. 6 (c), or on a grid as shown in FIG. 6 (d).
また、図6(e)に示すように、運転者がターゲットTの位置を知覚しやすいようにするために、グリッド線を表示してもよい。この場合、グリッド線の色や輝度などをターゲットTと異なるように設定することで、グリッドによりターゲットTの視認性が損なわれにくくすることができる。 Further, as shown in FIG. 6E, grid lines may be displayed so that the driver can easily perceive the position of the target T. In this case, the visibility of the target T can be made difficult to be impaired by the grid by setting the color and brightness of the grid line to be different from those of the target T.
ここで、S200のキャリブレーション処理の詳細について、図7のフローチャートを用いて説明する。
キャリブレーション処理を開始すると、まずS201で、ターゲットTを表示する位置(後述するS202でのターゲットTの表示位置)を決める。なお、本キャリブレーション処理では、後述するように、S201〜S204の処理を、あらかじめ決められているターゲットTの表示位置(本実施形態では、図6(a)に示す円周上の複数箇所)の数だけ繰り返し実行することにより、最終的には、すべての表示位置についてターゲットTの表示処理(S202)が行われる。したがって、このS201の処理では、まだ表示処理が行われていない表示位置のうちの1つを所定の規則(順序)に従って決定する。
Here, details of the calibration processing in S200 will be described with reference to the flowchart of FIG.
When the calibration process is started, first, in S201, the position for displaying the target T (the display position of the target T in S202 described later) is determined. In this calibration process, as will be described later, the processes of S201 to S204 are performed in accordance with predetermined display positions of the target T (in this embodiment, a plurality of positions on the circumference shown in FIG. 6A). As a result, the target T display process (S202) is finally performed for all display positions. Accordingly, in the process of S201, one of the display positions that have not been subjected to the display process is determined according to a predetermined rule (order).
続いて、S202では、S201で決定した表示位置にターゲットTを表示させるとともに、ターゲットTを運転者に注視させるためのメッセージを表示させる。
続いて、S203では、運転者にターゲットTを注視させている間にカメラ20により撮影された画像をキャリブレーション用情報として取得(メモリ15に保存)する。
Subsequently, in S202, the target T is displayed at the display position determined in S201, and a message for causing the driver to watch the target T is displayed.
Subsequently, in S203, an image photographed by the camera 20 while the driver is gazing at the target T is acquired (saved in the memory 15) as calibration information.
続いて、S204では、キャリブレーション用情報が必要数取得されたか否かを判定する。つまり、すべての表示位置についてターゲットTの表示処理が行われたか否かを判定する。 Subsequently, in S204, it is determined whether the necessary number of pieces of calibration information has been acquired. That is, it is determined whether display processing of the target T has been performed for all display positions.
そして、S204で、キャリブレーション用情報が必要数取得されていないと判定した場合には、S201へ戻り、未処理の表示位置についての処理に移行する。
一方、S204で、キャリブレーション用情報が必要数取得されたと判定した場合には、S205へ移行し、メモリ15に保存されている各キャリブレーション用情報(顔画像)に基づき、各表示位置での運転者の顔向きを算出する。さらに、S206で、各キャリブレーション用情報及びS205で算出した顔向きに基づき、各表示位置での視線方向を検出し、検出した視線方向とターゲットTの表示位置との関係に基づき、顔画像から視線方向を検出するための視線検出用モデルを生成(補正)する。つまり、視線方向検出のキャリブレーションを実行する。その後、本キャリブレーション処理を終了し、図3のS300へ移行する。
If it is determined in S204 that the necessary number of pieces of calibration information has not been acquired, the process returns to S201, and the process proceeds to an unprocessed display position.
On the other hand, if it is determined in S204 that the required number of pieces of calibration information has been acquired, the process proceeds to S205, where each display position is displayed based on each piece of calibration information (face image) stored in the memory 15. The driver's face orientation is calculated. Further, in S206, the gaze direction at each display position is detected based on each calibration information and the face orientation calculated in S205, and from the face image based on the relationship between the detected gaze direction and the display position of the target T. A gaze detection model for detecting the gaze direction is generated (corrected). In other words, the gaze direction detection calibration is executed. Thereafter, the calibration process is terminated, and the process proceeds to S300 in FIG.
S300では、S200のキャリブレーション処理で生成した視線検出用モデルが適切なものであることを確認するための検出確認処理を実行する。
ここで、S300の検出確認処理の詳細について、図8のフローチャートを用いて説明する。なお、S310は、図3に示す処理と同一のものである。
In S300, a detection confirmation process for confirming that the line-of-sight detection model generated in the calibration process of S200 is appropriate is executed.
Here, details of the detection confirmation processing in S300 will be described with reference to the flowchart of FIG. Note that S310 is the same as the process shown in FIG.
検出確認処理を開始すると、まずS301で、前述したS201と同様、ターゲットTを表示する位置を決める。ただし、本S301では、S201で用いた表示位置とは異なる表示位置(あらかじめ決められた複数の表示位置)を用いる。 When the detection confirmation process is started, first, in S301, the position where the target T is displayed is determined as in S201 described above. However, in S301, a display position (a plurality of predetermined display positions) different from the display position used in S201 is used.
続いて、S302では、前述したS202と同様、S301で決定した表示位置にターゲットTを表示させるとともに、ターゲットTを運転者に注視させるためのメッセージを表示させる。 Subsequently, in S302, similarly to S202 described above, the target T is displayed at the display position determined in S301, and a message for causing the driver to watch the target T is displayed.
続いて、S303では、運転者にターゲットTを注視させている間にカメラ20から入力した撮影画像及びその時点でのターゲットTの表示位置を対応づけて取得(メモリ15に保存)する。 Subsequently, in S303, the captured image input from the camera 20 while the driver is gazing at the target T and the display position of the target T at that time are associated with each other (stored in the memory 15).
続いて、S304では、キャリブレーション処理で生成した視線検出用モデルを用いて、S303で取得した顔画像に基づき、運転者の顔向きを算出する。
続いて、S305では、キャリブレーション処理で生成した視線検出用モデルを用いて、S303で取得した顔画像及びS304で算出した顔向きに基づき、運転者の視線方向を算出する。
Subsequently, in S304, the driver's face orientation is calculated based on the face image acquired in S303 using the line-of-sight detection model generated in the calibration process.
Subsequently, in S305, the gaze direction of the driver is calculated based on the face image acquired in S303 and the face orientation calculated in S304 using the gaze detection model generated in the calibration process.
続いて、S306では、S304及びS305での算出結果をメモリ15に保存する。
続いて、S307では、顔画像が必要数取得されたか否かを判定する。つまり、すべての表示位置についてターゲットTの表示処理が行われたか否かを判定する。
Subsequently, in S306, the calculation results in S304 and S305 are stored in the memory 15.
Subsequently, in S307, it is determined whether the required number of face images has been acquired. That is, it is determined whether display processing of the target T has been performed for all display positions.
そして、S307で、顔画像が必要数取得されていないと判定した場合には、S301へ戻り、未処理の表示位置についての処理に移行する。
一方、S307で、顔画像が必要数取得されたと判定した場合には、S308へ移行し、本検出確認処理でターゲットTを表示したすべての表示位置にターゲットTを表示させるとともに、各ターゲットTについて算出した視線方向に対応する算出点を表示させる。つまり、各表示位置のターゲットTとそのターゲットTを注視している撮影画像に基づき算出した視線方向に対応する算出点とを同時に表示させるようにしている。このため、ターゲットTの表示位置と算出点の位置との距離が近いほど、キャリブレーション処理で生成した視線検出用モデルが適切なものであると判断することができる。
If it is determined in S307 that the required number of face images has not been acquired, the process returns to S301, and the process proceeds to an unprocessed display position.
On the other hand, if it is determined in S307 that the required number of face images has been acquired, the process proceeds to S308, where the target T is displayed at all display positions where the target T is displayed in the main detection confirmation process, and for each target T. A calculated point corresponding to the calculated line-of-sight direction is displayed. That is, the target T at each display position and the calculated points corresponding to the line-of-sight direction calculated based on the captured image gazing at the target T are displayed simultaneously. Therefore, the closer the distance between the display position of the target T and the position of the calculation point is, the more appropriate the gaze detection model generated by the calibration process is.
続いて、S309では、表示した結果で問題ないか否かを運転者に判断させるためのメッセージ(例えば「この結果で良いでしょうか」)をHUD30により運転者前方の虚像面に表示させる。 Subsequently, in S309, a message for causing the driver to determine whether there is no problem with the displayed result (for example, “Is this result OK?”) Is displayed on the virtual image plane ahead of the driver by the HUD 30.
続いて、図3に戻り、S310では、表示した結果で問題ないか否かの運転者による判断結果を、スイッチ40のOKボタンが押されたか否かに基づき判定する。
そして、S310で、スイッチ40のOKボタンが押されなかった(NGボタンが押された)と判定した場合には、S200へ戻り、キャリブレーション処理からやり直す。
Subsequently, returning to FIG. 3, in S <b> 310, a determination result by the driver as to whether there is no problem with the displayed result is determined based on whether the OK button of the switch 40 is pressed.
If it is determined in S310 that the OK button of the switch 40 has not been pressed (the NG button has been pressed), the process returns to S200 and starts again from the calibration process.
一方、S310で、スイッチ40のOKボタンが押されたと判定した場合には、本メイン処理を終了する。
[3.効果]
以上説明したように、本実施形態の検出用ECU10は、運転者に注視させるためのターゲットTをHUD30により運転者前方の虚像面に表示させ(S202)、その状態でカメラ20から取得した撮影画像に基づき運転者の視線方向を検出する(S203,S205)。そして、検出した視線方向とターゲットTの表示位置とに基づきキャリブレーション処理を実行する(S206)。
On the other hand, if it is determined in S310 that the OK button of the switch 40 has been pressed, the main process is terminated.
[3. effect]
As described above, the detection ECU 10 of the present embodiment causes the target T to be watched by the driver to be displayed on the virtual image plane ahead of the driver by the HUD 30 (S202), and the captured image acquired from the camera 20 in that state. The direction of the driver's line of sight is detected based on (S203, S205). Then, calibration processing is executed based on the detected line-of-sight direction and the display position of the target T (S206).
このような検出用ECU10によれば、ターゲットTを前方に表示させて運転者に注視させることで、所望の視線方向での運転者の撮影画像(その運転者本来の運転姿勢での撮影画像)が容易かつ正確に得られるため、適切なキャリブレーション処理を実現することができる。 According to such an ECU 10 for detection, the target T is displayed in the front and the driver gazes, so that the driver's photographed image in the desired line-of-sight direction (the photographed image in the driver's original driving posture). Can be obtained easily and accurately, and appropriate calibration processing can be realized.
また、この検出用ECU10では、運転者に正面を注視させるためのターゲットTとして、運転者の撮影画像に対して鏡像変換を施した画像を表示させるようにしている。このため、運転者はあたかも鏡を見ているような状態で正面を向くこととなり、運転者自身が正面を向いた状態を正確に把握することができる。 Further, the detection ECU 10 displays an image obtained by performing mirror image conversion on the driver's photographed image as a target T for causing the driver to gaze at the front. For this reason, the driver turns to the front as if looking at the mirror, and can accurately grasp the state in which the driver himself faces the front.
また、この検出用ECU10では、ターゲットTを複数の位置に順次表示させ(S201)、複数の位置にターゲットTが順次表示されている各状態でカメラ20から運転者の撮影画像を取得する。そして、各状態での撮影画像に基づき運転者の視線方向を検出し、検出した視線方向とその状態でのターゲットTの表示位置とに基づきキャリブレーション処理を実行する。このため、1つの視線方向のみに基づきキャリブレーション処理を実行する場合に比べ、より適切なキャリブレーション処理を実現することができる。 Further, the detection ECU 10 sequentially displays the target T at a plurality of positions (S201), and obtains a driver's photographed image from the camera 20 in each state where the target T is sequentially displayed at the plurality of positions. And a driver | operator's gaze direction is detected based on the picked-up image in each state, and a calibration process is performed based on the detected gaze direction and the display position of the target T in the state. For this reason, more appropriate calibration processing can be realized as compared with the case where the calibration processing is executed based on only one line-of-sight direction.
さらに、この検出用ECU10では、キャリブレーション処理が実行された後、ターゲットTを前回とは異なる表示位置に表示させ(S301,S302)、その状態でカメラ20から運転者の撮影画像を取得する(S303)。そして、ターゲットTの表示位置と、その状態で取得された撮影画像に基づき検出された運転者の視線方向との関係に基づき、キャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする(S308〜S310)。このため、適切でないキャリブレーション処理が実行されてしまうことを防ぐことができる。 Further, after the calibration process is executed, the detection ECU 10 displays the target T at a display position different from the previous time (S301, S302), and acquires a photographed image of the driver from the camera 20 in that state ( S303). Then, based on the relationship between the display position of the target T and the driver's line-of-sight direction detected based on the captured image acquired in that state, it is determined whether or not the calibration process has been appropriately performed. If it is determined that it has not been performed, the calibration process is invalidated (S308 to S310). For this reason, it is possible to prevent an inappropriate calibration process from being executed.
特に、ターゲットTの表示位置とその状態での視線方向に対応する算出点とを同時に視認可能な状態で表示させ、キャリブレーション処理が適切に行われたか否かを運転者に判定させるようにしているため、運転者の意思に従いキャリブレーション処理を実行することができる。 In particular, the display position of the target T and the calculation point corresponding to the line-of-sight direction in that state are displayed at the same time so that the driver can determine whether the calibration process has been performed appropriately. Therefore, the calibration process can be executed according to the driver's intention.
[4.特許請求の範囲との対応]
なお、本実施形態の検出用ECU10では、カメラ20が、撮影手段に相当し、HUD30が、表示手段に相当する。また、S100,S201,S202の処理を実行するコントローラ16が、注視用画像表示手段に相当し、S100,S203の処理を実行するコントローラ16が、撮影画像取得手段に相当する。また、S205,S206の処理を実行するコントローラ16が、視線方向検出手段及びキャリブレーション手段に相当する。また、S301,S302の処理を実行するコントローラ16が、確認用画像表示手段に相当し、S303の処理を実行するコントローラ16が、確認用画像取得手段に相当し、S308〜S310の処理を実行するコントローラ16が、無効手段に相当する。
[4. Correspondence with Claims]
In the detection ECU 10 of the present embodiment, the camera 20 corresponds to a photographing unit, and the HUD 30 corresponds to a display unit. Further, the controller 16 that executes the processes of S100, S201, and S202 corresponds to the gaze image display means, and the controller 16 that executes the processes of S100 and S203 corresponds to the captured image acquisition means. Further, the controller 16 that executes the processes of S205 and S206 corresponds to the line-of-sight direction detecting means and the calibration means. The controller 16 that executes the processes of S301 and S302 corresponds to a confirmation image display unit, and the controller 16 that executes the process of S303 corresponds to a confirmation image acquisition unit and executes the processes of S308 to S310. The controller 16 corresponds to invalid means.
[5.他の形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[5. Other forms]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.
例えば、前述した検出確認処理(図8)のS301では、決定するターゲットTの表示位置として、キャリブレーション処理(図7)のS201で用いた表示位置とは異なる表示位置を用いるようにしているが、これに限定されるものではなく、S201で用いた表示位置と同じ表示位置を用いてもよい。 For example, in S301 of the detection confirmation process (FIG. 8) described above, a display position different from the display position used in S201 of the calibration process (FIG. 7) is used as the display position of the target T to be determined. However, the display position is not limited to this, and the same display position as that used in S201 may be used.
また、上記実施形態の検出用ECU10では、ターゲットTの表示位置とその状態での視線方向に対応する算出点とを同時に視認可能な状態で表示させ(S308)、キャリブレーション処理が適切に行われたか否かを運転者に判定させるようにしているが(S309)、これに限定されるものではなく、検出用ECU10で自動的に判定するようにしてもよい。具体的には、例えば、ターゲットTの表示位置と算出点の位置との距離(複数存在する場合にはすべての距離)が所定の判定しきい値以下の場合に、キャリブレーション処理で生成した視線検出用モデルが適切なものであると判定することができる。なお、このように構成した場合には、スイッチ40を備えない構成とすることも可能である。 In the detection ECU 10 of the above embodiment, the display position of the target T and the calculation point corresponding to the line-of-sight direction in that state are displayed in a state where they can be viewed simultaneously (S308), and the calibration process is appropriately performed. However, the present invention is not limited to this, and the detection ECU 10 may determine automatically. Specifically, for example, the line of sight generated by the calibration process when the distance between the display position of the target T and the position of the calculation point (all distances when there are a plurality of distances) is equal to or less than a predetermined determination threshold value It can be determined that the detection model is appropriate. In such a configuration, the switch 40 may be omitted.
一方、例えば、図9に示すように、運転者が視認する画像の表示距離(虚像面の奥行き方向における位置)を変更可能なステレオ方式のヘッドアップディスプレイを用いるようにしてもよい。このようにすれば、ターゲットTの表示位置を上下左右方向だけでなく奥行き方向(前後方向)にも変化させることができるため、奥行き方向も加味したキャリブレーション処理を実行することができる。特に、このような構成においては、前述したように運転者がターゲットTの位置を把握しやすいようにするためのグリッド線を表示し(図6(e))、更に、ターゲットTの奥行き方向の位置に応じてグリッド幅を変更するようにすれば、ターゲットTの奥行き方向における位置を知覚しやすくすることができる。 On the other hand, for example, as shown in FIG. 9, a stereo head-up display that can change the display distance (position in the depth direction of the virtual image plane) of the image visually recognized by the driver may be used. In this way, the display position of the target T can be changed not only in the vertical and horizontal directions but also in the depth direction (front and rear direction), so that the calibration process can be executed in consideration of the depth direction. In particular, in such a configuration, as described above, a grid line is displayed to make it easier for the driver to grasp the position of the target T (FIG. 6E), and further in the depth direction of the target T. If the grid width is changed according to the position, the position of the target T in the depth direction can be easily perceived.
1…ウィンドシールド、10…検出用ECU、11…カメラインタフェース、12…顔向き検出器、13…視線方向検出器、14…ヘッドアップディスプレイインタフェース、15…メモリ、16…コントローラ、20…カメラ、30…ヘッドアップディスプレイ、40…スイッチ、T…ターゲット DESCRIPTION OF SYMBOLS 1 ... Wind shield, 10 ... ECU for detection, 11 ... Camera interface, 12 ... Face direction detector, 13 ... Gaze direction detector, 14 ... Head-up display interface, 15 ... Memory, 16 ... Controller, 20 ... Camera, 30 ... head-up display, 40 ... switch, T ... target
Claims (16)
運転者の前方に画像を表示する表示手段と、
運転者に注視させるための注視用画像を前記表示手段に表示させる注視用画像表示手段と、
前記注視用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行するキャリブレーション手段と、
を備え、
前記注視用画像表示手段は、運転者に正面を注視させるための注視用画像として、運転者の撮影画像に対して鏡像変換を施した画像を表示させること
を特徴とする視線方向検出装置。 A gaze direction detection device that is used in a vehicle equipped with an imaging unit that images a driver from the front, and that performs calibration processing for detecting the driver's gaze direction based on an image captured by the imaging unit,
Display means for displaying an image in front of the driver;
Gaze image display means for causing the display means to display a gaze image for gaze the driver;
Captured image acquisition means for acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed by the gaze image display means;
Gaze direction detection means for detecting the driver's gaze direction based on the captured image acquired by the captured image acquisition means;
Based on the driver's gaze direction detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means, the gaze direction detection calibration processing by the gaze direction detection means is performed. Calibration means to perform,
Equipped with a,
The gaze image display means, as gaze image for gaze front driver, gaze direction detecting apparatus according to claim Rukoto to display the image subjected to mirror image conversion to the driver of the captured image.
前記撮影画像取得手段は、前記注視用画像表示手段により前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出手段は、前記撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーション手段は、前記視線方向検出手段により検出された運転者の視線方向とその状態で前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行すること
を特徴とする請求項1に記載の視線方向検出装置。 The gaze image display means sequentially displays the gaze image at a plurality of positions,
The captured image acquisition unit acquires a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions by the gaze image display unit,
The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured image in each state acquired by the captured image acquisition means,
The calibration means is based on the gaze direction of the driver detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means in that state. The gaze direction detection device according to claim 1, wherein calibration processing for gaze direction detection is performed.
前記複数の位置には、前記表示距離の異なる位置が含まれていること
を特徴とする請求項2に記載の視線方向検出装置。 The display means is configured to change a display distance of an image visually recognized by the driver,
The gaze direction detection device according to claim 2 , wherein the plurality of positions include positions having different display distances.
運転者の前方に画像を表示する表示手段と、
運転者に注視させるための注視用画像を前記表示手段に表示させる注視用画像表示手段と、
前記注視用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行するキャリブレーション手段と、
を備え、
前記注視用画像表示手段は、前記注視用画像を複数の位置に順次表示させ、
前記撮影画像取得手段は、前記注視用画像表示手段により前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出手段は、前記撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーション手段は、前記視線方向検出手段により検出された運転者の視線方向とその状態で前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行し、
前記表示手段は、運転者が視認する画像の表示距離を変更可能に構成されており、
前記複数の位置には、前記表示距離の異なる位置が含まれていること
を特徴とする視線方向検出装置。 A gaze direction detection device that is used in a vehicle equipped with an imaging unit that images a driver from the front, and that performs calibration processing for detecting the driver's gaze direction based on an image captured by the imaging unit,
Display means for displaying an image in front of the driver;
Gaze image display means for causing the display means to display a gaze image for gaze the driver;
Captured image acquisition means for acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed by the gaze image display means;
Gaze direction detection means for detecting the driver's gaze direction based on the captured image acquired by the captured image acquisition means;
Based on the driver's gaze direction detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means, the gaze direction detection calibration processing by the gaze direction detection means is performed. Calibration means to perform,
Equipped with a,
The gaze image display means sequentially displays the gaze image at a plurality of positions,
The captured image acquisition unit acquires a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions by the gaze image display unit,
The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured image in each state acquired by the captured image acquisition means,
The calibration means is based on the gaze direction of the driver detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means in that state. Execute gaze direction detection calibration process by
The display means is configured to change a display distance of an image visually recognized by the driver,
Wherein the plurality of the locations, gaze direction detecting apparatus characterized by different positions contains Rukoto of the display distance.
前記確認用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する確認用画像取得手段と、
前記確認用画像表示手段により表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得手段により取得された撮影画像に基づき前記視線方向検出手段により検出された運転者の視線方向との関係に基づき、前記キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする無効手段と、
を備えることを特徴とする請求項1から請求項4までのいずれか1項に記載の視線方向検出装置。 After the calibration process is executed by the calibration means, a confirmation image display means for displaying the gaze image at a position different from the display position by the gaze image display means,
Confirmation image acquisition means for acquiring a driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the confirmation image display means;
The driver's gaze direction detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state On the basis of the relationship between the calibration means and the invalidation means for invalidating the calibration process when it is determined that the calibration process is not properly performed,
The line-of-sight direction detection device according to claim 1, comprising:
運転者の前方に画像を表示する表示手段と、
運転者に注視させるための注視用画像を前記表示手段に表示させる注視用画像表示手段と、
前記注視用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行するキャリブレーション手段と、
前記キャリブレーション手段によりキャリブレーション処理が実行された後、前記注視用画像を前記注視用画像表示手段による表示位置とは異なる位置に表示させる確認用画像表示手段と、
前記確認用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する確認用画像取得手段と、
前記確認用画像表示手段により表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得手段により取得された撮影画像に基づき前記視線方向検出手段により検出された運転者の視線方向との関係に基づき、前記キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする無効手段と、
を備えることを特徴とする視線方向検出装置。 A gaze direction detection device that is used in a vehicle equipped with an imaging unit that images a driver from the front, and that performs calibration processing for detecting the driver's gaze direction based on an image captured by the imaging unit,
Display means for displaying an image in front of the driver;
Gaze image display means for causing the display means to display a gaze image for gaze the driver;
Captured image acquisition means for acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed by the gaze image display means;
Gaze direction detection means for detecting the driver's gaze direction based on the captured image acquired by the captured image acquisition means;
Based on the driver's gaze direction detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means, the gaze direction detection calibration processing by the gaze direction detection means is performed. Calibration means to perform,
After the calibration process is executed by the calibration means, a confirmation image display means for displaying the gaze image at a position different from the display position by the gaze image display means,
Confirmation image acquisition means for acquiring a driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the confirmation image display means;
The driver's gaze direction detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state On the basis of the relationship between the calibration means and the invalidation means for invalidating the calibration process when it is determined that the calibration process is not properly performed,
A line-of-sight direction detecting device comprising:
前記撮影画像取得手段は、前記注視用画像表示手段により前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出手段は、前記撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーション手段は、前記視線方向検出手段により検出された運転者の視線方向とその状態で前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行すること
を特徴とする請求項6に記載の視線方向検出装置。 The gaze image display means sequentially displays the gaze image at a plurality of positions,
The captured image acquisition unit acquires a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions by the gaze image display unit,
The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured image in each state acquired by the captured image acquisition means,
The calibration means is based on the gaze direction of the driver detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means in that state. The gaze direction detection apparatus according to claim 6 , wherein a gaze direction detection calibration process is performed by using the gaze direction detection method.
を特徴とする請求項5から請求項7までのいずれか1項に記載の視線方向検出装置。 The invalidation means is detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. The driver's line-of-sight direction is displayed on the display unit in a state in which the driver can view simultaneously, and the driver is allowed to determine whether or not the calibration process by the calibration unit has been appropriately performed. The gaze direction detecting device according to any one of claims 5 to 7 .
を特徴とする請求項5から請求項7までのいずれか1項に記載の視線方向検出装置。 The invalidation means is detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. any error between the viewing direction of the driver, when the predetermined allowable condition is satisfied, the claims 5 calibration process by the calibration means and judging to have been properly performed until claim 7 or gaze direction detecting apparatus according to item 1.
を特徴とする請求項1から請求項9までのいずれか1項に記載の視線方向検出装置。 The gaze direction detection according to any one of claims 1 to 9 , wherein the gaze image display means displays a grid for easily perceiving the position together with the gaze image. apparatus.
運転者の前方に画像を表示する表示手段と、
運転者に注視させるための注視用画像を前記表示手段に表示させる注視用画像表示手段と、
前記注視用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行するキャリブレーション手段と、
を備え、
前記注視用画像表示手段は、前記注視用画像とともにその位置を知覚しやすくするためのグリッドを表示させること
を特徴とする視線方向検出装置。 A gaze direction detection device that is used in a vehicle equipped with an imaging unit that images a driver from the front, and that performs calibration processing for detecting the driver's gaze direction based on an image captured by the imaging unit,
Display means for displaying an image in front of the driver;
Gaze image display means for causing the display means to display a gaze image for gaze the driver;
Captured image acquisition means for acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed by the gaze image display means;
Gaze direction detection means for detecting the driver's gaze direction based on the captured image acquired by the captured image acquisition means;
Based on the driver's gaze direction detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means, the gaze direction detection calibration processing by the gaze direction detection means is performed. Calibration means to perform,
Equipped with a,
The gaze image display means, line-of-sight direction detecting apparatus according to claim Rukoto display the grid for easy perceive the position together with the gaze image.
前記撮影画像取得手段は、前記注視用画像表示手段により前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出手段は、前記撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーション手段は、前記視線方向検出手段により検出された運転者の視線方向とその状態で前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行すること
を特徴とする請求項11に記載の視線方向検出装置。 The gaze image display means sequentially displays the gaze image at a plurality of positions,
The captured image acquisition unit acquires a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions by the gaze image display unit,
The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured image in each state acquired by the captured image acquisition means,
The calibration means is based on the gaze direction of the driver detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means in that state. The gaze direction detection apparatus according to claim 11 , wherein a gaze direction detection calibration process is performed.
運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、
前記注視用画像表示ステップにて前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、
前記撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップで検出された運転者の視線方向と前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップと、
を備え、
前記注視用画像表示ステップでは、運転者に正面を注視させるための注視用画像として、運転者の撮影画像に対して鏡像変換を施した画像を表示させること
を特徴とする視線方向検出方法。 A gaze direction detection method that is used in a vehicle equipped with a photographing unit that photographs a driver from the front, and that performs calibration processing for detecting a gaze direction of a driver based on a captured image by the photographing unit,
A gaze image display step for displaying a gaze image for gaze the driver on the display means for displaying an image in front of the driver;
A captured image acquisition step of acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed in the gaze image display step;
A line-of-sight direction detecting step for detecting a driver's line-of-sight direction based on the captured image acquired in the captured image acquisition step;
Calibration processing for gaze direction detection in the gaze direction detection step based on the gaze direction of the driver detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step A calibration step to perform
Equipped with a,
Wherein the gaze image display step, the gaze image for gaze front driver, gaze direction detecting method comprising Rukoto to display the image subjected to mirror image conversion to the driver of the captured image.
運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、
前記注視用画像表示ステップにて前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、
前記撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップで検出された運転者の視線方向と前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップと、
を備え、
前記注視用画像表示ステップでは、前記注視用画像を複数の位置に順次表示させ、
前記撮影画像取得ステップでは、前記注視用画像表示ステップで前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出ステップでは、前記撮影画像取得ステップで取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーションステップでは、前記視線方向検出ステップで検出された運転者の視線方向とその状態で前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行し、
前記表示手段は、運転者が視認する画像の表示距離を変更可能に構成されており、
前記複数の位置には、前記表示距離の異なる位置が含まれていること
を特徴とする視線方向検出方法。 A gaze direction detection method that is used in a vehicle equipped with a photographing unit that photographs a driver from the front, and that performs calibration processing for detecting a gaze direction of a driver based on a captured image by the photographing unit,
A gaze image display step for displaying a gaze image for gaze the driver on the display means for displaying an image in front of the driver;
A captured image acquisition step of acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed in the gaze image display step;
A line-of-sight direction detecting step for detecting a driver's line-of-sight direction based on the captured image acquired in the captured image acquisition step;
Calibration processing for gaze direction detection in the gaze direction detection step based on the gaze direction of the driver detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step A calibration step to perform
Equipped with a,
In the gaze image display step, the gaze image is sequentially displayed at a plurality of positions,
In the captured image acquisition step, acquire a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions in the gaze image display step,
In the line-of-sight direction detection step, the line-of-sight direction of the driver is detected based on the captured image in each state acquired in the captured image acquisition step,
In the calibration step, the gaze direction detection step based on the driver's gaze direction detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step in that state. Execute gaze direction detection calibration process at
The display means is configured to change a display distance of an image visually recognized by the driver,
Wherein the plurality of positions, gaze direction detecting method characterized that you have contains different positions the display distance.
運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、
前記注視用画像表示ステップにて前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、
前記撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップで検出された運転者の視線方向と前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップと、
前記キャリブレーションステップでキャリブレーション処理が実行された後、前記注視用画像を前記注視用画像表示ステップでの表示位置とは異なる位置に表示させる確認用画像表示ステップと、
前記確認用画像表示ステップで前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する確認用画像取得ステップと、
前記確認用画像表示ステップで表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得ステップで取得された撮影画像に基づき前記視線方向検出ステップで検出された運転者の視線方向との関係に基づき、前記キャリブレーションステップでのキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする無効ステップと、
を備えることを特徴とする視線方向検出方法。 A gaze direction detection method that is used in a vehicle equipped with a photographing unit that photographs a driver from the front, and that performs calibration processing for detecting a gaze direction of a driver based on a captured image by the photographing unit,
A gaze image display step for displaying a gaze image for gaze the driver on the display means for displaying an image in front of the driver;
A captured image acquisition step of acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed in the gaze image display step;
A line-of-sight direction detecting step for detecting a driver's line-of-sight direction based on the captured image acquired in the captured image acquisition step;
Calibration processing for gaze direction detection in the gaze direction detection step based on the gaze direction of the driver detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step A calibration step to perform
After the calibration process is executed in the calibration step, a confirmation image display step for displaying the gaze image at a position different from the display position in the gaze image display step;
A confirmation image acquisition step of acquiring a driver's photographed image photographed by the photographing means in a state in which the gaze image is displayed in the confirmation image display step;
The gaze direction of the driver detected in the gaze direction detection step based on the display position of the gaze image displayed in the confirmation image display step and the captured image obtained in the confirmation image acquisition step in that state On the basis of the relationship between the invalidation step and the invalidation step for invalidating the calibration process when it is determined that the calibration process in the calibration step is appropriately performed. ,
A gaze direction detection method comprising:
運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、
前記注視用画像表示ステップにて前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、
前記撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップで検出された運転者の視線方向と前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップと、
を備え、
前記注視用画像表示ステップでは、前記注視用画像とともにその位置を知覚しやすくするためのグリッドを表示させること
を特徴とする視線方向検出方法。 A gaze direction detection method that is used in a vehicle equipped with a photographing unit that photographs a driver from the front, and that performs calibration processing for detecting a gaze direction of a driver based on a captured image by the photographing unit,
A gaze image display step for displaying a gaze image for gaze the driver on the display means for displaying an image in front of the driver;
A captured image acquisition step of acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed in the gaze image display step;
A line-of-sight direction detecting step for detecting a driver's line-of-sight direction based on the captured image acquired in the captured image acquisition step;
Calibration processing for gaze direction detection in the gaze direction detection step based on the gaze direction of the driver detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step A calibration step to perform
Equipped with a,
Wherein the gaze image display step, the line-of-sight direction detecting method comprising Rukoto display the grid for easy perceive the position together with the gaze image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008026887A JP5092776B2 (en) | 2008-02-06 | 2008-02-06 | Gaze direction detection device and gaze direction detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008026887A JP5092776B2 (en) | 2008-02-06 | 2008-02-06 | Gaze direction detection device and gaze direction detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009183473A JP2009183473A (en) | 2009-08-20 |
JP5092776B2 true JP5092776B2 (en) | 2012-12-05 |
Family
ID=41067395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008026887A Expired - Fee Related JP5092776B2 (en) | 2008-02-06 | 2008-02-06 | Gaze direction detection device and gaze direction detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5092776B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7193370B2 (en) | 2019-02-18 | 2022-12-20 | シチズン時計株式会社 | A display plate and a watch equipped with this display plate |
US11938817B2 (en) | 2020-08-24 | 2024-03-26 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling head-up display based on eye tracking status |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101349681B1 (en) | 2012-12-20 | 2014-01-13 | 현대오트론 주식회사 | Apparatus and method for confirming vehicle information using head up display |
JP6260255B2 (en) | 2013-12-18 | 2018-01-17 | 株式会社デンソー | Display control apparatus and program |
JP6214752B2 (en) * | 2014-02-19 | 2017-10-18 | 三菱電機株式会社 | Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system |
JP6572841B2 (en) * | 2016-07-13 | 2019-09-11 | 株式会社デンソー | Information processing apparatus and program |
JP6908339B2 (en) * | 2017-04-24 | 2021-07-28 | アルパイン株式会社 | Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method |
JP2019021049A (en) | 2017-07-18 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
KR102630368B1 (en) * | 2018-10-25 | 2024-01-29 | 현대모비스 주식회사 | Apparatus for calibrating camera monitoring driver and method thereof |
JP7395842B2 (en) * | 2019-05-09 | 2023-12-12 | 株式会社アイシン | Image display device and image display program |
JP7572237B2 (en) | 2020-12-28 | 2024-10-23 | 株式会社Subaru | Gaze Calibration System |
JP7640291B2 (en) | 2021-03-08 | 2025-03-05 | 本田技研工業株式会社 | Calibration device and calibration method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07257228A (en) * | 1994-03-18 | 1995-10-09 | Nissan Motor Co Ltd | Display device for vehicle |
JP3406945B2 (en) * | 1994-11-22 | 2003-05-19 | キヤノン株式会社 | Optical device with gaze detection function |
JP3735947B2 (en) * | 1996-06-26 | 2006-01-18 | 日産自動車株式会社 | Line-of-sight input device |
JP4716822B2 (en) * | 2005-08-31 | 2011-07-06 | 株式会社ニデック | Field inspection device |
EP2001569A2 (en) * | 2006-04-04 | 2008-12-17 | Harmonix Music Systems, Inc. | A method and apparatus for providing a simulated band experience including online interaction |
-
2008
- 2008-02-06 JP JP2008026887A patent/JP5092776B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7193370B2 (en) | 2019-02-18 | 2022-12-20 | シチズン時計株式会社 | A display plate and a watch equipped with this display plate |
US11938817B2 (en) | 2020-08-24 | 2024-03-26 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling head-up display based on eye tracking status |
Also Published As
Publication number | Publication date |
---|---|
JP2009183473A (en) | 2009-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5092776B2 (en) | Gaze direction detection device and gaze direction detection method | |
US8570188B2 (en) | Driver vision support system and vehicle including the system | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
JP4926437B2 (en) | Vehicle driving support device | |
CN102224443B (en) | Vehicle display device and display method | |
JP5874920B2 (en) | Monitoring device for vehicle surroundings | |
JP5093611B2 (en) | Vehicle periphery confirmation device | |
JP6410987B2 (en) | Driving support device, driving support method, and driving support program | |
JP6197814B2 (en) | Vehicle display device | |
JP4683192B2 (en) | Vehicle blind spot monitoring device and vehicle driving support system | |
JP2010018201A (en) | Driver assistant device, driver assistant method, and driver assistant processing program | |
JP2009269551A (en) | Display for vehicle | |
JP6822325B2 (en) | Maneuvering support device, maneuvering support method, program | |
JP2013168063A (en) | Image processing device, image display system, and image processing method | |
JP2006044596A (en) | Display device for vehicle | |
JP6770330B2 (en) | Image display device | |
JP5644414B2 (en) | Awakening level determination device, awakening level determination method, and program | |
JP2018022958A (en) | Vehicle display controller and vehicle monitor system | |
JP2008037118A (en) | Display for vehicle | |
JP2009248812A (en) | Driving assistance device | |
JP2005269010A (en) | Image creating device, program and method | |
JP2018043724A (en) | Luminance control device, luminance control system, and luminance control method | |
JP5082620B2 (en) | Judgment judgment device | |
JP5845909B2 (en) | Obstacle alarm device | |
WO2013114871A1 (en) | Driving assistance device and driving assistance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120903 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |