JP4348663B2 - Automotive control device - Google Patents
Automotive control device Download PDFInfo
- Publication number
- JP4348663B2 JP4348663B2 JP35018199A JP35018199A JP4348663B2 JP 4348663 B2 JP4348663 B2 JP 4348663B2 JP 35018199 A JP35018199 A JP 35018199A JP 35018199 A JP35018199 A JP 35018199A JP 4348663 B2 JP4348663 B2 JP 4348663B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- driving
- driving skill
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Controls For Constant Speed Travelling (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
- Traffic Control Systems (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、移動体の制御装置に関し、特に自動車の制御装置に関する。
【0002】
【従来の技術】
従来より、代表的な移動体である自動車においては、安全な走行のために自動車の走行状態を自動的に制御する装置が提案されている。
【0003】
このような制御装置の一例として、例えば特開平7−159525号には、先行車両との衝突を防止する警報の発報タイミングを、自車両の減速開始時点における先行車両との車間距離と、その自車両の車速とに基づいて学習する機能を備える制御装置が提案されている。また、特開平10−338056号には、自車両と先行車両との車間距離と、目標車間距離との偏差が小さくなるように、その自車両のブレーキ制御を行う装置が提案されている。
【0004】
【発明が解決しようとする課題】
一般に、ドライバの運転特性は、そのドライバの運転操作に対する習熟度(技量)との相関が高いことが知られているが、上述した従来の装置においては、ドライバの運転操作に対する習熟度には無関係に制御機能が実行されるため、ドライバによっては、係る制御機能が自動的に実行されることに対して違和感を感じることが予想される。
【0005】
そこで本発明は、ドライバの運転技量に応じて最適な情報提供制御、或いは危険回避制御を行う自動車の制御装置の提供を目的とする。
【0006】
【課題を解決するための手段】
上記の目的を達成するため、本発明に係る自動車の制御装置は、以下の構成を特徴とする。
【0007】
即ち、ドライバにより運転される自動車の制御装置であって、前記自動車の運転状態を検出する運転状態検出手段と、前記運転状態検出手段によって検出された運転状態が所定状態となったときに、その検出された運転状態に関する情報をドライバに提供する情報提供手段と、前記ドライバの視認行動を検出する視認行動検出手段と、前記視認行動検出手段によって検出された視認行動に基づいて前記ドライバの運転技量レベルを設定する設定手段と、前記設定手段によって設定された前記運転技量レベルに応じて、前記情報提供手段による情報提供制御を補正する制御手段と、を備え、前記設定手段は、前記自動車のイグニッションON後、前記ドライバの前記運転技術レベルが未だ設定されていない場合にのみ、前記ドライバの前記運転技術レベルを設定することを特徴とする。
【0008】
或いは、同目的を達成すべく、ドライバにより運転される自動車の制御装置であって、前記自動車の運転状態を検出する運転状態検出手段と、前記運転状態検出手段によって検出された運転状態が所定状態となったときに、前記自動車に自動的に危険回避動作を行わせる危険回避手段と、前記ドライバの視認行動を検出する視認行動検出手段と、前記視認行動検出手段によって検出された視認行動に基づいて前記ドライバの運転技量レベルを設定する設定手段と、前記設定手段によって設定された前記運転技量レベルに応じて、前記危険回避手段による危険回避制御を補正する制御手段と、を備え、前記設定手段は、前記自動車のイグニッションON後、前記ドライバの前記運転技術レベルが未だ設定されていない場合にのみ、前記ドライバの前記運転技術レベルを設定することを特徴とする。
【0009】
上記何れの制御装置においても、例えば前記視認行動検出手段は、前記自動車に設けられたミラーに対する前記ドライバの注視頻度を検出しており、前記設定手段は、前記視認行動検出手段によって検出された注視頻度に基づいて前記運転技量レベルを設定してもよい。
【0010】
或いは、例えば前記視認行動検出手段は、前記ドライバによる前記自動車前方に対する注視範囲を検出しており、前記設定手段は、前記視認行動検出手段によって検出された注視範囲に基づいて前記運転技量レベルを設定してもよい。
【0011】
或いは、例えば前記視認行動検出手段は、前記ドライバによる前記自動車前方に対する注視距離を検出しており、前記設定手段は、前記視認行動検出手段によって検出された注視距離に基づいて前記運転技量レベルを設定してもよい。
【0012】
【発明の効果】
上記の本発明によれば、ドライバの運転技量に応じて最適な情報提供制御、或いは危険回避制御を行う移動体の制御装置の提供が実現する。
【0013】
即ち、請求項1の発明によれば、ドライバの視認行動に基づいて設定されたそのドライバの運転技量に応じて、最適な情報提供制御を行うことができる。
【0014】
また、請求項2乃至請求項4の発明によれば、ドライバの視認行動としてミラーの注視頻度、前方注視範囲、或いは前方注視距離を検出することにより、そのドライバの運転技量を正確に判定することができ、最適な制御を行うことができる。
【0015】
また、請求項5の発明によれば、ドライバの視認行動に基づいて設定されたそのドライバの運転技量に応じて、最適な危険回避制御を行うことができる。
【0016】
【発明の実施の形態】
以下、本発明に係る移動体の制御装置を、代表的な移動体である自動車に適用した実施形態として、図面を参照して詳細に説明する。
【0017】
図1は、本実施形態に係る移動体の制御装置を搭載する自動車のシステム構成を示す図である。また、図2は、本実施形態に係る移動体の制御装置における制御機能の構成を示すブロック図である。そして、図3は、図1に示す自動車の運転席を示す図である。
【0018】
図1から図3において、1は、制御処理を行うコントロールユニットである。11は、レーザレーダ等を用いて、前方車両と自車両との車間距離や、その前方車両と自車両との相対速度を検出する車間距離センサである。12は、自車両のの走行位置検出を行うべく道路上に設けられた磁気マーカからの磁気を検出するレーンマーカセンサである。13は、自車両の後側方に位置する他車両との車間距離や相対速度を検出すべく、例えばサイドミラーや車体側方や後方に設けらたラインCCD(Charge Coupled Device)等の後側方車両センサである。14は、自車両の車速Vを検出する車速センサである。15は、車両の向きや横方向への加速度Gを検出すべく、ヨー角を検出するヨーレートセンサである。
【0019】
16は、スロットル開度を検出するスロットルセンサである。17は、加減速機構29に含まれるブレーキ機構(不図示)に加えられたブレーキ圧を検出するブレーキ圧センサである。18は、ステアリングホイールの操作に応じた操舵角を検出すべく操舵機構30に設けられた操舵角センサである。19は、後述する如くドライバが見ている位置(注視点)の検出を行う注視点検出センサである。21は、地図情報20を用いて、自車両の現在位置の検出や目的地までの経路誘導を行うナビゲーションユニット(不図示)にて使用されるGPS(Global Positioning System)信号を受信するGPSセンサである。22は、交通情報、前方の障害物に関する情報、或いは横断歩道を歩行している歩行者の有無に関する情報等を道路上に設けられた無線機と通信する路車間通信ユニットである。
【0020】
23は、例えばステアリングホイールのコラムカバーに設けられ、ドライバの頭顔部に赤外光を投光する赤外投光ランプである。そして、24は、例えばステアリングホイールのコラムカバーに設けられ、赤外投光ランプ23による頭顔からの反射光を撮影する赤外投光領域撮像カメラである。
【0021】
27は、ナビゲーションユニット(不図示)の出力結果や各種の情報提供を行う液晶表示器(LCD)やヘッドアップディスプレイ(HUD)等のディスプレイである。28は、各種の音声出力や後述する如くドライバに情報提供・警報報知を行うスピーカである。
【0022】
29は、スロットル、変速機、並びにブレーキ機構等からなる自車両の加減速機構である。30は、ステアリングホイールの操作に応じて操舵を行う操舵機構である。
【0023】
そして、3は、各種操作スイッチ群であり、ウインカーランプの操作に使用するウィンカースイッチ31、ヘッドライト等の操作に使用するライトスイッチ32、ワイパーの操作に使用するワイパースイッチ33、車間距離を保持可能なオートクルーズ機能の操作に使用するオートクルーズメインスイッチ34、前方車両との衝突警報機能をオン・オフ可能な前方車両衝突警報システム用メインスイッチ35、路車間通信ユニット22を利用してインフラ側から各種情報を入手可能な情報提供システムをオン・オフ可能な情報提供システム用メインスイッチ36、走行車線からの逸脱を警報するシステムをオン・オフ可能な車線逸脱警報システム用メインスイッチ37、後側方に位置する他車両について警報を行うシステムをオン・オフ可能な後側方警報システム用メインスイッチ38、そして歩行者の存在について警報するシステムをオン・オフ可能な歩行者警報システム用メインスイッチ39からなる。本実施形態において、ウィンカースイッチ31の操作状態は、ドライバの運転操作(運転行動)に認識に使用され、ヘッドライト等の操作に使用するライトスイッチ32は、昼夜の認識に使用され、ワイパースイッチ33は、天候の認識に使用される。
【0024】
尚、上記のセンサ群及びスイッチ群、並びに加減速機構29及び操舵機構30の個々の構成自体は現在では一般的であるため、本実施形態における詳細な説明は省略する。
【0025】
ここで、本実施形態におけるコントロールユニット1の機能を概説する。まず、運転技量判定モジュールにおいて、注視点検出センサ19によって検出されたドライバの注視点に基づいてそのドライバの運転操作に対する運転技量(運転特性)が判定され、制御実行モジュールでは、図2の左側に示す上記のセンサ群及びスイッチ群の状態と、推定された運転技量(運転特性)に応じてパラメータ決定モジュールにて決定されたパラメータとに応じて、ディスプレイ27及び/またはスピーカ28を用いた情報提供、そして、加減速機構29及び/または操舵機構30に危険回避動作の制御が行われる。また、パラメータ決定モジュールでは、運転技量の判定結果に応じて、制御実行モジュールにて次回使用する最適なパラメータが決定される。これらの各モジュールは、コントロールユニット1が備える不図示のマイクロコンピュータが実行するソフトウエアの機能単位を表わし、より具体的な処理は以下の如く行われる。
【0026】
図4は、本実施形態に係る移動体の制御装置のコントロールユニット1が実行する制御処理の基本フローチャートを示す図であり、例えばイグニッションキースイッチがオン状態の期間にわたって実行される。
【0027】
同図において、ステップS1:自車両の車両状態量及び操作量として、上記のセンサ群及びスイッチ群の状態を検出する。
【0028】
ステップS2,ステップS3:ステップS1にて検出した車両状態量及び操作量、並びに前回実行したステップS7にてメモリに記憶されたパラメータに基づいて、ドライバに対する情報提供及び/または自車両の危険回避動作が必要か否かを判断し(ステップS2)、この判断で必要と判断したときには情報提供及び/または危険回避動作を実行し(ステップS3)、不要と判断したときにはステップS4に進む。
【0029】
ステップS4〜ステップS6:ドライバの運転技量が既に判定され、運転技量を表わす値がメモリの所定領域内に記憶されているか否かを判断し(ステップS4)、この判断で判定済みのときにはリターンし、未だ判定されていないときには、注視点検出センサ19から入手した注視点(詳細は後述する)を表わすデータをメモリの所定領域に記憶し(ステップS5)、後述する如くドライバの運転技量を判定する(ステップS6)。
【0030】
ステップS7,ステップS8:ステップS6において運転技量を判定することができたかを判断し(ステップS7)、この判断で未判定のときにはリターンし、判定済みのときには、次回の制御周期におけるステップS3にて利用すべく、ステップS6における運転技量の判定結果に応じて、パラメータを例えば5段階で補正し、その補正後のパラメータをメモリの所定領域内に記憶し(ステップS8)、リターンする。
【0031】
<注視点の検出>
まず、注視点の検出方法を説明するのに先立って、ドライバの頭顔の動きと瞳孔の動きとに関する実験結果の一例を、図6を参照して説明する。
【0032】
図6は、車線変更時のドライバの頭顔の動きと視線方向の動きに関する実験結果を示す図である。
【0033】
同図に示すように、車線変更の可否を判断する合流終了前30秒から15秒くらいまでの間においては、ドライバの頭顔は車両後方を確認するために何度も水平方向に大きく向けられ、且つ車線変更が終了するまでの間に渡って瞳孔が左右に激しく動いてサイドミラー及びルームミラーを注視していることが判ると共に、一方、垂直方向に対する頭顔部及び瞳孔の動き(視線方向の動き)には大きな変化が見られないことが判る。これにより、被験者の車線変更時の運転操作には、脇見等の無駄な目視が含まれていなかったと判断できる。そこで、本実施形態では、瞳孔の向き(視線方向)に基づいてドライバがどこを見ているかを表わす注視点を求め、ドライバの運転技量の判断要素として利用する。
【0034】
ここで、注視点検出センサ19によるドライバの注視点Pの検出方法について説明する。
【0035】
図5は、本実施形態における注視点検出センサ19のシステム構成を示すブロック図であり、本実施形態において以下に説明する各モジュールは、注視点検出センサ19が備える不図示のマイクロコンピュータが実行するソフトウエアの機能単位を表わす。
【0036】
同図に示すように、赤外投光ランプ23の投光部分と、赤外投光領域撮像カメラ24の受光部には、赤外透過フィルタ25が設けられており、注視点検出センサ19は、赤外投光領域撮像カメラ24から出力される映像信号に基づいて、画像処理モジュールにおいて一般的な2値化処理や特徴点の抽出処理を行うことによってドライバの頭顔部の画像を抽出し、その抽出した頭顔部の画像に基づいて、注視点検出モジュールにおいてドライバの注視点Pの算出すべく、頭顔方向Dhの検出、視線方向Dsの検出する。
【0037】
次に、注視点検出センサ19の具体的な機能について、図7を参照して説明する。
【0038】
図7は、本実施形態における注視点検出処理のフローチャートを示す図であり、画像処理モジュール及び注視点検出モジュールにより実現される機能を表わす。
【0039】
同図において、ステップS51:赤外投光ランプ23によってドライバの頭顔部に投光を行うと共に、赤外投光領域撮像カメラ24によって撮影した当該頭顔部のアナログ映像信号を画像処理モジュールに取り込み、その映像信号に一般的な2値化処理を施すことにより、ピクセル毎のデジタル多値画像データに変換する。
【0040】
ステップS52:入手した多値画像データから、一般的な画像処理手法を用いてドライバの顔画像部分を抽出し、その抽出した顔画像部分に含まれる複数の特徴点(例えば目頭、目尻、鼻孔等)の位置を検出する。
【0041】
ステップS53:抽出した顔画像部分の画像データから、赤外投光によってドライバの眼球の角膜に発生している反射点の位置と瞳孔の位置とを、一般的な画像処理手法を用いて検出する。
【0042】
ステップS54:ステップS52で検出した特徴点の位置に基づいて、所定の3次元座標空間におけるドライバの頭顔面の傾きを算出することにより、ドライバの頭顔が向けられている方向(頭顔方向)Dsを計測する。
【0043】
ステップS55:ステップS53で検出した角膜反射点と、ステップS54で検出した頭顔方向Dsとに基づいて、ドライバの視線の方向(注視方向)Dsを検出する。
【0044】
ステップS56:ステップS55で検出した注視方向Dsが、当該所定の3次元座標空間における座標として予め記憶している車両内外の所定位置(前方の遠方位置、前方の車両近傍位置、ルームミラー取り付け位置、左右のサイドミラー取り付け位置等)に対応するかを判断することにより、ドライバの注視点Pを検出し、その検出した注視点Pを表わすデータ(例えば、前方の遠方位置、前方の車両近傍位置、ルームミラー取り付け位置、左右のサイドミラー取り付け位置等をそれぞれ個別に表わす識別フラグ)を、コントロールユニット1に出力し、リターンする。
【0045】
上述した注視点検出処理は、例えば、注視点検出センサ19のマイクロコンピュータ(不図示)の制御周期毎に行われ、検出された注視点Pを表わすデータ(識別フラグ)は、上述した図4に示すフローチャートのステップS5において、コントロールユニット1内の注視点メモリ(RAM)に所定の検出回数分だけ時系列に記憶される。
【0046】
<運転技量の判定>
次に、コントロールユニット1が実行するところの、図4に示すフローチャートのステップS6(図2に示す運転技量判定モジュールに相当)において実行される運転技量の求め方について説明する。本実施形態では、以下に説明する3種類の方法を想定しており、これらの方法の中から少なくとも1つを採用すれば良い。
【0047】
図8は、間接ミラーの注視頻度に基づく運転技量判定処理を示すフローチャートであり、この判定方法は、運転技量が比較的低いドライバは、一般に間接ミラー(左右のサイドミラー及びルームミラー)を利用した自車両後方の確認頻度が少ない(即ち、自車両の後方を見る余裕がない)という運転特性に基づいている。
【0048】
同図において、ステップS61A:ウインカスイッチ31の操作状態と、操舵角センサ18によって検出された操舵角とにより、現在の運転操作状態が直進中の状態であるか、車線変更が終了した状態であるか、或いは左折が終了した状態であるかを判断する。
【0049】
ステップS62A:ステップS61Aの判断で直進中の状態であるときには、注視点メモリに記憶されている時系列の注視点データ(識別フラグ)を参照し、所定のTStraight秒間における間接ミラー(左右のサイドミラー及びルームミラー)の注視回数NStraightを計数する。
【0050】
ステップS63A:ステップS61Aの判断で車線変更が終了した状態であるときには、注視点メモリに記憶されている時系列の注視点データを参照し、車線変更開始から終了までのTLane秒間における間接ミラー(左右のサイドミラー及びルームミラー)の注視回数NLaneを計数する。
【0051】
ステップS64A:ステップS61Aの判断で左折が終了した状態であるときには、注視点メモリに記憶されている時系列の注視点データを参照し、左折開始から終了までのTLeft秒間における間接ミラー(左右のサイドミラー及びルームミラー)の注視回数NLeftを計数する。
【0052】
ステップS65A,ステップS66A:注視回数NStraight、注視回数NLane、注視回数NLeftが計数できているかを判断し(ステップS65A)、この判断で未計数のときにはステップS7に進み、計数済みのときには、それらの注視回数に基づいて、ドライバの運転技量レベルを判定する(ステップS66A)。
【0053】
即ち、ステップS66Aにおいては、注視回数NStraight、注視回数NLane、注視回数NLeftが全て所定値M(StraightM、LaneM、LeftM)以下であればレベル1(運転技量が低い)と判断し、これらの注視回数で何れかが所定値M以下であればレベル2(運転技量がやや低い)と判断する。また、NStraight>StraightM、NLane>LaneM、NLeft>LeftMのときにはレベル3(運転技量が普通)と判断し、これらの注視回数で何れかが所定値H((>所定値M):StraightH、LaneH、LeftH)以上のときにはレベル4(運転技量がやや高い)と判断し、NStraight>StraightH、NLane>LaneH、NLeft>LeftHのときにはレベル5(運転技量が高い)と判断する。
【0054】
尚、上記のように間接ミラーの注視頻度に基づく運転技量判定を行うにときに使用する所定値(所定回数)M及びHは、1回当たりの注視時間や、後方視界確認の必要性(例えば、交通量や高速道路等)に応じて補正すると良い。即ち、間接ミラーによる1回当たりの注視時間が所定の時間より短い場合にはこれらのしきい値を大きくし、長い場合には小さく補正すれば良い。また、自車両が走行中の道路種類が、一般道路の場合にはこれらのしきい値を大きくし、高速道路の場合にはこれらのしきい値を小さく補正する。また、自車両が走行中の道路の交通量が多い場合にはこれらのしきい値を大きくし、少ない場合にはこれらのしきい値を小さく補正する。
【0055】
図9は、車両周囲への注視頻度に基づく運転技量判定処理を示すフローチャートであり、この判定方法は、運転技量が比較的低いドライバは、一般に自車両前方の左右方向に対する注視範囲が狭い(即ち、自車両の周囲を見る余裕がない)という運転特性に基づいている。
【0056】
同図において、ステップS61B:上述したステップS61Aと同様に、ウインカスイッチ31の操作状態と、操舵角センサ18により検出した操舵角とにより、現在の運転操作状態が直進中の状態であるか、車線変更が終了した状態であるか、或いは左折が終了した状態であるかを判断し、この判断で直進中以外のときにはステップS7に進み、直進中のときにはステップS62Bに進む。
【0057】
ステップS62B:ステップS61Bの判断で直進中の状態であるので、注視点メモリに記憶されている時系列の注視点データを参照し、所定のTStraight秒間における前方左方向の注視回数NStraightL、前方右方向の注視回数NStraightRを計数する。
【0058】
ステップS63B,ステップS64B:注視回数NStraightL及び注視回数NStraightRが計数できているかを判断し(ステップS63B)、この判断で未計数のときにはステップS7に進み、計数済みのときには、それらの注視回数に基づいて、ドライバの運転技量レベルを判定する(ステップS64B)。
【0059】
即ち、ステップS64Bにおいては、注視回数NStraightL及び注視回数NStraightRが何れも所定値M(StraightLM、StraightRM)以下であればレベル1(運転技量が低い)と判断し、これらの注視回数で何れかが所定値M以下であればレベル2(運転技量がやや低い)と判断する。また、NStraightR>StraightRM、NStraightL>StraightLMのときにはレベル3(運転技量が普通)と判断し、これらの注視回数で何れかが所定値H((>所定値M):StraightLH、StraightRH)以上のときにはレベル4(運転技量がやや高い)と判断し、NStraightR>StraightRH、NStraightL>StraightLHのときにはレベル5(運転技量が高い)と判断する。
【0060】
尚、上記のように車両周囲への注視頻度に基づく運転技量判定を行うにときに使用する所定値(所定回数)M及びHについても、間接ミラーの注視頻度に基づく運転技量判定の場合と同様に、1回当たりの注視時間や、後方視界確認の必要性(例えば、交通量や高速道路等)に応じて補正すると良い。
【0061】
図10は、車両前方の遠方注視頻度に基づく運転技量判定処理を示すフローチャートであり、この判定方法は、運転技量が比較的低いドライバは、一般に自車両前方に対する注視距離が短い(即ち、自車両の遠方を見る余裕がない)という運転特性に基づいている。
【0062】
同図において、ステップS61C:上述したステップS61Aと同様に、ウインカスイッチ31の操作状態と、操舵角センサ18により検出した操舵角とにより、現在の運転操作状態が直進中の状態であるか、車線変更が終了した状態であるか、或いは左折が終了した状態であるかを判断し、この判断で直進中以外のときにはステップS7に進み、直進中のときにはステップS62Cに進む。
【0063】
ステップS62C:ステップS61Cの判断で直進中の状態であるので、注視点メモリに記憶されている時系列の注視点データ(識別フラグ)を参照し、所定のTStraight秒間における前方の所定の遠方位置(例えば自車両前方の50mより遠方)の総注視時間NStraightF、所定の近傍位置(例えば自車両ボンネットの見切り位置から前方50m)の総注視時間NStraightNを、例えば、当該遠方位置及び近傍位置を注視したことを表わす識別フラグの計数値を当該所定のTStraight秒間の範囲内においてそれぞれ計数し、それらの計数値と所定の単位時間との積を算出することによって求める。
【0064】
ステップS63C,ステップS64C:総注視時間NStraightF及びNStraightNが算出できているかを判断し(ステップS63C)、この判断で未算出のときにはステップS7に進み、算出済みのときには、それらの総注視時間に基づいて、ドライバの運転技量レベルを判定する(ステップS64C)。
【0065】
即ち、ステップS64Cにおいては、総注視時間NStraightFとNStraightNとの比を算出し、その算出した比が所定値FrontPointLより小さいときにはレベル1(運転技量が低い)と判断し、その算出した比が所定値FrontPointLM(>FrontPointL)より大きいときにはレベル2(運転技量がやや低い)と判断する。また、その算出した比が所定値FrontPointM(>FrontPointLM)より大きいときにはレベル3(運転技量が普通)と判断し、その算出した比が所定値FrontPointHM(>FrontPointM)より大きいときにはレベル4(運転技量がやや高い)と判断し、その算出した比が所定値FrontPointH(>FrontPointHM)より大きいときにはレベル5(運転技量が高い)と判断する。
【0066】
尚、上記のように車両前方の遠方注視頻度に基づいて運転技量判定を行うにときに使用する所定値FrontPointL等のしきい値についても、間接ミラーの注視頻度に基づく運転技量判定の場合と同様に、1回当たりの注視時間や、後方視界確認の必要性(例えば、交通量や高速道路等)に応じて補正すると良い。
【0067】
<制御処理及びパラメータ決定処理>
次に、コントロールユニット1が実行するところの、図4に示すフローチャートのステップS1からステップS3に相当する制御処理(図2に示す制御実行モジュールに相当)と、同図のステップS8に相当するパラメータ決定処理(図2に示すパラメータ決定モジュールに相当)について説明する。
【0068】
尚、本実施形態では、情報提供処理及び危険回避制御の具体例として、以下に説明する10種類の方式を搭載することを想定しているが、この装置構成に限られるものではなく、これらの方式の中から少なくとも1つを採用すれば良い。
【0069】
<前方車両衝突警報システムを実現する場合>
まず、上述したハードウエア構成に基づいて、前方車両との車間距離を所定距離に保持可能なオートクルーズ機能を有する前方車両衝突警報システムを実現する場合について説明する。
【0070】
図11は、本実施形態に係る移動体の制御装置に適用可能な前方車両衝突警報処理を示すフローチャートであり、例えばオートクルーズメインスイッチ34及び前方車両衝突警報システム用メインスイッチ35がオン状態に設定されているときにコントロールユニット1が実行する処理を示す。
【0071】
同図において、ステップS101,ステップS102:車速センサ14、操舵角センサ18、ヨーレートセンサ15、並びに車間距離センサ11による検出データを入力し(ステップS101)、これらのデータに基づいて、自車両の進行路(即ち、自車両がこれから進行するであろう進路)を算出する。この進行路の算出方法については、特開平7−220119号等に開示された方法を採用すれば良い。
【0072】
ステップS103,ステップS104:算出した進行路内の所定距離範囲内に障害物が存在するかを判断し、この判断でYESのとき(障害物が存在するとき)にはステップS105に進み、NOのとき(障害物が存在しないとき)には車速Vが所定値(ドライバが設定した所望の車速であっても良い)に維持されるように、危険回避動作として、加減速機構29を構成するスロットルの開度や自動変速機を制御する(ステップS104)。
【0073】
ステップS105,ステップS106:前回の制御周期におけるステップS103において障害物の存在が検出されていたかを判断し(ステップS105)、この判断でNOのとき(障害物の検出なしのとき)にはステップS107に進み、YESのとき(障害物の検出ありのとき)には、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する(ステップS106)。
【0074】
ステップS107〜ステップS113:ステップS7の判断において、障害物と自車両との距離Lが所定距離L1より長いと判断されたときには、車間距離Lが所定値(ドライバが設定した所望の距離であっても良い)に維持されるように、危険回避動作として、加減速機構29を構成するスロットルの開度や自動変速機を制御する(ステップS108)。また、ステップS7及びステップS8の判断において、検出された障害物と自車両との距離Lが所定距離L1より短く、且つ所定距離L2(<L1)より短いと判断されたときには、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の連続人工音(例えば「ピッピッピッピッ」)を出力する(ステップS110)と共に、危険回避動作として、加減速機構29を構成するブレーキ機構を制御する(ステップS110)。また、ステップS7及びステップS8の判断において、障害物と自車両との距離Lが所定距離L1より短く、且つ所定距離L2(<L1)より長いと判断されたときには、スピーカ28を駆動してクラクションの合成音を出力する(ステップS112)と共に、危険回避動作として、加減速機構29を構成するスロットルの開度や自動変速機を制御する(ステップS113)。
【0075】
次に、上記の前方車両衝突警報処理を行う際に使用するパラメータ(しきい値)として、所定距離L1及びL2を決定する手順について説明する。本実施形態において、所定距離L1及びL2は、以下に示す式によって算出される。
【0076】
L1(L2)=T×V+(V2/α0+(V−Vr)2)/αf)/2,
但し、上記の式において、所定距離L1及びL2、自車速V、前方車両との相対速度Vr、自車両の想定減速度α0、前方車両の想定減速度αf、ドライバの反応時間Tであり、想定減速度α0及び反応時間Tは、ステップS6(図4)にて判定された5段階の運転技量レベルに応じて、所定距離L1の算出に対しては、例えば以下の値が設定される。
【0077】
レベル1:α0=α01(=0.15G),T=T1(=1.2s),
レベル2:α0=α02(=0.20G),T=T2(=1.1s),
レベル3:α0=α03(=0.25G),T=T3(=1.0s),
レベル4:α0=α04(=0.30G),T=T4(=0.9s),
レベル5:α0=α05(=0.35G),T=T5(=0.8s),
同様に、所定距離L2の算出に対しては、例えば以下の値が設定される。
【0078】
レベル1:α0=α01(=0.4G),T=T1(=1.2s),
レベル2:α0=α02(=0.5G),T=T2(=1.1s),
レベル3:α0=α03(=0.6G),T=T3(=1.0s),
レベル4:α0=α04(=0.7G),T=T4(=0.9s),
レベル5:α0=α05(=0.8G),T=T5(=0.8s),
尚、上記の如く前方車両衝突警報処理を行うに際して、情報提供及び/または自動的な危険回避動作を行う実行タイミングは、走行中の道路の種類、路面状態、或いは前方車両の種類に応じて補正すると良い。即ち、自車両が走行中の道路種類が、一般道路の場合には実行タイミングを遅延させ、高速道路の場合には、一般道路と比較してブレーキをかけるまでに移動する距離が長くなるため、実行タイミングを早めに補正すると良い。また、自車両の車輪速の差分により算出可能な走行中の道路の路面摩擦係数μが大きいときには実行タイミングを遅延させ、小さいときには、急な制動等によるスリップを防止すべく実行タイミングを早めに補正すると良い。また、前方車両の種類が大型車のときには実行タイミングを遅延させ、スポーツカーのときには、大型車と比較して大きな減速度で減速することが可能なので、実行タイミングを早めに補正すると良い。この実行タイミングの補正は、以下に説明する9種類の制御にも適用することができる。
【0079】
<歩行者警報システムを実現する場合>
次に、上述したハードウエア構成に基づいて、歩行者警報システムを実現する場合について説明する。
【0080】
図12は、本実施形態に係る移動体の制御装置に適用可能な歩行者警報処理を示すフローチャートであり、例えば歩行者警報システム用メインスイッチ39がオン状態に設定されているときにコントロールユニット1が実行する処理を示す。
【0081】
同図において、ステップS121,ステップS122:上述した前方車両衝突警報処理(図11)のステップS101及びステップS102と同様に、車速センサ14、操舵角センサ18、ヨーレートセンサ15、並びに車間距離センサ11による検出データに基づいて自車両の進行路を算出する。
【0082】
ステップS123:算出した進行路内の所定距離範囲L0内に歩行者が存在するかを判断し、この判断でYESのとき(歩行者が存在するとき)にはステップS124に進み、NOのとき(歩行者が存在しないとき)にはステップS4(図4)に進む。ここで、この進行路内に存在する歩行者の検出方法については、特開平10−100820号等に開示された方法を採用すれば良い。
【0083】
ステップS124,ステップS125:前回の制御周期におけるステップS123において歩行者の存在が検出されていたかを判断し(ステップS124)、この判断でNOのとき(歩行者の検出なしのとき)にはステップS126に進み、YESのとき(歩行者の検出ありのとき)には、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する(ステップS125)。
【0084】
ステップS126,ステップS127:検出された歩行者と自車両との距離Lが所定距離L1より短いかを判断し(ステップS126)、この判断でNOの時にはステップS4(図4)に進み、YESのときには、その旨の情報提供として、スピーカ28を駆動してクラクションの合成音を出力する(ステップS127)。
【0085】
次に、上記の歩行者警報処理を行う際に使用するパラメータ(しきい値)として、所定距離L1を決定する手順について説明する。本実施形態において、所定距離L1は、以下に示す式によって算出される。
【0086】
L1=T×V+(V2/α0)/2,
但し、上記の式において、所定距離L1、自車速V、自車両の想定減速度α0、ドライバの反応時間Tであり、想定減速度α0及び反応時間Tは、ステップS6(図4)にて判定された5段階の運転技量レベルに応じて、例えば以下の値が設定される。
【0087】
レベル1:α0=α01(=0.15G),T=T1(=1.2s),
レベル2:α0=α02(=0.20G),T=T2(=1.1s),
レベル3:α0=α03(=0.25G),T=T3(=1.0s),
レベル4:α0=α04(=0.30G),T=T4(=0.9s),
レベル5:α0=α05(=0.35G),T=T5(=0.8s),
<車線逸脱警報システムを実現する場合>
次に、上述したハードウエア構成に基づいて、車線逸脱警報システムを実現する場合について説明する。
【0088】
図13は、本実施形態に係る移動体の制御装置に適用可能な車線逸脱警報処理を示すフローチャートであり、例えば車線逸脱警報システム用メインスイッチ37がオン状態に設定されているときにコントロールユニット1が実行する処理を示す。
【0089】
同図において、ステップS131,ステップS132:車速センサ14、操舵角センサ18、ヨーレートセンサ15、レーンマークセンサ12による検出データを入力し(ステップS131)、それらのデータに基づいて、自車両の走行車線に対する逸脱状態(逸脱量及び逸脱方向)を検出する。この逸脱量の算出方法については、特開平8−16994号等に開示された方法を採用すれば良い。
【0090】
ステップS133:算出した逸脱量が所定量D1より大きいかを判断し、この判断でYESのとき(逸脱量が所定量D1より大きいとき)にはステップS134に進み、NOのとき(逸脱量が所定量D1より小さいとき)にはステップS4(図4)に進む。
【0091】
ステップS134:算出した逸脱量が所定量D2(>D1)より大きいかを判断し、この判断でYESのとき(逸脱量が所定量D2より大きいとき)にはステップS135に進み、NOのとき(逸脱量が所定量D2より小さいとき)にはステップS138に進む。
【0092】
ステップS135〜ステップS137:自車両がステップS132にて検出した逸脱方向に移動しているかを判断し(ステップS135)、自車両の移動方向が当該逸脱方向とは異なるときにはステップS4(図4)に進み、自車両の移動方向が当該逸脱方向のままであるときには、危険回避動作として、当該逸脱方向と逆方向の操舵を行うべく操舵機構30を制御する(ステップS136)と共に、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の連続人工音(例えば「ピッピッ」)を出力する(ステップS137)。
【0093】
ステップS138,ステップS139:自車両がステップS132にて検出した逸脱方向に移動しているかを判断し(ステップS138)、自車両の移動方向が当該逸脱方向とは異なるときにはステップS4(図4)に進み、自車両の移動方向が当該逸脱方向のままであるときには、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の合成音(例えば「ゴトゴトゴト」)を出力する(ステップS139)。
【0094】
次に、上記の逸脱警報処理を行う際に使用するパラメータ(しきい値)として、所定量D1及びD2を決定する手順について説明する。本実施形態において、所定量D1は、ドライバの運転技量に応じて以下に示す値が設定される。また、所定量D2も、所定値D2st(>D1st)を用いて、同様な設定により設定される。
【0095】
レベル1:D1=D1st×1.2,
レベル2:D1=D1st×1.1,
レベル3:D1=D1st×1.0,
レベル4:D1=D1st×0.9,
レベル5:D1=D1st×0.8,
<後側方警報システムを実現する場合>
次に、上述したハードウエア構成に基づいて、後側方警報システムを実現する場合について説明する。
【0096】
図14は、本実施形態に係る移動体の制御装置に適用可能な後側方警報処理を示すフローチャートであり、例えば後側方警報システム用メインスイッチ38がオン状態に設定されているときにコントロールユニット1が実行する処理を示す。
【0097】
同図において、ステップS141,ステップS142:車速センサ14、操舵角センサ18、ヨーレートセンサ15、後側方車両センサ13による検出データを入力し(ステップS141)、それらのデータに基づいて、自車両の後側方に位置する他車両に関する値(離間距離や相対速度)を検出する。この後側方に位置する他車両に関する値の算出方法については、特開平10−206119号等に開示された方法を採用すれば良い。
【0098】
ステップS143:自車両の後側方所定距離L1の範囲内に存在する他車両の方向に進路変更すべくウインカが操作されたかをウインカスイッチ31の操作状態を入力することによって判断し、当該他車両の方向へのウインカ操作を検出しなかったときにはステップS4(図4)に進み、当該他車両の方向へのウインカ操作を検出したときには、その旨を報知する情報提供動作として、当該他車両が存在する側のスピーカ28を駆動してクラクションの合成音を出力する(ステップS144)。
【0099】
次に、上記の後側方警報処理を行う際に使用するパラメータ(しきい値)として、所定距離L1を決定する手順について説明する。本実施形態において、所定距離L1は、ドライバの運転技量に応じて以下に示す値が設定される。
【0100】
レベル1:L1=D1st×1.2,
レベル2:L1=D1st×1.1,
レベル3:L1=D1st×1.0,
レベル4:L1=D1st×0.9,
レベル5:L1=D1st×0.8,
<カーブ侵入速度警報システムを実現する場合>
次に、上述したハードウエア構成に基づいて、カーブ侵入速度警報システムを実現する場合について説明する。
【0101】
図15は、本実施形態に係る移動体の制御装置に適用可能なカーブ侵入速度警報処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0102】
同図において、ステップS151,ステップS152:車速センサ14、操舵角センサ18、ヨーレートセンサ15、レーンマークセンサ12による検出データを入力し(ステップS151)、それらのデータに基づいて、前方走行路のカーブ形状に関する値(曲率、カーブ侵入までの距離)を検出する。この前方走行路のカーブ形状に関する値の入手方法については、路車間通信ユニット22からの入手情報を利用しても良い。
【0103】
ステップS153:算出した前方走行路のカーブ形状に関する値に基づいて、所定距離L0の範囲内にカーブが有るかを判断し、この判断でYESのとき(所定距離L0の範囲内にカーブ有りのとき)にはステップS154に進み、NOのとき(所定距離L0の範囲内にカーブなしのとき)にはステップS4(図4)に進む。
【0104】
ステップS154:算出した前方走行路のカーブ形状に関する値に基づいて、所定距離L1(<L0)の範囲内にカーブが有るかを判断し、この判断でYESのとき(所定距離L1の範囲内にカーブ有りのとき)にはステップS155に進み、NOのとき(所定距離L1の範囲内にカーブなしのとき)にはステップS157に進む。
【0105】
ステップS155,ステップS156:車速センサ14により検出した車速Vが所定速度(例えば40km/h)より大きいかを判断し(ステップS155)、その所定速度より小さいときにはステップS4(図4)に進み、当該所定速度より大きいときには、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の連続人工音(例えば「ピッピッ」)を出力する(ステップS156)。
【0106】
ステップS157,ステップS158:車速センサ14により検出した車速Vが所定速度(例えば40km/h)より大きいかを判断し(ステップS157)、その所定速度より小さいときにはステップS4(図4)に進み、当該所定速度より大きいときには、その旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する(ステップS158)。
【0107】
次に、上記のカーブ侵入速度警報処理を行う際に使用するパラメータ(しきい値)として、所定距離L0及びL1を決定する手順について説明する。本実施形態において、所定距離L0は、ドライバの運転技量に応じて以下に示す値が設定される。
【0108】
レベル1:L0=L0st×1.2,
レベル2:L0=L0st×1.1,
レベル3:L0=L0st×1.0,
レベル4:L0=L0st×0.9,
レベル5:L0=L0st×0.8,
同様に、所定距離L1の算出に対しては、所定値L1st(<L0st)を用いて、例えば以下の値が設定される。
【0109】
レベル1:L1=L1st×1.2,
レベル2:L1=L1st×1.1,
レベル3:L1=L1st×1.0,
レベル4:L1=L1st×0.9,
レベル5:L1=L1st×0.8,
<前方障害物情報提供システムを実現する場合>
次に、上述したハードウエア構成に基づいて、前方障害物情報提供システムを実現する場合について説明する。
【0110】
図16は、本実施形態に係る移動体の制御装置に適用可能な前方障害物情報提供処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0111】
同図において、ステップS161,ステップS162:車速センサ14、操舵角センサ18、ヨーレートセンサ15による検出データを入力する(ステップS161)と共に、路車間通信ユニット22から前方走行路に存在する障害物に関する情報(事故、落下物、渋滞等)を入手する(ステップS161)。
【0112】
ステップS163:入手した前方走行路に存在する障害物に関する情報を参照することにより、自車両前方の所定距離L0の範囲内で障害物が存在するかを判断し、この判断でYESのとき(所定距離L0の範囲内に障害物有りのとき)にはステップS164に進み、NOのとき(所定距離L0の範囲内に障害物なしのとき)にはステップS4(図4)に進む。
【0113】
ステップS164:自車両前方の所定距離L0の範囲内で障害物が存在する旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する。
【0114】
次に、上記の前方障害物情報提供処理を行う際に使用するパラメータ(しきい値)として、所定距離L0を決定する手順について説明する。本実施形態において、所定距離L0は、ドライバの運転技量に応じて以下に示す値が設定される。
【0115】
レベル1:L0=L0st×1.4,
レベル2:L0=L0st×1.2,
レベル3:L0=L0st×1.0,
レベル4:L0=L0st×0.8,
レベル5:L0=L0st×0.6,
<歩行者情報提供システムを実現する場合>
次に、上述したハードウエア構成に基づいて、歩行者情報提供システムを実現する場合について説明する。
【0116】
図17は、本実施形態に係る移動体の制御装置に適用可能な歩行者情報提供処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0117】
同図において、ステップS171,ステップS172:車速センサ14、操舵角センサ18、ヨーレートセンサ15による検出データを入力する(ステップS171)と共に、路車間通信ユニット22から前方交差点の横断歩道上に存在する歩行者に関する情報を入手する。
【0118】
ステップS173:入手した前方交差点の横断歩道上に存在する歩行者に関する情報を参照することにより、自車両前方の所定距離L0の範囲内で歩行者が存在するかを判断し、この判断でYESのとき(所定距離L0の範囲内に歩行者有りのとき)にはステップS174に進み、NOのとき(所定距離L0の範囲内に歩行者なしのとき)にはステップS4(図4)に進む。
【0119】
ステップS174:自車両前方の所定距離L0の範囲内で歩行者が存在する旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する。
【0120】
尚、上記の歩行者情報提供処理を行う際に使用するパラメータ(しきい値)として、所定距離L0を決定する手順については、前方障害物情報提供処理と同様に行えば良い。
【0121】
<右折車両情報提供システムを実現する場合>
次に、上述したハードウエア構成に基づいて、右折車両情報提供システムを実現する場合について説明する。
【0122】
図18は、本実施形態に係る移動体の制御装置に適用可能な右折車両情報提供処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0123】
同図に示す右折車両情報提供処理及びその処理に使用するパラメータ(しきい値)の設定方法は、上述した歩行者情報提供処理と略同様であり、重複する説明は省略するが、当該右折車両情報提供処理においては、ステップS182において路車間通信ユニット22から前方交差点における対向車に関する情報を入手し、ステップS183において入手した情報に基づいて対向車の有無を判断する点が歩行者情報提供処理と異なる。
【0124】
<第1の出会い頭車両情報提供システムを実現する場合>
次に、上述したハードウエア構成に基づいて、第1の出会い頭車両情報提供システムを実現する場合について説明する。
【0125】
図19は、本実施形態に係る移動体の制御装置に適用可能な第1の出会い頭車両情報提供処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0126】
同図において、ステップS191,ステップS192:車速センサ14、操舵角センサ18、ヨーレートセンサ15による検出データを入力する(ステップS191)と共に、路車間通信ユニット22から前方走行路に存在する一時停止が必要な交差点に関する情報(係る交差点の停止位置までの距離)を入手する(ステップS192)。
【0127】
ステップS193:入手した前方走行路に存在する一時停止が必要な交差点に関する情報を参照することにより、自車両前方の所定距離L0の範囲内で一時停止が必要な交差点が存在するかを判断し、この判断でYESのとき(所定距離L0の範囲内に一時停止が必要な交差点有りのとき)にはステップS194に進み、NOのとき(所定距離L0の範囲内に一時停止が必要な交差点なしのとき)にはステップS4(図4)に進む。
【0128】
ステップS194,ステップS195:前回の制御周期におけるステップS193において自車両に接近する車両が検出されたかを判断し(ステップS194)、この判断でNOのとき(接近車両なしのとき)にはステップS196に進み、YESのとき(接近車両有りのとき)には、自車両前方の所定距離L0の範囲内の一時停止が必要な交差点に接近する他車両が存在する旨を報知する情報提供動作として、スピーカ28を駆動して所定の単発人工音(例えば「ピッ」)を出力する(ステップS195)。
【0129】
ステップS196:入手した前方走行路に存在する一時停止が必要な交差点に関する情報を参照することにより、自車両前方の所定距離L1(<L0)の範囲内で一時停止が必要な交差点が存在するかを判断し、この判断でYESのとき(所定距離L1の範囲内に一時停止が必要な交差点有りのとき)にはステップS197に進み、NOのとき(所定距離L1の範囲内に一時停止が必要な交差点なしのとき)にはステップS4(図4)に進む。
【0130】
ステップS197:自車両前方の所定距離L1の範囲内の一時停止が必要な交差点に接近する他車両が存在する旨を報知する情報提供動作として、スピーカ28を駆動して所定の連側人工音(例えば「ピッピッ」)を出力する。
【0131】
次に、上記の第1の出会い頭車両情報提供処理を行う際に使用するパラメータ(しきい値)として、所定距離L0及びL1を決定する手順について説明する。本実施形態において、所定距離L0は、ドライバの運転技量に応じて以下に示す値が設定される。
【0132】
レベル1:L0=L0st×1.4,
レベル2:L0=L0st×1.2,
レベル3:L0=L0st×1.0,
レベル4:L0=L0st×0.8,
レベル5:L0=L0st×0.6,
同様に、所定距離L1の算出に対しては、所定値L1st(<L0st)を用いて、例えば以下の値が設定される。
【0133】
レベル1:L1=L1st×1.2,
レベル2:L1=L1st×1.1,
レベル3:L1=L1st×1.0,
レベル4:L1=L1st×0.9,
レベル5:L1=L1st×0.8,
<第2の出会い頭車両情報提供システムを実現する場合>
次に、上述したハードウエア構成に基づいて、第2の出会い頭車両情報提供システムを実現する場合について説明する。
【0134】
図20は、本実施形態に係る移動体の制御装置に適用可能な第2の出会い頭車両情報提供処理を示すフローチャートであり、コントロールユニット1が実行する処理を示す。
【0135】
同図に示す第2の出会い頭車両情報提供処理及びその処理に使用するパラメータ(しきい値)の設定方法は、、上述した第1の出会い頭車両情報提供処理と略同様であり、重複する説明は省略するが、当該第2の出会い頭車両情報提供処理においては、ステップS202において前方走行路に存在する一時停止が必要な交差点における非優先道路側の道路を、その交差点に向かって接近してくる他車両に関する情報(係る車両の車速、交差点までの距離)を路車間通信ユニット22から入手し、ステップS203においては、係る他車両が自車両前方の所定距離L0の範囲内に存在するかを判断する点が第1の出会い頭車両情報提供処理と異なる。
【0136】
このように、上述した本実施形態によれば、危険回避能力が一般に低い運転技量の低いドライバに対しては、情報提供、或いは危険回避動作が早めに実行されるため、ドライバの運転特性に応じて最適な情報提供制御、或いは危険回避制御を行うことができ、安全運転に寄与することができる。
【図面の簡単な説明】
【図1】本実施形態に係る移動体の制御装置を搭載する自動車のシステム構成を示す図である。
【図2】本実施形態に係る移動体の制御装置における制御機能の構成を示すブロック図である。
【図3】図1に示す自動車の運転席を示す図である。
【図4】本実施形態に係る移動体の制御装置のコントロールユニット1が実行する制御処理の基本フローチャートを示す図である。
【図5】本実施形態における注視点検出センサ19のシステム構成を示すブロック図である。
【図6】車線変更時のドライバの頭顔の動きと視線方向の動きに関する実験結果を示す図である。
【図7】本実施形態における注視点検出処理のフローチャートを示す図である。
【図8】間接ミラーの注視頻度に基づく運転技量判定処理を示すフローチャートである。
【図9】車両周囲への注視頻度に基づく運転技量判定処理を示すフローチャートである。
【図10】車両前方の遠方注視頻度に基づく運転技量判定処理を示すフローチャートである。
【図11】本実施形態に係る移動体の制御装置に適用可能な前方車両衝突警報処理を示すフローチャートである。
【図12】本実施形態に係る移動体の制御装置に適用可能な歩行者警報処理を示すフローチャートである。
【図13】本実施形態に係る移動体の制御装置に適用可能な車線逸脱警報処理を示すフローチャートである。
【図14】本実施形態に係る移動体の制御装置に適用可能な後側方警報処理を示すフローチャートである。
【図15】本実施形態に係る移動体の制御装置に適用可能なカーブ侵入速度警報処理を示すフローチャートである。
【図16】本実施形態に係る移動体の制御装置に適用可能な前方障害物情報提供処理を示すフローチャートである。
【図17】本実施形態に係る移動体の制御装置に適用可能な歩行者情報提供処理を示すフローチャートである。
【図18】本実施形態に係る移動体の制御装置に適用可能な右折車両情報提供処理を示すフローチャートである。
【図19】本実施形態に係る移動体の制御装置に適用可能な第1の出会い頭車両情報提供処理を示すフローチャートである。
【図20】本実施形態に係る移動体の制御装置に適用可能な第2の出会い頭車両情報提供処理を示すフローチャートである。
【符号の説明】
1:コントロールユニット,
3:各種操作スイッチ群,
11:車間距離センサ,
12:レーンマーカセンサ,
13:後側方車両センサ,
14:車速センサ,
15:ヨーレートセンサ,
16:スロットルセンサ,
17:ブレーキ圧センサ,
18:操舵角センサ,
19:注視点検出センサ,
20:地図情報,
21:GPSセンサ,
22:路車間通信ユニット,
23:赤外投光ランプ,
24:赤外投光領域撮像カメラ,
27:ディスプレイ,
28:スピーカ,
29:加減速機構,
30:操舵機構,[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mobile control device, In particular Car of The present invention relates to a control device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in an automobile that is a typical mobile body, an apparatus that automatically controls the running state of the automobile for safe running has been proposed.
[0003]
As an example of such a control device, for example, in Japanese Patent Laid-Open No. 7-159525, an alarm timing for preventing a collision with a preceding vehicle, an inter-vehicle distance from the preceding vehicle at the start of deceleration of the host vehicle, A control device having a function of learning based on the vehicle speed of the host vehicle has been proposed. Japanese Patent Laid-Open No. 10-338056 proposes an apparatus that performs brake control of the host vehicle so that the deviation between the inter-vehicle distance between the host vehicle and the preceding vehicle and the target inter-vehicle distance is small.
[0004]
[Problems to be solved by the invention]
In general, it is known that the driving characteristics of a driver have a high correlation with the driving skill of the driver (skill). However, in the above-described conventional devices, the driving performance of the driver is irrelevant. Therefore, it is expected that some drivers feel uncomfortable with the automatic execution of the control function.
[0005]
Therefore, the present invention provides a driver operation skill Depending on the situation, optimal information provision control or risk avoidance control is performed. Car The purpose is to provide a control device.
[0006]
[Means for Solving the Problems]
To achieve the above object, according to the present invention. Car This control device is characterized by the following configuration.
[0007]
That is, it is driven by the driver Car A control device of The car Driving state detecting means for detecting the driving state of the vehicle, and the driving state detected by the driving state detecting means State An information provider that provides information to the driver regarding the detected driving state when a predetermined state is reached. Stepped A visual behavior detecting means for detecting the visual behavior of the driver, and driving of the driver based on the visual behavior detected by the visual behavior detecting means. Setting means for setting a skill level; and the setting means set by the setting means operation Skill level And a control means for correcting the information provision control by the information provision means. The setting means sets the driving skill level of the driver only when the driving skill level of the driver is not yet set after the ignition of the vehicle is turned on. It is characterized by.
[0008]
Or it is driven by a driver to achieve the same purpose. Car A control device of The car When the driving state detected by the driving state detection unit and the driving state detected by the driving state detection unit become a predetermined state, The car Automatically avoids danger Work Risk avoiding means to be performed, visual behavior detecting means for detecting the visual behavior of the driver, and driving of the driver based on the visual behavior detected by the visual behavior detecting means Setting means for setting a skill level; and the setting means set by the setting means operation Skill level And a control means for correcting the risk avoidance control by the risk avoidance means according to The setting means sets the driving skill level of the driver only when the driving skill level of the driver is not yet set after the ignition of the vehicle is turned on. It is characterized by.
[0009]
In any of the above control devices, for example, the visual action detecting means Is Above Car Detects the driver's gaze frequency for the mirror And Above Setting means Is the gaze frequency detected by the visual behavior detecting means. The driving skill level may be set based on .
[0010]
Alternatively, for example, the visual action detecting means Is Said by the driver Car Detects the gaze range for the front And Above Setting means Is a gaze range detected by the visual action detecting means. The driving skill level may be set based on .
[0011]
Alternatively, for example, the visual action detecting means Is Said by the driver Car Detect gaze distance to the front And Above Setting means Is the gaze distance detected by the visual action detecting means. The driving skill level may be set based on .
[0012]
【The invention's effect】
According to the present invention described above, the driving of the driver skill Accordingly, it is possible to provide a mobile control device that performs optimal information provision control or risk avoidance control.
[0013]
That is, according to the invention of claim 1, based on the visual recognition behavior of the driver. Setting That driver's driving skill Depending on the situation, optimal information provision control can be performed.
[0014]
In addition, according to the inventions of claims 2 to 4, the driver's driving behavior is detected by detecting the gaze frequency of the mirror, the front gaze range, or the front gaze distance as the driver's visual recognition behavior. skill Can be accurately determined, and optimal control can be performed.
[0015]
Further, according to the invention of claim 5, based on the visual recognition behavior of the driver. Setting That driver's driving skill Depending on the situation, optimal danger avoidance control can be performed.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EMBODIMENTS Hereinafter, a mobile body control device according to the present invention will be described in detail with reference to the drawings as an embodiment in which the mobile body control apparatus is applied to an automobile that is a typical mobile body.
[0017]
FIG. 1 is a diagram showing a system configuration of an automobile equipped with a mobile control device according to the present embodiment. FIG. 2 is a block diagram illustrating a configuration of a control function in the mobile body control device according to the present embodiment. FIG. 3 is a diagram showing a driver seat of the automobile shown in FIG.
[0018]
1 to 3, reference numeral 1 denotes a control unit that performs control processing. 11 is an inter-vehicle distance sensor that detects the inter-vehicle distance between the preceding vehicle and the host vehicle and the relative speed between the preceding vehicle and the host vehicle using a laser radar or the like.
[0019]
A
[0020]
[0021]
[0022]
[0023]
[0024]
Note that the sensor group and the switch group, and the individual configurations of the acceleration /
[0025]
Here, the function of the control unit 1 in this embodiment will be outlined. First, in the driving skill determination module, the driving skill (driving characteristic) for the driving operation of the driver is determined based on the driver's gazing point detected by the gazing
[0026]
FIG. 4 is a diagram showing a basic flowchart of control processing executed by the control unit 1 of the mobile control device according to the present embodiment. For example, the control is executed over a period in which the ignition key switch is on.
[0027]
In the figure, step S1: the states of the sensor group and the switch group are detected as the vehicle state amount and the operation amount of the host vehicle.
[0028]
Step S2, Step S3: Information provision to the driver and / or risk avoidance operation of the own vehicle based on the vehicle state quantity and the operation quantity detected in Step S1 and the parameters stored in the memory in Step S7 executed last time Is determined (step S2). When it is determined that it is necessary, information provision and / or danger avoiding operation is executed (step S3). When it is determined that it is unnecessary, the process proceeds to step S4.
[0029]
Steps S4 to S6: The driver's driving skill is already determined, and it is determined whether or not a value representing the driving skill is stored in a predetermined area of the memory (step S4). If not yet determined, data representing the gazing point (details will be described later) obtained from the gazing
[0030]
Steps S7 and S8: It is determined whether or not the driving skill can be determined in step S6 (step S7). If this determination is not determined, the process returns. If it is determined, the process returns to step S3 in the next control cycle. In order to use it, the parameter is corrected, for example, in five steps according to the determination result of the driving skill in step S6, the corrected parameter is stored in a predetermined area of the memory (step S8), and the process returns.
[0031]
<Detection of gaze point>
First, prior to describing the method of detecting a gazing point, an example of an experimental result regarding the movement of the driver's head and face and the movement of the pupil will be described with reference to FIG.
[0032]
FIG. 6 is a diagram showing experimental results regarding the movement of the driver's head and face and the movement in the line-of-sight direction when changing lanes.
[0033]
As shown in the figure, 30 seconds to 15 seconds before the end of merging to determine whether or not to change lanes About Until then, the driver's head / face is greatly turned horizontally many times to confirm the rear of the vehicle, and the pupil moves violently from side to side until the lane change is completed. It can be seen that the room mirror is being watched, and on the other hand, it is understood that there is no significant change in the movement of the head face and pupil (movement in the line of sight) with respect to the vertical direction. Thereby, it can be determined that the driving operation at the time of changing the lane of the subject did not include useless visual observation such as a side look. Therefore, in the present embodiment, a gazing point indicating where the driver is looking is obtained based on the direction of the pupil (the direction of the line of sight), and is used as a determination factor of the driving skill of the driver.
[0034]
Here, a method of detecting the driver's gazing point P by the gazing
[0035]
FIG. 5 is a block diagram showing a system configuration of the gazing
[0036]
As shown in the figure, an infrared transmission filter 25 is provided in the light projecting portion of the infrared
[0037]
Next, a specific function of the gazing
[0038]
FIG. 7 is a diagram illustrating a flowchart of the gazing point detection process in the present embodiment, and represents functions realized by the image processing module and the gazing point detection module.
[0039]
In the figure, step S51: the driver's head face is projected by the
[0040]
Step S52: The driver's face image portion is extracted from the obtained multi-value image data using a general image processing method, and a plurality of feature points (for example, the eyes, corners of the eyes, nostrils, etc.) included in the extracted face image portion. ) Position is detected.
[0041]
Step S53: From the extracted image data of the face image portion, the position of the reflection point and the position of the pupil generated in the cornea of the driver's eyeball by infrared projection are detected using a general image processing technique. .
[0042]
Step S54: Based on the position of the feature point detected in step S52, by calculating the inclination of the driver's head face in a predetermined three-dimensional coordinate space, the direction in which the driver's head face is directed (head face direction). Ds is measured.
[0043]
Step S55: A direction (gaze direction) Ds of the driver's line of sight is detected based on the corneal reflection point detected in step S53 and the head-face direction Ds detected in step S54.
[0044]
Step S56: The gaze direction Ds detected in Step S55 is a predetermined position inside or outside the vehicle that is stored in advance as coordinates in the predetermined three-dimensional coordinate space (front far position, front vehicle vicinity position, room mirror mounting position, By determining whether the left and right side mirror mounting positions correspond to each other, the driver's gazing point P is detected, and the data indicating the detected gazing point P (for example, the front distant position, the front vehicle vicinity position, The identification flags indicating the rearview mirror mounting position and the left and right side mirror mounting positions are output to the control unit 1 and the process returns.
[0045]
The gazing point detection process described above is performed, for example, every control cycle of a microcomputer (not shown) of the gazing
[0046]
<Determination of driving skill>
Next, how to obtain the driving skill executed in step S6 (corresponding to the driving skill determination module shown in FIG. 2) executed by the control unit 1 in the flowchart shown in FIG. 4 will be described. In the present embodiment, three types of methods described below are assumed, and at least one of these methods may be employed.
[0047]
FIG. 8 is a flowchart showing a driving skill determination process based on the indirect mirror gaze frequency. In this determination method, a driver with a relatively low driving skill generally uses an indirect mirror (left and right side mirrors and a room mirror). This is based on driving characteristics that the frequency of confirmation behind the host vehicle is low (that is, there is no room to see the back of the host vehicle).
[0048]
In the figure, step S61A: the current driving operation state is a straight traveling state or the lane change is completed based on the operation state of the
[0049]
Step S62A: When the vehicle is traveling straight as determined in Step S61A, the time-series gaze point data (identification flag) stored in the gaze point memory is referred to, and indirect mirrors (left and right side mirrors) for a predetermined TS Straight seconds. And room mirror) are counted.
[0050]
Step S63A: When the lane change has been completed in step S61A, the time series gaze point data stored in the gaze point memory is referred to, and the indirect mirrors in the lane seconds from the start to the end of the lane change (left and right) NLane) is counted.
[0051]
Step S64A: When the left turn is finished as determined in step S61A, the time series gaze point data stored in the gaze point memory is referred to, and the indirect mirror (left and right side mirrors) for TLeft seconds from the start to the end of the left turn is referred to. Mirror and room mirror) NLeft is counted.
[0052]
Step S65A, Step S66A: It is determined whether or not the number of gazes NStraight, the number of gazes NLane, and the number of gazes NLeft have been counted (step S65A), and if this count has not been counted, the process proceeds to step S7. Based on the number of times, the driving skill level of the driver is determined (step S66A).
[0053]
That is, in step S66A, if the number of gazes NStraight, the number of gazes NLane, and the number of gazes NLeft are all equal to or less than a predetermined value M (StraightM, LaneM, LeftM), it is determined as level 1 (the driving skill is low). If any of them is equal to or less than the predetermined value M, it is determined that the level is 2 (the driving skill is slightly low). Further, when NS Straight> Straight M, NS Lane> Lane M, and N Left> Left M, it is determined that the level is 3 (the driving skill is normal), and any one of these gaze counts is a predetermined value H ((> predetermined value M): Straight H, Lane H, When it is equal to or greater than (LeftH), it is determined that the level is 4 (the driving skill is slightly high), and when NS Straight> StraightH, NLane> LaneH, and NLeft> LeftH, it is determined that the level is 5 (the driving skill is high).
[0054]
In addition, the predetermined values (predetermined number of times) M and H used when performing the driving skill determination based on the gaze frequency of the indirect mirror as described above are the gaze time per time and the necessity of confirmation of the rear view (for example, It may be corrected according to traffic volume, highway, etc.). That is, these threshold values may be increased when the gaze time per one time by the indirect mirror is shorter than a predetermined time, and corrected when it is longer. If the road type on which the host vehicle is traveling is a general road, these threshold values are increased, and if the road type is an expressway, these threshold values are corrected to be smaller. Further, when the traffic volume on the road on which the host vehicle is traveling is large, these threshold values are increased, and when the traffic volume is small, these threshold values are corrected to be small.
[0055]
FIG. 9 is a flowchart showing a driving skill determination process based on the gaze frequency around the vehicle. In this determination method, a driver with a relatively low driving skill generally has a narrow gaze range in the left-right direction in front of the host vehicle (that is, , Based on the driving characteristics of having no room to look around the vehicle.
[0056]
In the figure, Step S61B: As in Step S61A described above, whether the current driving operation state is a straight traveling state or not based on the operation state of the
[0057]
Step S62B: Since the vehicle is traveling straight in the determination of Step S61B, the time-series gaze point data stored in the gaze point memory is referred to, and the number of gazes NStraightL in the front left direction in the predetermined TS Straight seconds, the front right direction The number of gazes NS StraightR is counted.
[0058]
Step S63B, Step S64B: It is determined whether or not the gaze count NStraightL and the gaze count NStraightR have been counted (step S63B). If this count has not been counted, the process proceeds to step S7. The driver's driving skill level is determined (step S64B).
[0059]
That is, in step S64B, if both the number of gaze NSstraightL and the number of gaze NSstraightR are equal to or less than a predetermined value M (StraightLM, StraightRM), it is determined that the level is 1 (the driving skill is low). If it is less than or equal to the value M, it is determined that the level is 2 (the driving skill is slightly low). Further, when NS Straight R> Straight RM and NS Straight L> Straight LM, it is determined that the level is 3 (the driving skill is normal). When any of these gaze counts is a predetermined value H ((> predetermined value M): Straight LH, Straight RH) 4 (the driving skill is slightly high). When NS StraightR> Straight RH and NS Straight L> Straight LH, it is determined that the level is 5 (the driving skill is high).
[0060]
As described above, the predetermined values (predetermined number of times) M and H used when determining the driving skill based on the gaze frequency around the vehicle are the same as in the case of the driving skill determination based on the gaze frequency of the indirect mirror. Moreover, it is good to correct | amend according to the gaze time per time and the necessity (for example, traffic volume, a highway, etc.) of a back view confirmation.
[0061]
FIG. 10 is a flowchart showing a driving skill determination process based on a distant gaze frequency in front of the vehicle. In this determination method, a driver with a relatively low driving skill generally has a short gaze distance with respect to the front of the own vehicle (that is, the own vehicle). Based on driving characteristics).
[0062]
In the figure, Step S61C: As in Step S61A described above, whether the current driving operation state is a straight traveling state or not based on the operation state of the
[0063]
Step S62C: Since the vehicle is traveling straight in the determination of Step S61C, the time series gaze point data (identification flag) stored in the gaze point memory is referred to, and a predetermined far position in front of a predetermined TS Straight seconds ( For example, gaze at the total gaze time NStraightF for a distance from the front of the host vehicle NStraight F and the total gaze time NStraightN for a predetermined vicinity position (for example, 50 m ahead from the parting position of the host vehicle bonnet). Each of the count values of the identification flag representing the number is counted within a range of the predetermined TS Straight seconds, and the product of the count value and a predetermined unit time is calculated.
[0064]
Step S63C, Step S64C: It is determined whether or not the total gaze time NStraightF and NStraightN are calculated (step S63C). If not yet calculated in this determination, the process proceeds to step S7, and if calculated, based on the total gaze time. The driving skill level of the driver is determined (step S64C).
[0065]
That is, in step S64C, the ratio of the total gaze time NStraightF and NStraightN is calculated. When the calculated ratio is smaller than the predetermined value FrontPointL, it is determined that the level is 1 (the driving skill is low), and the calculated ratio is the predetermined value. When it is larger than FrontPointLM (> FrontPointL), it is judged as level 2 (driving skill is slightly low). Further, when the calculated ratio is larger than the predetermined value FrontPointM (> FrontPointLM), it is determined as level 3 (driving skill is normal), and when the calculated ratio is larger than the predetermined value FrontPointHM (> FrontPointM), level 4 (driving skill is If the calculated ratio is greater than the predetermined value FrontPointH (> FrontPointHM), it is determined that the level is 5 (the driving skill is high).
[0066]
As described above, the threshold value such as the predetermined value FrontPointL used when the driving skill determination is performed based on the distance gaze frequency in front of the vehicle is the same as in the case of the driving skill determination based on the gaze frequency of the indirect mirror. Moreover, it is good to correct | amend according to the gaze time per time and the necessity (for example, traffic volume, a highway, etc.) of a back view confirmation.
[0067]
<Control processing and parameter determination processing>
Next, control processing (corresponding to the control execution module shown in FIG. 2) corresponding to steps S1 to S3 in the flowchart shown in FIG. 4 and parameters corresponding to step S8 shown in FIG. A determination process (corresponding to the parameter determination module shown in FIG. 2) will be described.
[0068]
In the present embodiment, as specific examples of the information providing process and the risk avoidance control, it is assumed that the following 10 types of methods are mounted. However, the present invention is not limited to this device configuration, At least one of the methods may be adopted.
[0069]
<When realizing a front vehicle collision warning system>
First, a description will be given of a case where a forward vehicle collision warning system having an auto-cruise function capable of maintaining an inter-vehicle distance from a forward vehicle at a predetermined distance is realized based on the hardware configuration described above.
[0070]
FIG. 11 is a flowchart showing a front vehicle collision warning process applicable to the moving body control apparatus according to the present embodiment. For example, the auto cruise
[0071]
In the figure, step S101, step S102:
[0072]
Step S103, Step S104: It is determined whether there is an obstacle within a predetermined distance range in the calculated traveling path. When this determination is YES (when an obstacle is present), the process proceeds to Step S105, where NO is determined. When the vehicle speed V is maintained at a predetermined value (may be a desired vehicle speed set by the driver) when there is no obstacle, the throttle constituting the acceleration /
[0073]
Steps S105 and S106: It is determined whether or not the presence of an obstacle has been detected in step S103 in the previous control cycle (step S105). If this determination is NO (when no obstacle is detected), step S107 is performed. If YES (when an obstacle is detected), the
[0074]
Steps S107 to S113: When it is determined in step S7 that the distance L between the obstacle and the host vehicle is longer than the predetermined distance L1, the inter-vehicle distance L is a predetermined value (a desired distance set by the driver). The throttle opening and the automatic transmission constituting the acceleration /
[0075]
Next, a procedure for determining the predetermined distances L1 and L2 as parameters (threshold values) used when the above-described forward vehicle collision warning process is performed will be described. In the present embodiment, the predetermined distances L1 and L2 are calculated by the following expressions.
[0076]
L1 (L2) = T × V + (V 2 / Α0 + (V−Vr) 2 ) / Αf) / 2
However, in the above formula, the predetermined distances L1 and L2, the own vehicle speed V, the relative speed Vr with the preceding vehicle, the assumed deceleration α0 of the own vehicle, the assumed deceleration αf of the preceding vehicle, and the driver reaction time T are assumed. The deceleration α0 and the reaction time T are set to the following values, for example, for the calculation of the predetermined distance L1 according to the five levels of driving skill level determined in step S6 (FIG. 4).
[0077]
Level 1: α0 = α01 (= 0.15G), T = T1 (= 1.2 s),
Level 2: α0 = α02 (= 0.20G), T = T2 (= 1.1s),
Level 3: α0 = α03 (= 0.25G), T = T3 (= 1.0 s),
Level 4: α0 = α04 (= 0.30G), T = T4 (= 0.9 s),
Level 5: α0 = α05 (= 0.35G), T = T5 (= 0.8 s),
Similarly, for the calculation of the predetermined distance L2, for example, the following values are set.
[0078]
Level 1: α0 = α01 (= 0.4 G), T = T1 (= 1.2 s),
Level 2: α0 = α02 (= 0.5 G), T = T2 (= 1.1 s),
Level 3: α0 = α03 (= 0.6 G), T = T3 (= 1.0 s),
Level 4: α0 = α04 (= 0.7 G), T = T4 (= 0.9 s),
Level 5: α0 = α05 (= 0.8 G), T = T5 (= 0.8 s),
When the forward vehicle collision warning process is performed as described above, the execution timing for performing information provision and / or automatic danger avoidance operation is corrected according to the type of road on which the vehicle is traveling, the road surface condition, or the type of vehicle ahead. Good. In other words, if the road type on which the vehicle is traveling is a general road, the execution timing is delayed, and in the case of a highway, the distance traveled before braking is increased compared to a general road. It is better to correct the execution timing earlier. In addition, the execution timing is delayed when the road surface friction coefficient μ of the running road that can be calculated based on the difference in the wheel speeds of the host vehicle is large, and when it is small, the execution timing is corrected early to prevent slippage due to sudden braking or the like. Good. Further, when the type of the preceding vehicle is a large vehicle, the execution timing is delayed, and when the vehicle is a sports car, the vehicle can be decelerated at a larger deceleration than that of the large vehicle. Therefore, it is preferable to correct the execution timing earlier. This correction of the execution timing can also be applied to nine types of control described below.
[0079]
<When realizing a pedestrian warning system>
Next, the case where a pedestrian warning system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0080]
FIG. 12 is a flowchart showing a pedestrian warning process applicable to the mobile body control device according to the present embodiment. For example, when the main switch 39 for the pedestrian warning system is set to the on state, the control unit 1 Shows the processing to be executed.
[0081]
In the figure, Step S121, Step S122: As with Step S101 and Step S102 of the forward vehicle collision warning process (FIG. 11) described above, the
[0082]
Step S123: It is determined whether or not there is a pedestrian within the predetermined distance range L0 in the calculated traveling path. If this determination is YES (if there is a pedestrian), the process proceeds to step S124, and if NO ( When no pedestrian exists, the process proceeds to step S4 (FIG. 4). Here, as a method for detecting a pedestrian existing in the traveling path, a method disclosed in Japanese Patent Application Laid-Open No. 10-1000082 can be adopted.
[0083]
Steps S124 and S125: It is determined whether the presence of a pedestrian has been detected in step S123 in the previous control cycle (step S124). If this determination is NO (when no pedestrian is detected), step S126 is performed. If YES (when a pedestrian is detected), the
[0084]
Step S126, Step S127: It is determined whether the distance L between the detected pedestrian and the host vehicle is shorter than the predetermined distance L1 (Step S126). If this determination is NO, the process proceeds to Step S4 (FIG. 4), and YES Sometimes, as information provision to that effect, the
[0085]
Next, a procedure for determining the predetermined distance L1 as a parameter (threshold value) used when the above pedestrian warning process is performed will be described. In the present embodiment, the predetermined distance L1 is calculated by the following equation.
[0086]
L1 = T × V + (V 2 / Α0) / 2
However, in the above formula, the predetermined distance L1, the host vehicle speed V, the host vehicle's assumed deceleration α0, and the driver's reaction time T are determined in step S6 (FIG. 4). For example, the following values are set according to the five driving skill levels.
[0087]
Level 1: α0 = α01 (= 0.15G), T = T1 (= 1.2 s),
Level 2: α0 = α02 (= 0.20G), T = T2 (= 1.1s),
Level 3: α0 = α03 (= 0.25G), T = T3 (= 1.0 s),
Level 4: α0 = α04 (= 0.30G), T = T4 (= 0.9 s),
Level 5: α0 = α05 (= 0.35G), T = T5 (= 0.8 s),
<When implementing a lane departure warning system>
Next, the case where a lane departure warning system is realized based on the hardware configuration described above will be described.
[0088]
FIG. 13 is a flowchart showing a lane departure warning process applicable to the mobile body control apparatus according to the present embodiment. For example, when the lane departure warning system
[0089]
In the figure, step S131, step S132: detection data from the
[0090]
Step S133: It is determined whether or not the calculated deviation amount is greater than the predetermined amount D1, and if this determination is YES (when the deviation amount is greater than the predetermined amount D1), the process proceeds to step S134, and if NO (the deviation amount is When smaller than the fixed amount D1, the process proceeds to step S4 (FIG. 4).
[0091]
Step S134: It is determined whether or not the calculated deviation amount is larger than the predetermined amount D2 (> D1). If this determination is YES (when the deviation amount is larger than the predetermined amount D2), the process proceeds to step S135, and if NO ( When the deviation amount is smaller than the predetermined amount D2), the process proceeds to step S138.
[0092]
Steps S135 to S137: It is determined whether or not the own vehicle is moving in the departure direction detected in Step S132 (Step S135). If the moving direction of the own vehicle is different from the departure direction, the process proceeds to Step S4 (FIG. 4). If the traveling direction of the host vehicle remains in the departure direction, the
[0093]
Step S138, Step S139: It is determined whether or not the own vehicle is moving in the departure direction detected in Step S132 (Step S138), and if the moving direction of the own vehicle is different from the departure direction, the process proceeds to Step S4 (FIG. 4). When the moving direction of the host vehicle remains the departure direction, the
[0094]
Next, a procedure for determining the predetermined amounts D1 and D2 as parameters (threshold values) used when performing the above-described departure alarm processing will be described. In the present embodiment, the predetermined amount D1 is set to the following value according to the driving skill of the driver. The predetermined amount D2 is also set by the same setting using the predetermined value D2st (> D1st).
[0095]
Level 1: D1 = D1st × 1.2,
Level 2: D1 = D1st × 1.1,
Level 3: D1 = D1st × 1.0,
Level 4: D1 = D1st × 0.9,
Level 5: D1 = D1st × 0.8,
<When realizing a rear side warning system>
Next, the case where a rear side warning system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0096]
FIG. 14 is a flowchart showing rear side alarm processing applicable to the mobile body control apparatus according to the present embodiment. For example, the control is performed when the rear side alarm system
[0097]
In the figure, step S141, step S142: detection data from the
[0098]
Step S143: It is determined by inputting the operation state of the
[0099]
Next, a procedure for determining the predetermined distance L1 as a parameter (threshold value) used when the rear side warning process is performed will be described. In the present embodiment, the predetermined distance L1 is set to the following value according to the driving skill of the driver.
[0100]
Level 1: L1 = D1st × 1.2,
Level 2: L1 = D1st × 1.1,
Level 3: L1 = D1st × 1.0,
Level 4: L1 = D1st × 0.9,
Level 5: L1 = D1st × 0.8,
<When implementing a curve intrusion speed warning system>
Next, a case where a curve intrusion speed alarm system is realized based on the hardware configuration described above will be described.
[0101]
FIG. 15 is a flowchart showing a curve intrusion speed alarm process applicable to the moving body control apparatus according to the present embodiment, and shows a process executed by the control unit 1.
[0102]
In the figure, step S151, step S152: detection data from the
[0103]
Step S153: Based on the calculated value relating to the curve shape of the forward traveling road, it is determined whether there is a curve within the range of the predetermined distance L0, and when this determination is YES (when there is a curve within the range of the predetermined distance L0) ), The process proceeds to step S154, and when NO (when there is no curve within the predetermined distance L0), the process proceeds to step S4 (FIG. 4).
[0104]
Step S154: Based on the calculated value relating to the curve shape of the forward traveling road, it is determined whether there is a curve within the range of the predetermined distance L1 (<L0), and when this determination is YES (within the range of the predetermined distance L1) When there is a curve), the process proceeds to step S155, and when NO (when there is no curve within the predetermined distance L1), the process proceeds to step S157.
[0105]
Step S155, Step S156: It is determined whether or not the vehicle speed V detected by the
[0106]
Step S157, Step S158: It is determined whether the vehicle speed V detected by the
[0107]
Next, a procedure for determining the predetermined distances L0 and L1 as parameters (threshold values) used when the above curve intrusion speed warning process is performed will be described. In the present embodiment, the predetermined distance L0 is set to the following value according to the driving skill of the driver.
[0108]
Level 1: L0 = L0st × 1.2,
Level 2: L0 = L0st × 1.1,
Level 3: L0 = L0st × 1.0,
Level 4: L0 = L0st × 0.9,
Level 5: L0 = L0st × 0.8,
Similarly, for the calculation of the predetermined distance L1, for example, the following values are set using the predetermined value L1st (<L0st).
[0109]
Level 1: L1 = L1st × 1.2,
Level 2: L1 = L1st × 1.1,
Level 3: L1 = L1st × 1.0,
Level 4: L1 = L1st × 0.9,
Level 5: L1 = L1st × 0.8,
<When realizing a front obstacle information providing system>
Next, the case where a front obstacle information provision system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0110]
FIG. 16 is a flowchart showing a front obstacle information providing process applicable to the moving body control apparatus according to the present embodiment, and shows a process executed by the control unit 1.
[0111]
In the figure, step S161, step S162: detection data from the
[0112]
Step S163: It is determined whether there is an obstacle within the range of the predetermined distance L0 ahead of the host vehicle by referring to the obtained information on the obstacle existing on the forward traveling road, and when this determination is YES (predetermined When there is an obstacle within the range of distance L0, the process proceeds to step S164, and when NO (when there is no obstacle within the range of predetermined distance L0), the process proceeds to step S4 (FIG. 4).
[0113]
Step S164: As an information providing operation for notifying that there is an obstacle within a predetermined distance L0 in front of the host vehicle, the
[0114]
Next, a procedure for determining the predetermined distance L0 as a parameter (threshold value) used when the above-described front obstacle information providing process is described. In the present embodiment, the predetermined distance L0 is set to the following value according to the driving skill of the driver.
[0115]
Level 1: L0 = L0st × 1.4,
Level 2: L0 = L0st × 1.2,
Level 3: L0 = L0st × 1.0,
Level 4: L0 = L0st × 0.8,
Level 5: L0 = L0st × 0.6,
<When realizing a pedestrian information provision system>
Next, the case where a pedestrian information provision system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0116]
FIG. 17 is a flowchart showing a pedestrian information providing process applicable to the mobile body control device according to the present embodiment, and shows a process executed by the control unit 1.
[0117]
In the figure, step S171, step S172: detection data from the
[0118]
Step S173: It is determined whether or not there is a pedestrian within a predetermined distance L0 ahead of the host vehicle by referring to the information related to the pedestrian existing on the pedestrian crossing of the obtained forward intersection. When it is (when there is a pedestrian within the range of the predetermined distance L0), the process proceeds to step S174. When NO (when there is no pedestrian within the range of the predetermined distance L0), the process proceeds to step S4 (FIG. 4).
[0119]
Step S174: As an information providing operation for notifying that a pedestrian is present within a predetermined distance L0 in front of the host vehicle, the
[0120]
The procedure for determining the predetermined distance L0 as the parameter (threshold value) used when performing the above pedestrian information providing process may be performed in the same manner as the forward obstacle information providing process.
[0121]
<When realizing a right turn vehicle information provision system>
Next, the case where a right turn vehicle information provision system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0122]
FIG. 18 is a flowchart showing a right turn vehicle information providing process applicable to the mobile body control apparatus according to this embodiment, and shows a process executed by the control unit 1.
[0123]
The right turn vehicle information providing process and the parameter (threshold value) setting method used for the process shown in the figure are substantially the same as the pedestrian information providing process described above, and a duplicate description is omitted. In the information providing process, the information on the oncoming vehicle at the front intersection is obtained from the road-
[0124]
<When realizing the first meeting vehicle information provision system>
Next, a case where the first encounter vehicle information providing system is realized based on the hardware configuration described above will be described.
[0125]
FIG. 19 is a flowchart showing a first encounter vehicle information provision process applicable to the mobile control apparatus according to the present embodiment, and shows a process executed by the control unit 1.
[0126]
In the figure, step S191, step S192: detection data from the
[0127]
Step S193: It is determined whether there is an intersection that needs to be temporarily stopped within a predetermined distance L0 in front of the host vehicle by referring to the information on the acquired intersection that needs to be temporarily stopped on the forward travel path, When the determination is YES (when there is an intersection that requires a temporary stop within the range of the predetermined distance L0), the process proceeds to step S194, and when NO (no intersection that requires a temporary stop within the range of the predetermined distance L0). ) Go to step S4 (FIG. 4).
[0128]
Step S194, Step S195: It is determined whether or not a vehicle approaching the host vehicle is detected in Step S193 in the previous control cycle (Step S194). If this determination is NO (when there is no approaching vehicle), the process proceeds to Step S196. When the answer is YES (when there is an approaching vehicle), a speaker is provided as an information providing operation for notifying that there is another vehicle approaching an intersection that requires a temporary stop within a predetermined distance L0 ahead of the host vehicle. 28 is driven to output a predetermined one-shot artificial sound (for example, “beep”) (step S195).
[0129]
Step S196: Is there an intersection that needs to be temporarily stopped within a predetermined distance L1 (<L0) in front of the host vehicle by referring to the information about the intersection that needs to be temporarily stopped and exists on the forward driving path obtained? When the determination is YES (when there is an intersection that requires a temporary stop within the range of the predetermined distance L1), the process proceeds to step S197. When the determination is NO (temporary stop is required within the range of the predetermined distance L1) If there is no such intersection, the process proceeds to step S4 (FIG. 4).
[0130]
Step S197: As an information providing operation for notifying that there is another vehicle approaching an intersection that needs to be temporarily stopped within a predetermined distance L1 in front of the host vehicle, the
[0131]
Next, a procedure for determining the predetermined distances L0 and L1 as parameters (threshold values) used when the first encounter vehicle information provision process is performed will be described. In the present embodiment, the predetermined distance L0 is set to the following value according to the driving skill of the driver.
[0132]
Level 1: L0 = L0st × 1.4,
Level 2: L0 = L0st × 1.2,
Level 3: L0 = L0st × 1.0,
Level 4: L0 = L0st × 0.8,
Level 5: L0 = L0st × 0.6,
Similarly, for the calculation of the predetermined distance L1, for example, the following values are set using the predetermined value L1st (<L0st).
[0133]
Level 1: L1 = L1st × 1.2,
Level 2: L1 = L1st × 1.1,
Level 3: L1 = L1st × 1.0,
Level 4: L1 = L1st × 0.9,
Level 5: L1 = L1st × 0.8,
<When realizing the second meeting vehicle information provision system>
Next, the case where a 2nd encounter vehicle information provision system is implement | achieved based on the hardware configuration mentioned above is demonstrated.
[0134]
FIG. 20 is a flowchart showing a second encounter vehicle information provision process applicable to the mobile control apparatus according to the present embodiment, and shows a process executed by the control unit 1.
[0135]
The second encounter vehicle information provision process and the parameter (threshold) setting method used for the second encounter vehicle information provision process shown in the figure are substantially the same as the first encounter vehicle information provision process described above. Although omitted, in the second meeting vehicle information provision process, in step S202, the road on the non-priority road side at the intersection that needs to be temporarily stopped that is present on the front road is approached toward the intersection. Information relating to the vehicle (vehicle speed of the vehicle concerned, distance to the intersection) is obtained from the road-
[0136]
As described above, according to the above-described embodiment, information providing or risk avoidance operation is performed early for a driver with low driving skill, which generally has a low risk avoidance capability. Therefore, it is possible to perform optimal information provision control or risk avoidance control and contribute to safe driving.
[Brief description of the drawings]
FIG. 1 is a diagram showing a system configuration of an automobile equipped with a mobile control device according to an embodiment.
FIG. 2 is a block diagram showing a configuration of a control function in the moving body control device according to the present embodiment.
FIG. 3 is a diagram showing a driver seat of the automobile shown in FIG. 1;
FIG. 4 is a diagram showing a basic flowchart of a control process executed by a control unit 1 of the mobile control device according to the present embodiment.
FIG. 5 is a block diagram showing a system configuration of a gazing
FIG. 6 is a diagram showing experimental results regarding the movement of the driver's head and face and the movement in the line of sight when changing lanes.
FIG. 7 is a diagram illustrating a flowchart of a gazing point detection process in the present embodiment.
FIG. 8 is a flowchart showing a driving skill determination process based on an indirect mirror gaze frequency.
FIG. 9 is a flowchart showing a driving skill determination process based on a gaze frequency around the vehicle.
FIG. 10 is a flowchart showing a driving skill determination process based on a distance gaze frequency in front of the vehicle.
FIG. 11 is a flowchart showing a forward vehicle collision warning process applicable to the moving body control apparatus according to the present embodiment.
FIG. 12 is a flowchart showing a pedestrian warning process applicable to the mobile body control device according to the embodiment.
FIG. 13 is a flowchart showing a lane departure warning process applicable to the moving body control apparatus according to the present embodiment.
FIG. 14 is a flowchart showing a rear side alarm process applicable to the moving body control apparatus according to the embodiment.
FIG. 15 is a flowchart showing a curve intrusion speed warning process applicable to the moving body control apparatus according to the embodiment.
FIG. 16 is a flowchart showing a front obstacle information providing process applicable to the moving body control apparatus according to the embodiment.
FIG. 17 is a flowchart showing a pedestrian information providing process applicable to the mobile body control device according to the embodiment.
FIG. 18 is a flowchart showing a right turn vehicle information providing process applicable to the mobile body control device according to the embodiment.
FIG. 19 is a flowchart showing a first encounter vehicle information provision process applicable to the mobile control apparatus according to the present embodiment.
FIG. 20 is a flowchart showing a second encounter vehicle information provision process applicable to the mobile control apparatus according to the present embodiment.
[Explanation of symbols]
1: Control unit,
3: Various operation switch groups,
11: Inter-vehicle distance sensor,
12: Lane marker sensor,
13: Rear side vehicle sensor,
14: Vehicle speed sensor,
15: Yaw rate sensor,
16: throttle sensor,
17: Brake pressure sensor,
18: Steering angle sensor,
19: Gaze point detection sensor,
20: Map information,
21: GPS sensor,
22: Road-to-vehicle communication unit,
23: Infrared projection lamp,
24: Infrared projection area imaging camera,
27: Display,
28: Speaker,
29: Acceleration / deceleration mechanism,
30: Steering mechanism,
Claims (5)
前記自動車の運転状態を検出する運転状態検出手段と、
前記運転状態検出手段によって検出された運転状態が所定状態となったときに、その検出された運転状態に関する情報をドライバに提供する情報提供手段と、
前記ドライバの視認行動を検出する視認行動検出手段と、
前記視認行動検出手段によって検出された視認行動に基づいて前記ドライバの運転技量レベルを設定する設定手段と、
前記設定手段によって設定された前記運転技量レベルに応じて、前記情報提供手段による情報提供制御を補正する制御手段と、
を備え、
前記設定手段は、
前記自動車のイグニッションON後、前記ドライバの前記運転技術レベルが未だ設定されていない場合にのみ、前記ドライバの前記運転技術レベルを設定することを特徴とする自動車の制御装置。A control device for an automobile driven by a driver,
Driving state detecting means for detecting the driving state of the automobile ;
When the driving state detected by the driving state detection unit becomes a predetermined state, information providing unit for providing information about the detected driving state to the driver;
Visual recognition behavior detecting means for detecting the visual behavior of the driver;
Setting means for setting the driving skill level of the driver based on the visual behavior detected by the visual behavior detection means ;
Control means for correcting the information provision control by the information provision means according to the driving skill level set by the setting means;
Equipped with a,
The setting means includes
An automobile control device that sets the driving skill level of the driver only when the driving skill level of the driver has not yet been set after the ignition of the automobile is turned on.
前記設定手段は、前記視認行動検出手段によって検出された注視頻度に基づいて前記運転技量レベルを設定することを特徴とする請求項1記載の自動車の制御装置。The visual behavior detecting means detects the gaze frequency of the driver with respect to a mirror provided in the automobile ,
2. The control apparatus for an automobile according to claim 1, wherein the setting means sets the driving skill level based on a gaze frequency detected by the visual action detecting means.
前記設定手段は、前記視認行動検出手段によって検出された注視範囲に基づいて前記運転技量レベルを設定することを特徴とする請求項1記載の自動車の制御装置。The visual action detecting means detects a gaze range for the front of the vehicle by the driver,
The vehicle control apparatus according to claim 1, wherein the setting unit sets the driving skill level based on a gaze range detected by the visual action detection unit.
前記設定手段は、前記視認行動検出手段によって検出された注視距離に基づいて前記運転技量レベルを設定することを特徴とする請求項1記載の自動車の制御装置。The visual action detecting means detects a gaze distance with respect to the front of the vehicle by the driver,
2. The vehicle control apparatus according to claim 1, wherein the setting means sets the driving skill level based on the gaze distance detected by the visual action detecting means.
前記自動車の運転状態を検出する運転状態検出手段と、
前記運転状態検出手段によって検出された運転状態が所定状態となったときに、前記自動車に自動的に危険回避動作を行わせる危険回避手段と、
前記ドライバの視認行動を検出する視認行動検出手段と、
前記視認行動検出手段によって検出された視認行動に基づいて前記ドライバの運転技量レベルを設定する設定手段と、
前記設定手段によって設定された前記運転技量レベルに応じて、前記危険回避手段による危険回避制御を補正する制御手段と、
を備え、
前記設定手段は、
前記自動車のイグニッションON後、前記ドライバの前記運転技術レベルが未だ設定されていない場合にのみ、前記ドライバの前記運転技術レベルを設定することを特徴とする自動車の制御装置。A control device for an automobile driven by a driver,
Driving state detecting means for detecting the driving state of the automobile ;
Danger avoiding means for automatically causing the automobile to perform a danger avoiding operation when the driving condition detected by the driving condition detecting means becomes a predetermined condition;
Visual recognition behavior detecting means for detecting the visual behavior of the driver;
Setting means for setting the driving skill level of the driver based on the visual behavior detected by the visual behavior detection means ;
Control means for correcting risk avoidance control by the risk avoidance means according to the driving skill level set by the setting means;
Equipped with a,
The setting means includes
An automobile control device that sets the driving skill level of the driver only when the driving skill level of the driver has not yet been set after the ignition of the automobile is turned on.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35018199A JP4348663B2 (en) | 1999-12-09 | 1999-12-09 | Automotive control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35018199A JP4348663B2 (en) | 1999-12-09 | 1999-12-09 | Automotive control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001163082A JP2001163082A (en) | 2001-06-19 |
JP4348663B2 true JP4348663B2 (en) | 2009-10-21 |
Family
ID=18408774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35018199A Expired - Fee Related JP4348663B2 (en) | 1999-12-09 | 1999-12-09 | Automotive control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4348663B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10600390B2 (en) | 2018-01-10 | 2020-03-24 | International Business Machines Corporation | Displaying a vehicle notification in a location determined based on driver eye gaze direction and other criteria |
US20220415083A1 (en) * | 2021-06-29 | 2022-12-29 | Samsung Electronics Co., Ltd. | Electronic device and operating method of electronic device for correcting error during gaze direction recognition |
WO2024186073A1 (en) * | 2023-03-06 | 2024-09-12 | 엘지전자 주식회사 | Driving mode display device and driving mode display method |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4843879B2 (en) * | 2001-08-07 | 2011-12-21 | 日産自動車株式会社 | Driving support device |
JP2003118421A (en) * | 2001-10-12 | 2003-04-23 | Pioneer Electronic Corp | Organism state measuring device and method, mobile body navigation system and method, library device, and computer program |
JP3915655B2 (en) * | 2002-10-25 | 2007-05-16 | マツダ株式会社 | Vehicle driving support system |
DE602004032251D1 (en) * | 2003-10-20 | 2011-05-26 | Yamaha Motor Co Ltd | METHOD AND SYSTEM FOR SAVING DRIVING INFORMATION FOR MOTORCYCLES |
JP4270010B2 (en) * | 2004-04-05 | 2009-05-27 | 株式会社デンソー | Object danger judgment device |
JP4604691B2 (en) * | 2004-12-07 | 2011-01-05 | 日産自動車株式会社 | Alarm device for vehicle, alarm method of vehicle surrounding situation |
JP4743496B2 (en) * | 2005-07-08 | 2011-08-10 | アイシン・エィ・ダブリュ株式会社 | Navigation device and navigation method |
JP4765566B2 (en) * | 2005-11-10 | 2011-09-07 | トヨタ自動車株式会社 | Driving behavior evaluation device |
WO2008099503A1 (en) * | 2007-02-16 | 2008-08-21 | Pioneer Corporation | Driving support device, driving support method, driving support program and storage medium |
RU2514924C2 (en) | 2009-12-18 | 2014-05-10 | Хонда Мотор Ко., Лтд. | Forecasting man-machine interface exploiting technology of stare detection, dead zone indicators and driver experience |
JP4978722B2 (en) | 2010-08-23 | 2012-07-18 | 株式会社デンソー | Speed control device |
JP6187295B2 (en) * | 2014-02-13 | 2017-08-30 | トヨタ自動車株式会社 | Vehicle control device |
CN104590273A (en) * | 2014-12-26 | 2015-05-06 | 贵州万臻时代通讯技术有限公司 | Safe driving system and method based on human body reactions |
JP2017087940A (en) * | 2015-11-09 | 2017-05-25 | マツダ株式会社 | Vehicle speed control device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3036155B2 (en) * | 1991-10-01 | 2000-04-24 | 日産自動車株式会社 | Vehicle approach determination device |
JP3183594B2 (en) * | 1993-08-26 | 2001-07-09 | マツダ株式会社 | Potential hazard detection device for automobiles |
JP2929927B2 (en) * | 1993-12-14 | 1999-08-03 | 日産自動車株式会社 | Driving information providing device |
JP3257310B2 (en) * | 1994-12-22 | 2002-02-18 | トヨタ自動車株式会社 | Inattentive driving detection device |
JPH097100A (en) * | 1995-06-19 | 1997-01-10 | Honda Motor Co Ltd | Driver gaze point prediction device and vehicle driving support system using the device |
JPH10166895A (en) * | 1996-12-09 | 1998-06-23 | Mitsubishi Electric Corp | Follow-up traveling controller for vehicle |
JP3509839B2 (en) * | 1997-03-31 | 2004-03-22 | 三菱自動車工業株式会社 | Arousal level estimation device |
-
1999
- 1999-12-09 JP JP35018199A patent/JP4348663B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10600390B2 (en) | 2018-01-10 | 2020-03-24 | International Business Machines Corporation | Displaying a vehicle notification in a location determined based on driver eye gaze direction and other criteria |
US20220415083A1 (en) * | 2021-06-29 | 2022-12-29 | Samsung Electronics Co., Ltd. | Electronic device and operating method of electronic device for correcting error during gaze direction recognition |
US12223769B2 (en) * | 2021-06-29 | 2025-02-11 | Samsung Electronics Co., Ltd. | Electronic device and operating method of electronic device for correcting error during gaze direction recognition |
WO2024186073A1 (en) * | 2023-03-06 | 2024-09-12 | 엘지전자 주식회사 | Driving mode display device and driving mode display method |
Also Published As
Publication number | Publication date |
---|---|
JP2001163082A (en) | 2001-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10814880B2 (en) | Driving consciousness estimation device | |
JP4348663B2 (en) | Automotive control device | |
JP4385392B2 (en) | Vehicle information providing device | |
US10981507B1 (en) | Interactive safety system for vehicles | |
JP7115270B2 (en) | Autonomous driving system | |
JP7107329B2 (en) | driving support system | |
CN108027422B (en) | Automatic detection of a dangerous departing vehicle by means of a vehicle sensor | |
KR101996419B1 (en) | Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method | |
KR101996418B1 (en) | Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method | |
JP6680136B2 (en) | Exterior display processing device and exterior display system | |
CN111824126B (en) | Vehicle control system | |
JP4232806B2 (en) | Vehicle control device | |
US20080015743A1 (en) | Method and system for assisting the driver of a motor vehicle in identifying road bumps | |
JP7610388B2 (en) | Driving Support Devices | |
US20200066160A1 (en) | Lane Change Assistance Method and Lane Change Assistance Device | |
CN111383477B (en) | Information presentation device | |
JP7014214B2 (en) | Driving support device | |
CN113401120A (en) | Driving assistance system, method for operating driving assistance system, and program product | |
US20220024462A1 (en) | Control device for vehicle, control method for automated driven vehicle, and nontransitory recording medium provided with computer program | |
WO2021235043A1 (en) | Vehicle control device | |
JP7216695B2 (en) | Surrounding vehicle monitoring device and surrounding vehicle monitoring method | |
JP2006021706A (en) | Vehicle lamp control device | |
JP2012103849A (en) | Information provision device | |
JP7673699B2 (en) | Driving Support Devices | |
US12097858B2 (en) | Travel control method and travel control device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061108 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20061108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080704 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090626 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |