JP2020160878A - 運転支援方法及び運転支援装置 - Google Patents
運転支援方法及び運転支援装置 Download PDFInfo
- Publication number
- JP2020160878A JP2020160878A JP2019060612A JP2019060612A JP2020160878A JP 2020160878 A JP2020160878 A JP 2020160878A JP 2019060612 A JP2019060612 A JP 2019060612A JP 2019060612 A JP2019060612 A JP 2019060612A JP 2020160878 A JP2020160878 A JP 2020160878A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driver
- driving support
- dazzled
- reference value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000009471 action Effects 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 37
- 230000008859 change Effects 0.000 claims description 23
- 229920006395 saturated elastomer Polymers 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 description 24
- 230000006399 behavior Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 14
- 230000010354 integration Effects 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、自車両の周辺の他車両の運転者が眩惑されている可能性がある状況において、好適な自車両の運転支援を実施することを目的とする。
自車両1は、自車両1の運転支援を行う運転支援装置10を備える。運転支援装置10による運転支援は、自車両1の周辺の走行環境に基づいて、運転者が関与せずに自車両1を自動で運転する自動運転制御や、自車両1の駆動、制動及び操舵 の少なくとも1つを制御する走行制御を含む。
走行制御は、例えば自動操舵、自動ブレーキ、先行車追従制御、定速走行制御、車線維持制御、合流支援制御などであってよい。
また、運転支援は、自動運転制御や走行制御のほか、運転者に操舵操作、加速操作、減速操作を促す情報(メッセージ)の出力を含んでよい。
物体センサ11は、自車両1に搭載されたレーザレーダやミリ波レーダ、カメラ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)など、自車両1の周辺の物体を検出する複数の異なる種類の物体検出センサを備える。
地図データベース14は、自動運転用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線境界線の種類、車線の形状、車線区分線の形状、車線基準線の形状を含む。高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の種類及び位置座標と、地物の位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の地物の情報を含む。
車載カメラ16は、自車両1から見た周囲の風景を撮影する撮影装置である。例えば、車載カメラ16は全方位を撮影できる周囲カメラであってよい。車載カメラ16は、自車両から異なる方向を撮影する複数のカメラを備えてもよい。車載カメラ16は、これら複数のカメラで撮影した画像を合成して、自車両1から見た全方位画像を生成してもよい。
車載カメラ16は、物体センサ11に用いられるカメラと兼用してもよい。
またナビゲーションシステム17は、設定した走行経路の情報をコントローラ18へ出力する。自動運転制御時にコントローラ18は、ナビゲーションシステム17が設定した走行経路に沿って走行するように自車両を自動で運転する。
記憶装置22は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置22は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
なお、コントローラ18を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ18は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ18はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
報知装置20は、コントローラ18が運転者に対して運転支援のために提示する情報(例えば、操舵操作、加速操作、減速操作を促すメッセージ)を出力する情報出力装置である。報知装置20は、例えば、視覚情報を出力する表示装置、ランプ若しくはメータ、又は音声情報を出力するスピーカを備えてよい。
図2の運転行動の例は、一点鎖線2に示すように自車両1が走行する第1走行車線3から隣接する第2走行車線4へ進入する車線変更である。
例えばコントローラ18は、決定した運転行動を自動運転制御によって実行してよい。
コントローラ18は、第2走行車線4上の他車両5と自車両1との間の車間距離D1が所定の基準値Dr以上であることを車線変更の許可条件とする。すなわち、車間距離D1が基準値Dr未満である場合に車線変更を行わない。この場合、コントローラ18は、第2走行車線4上の他車両5と自車両1との間の車間距離D1が基準値Dr以上となるまで車線変更するのを待つ。
コントローラ18は、車間距離に代えて、第2走行車線4上の他車両5と自車両1との間の車間時間が基準値Dr以上であることを車線変更の許可条件としてもよい。
他車両が自車両の前方の車両である場合には、光源6により眩惑されている運転者が障害物に気づくのが遅れて急制動を行うおそれがある。このため、第2走行車線4へ車線変更した自車両1と、自車両1の前方の他車両とが過度に接近するおそれがある。
コントローラ18は、自車両1と他車両5との間の距離又は車間時間と基準値Drとの比較結果に基づいて、所定の運転行動を支援する運転支援制御を行う。
例えばコントローラ18は、自車両1と他車両5との間の車間距離又は車間時間が基準値Dr以上の場合に自動運転制御により運転行動を実行し、基準値Dr未満の場合に運転行動を中止又は延期してよい。
例えばコントローラ18は、自車両1と他車両5との間の車間距離又は車間時間が基準値Drとなるように、自車両1と他車両5との間の距離又は車間時間を自動制御してよい。
また、運転行動が運転者の手動で行われる場合には、コントローラ18による運転支援制御は、運転行動の実行、中止又は延期、加減速操作、回避操作を運転者に促す情報提供であってよい。
図2の例では、自車両1が車線変更を行うときの後方の他車両5との距離又は車間時間がより長くなるため、車線変更後の自車両1と後方の他車両5とが過度に接近して他車両5が急減速してしまうことを回避できる。
この結果、自車両の周辺の他車両の運転者が眩惑されている可能性がある状況における自車両の運転支援の安全性を向上できる。
物体検出部30は、物体センサ11の検出信号に基づいて、自車両1の周辺の物体、例えば車両やバイク、歩行者、障害物などの位置、姿勢、大きさ、速度などを検出する。物体検出部30は、例えば自車両1を空中から眺める天頂図(平面図ともいう)において、物体の2次元位置、姿勢、大きさ、速度などを表現する検出結果を出力する。
地図取得部32は、地図データベース14から自車両1が走行する道路の構造を示す地図情報を取得する。地図取得部32は、通信装置15により外部の地図データサーバから地図情報を取得してもよい。
具体的には、物体検出センサの各々から得られた物体の挙動から、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる最も合理的な物体の挙動を算出する。
具体的には、既知のセンサ・フュージョン技術を用いることにより、複数種類のセンサで取得した検出結果を総合的に評価して、より正確な検出結果を得る。
また、地図内位置演算部35は、自車両1が走行している道路、さらに当該道路のうちで自車両1が走行する車線を特定する。
運転行動計画とは、自車両を走行させるレーン(車線)と、このレーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。
運転行動計画は、例えば、前方に存在する交差点を右折するシーンにおいて、交差点の手前何m地点で右折レーンに車線変更するか等の運転行動を定めた計画であってよい。
動作予測部37は、検出統合部33及び物体追跡部34により得られた検出結果と、地図内位置演算部35により特定された自車両1の位置に基づいて、自車両1の周辺における他の物体の動作を予測する。
このとき、動作予測部37は、他車両5の位置及び向きに基づいて、他車両の運転者が眩惑されている状態である可能性があるか否かを判定する。動作予測部37は、他車両の運転者が眩惑されている状態である可能性があるか否かに応じて基準値Drを設定する。
なお、本明細書では、基準値Drが他車両5と自車両1の間の車間距離の基準値である例を説明するが本発明はこれに限定されない。基準値Drは、自車両1と他車両5と衝突のリスクの指標の基準値であればよく、例えば他車両5と自車両1の車間時間の基準値であってもよい。
対象車両判定部40は、検出統合部33及び物体追跡部34により検出された物体のうち、自車両1が行う予定の運転行動又は行っている運転行動のための運転支援制御において自車両1との車間距離が判断される対象車両5を判定する。
図4を参照する。自車両1が行っている運転行動が先行車両5に追従する先行車追従運転である場合には、対象車両判定部40は、自車両1の前方の先行車両5が対象車両であると判定する。
また、自車両1が行う運転行動が他車両5との衝突回避である場合には、対象車両判定部40は、回避対象の他車両5が対象車両であると判定する。
図6を参照する。運転行動計画決定部36が、交差点60での直進を、自車両1が行う予定の運転行動として決定した場合には、対象車両判定部40は、自車両1の前方に位置し、かつ交差点60を右折する対向車両5が対象車両であると判定する。
なお、交差点の右左折時やカーブ走行時には対象車両5の向きが刻々と変化するが、将来に渡る一定期間の向きを算出することは可能である。
本明細書において「眩惑されている状態」とは、太陽やヘッドライトなどの強い光源からの光線が、車両の前方から当該車両の運転者の視界内に照射され、運転者の目がくらんだ状態をいう。
緯度経度取得部50は、測位装置13による測位結果に基づいて、自車両1の絶対位置として自車両1の緯度経度を取得する。例えば緯度経度取得部50は、測位装置13が受信したGPS情報に基づいて自車両1の緯度経度を取得してよい。
太陽位置算出部52は、緯度経度取得部50で取得された自車両1の緯度経度と、日時取得部51で取得された現在の日付、時刻を基に、対象車両5から見た太陽の方位、高度(仰角)を算出する。
上記のとおり、車載カメラ16は全方位を撮影できる周囲カメラであってもよいが、対象車両5の運転者の視野をカバーする範囲を撮影できるカメラで足りる。
自車両1の運転行動が交差点での右折(図5参照)や交差点での直進(図6参照)である場合には、カメラ画像取得部54は、自車両の後方を撮影する後方カメラが撮影画像を取得すればよい。
飽和画素が存在している場合には、飽和画素位置算出部55は、飽和画素の座標に基づいて、車載カメラ16の位置から見た光源の方位及び上下角を算出する。
例えば、飽和画素位置算出部55は、画像の水平軸に沿って飽和画素が存在する頻度をヒストグラムとして算出することにより光源の方位を算出してよい。
また例えば、飽和画素位置算出部55は、画像の垂直軸に沿って飽和画素が存在する頻度をヒストグラムとして算出することにより光源の方位を算出してよい。
図8Aを参照する。参照符号65は自車両1の対向車両を示し、参照符号66は対向車両のヘッドライトの照射範囲を示す。自車両1と対向車両65が平坦な路面を走行している場合には、対向車両65のヘッドライトは路面を照らしており、自車両1の運転者が眩惑することは少ない。
このような場所は路面形状によって決定されるものであり、実際に対向車両65のヘッドライトにより眩惑された実績のある場所を眩惑予想場所としてデータベースに蓄積できる。
また、眩惑予想場所取得部56は、地図データベース14に記憶された高度情報に基づいて路面形状を判定し、眩惑予想場所を求めてもよい。
また、判定部57は、飽和画素位置算出部55が算出した光源の方位及び上下角に基づいて、眩惑を生じさせる光源が存在するか否かを判断する。
例えば、判定部57は、対象車両5の向きに基づいて対象車両5の前方をみる運転者の視界の範囲を推定し、運転者の視界の範囲内に光源がある場合には、対象車両5の運転者が光源により眩惑されている状態にある可能性があると判定する。
さらに、判定部57は、眩惑予想場所取得部56が取得した眩惑予想場所の情報と、日時取得部51が取得した現在時刻に基づいて、対向車両のヘッドライトにより、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判断する。
例えば、判定部57は、眩惑予想場所取得部56が取得した眩惑予想場所に対象車両5が位置し、かつ現在時刻がヘッドライトの点灯率が所定の閾値を超える時間帯である場合に、対象車両5の運転者が眩惑されている状態にある可能性があると判定する。
図2の車線変更の場合は、車線変更先の第2走行車線4上の対象車両5と自車両1との車間距離D1が基準値Drと比較される。
図4の先行車追従運転の場合は、自車両1の先行車両である対象車両5と自車両1との車間距離D2が基準値Drと比較される。
対象車両5との衝突を回避する衝突回避行動の場合は、回避対象の対象車両5と自車両1との車間距離D2が基準値Drと比較される。
距離差ΔDは、自車両1が交差点60に到達した時点における対象車両5と自車両1との車間距離の目安となる。
なお、距離D3は、自車両1から自車両1及び対象車両5の予定走行軌道61及び62の交差位置までの距離であってもよい。距離D4は、対象車両5から予定走行軌道61及び62の交差位置までの距離であってもよい。
距離差ΔDは、自車両1が交差点60に到達した時点における対象車両5と自車両1との車間距離の目安となる。
なお、距離D5は、自車両1から自車両1及び対象車両5の予定走行軌道63及び64の交差位置までの距離であってもよい。距離D6は、対象車両5から予定走行軌道63及び64の交差位置までの距離であってもよい。
このとき自車両経路生成部38は、動作予測部37において予測された自車両1の周辺の他の物体の動作の予測結果と、基準値設定部43が設定した基準値Drに基づいて、交通規則(例えば第1走行車線3に沿って走行する等)に従いながら、他の物体と衝突せず、かつ他の物体の挙動により自車両1が急減速、急操舵を行なうことなく走行できる、滑らかな目標走行軌道や速度プロファイルを生成する。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、眩惑により対象車両5の運転者が車線変更後の自車両1に気づかずに又は気づくのが遅れ、自車両1と対象車両5とが過度に接近して他車両5が急減速してしまうことを回避できる。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定され、自車両1と対象車両5との車間距離D2をより長くなることで、対象車両5の運転者が眩惑により減速又は徐行した場合に、対象車両5と自車両1が過度に接近し、自車両1が急減速するのを回避できる。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5の運転者が眩惑により障害物に気づくのが遅れて対象車両5に急な車両挙動が発生しても、回避行動が間に合わなくなるのを回避できる。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
なお、車両制御部39の走行制御は、必ずしも目標走行軌道や速度プロファイルを必要とするものではない。例えば、自車両1の周辺の物体(例えば障害物)との間の相対距離に基づく制動制御、加速制御、操舵制御も可能である。
また、動作予測部37は、設定した基準値Drに基づいて、所定の運転行動の運転支援のための情報を報知装置20から出力し、運転者に提示してもよい。
また例えば、図4の先行車追従運転では、先行車両である対象車両5との車間距離D2を一定の基準値Dr以上に維持するように加速操作又は減速操作を促すメッセージを出力してよい。
また例えば、図5の交差点60での右折では、距離差ΔD=D4−D3が基準値Dr以上である場合に、対象車両5が交差点60を通過する前に交差点60で右折することを促すメッセージを出力してよい。距離差ΔDが基準値Dr未満である場合に、徐行又は停車して、対象車両5が交差点60を通過するのを待ってから右折することを促すメッセージを出力してよい。
次に、図9を参照して実施形態における運転支援装置10の動作の一例を説明する。
ステップS1において物体検出部30は、複数の物体検出センサを用いて、自車両1の周辺における物体の位置、姿勢、大きさ、速度などを検出する。
ステップS2において検出統合部33は、複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。物体追跡部34は、検出及び統合された各物体を追跡し、自車両1の周辺の物体の挙動を予測する。
ステップS4において地図取得部32は、自車両1が走行する道路の構造を示す地図情報を取得する。
ステップS5において地図内位置演算部35は、ステップS3で計測された自車両1の位置、及びステップS4で取得された地図データから、地図上における自車両1の位置及び姿勢を推定する。
ステップS7において動作予測部37は、ステップS2で得られた検出結果(自車両1の周辺の物体の挙動)と、ステップS5で特定された自車両1の位置に基づいて、自車両1の周辺における他車両の動作を予測する。
ステップS8において自車両経路生成部38は、ステップS6で予測された他車両の動作と、ステップS7で設定した基準値Drに基づいて自車両1の目標走行軌道や速度プロファイルを生成する。
ステップS9において車両制御部39は、ステップS7で生成された目標走行軌道や速度プロファイルに従って自車両1が走行するようにアクチュエータ19を制御して自車両1を運転する。
ステップS10において対象車両判定部40は、自車両1の周辺で検出された物体が、自車両1の運転支援制御において自車両1との車間距離が判断される対象車両5であるか否かを判定する。対象車両5である場合(ステップS10:Y)に処理はステップS11へ進む。対象車両5でない場合(ステップS10:N)に処理はステップS21へ進む。
ステップS12において緯度経度取得部50は、測位装置13による測位結果に基づいて、自車両1の絶対位置として自車両1の緯度経度を取得する。
ステップS14において太陽位置算出部52は、緯度経度取得部50で取得された自車両1の緯度経度と、日時取得部51で取得された現在の日付、時刻を基に、対象車両5から見た太陽の方位、高度(仰角)を算出する。
ステップS15において天候取得部53は、通信装置15を介して気象庁等からの気象情報を取得することにより対象車両5と自車両1が位置する場所の天候情報を取得する。
ステップS17において飽和画素位置算出部55は、カメラ画像取得部54が取得した画像中の飽和画素位置に基づいて車載カメラ16の位置から見た光源の方位及び上下角を算出する。
ステップS19において判定部57は、光源の方位及び上下角(高度)と、対象車両5の向きと、対象車両5の位置と、眩惑予想場所に基づいて、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。
ステップS21において動作予測部37は、自車両1の周辺の全ての物体についてステップS10〜S20の処理を行ったか否かを判断する。全ての物体についてステップS10〜S20を行った場合(S21:Y)移動体挙動予測ルーチンを終了して処理は図9のステップS8へ進む。いずれかの他車両についてステップS10〜S20を行っていない場合(S21:N)処理は、処理済みでない他車両を処理対象に選択して処理はステップS10へ戻る。
(1)検出統合部33と、物体追跡部34と、対象車両判定部40と、方向判定部41は、自車両1の周辺の他車両である対象車両5の位置及び向きを検出する。眩惑判定部42は、対象車両5の位置及び向きに基づいて、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合には、基準値設定部43は、対象車両5の運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値Drを設定する。自車両経路生成部38と、車両制御部39と、動作予測部37は、自車両1と対象車両5との間の距離又は車間時間又は車間時間のいずれか一方と基準値との比較結果に基づいて、運転支援を行う。
これにより、対象車両5の運転者が眩惑されている状態にある可能性がある場合には、所定の運転行動を行う際の自車両1と対象車両5との間の距離又は車間時間を長くすることができる。このため、対象車両5の運転者が眩惑されても自車両1と対象車両5が過度に近づくのを回避できる。
これにより、自車両1が車線変更をする際に、車線変更先の車線にて自車両の後方に位置する対象車両5の運転者が、眩惑により自車両1の車線変更に気付かず、もしくは気付くのに遅れても、自車両1と対象車両5の間の距離が過度に短くなり対象車両5の急減速が発生するのを回避できる。
また、車線変更先の車線にて自車両の前方に位置する対象車両5の運転者が、眩惑に障害物に気づくのが遅れて急制動を行っても、自車両1と対象車両5の間の距離が過度に短くなり自車両1の急減速が発生するのを回避できる。
これにより、対象車両5の運転者が、眩惑のために右折しようとしている自車両1に気づかず、又は気づくのに遅れても、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
これにより、対象車両5の運転者が、眩惑のために交差点を直進しようとしている自車両1に気づかず、又は気づくのに遅れても、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
これにより、対象車両5の運転者が眩惑により減速又は徐行しても、対象車両5と自車両1が過度に接近し、自車両1が急減速するのを回避できる。
(8)所定の運転行動は、対象車両5と自車両1との衝突を回避する衝突回避行動であってもよい。
これにより、対象車両5の運転者が眩惑により障害物に気づくのが遅れて、対象車両5に急な車両挙動が発生しても、回避行動が間に合わなくなるのを回避できる。
これにより、明け方や夕方における朝日や夕日などの太陽光により、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
(10)太陽位置算出部52と判定部57は、対象車両5に対する太陽の位置と対象車両5の向きに基づいて、対象車両5の運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、明け方や夕方における朝日や夕日などの太陽光により、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
これにより、対象車両5の運転者が太陽光により眩惑されている状態にある可能性があるか否かを正確に判定できる。
(12)天候取得部53と判定部57は、天候に基づいて対象車両5の運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、対象車両5の運転者が太陽光により眩惑されている状態にある可能性があるか否かをより正確に判定できる。
これにより、自車両1の周囲を撮影した周囲画像を用いて、対象車両5の運転者が光源によって眩惑されている状態にある可能性があるか否かを判定できる。
これにより対向車両のヘッドライトにより対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
これにより対向車両のヘッドライトにより対象車両5の運転者が眩惑されている状態にある可能性があるか否かをより正確に判定できる。
Claims (16)
- 自車両と他車両との間の距離又は車間時間のいずれか一方と所定の基準値との比較結果に基づいて、自車両の運転支援を実施する運転支援方法であって、
自車両の周辺の他車両の位置及び向きを検出し、
前記他車両の位置及び向きに基づいて、前記他車両の運転者が眩惑されている状態にある可能性があるか否かを判定し、
前記基準値として、前記運転者が眩惑されている状態にある可能性があると判定した場合には前記運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値を設定する、ことを特徴とする運転支援方法。 - 前記運転支援は、前記自車両と前記他車両との間の距離又は車間時間の前記いずれか一方が前記基準値以上である場合に所定の運転行動を実施することを特徴とする請求項1に記載の運転支援方法。
- 前記所定の運転行動は、車線変更であり、
前記他車両は、車線変更先の車線上の車両であることを特徴とする請求項2に記載の運転支援方法。 - 前記所定の運転行動は、交差点での右折であり、
前記他車両は、前記交差点を直進する対向車両であることを特徴とする請求項2に記載の運転支援方法。 - 前記所定の運転行動は、交差点での直進であり、
前記他車両は、前記交差点を右折する対向車両であることを特徴とする請求項2に記載の運転支援方法。 - 前記運転支援は、先行車両である前記他車両と前記自車両と距離又は車間時間の前記いずれか一方を前記基準値以上に維持する追従走行であることを特徴とする請求項1に記載の運転支援方法。
- 前記運転支援として、前記自車両と前記他車両との間の距離又は車間時間の前記いずれか一方が前記基準値以下になると所定の運転行動を開始することを特徴とする請求項1に記載の運転支援方法。
- 前記所定の運転行動は、前記他車両との衝突を回避する衝突回避行動である請求項7に記載の運転支援方法。
- 前記他車両の運転者が眩惑されている状態にある可能性があるか否かの判定は、前記運転者が太陽によって眩惑されている状態にある可能性があるか否かによって判定することを特徴とする請求項1〜8のいずれか一項に記載の運転支援方法。
- 前記他車両に対する太陽の位置と前記他車両の向きに基づいて、前記運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定することを特徴とする請求項9に記載の運転支援方法。
- 前記他車両に対する太陽の位置を、前記自車両の位置と日時に基づいて算出することを特徴とする請求項10に記載の運転支援方法。
- 天候に基づいて前記運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定することを特徴とする請求項9〜11のいずれか一項に記載の運転支援方法。
- 前記自車両から前記自車両の周囲を撮影した周囲画像の飽和画素に基づいて光源の照射方向を検出し、
前記他車両の運転者が眩惑されている状態にある可能性があるか否かの判定は、前記運転者が前記光源によって眩惑されている状態にある可能性があるか否かによって判定することを特徴とする請求項1〜8のいずれか一項に記載の運転支援方法。 - 前記他車両の運転者が眩惑されている状態にある可能性があるか否かの判定は、前記運転者が、前記他車両の対向車両のヘッドライトによって眩惑されている状態にある可能性があるか否かによって判定することを特徴とする請求項1〜8のいずれか一項に記載の運転支援方法。
- 過去に対向車両のヘッドライトによって眩惑された地点情報を蓄積したデータベースに基づいて、前記運転者が眩惑されている状態にある可能性があるか否かを判定することを特徴とする請求項14に記載の運転支援方法。
- 自車両と他車両との間の距離又は車間時間のいずれか一方と所定の基準値との比較結果に基づいて、自車両の運転支援を実施する運転支援装置であって、
自車両の周囲の物体を検出するセンサと、
前記センサの検出結果に基づいて前記自車両の周辺の他車両の位置及び向きを検出し、前記他車両の位置及び向きに基づいて、前記他車両の運転者が眩惑されている状態にある可能性があるか否かを判定し、前記運転者が眩惑されている状態にある可能性があると判定した場合には前記基準値を前記運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値に設定するコントローラと、
を備えることを特徴とする運転支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019060612A JP2020160878A (ja) | 2019-03-27 | 2019-03-27 | 運転支援方法及び運転支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019060612A JP2020160878A (ja) | 2019-03-27 | 2019-03-27 | 運転支援方法及び運転支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020160878A true JP2020160878A (ja) | 2020-10-01 |
Family
ID=72639508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019060612A Pending JP2020160878A (ja) | 2019-03-27 | 2019-03-27 | 運転支援方法及び運転支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020160878A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023184097A (ja) * | 2022-06-17 | 2023-12-28 | トヨタ自動車株式会社 | 運転支援システム、運転支援方法、及び運転支援プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138838A (ja) * | 1996-11-08 | 1998-05-26 | Toyota Motor Corp | ミラー制御装置 |
JP2006277538A (ja) * | 2005-03-30 | 2006-10-12 | Equos Research Co Ltd | 車両間通信装置 |
JP2007025782A (ja) * | 2005-07-12 | 2007-02-01 | Mazda Motor Corp | 車車間通信による走行支援装置 |
JP2009143470A (ja) * | 2007-12-17 | 2009-07-02 | Yamaha Corp | 車両用防眩装置 |
JP2012155612A (ja) * | 2011-01-27 | 2012-08-16 | Denso Corp | 車線検出装置 |
WO2014054151A1 (ja) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | 車載情報処理装置 |
JP2014125147A (ja) * | 2012-12-27 | 2014-07-07 | Daihatsu Motor Co Ltd | 車両のヘッドランプの光軸制御装置 |
WO2016151638A1 (ja) * | 2015-03-26 | 2016-09-29 | 三菱電機株式会社 | ドライバ支援システム |
-
2019
- 2019-03-27 JP JP2019060612A patent/JP2020160878A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138838A (ja) * | 1996-11-08 | 1998-05-26 | Toyota Motor Corp | ミラー制御装置 |
JP2006277538A (ja) * | 2005-03-30 | 2006-10-12 | Equos Research Co Ltd | 車両間通信装置 |
JP2007025782A (ja) * | 2005-07-12 | 2007-02-01 | Mazda Motor Corp | 車車間通信による走行支援装置 |
JP2009143470A (ja) * | 2007-12-17 | 2009-07-02 | Yamaha Corp | 車両用防眩装置 |
JP2012155612A (ja) * | 2011-01-27 | 2012-08-16 | Denso Corp | 車線検出装置 |
WO2014054151A1 (ja) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | 車載情報処理装置 |
JP2014125147A (ja) * | 2012-12-27 | 2014-07-07 | Daihatsu Motor Co Ltd | 車両のヘッドランプの光軸制御装置 |
WO2016151638A1 (ja) * | 2015-03-26 | 2016-09-29 | 三菱電機株式会社 | ドライバ支援システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023184097A (ja) * | 2022-06-17 | 2023-12-28 | トヨタ自動車株式会社 | 運転支援システム、運転支援方法、及び運転支援プログラム |
JP7677244B2 (ja) | 2022-06-17 | 2025-05-15 | トヨタ自動車株式会社 | 運転支援システム、運転支援方法、及び運転支援プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6657925B2 (ja) | 車載カメラ・システム並びに画像処理装置 | |
US12344250B2 (en) | Vehicle position estimation device and traveling control device | |
US12128888B2 (en) | Behavior prediction method and behavior prediction device for mobile unit, and vehicle | |
JP7334795B2 (ja) | 車両制御方法及び車両制御装置 | |
US10870431B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20150153184A1 (en) | System and method for dynamically focusing vehicle sensors | |
US11726212B2 (en) | Detector for point cloud fusion | |
JP2021099793A (ja) | インテリジェント交通管制システム及びその制御方法 | |
CN115443234B (zh) | 车辆行为推定方法、车辆控制方法及车辆行为推定装置 | |
US11932253B2 (en) | Vehicle control method and vehicle control device | |
JP2014203235A (ja) | 運転制御装置 | |
JP2021169235A (ja) | 車両の走行支援装置 | |
CN113614782A (zh) | 信息处理装置、信息处理方法和程序 | |
JP7336861B2 (ja) | 挙動予測方法及び挙動予測装置 | |
JP2020160878A (ja) | 運転支援方法及び運転支援装置 | |
JP7236279B2 (ja) | 走行支援方法及び走行支援装置 | |
US20230182769A1 (en) | Drive assist apparatus | |
US20250100441A1 (en) | Streetlight blocks enhanced adaptive high beam control | |
CN118302348B (zh) | 车辆控制方法及车辆控制装置 | |
US20250155245A1 (en) | Position estimation apparatus and vehicle control system | |
JP7589133B2 (ja) | 車両用制御装置 | |
US12165421B2 (en) | Deceleration detection apparatus | |
RU2773761C1 (ru) | Способ прогнозирования поведения и устройство прогнозирования поведения для мобильного субъекта и транспортное средство | |
US20240233392A1 (en) | Driver assistance apparatus and vehicle, and recording medium containing computer program | |
JP7458797B2 (ja) | 走行支援方法及び走行支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230314 |