[go: up one dir, main page]

JP7571565B2 - Overlay image display device - Google Patents

Overlay image display device Download PDF

Info

Publication number
JP7571565B2
JP7571565B2 JP2021006483A JP2021006483A JP7571565B2 JP 7571565 B2 JP7571565 B2 JP 7571565B2 JP 2021006483 A JP2021006483 A JP 2021006483A JP 2021006483 A JP2021006483 A JP 2021006483A JP 7571565 B2 JP7571565 B2 JP 7571565B2
Authority
JP
Japan
Prior art keywords
vehicle
lane change
lane
progress
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021006483A
Other languages
Japanese (ja)
Other versions
JP2022110828A (en
Inventor
祐真 原田
賢二 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2021006483A priority Critical patent/JP7571565B2/en
Publication of JP2022110828A publication Critical patent/JP2022110828A/en
Application granted granted Critical
Publication of JP7571565B2 publication Critical patent/JP7571565B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の走行支援を行う重畳画像表示装置に関する。 The present invention relates to a superimposed image display device that provides driving support for vehicles.

従来より、車両の乗員に対して経路案内や障害物の警告等の車両の走行支援を行う為の各種情報を提供する情報提供手段として、様々な手段が用いられている。例えば、車両に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、乗員の周辺環境(風景、実景)に重畳する画像を表示することによって、情報の提供を行う装置がある。例えば、ヘッドアップディスプレイ、ウインドウシールドディスプレイの他、液晶ディスプレイに表示した車両周辺の撮像画像に重畳して画像を表示する方法等が該当する。 Conventionally, various means have been used as information providing means for providing vehicle occupants with various information for driving support such as route guidance and warnings of obstacles. For example, this can be a display on a liquid crystal display installed in the vehicle, or audio output from a speaker. In recent years, one such information providing means is a device that provides information by displaying an image superimposed on the occupant's surrounding environment (landscape, real scene). For example, this includes head-up displays, windshield displays, and methods of displaying an image superimposed on a captured image of the vehicle's surroundings displayed on a liquid crystal display.

ここで、上記周辺環境に重畳する画像を表示することによって、特に車両の車線変更を案内する場合には、車両の車線変更の進捗状況に応じて表示する画像を変化させることが重要である。例えば特開2020-118545号公報には、車両の車線変更が推奨されるタイミングにおいて車両が現在走行する車線から移動目標とする車線へと跨ぐ矢印の画像を進行方向前方の道路の路面に対して重畳して表示し、その後の車線変更の進捗状況に合わせて連続的に矢印の全体形状を変化させ、最終的に車線変更が完了した段階では直線形状の矢印の画像を表示する技術について開示されている。 Here, when guiding a vehicle to change lanes, it is important to change the image displayed according to the progress of the lane change by displaying an image superimposed on the surrounding environment. For example, JP 2020-118545 A discloses a technology in which, at the timing when a lane change is recommended, an image of an arrow that crosses from the lane in which the vehicle is currently traveling to the lane to which the vehicle is moving is superimposed on the road surface ahead in the direction of travel, and the overall shape of the arrow is then continuously changed according to the progress of the lane change, and finally, when the lane change is completed, a straight arrow image is displayed.

特開2020-118545号公報(第13-14頁、図6)JP 2020-118545 A (pages 13-14, FIG. 6)

ここで、上記特許文献1のように車両の車線変更の進捗状況に応じて矢印の全体形状を連続的に変化させるためには、車線変更の進捗状況をリアルタイムで正確に特定する必要がある。即ち、車線変更前の車線及び移動目標とする車線を基準として、それらの車線に対して車両がどのような位置にいるか、並びにどのような方位を向いているかを正確に特定しなければ不自然な矢印の形状となる問題があった。従って、上記特許文献1では、車両周辺の道路形状に加えて車両の現在位置や方位等の車線変更の進捗状況を特定する為の詳細な情報が必要であり、それらの情報を用いた演算処理に係る負担も大きかった。 Here, in order to continuously change the overall shape of the arrow according to the progress of the vehicle's lane change as in Patent Document 1, it is necessary to accurately identify the progress of the lane change in real time. In other words, there is a problem that the arrow shape will be unnatural unless the position and orientation of the vehicle relative to the lane before the lane change and the lane to be moved to are accurately identified based on those lanes. Therefore, Patent Document 1 requires detailed information to identify the progress of the lane change, such as the vehicle's current position and orientation in addition to the road shape around the vehicle, and the burden of calculation processing using that information is also large.

本発明は前記従来における問題点を解消するためになされたものであり、車両の車線変更を案内する案内オブジェクトを車両周辺の風景に重畳して視認させる場合において、従来に比べて車線変更の進捗状況を特定する為の詳細な情報が存在しない状態であってもユーザに対して効果的で違和感を感じさせない案内を可能とした重畳画像表示装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems in the conventional technology, and aims to provide a superimposed image display device that, when a guidance object that guides a vehicle to change lanes is superimposed on the scenery around the vehicle and made visible, can provide guidance that is effective and does not cause the user to feel uncomfortable, even in a situation where there is no detailed information to identify the progress of the lane change, as compared to the conventional technology.

前記目的を達成するため本発明に係る第1の重畳画像表示装置は、車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、車両に車線変更を行うことを案内する前記案内オブジェクトを表示するオブジェクト表示手段と、車両の車線変更に対する進捗状況を取得する進捗状況取得手段と、を有し、前記車両の車線変更に対する進捗状況は複数の段階に区分され、前記案内オブジェクトは、互いに離間した複数のオブジェクトからなり、オブジェクト単位で前記複数の段階毎に表示位置の移動対象となるオブジェクトと移動態様が設定されており、前記オブジェクト表示手段は、現在の車両の車線変更に対する進捗状況において表示位置の移動対象に設定されたオブジェクトを、オブジェクト単位で表示位置を設定された移動態様で移動させて表示する。
また、本発明に係る第2の重畳画像表示装置は、車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、車両に車線変更を行うことを案内する前記案内オブジェクトを表示するオブジェクト表示手段と、車両の車線変更に対する進捗状況を取得する進捗状況取得手段と、を有し、前記案内オブジェクトは、互いに離間した複数のオブジェクトからなり、前記オブジェクト表示手段は、前記複数のオブジェクトを車両の車線変更の進路に沿って配列し、車両の車線変更に対する進捗状況が進行するのに従って、前記複数のオブジェクトをオブジェクト単位で、車線変更の方向と逆方向に対して所定距離だけ移動させる第1のステップと、前記第1のステップにより移動した後のオブジェクトを車両側に移動させる第2のステップと、により表示態様を変更して表示する。
尚、「風景」とは、実際に車両から視認される風景(実景)に加えて、風景を撮像した画像、風景を再現した画像等も含む。
In order to achieve the above-mentioned object, a first superimposed image display device according to the present invention is an superimposed image display device that is mounted on a vehicle and allows a guide object that provides information to an occupant of the vehicle to be visually superimposed on the scenery around the vehicle, and has an object display means for displaying the guide object that guides the vehicle to change lanes, and a progress acquisition means for acquiring a progress status of the vehicle's lane change, wherein the progress status of the vehicle's lane change is divided into a plurality of stages, the guide objects are composed of a plurality of objects spaced apart from each other, and objects whose display positions are to be moved and a movement pattern are set for each of the plurality of stages on an object-by-object basis, and the object display means moves and displays objects whose display positions are set as targets for movement in the current progress status of the vehicle's lane change in the movement pattern set for the object-by-object basis.
In addition, a second superimposed image display device according to the present invention is a superimposed image display device that is mounted on a vehicle and allows a guide object that provides information to an occupant of the vehicle to be visually recognized by superimposing it on the scenery around the vehicle, and has an object display means for displaying the guide object that guides the vehicle to change lanes, and a progress acquisition means for acquiring a progress status of the vehicle's lane change, wherein the guide object consists of a plurality of objects spaced apart from each other, and the object display means arranges the plurality of objects along a path of the vehicle's lane change, and changes and displays the display mode by performing a first step of moving the plurality of objects, on an object-by-object basis, a predetermined distance in a direction opposite to the direction of the lane change as the progress status of the vehicle's lane change progresses, and a second step of moving the objects after being moved in the first step toward the vehicle.
The term "scenery" includes not only the scenery actually viewed from the vehicle (actual scenery), but also an image of the scenery, a reproduced image of the scenery, and the like.

前記構成を有する本発明に係る第1及び第2の重畳画像表示装置によれば、車両の車線変更を案内する案内オブジェクトを車両周辺の風景に重畳して視認させる場合において、案内オブジェクトを互いに離間した複数のオブジェクトとし、且つオブジェクト単位で車両の車線変更に対する進捗状況に従って表示態様を変更して表示するので、個々のオブジェクトの表示位置や形状に多少の違和感があったとしてもオブジェクト全体として車線変更の進捗状況に対して違和感を感じさせない案内が可能となる。従って、従来と比べて車線変更の進捗状況を特定する為の詳細な情報が不要となり、処理負荷についても軽減できる。 According to the first and second superimposed image display devices of the present invention having the above configuration, when a guidance object for guiding a vehicle to change lanes is visually superimposed on the scenery around the vehicle, the guidance objects are displayed as a plurality of objects spaced apart from each other, and the display mode is changed and displayed on an object-by-object basis according to the progress of the vehicle's lane change, so that even if there is some discomfort in the display position or shape of each object, guidance can be provided that does not give a sense of discomfort in the progress of the lane change as a whole of the objects. Therefore, detailed information for identifying the progress of the lane change is not required compared to the conventional art, and the processing load can be reduced.

第1実施形態に係るナビゲーション装置を示したブロック図である。1 is a block diagram showing a navigation device according to a first embodiment. 第1実施形態に係る走行支援処理プログラムのフローチャートである。5 is a flowchart of a driving support processing program according to the first embodiment. 液晶ディスプレイに表示される走行案内画面の一例を示した図である。FIG. 4 is a diagram showing an example of a driving guidance screen displayed on a liquid crystal display. 進捗状況特定処理のサブ処理プログラムのフローチャートである。13 is a flowchart of a sub-processing program of a progress status identification process. 車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係の特定方法について説明した図である。11 is a diagram illustrating a method for identifying the relative positional relationship between a vehicle and a marking line that is to be crossed by a lane change. 車両の車線変更に対する進捗状況の区分について説明した図である。FIG. 13 is a diagram illustrating classification of progress status for a lane change of a vehicle. 車両の車線変更に対する進捗状況の区分について説明した図である。FIG. 13 is a diagram illustrating classification of progress status for a lane change of a vehicle. 案内オブジェクト表示位置決定処理のサブ処理プログラムのフローチャートである。13 is a flowchart of a sub-processing program of a guide object display position determination process. 車両の車線変更に対する進捗状況がフェーズ0である場合における案内オブジェクトの配置を示した図である。13 is a diagram showing the arrangement of guide objects when the progress of a lane change by a vehicle is in phase 0. FIG. 車両の車線変更に対する進捗状況がフェーズ1である場合における案内オブジェクトの配置を示した図である。13 is a diagram showing the arrangement of guide objects when the progress of a lane change by a vehicle is in Phase 1. FIG. 車両の車線変更に対する進捗状況がフェーズ2である場合における案内オブジェクトの配置を示した図である。13 is a diagram showing the arrangement of guide objects when the progress of a lane change by a vehicle is in Phase 2. FIG. 車両の車線変更に対する進捗状況がフェーズ3である場合における案内オブジェクトの配置を示した図である。13 is a diagram showing the arrangement of guide objects when the progress of a lane change by a vehicle is in Phase 3. FIG. 車両の車線変更に対する進捗状況がフェーズ4である場合における案内オブジェクトの配置を示した図である。13 is a diagram showing the arrangement of guide objects when the progress of a lane change by a vehicle is in Phase 4. FIG. 案内オブジェクトの形状を示した図である。FIG. 13 is a diagram showing the shape of a guide object. 3次元空間に配置された案内オブジェクトを視認した視認画像の一例を示した図である。FIG. 11 is a diagram showing an example of a visually recognized image in which a guide object arranged in a three-dimensional space is visually recognized. 車両の車線変更に対する進捗状況がフェーズ0からフェーズ1である場合において、車両の走行に伴って液晶ディスプレイに表示される走行案内画面を示した図である。13 is a diagram showing a driving guidance screen that is displayed on the liquid crystal display as the vehicle travels when the progress of the vehicle's lane change is from phase 0 to phase 1. FIG. 車両の車線変更に対する進捗状況がフェーズ1からフェーズ2である場合において、車両の走行に伴って液晶ディスプレイに表示される走行案内画面を示した図である。13 is a diagram showing a driving guidance screen that is displayed on the liquid crystal display as the vehicle travels when the progress of the vehicle's lane change has progressed from Phase 1 to Phase 2. FIG. 車両の車線変更に対する進捗状況がフェーズ2からフェーズ3である場合において、車両の走行に伴って液晶ディスプレイに表示される走行案内画面を示した図である。13 is a diagram showing a driving guidance screen that is displayed on the liquid crystal display as the vehicle travels when the progress of the vehicle's lane change has progressed from phase 2 to phase 3. FIG. 車両の車線変更に対する進捗状況がフェーズ3からフェーズ4である場合において、車両の走行に伴って液晶ディスプレイに表示される走行案内画面を示した図である。13 is a diagram showing a driving guidance screen that is displayed on the liquid crystal display as the vehicle travels when the progress of the vehicle's lane change has progressed from Phase 3 to Phase 4. FIG. 第2実施形態に係る重畳画像表示装置の概略構成図である。FIG. 11 is a schematic configuration diagram of a superimposed image display device according to a second embodiment. 第2実施形態に係る重畳画像表示装置における案内オブジェクトの表示例を示した図である。13A and 13B are diagrams showing a display example of a guide object in the superimposed image display device according to the second embodiment.

以下、本発明に係る重畳画像表示装置をナビゲーション装置に具体化した第1実施形態及び第2実施形態について図面を参照しつつ詳細に説明する。 Below, a first embodiment and a second embodiment in which the superimposed image display device according to the present invention is embodied in a navigation device will be described in detail with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係るナビゲーション装置1を示したブロック図である。
[First embodiment]
First, a schematic configuration of a navigation device 1 according to the first embodiment will be described with reference to Fig. 1. Fig. 1 is a block diagram showing the navigation device 1 according to the first embodiment.

図1に示すように第1実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して進行方向前方を撮像した実景画像を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有する。また、ナビゲーション装置1はCAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置されたフロントカメラ19や各種センサが接続されている。 As shown in FIG. 1, the navigation device 1 according to the first embodiment includes a current position detection unit 11 that detects the current position of the vehicle in which the navigation device 1 is mounted, a data recording unit 12 in which various data is recorded, a navigation ECU 13 that performs various calculation processes based on input information, an operation unit 14 that accepts operations from the user, a liquid crystal display 15 that displays to the user an actual image of the area ahead in the direction of travel, a speaker 16 that outputs voice guidance regarding route guidance, a DVD drive 17 that reads a DVD, which is a storage medium, and a communication module 18 that communicates with an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center. The navigation device 1 is also connected to a front camera 19 and various sensors installed in the vehicle in which the navigation device 1 is mounted, via an in-vehicle network such as a CAN.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Each of the components of the navigation device 1 will be described below in order.
The current position detection unit 11 is composed of a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, etc., and is capable of detecting the current vehicle position, direction, vehicle running speed, current time, etc. Here, the vehicle speed sensor 22 in particular is a sensor for detecting the travel distance and vehicle speed of the vehicle, and generates pulses in response to the rotation of the drive wheels of the vehicle and outputs the pulse signal to the navigation ECU 13. The navigation ECU 13 then calculates the rotation speed and travel distance of the drive wheels by counting the generated pulses. It is not necessary for the navigation device 1 to be equipped with all of the above four types of sensors, and the navigation device 1 may be configured to be equipped with only one or a plurality of these types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。 The data recording unit 12 also includes a hard disk (not shown) as an external storage device and recording medium, and a recording head (not shown) which is a driver for reading the map information DB 31 and predetermined programs recorded on the hard disk and writing predetermined data to the hard disk. The data recording unit 12 may be configured with a flash memory, a memory card, or an optical disk such as a CD or DVD instead of a hard disk. The map information DB 31 may also be stored on an external server and acquired by the navigation device 1 through communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、分岐点に関する分岐点データ34、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。 Here, the map information DB 31 is a storage means that stores, for example, link data 32 relating to roads (links), node data 33 relating to node points, branch point data 34 relating to branch points, point data relating to points such as facilities, map display data for displaying a map, search data for searching for routes, search data for searching for points, etc.

また、リンクデータ32としては、道路を構成する各リンクに関してリンクの属する道路の幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線毎の進行方向別通行区分、車線数の減少する箇所、幅員の狭くなる箇所、踏切り等を表すデータが、コーナに関して、曲率半径、交差点、T字路、コーナの入口及び出口等を表すデータが、道路属性に関して、降坂路、登坂路等を表すデータが、道路種別に関して、高速道路と一般道(国道、県道、細街路等)を表すデータがそれぞれ記録される。 The link data 32 includes data representing the width, gradient, cant, bank, road surface condition, number of lanes, traffic divisions for each lane according to the direction of travel, points where the number of lanes decreases, points where the road width narrows, and railroad crossings for each link that makes up the road; data representing the radius of curvature, intersections, T-junctions, corner entrances and exits for corners; data representing downhill roads, uphill roads, and other road attributes; and data representing expressways and general roads (national highways, prefectural roads, narrow streets, and other road types).

また、ノードデータ33としては、実際の道路の分岐点(交差点、T字路等も含む)や各道路に曲率半径等に応じて所定の距離毎に設定されたノード点の座標(位置)、ノードが交差点に対応するノードであるか等を表すノード属性、ノードに接続するリンクのリンク番号のリストである接続リンク番号リスト、ノードにリンクを介して隣接するノードのノード番号のリストである隣接ノード番号リスト、各ノード点の高さ(高度)等に関するデータ等が記録される。 The node data 33 also includes data on the coordinates (positions) of actual road branching points (including intersections, T-junctions, etc.) and node points set at a predetermined distance on each road according to the radius of curvature, etc., node attributes indicating whether a node corresponds to an intersection, etc., a connecting link number list which is a list of link numbers of links connecting to the node, an adjacent node number list which is a list of node numbers of nodes adjacent to the node via links, and the height (altitude) of each node point.

また、分岐点データ34としては、分岐点の交差点名称、分岐点を形成するノードを特定する該当ノード情報、分岐点に接続されるリンクを特定する接続リンク情報、分岐点に接続されるリンクに対応する方面名称、分岐点の形状を特定する情報等が記憶される。また、分岐点での右左折案内を行う場合に目印となり得る構造物についても記憶される。 The branch point data 34 also includes the intersection name of the branch point, relevant node information that identifies the node that forms the branch point, connecting link information that identifies the link connected to the branch point, the destination name corresponding to the link connected to the branch point, information that identifies the shape of the branch point, etc. Also stored are structures that can serve as landmarks when providing right/left turn guidance at the branch point.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図2)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、オブジェクト表示手段は、車両に車線変更を行うことを案内する案内オブジェクトを表示する。進捗状況取得手段は、車両の車線変更に対する進捗状況を取得する。 Meanwhile, the navigation ECU (electronic control unit) 13 is an electronic control unit that controls the entire navigation device 1, and includes internal storage devices such as a CPU 41 as an arithmetic device and control device, a RAM 42 that is used as a working memory when the CPU 41 performs various arithmetic processing and stores route data and the like when a route is searched, a ROM 43 that stores a driving support processing program (FIG. 2) described below as well as control programs, and a flash memory 44 that stores programs read from the ROM 43. The navigation ECU 13 has various means as processing algorithms. For example, the object display means displays a guidance object that guides the vehicle to change lanes. The progress status acquisition means acquires the progress status of the vehicle's lane change.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有する構成としても良い。また、マイクと音声認識装置を有する構成としても良い。 The operation unit 14 is operated when inputting a departure point as the starting point of the journey and a destination point as the end point of the journey, and has a number of operation switches (not shown) such as various keys and buttons. The navigation ECU 13 controls the execution of various corresponding operations based on switch signals output by pressing each switch. The operation unit 14 may be configured to have a touch panel provided on the front side of the liquid crystal display 15. It may also be configured to have a microphone and a voice recognition device.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。また、特に第1実施形態では、通常の走行時において液晶ディスプレイ15にはフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)を表示し、更に必要に応じて風景に対して案内オブジェクトを重畳させて表示する。 The LCD display 15 also displays map images including roads, traffic information, operation guidance, operation menus, key guidance, guided route from the departure point to the destination, guidance information along the guided route, news, weather forecasts, time, emails, television programs, etc. In particular, in the first embodiment, during normal driving, the LCD display 15 displays an image captured by the front camera 19, i.e., the scenery (actual image) around the vehicle at the current time (particularly in front of the vehicle), and further displays a guidance object superimposed on the scenery as necessary.

ここで、風景に重畳して表示される案内オブジェクトとしては、車両に関する情報や乗員の運転の支援の為に用いられる各種情報がある。例えば乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、ナビゲーション装置1で設定された案内経路や案内経路に基づく案内情報(右左折方向を示す矢印、案内分岐点の目印を示すアイコン、案内分岐点までの距離等)、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等がある。尚、以下に説明する第1実施形態では案内オブジェクトは、車線変更を行うことが推奨されるタイミングにおいて表示され、車両に車線変更を行うことを案内する(即ち車線変更を促す)為の案内情報とする。より具体的には車両の進行方向前方の道路の路面に重畳して表示され、車線変更での車両の移動方向を示す複数個の矢印とする。 Here, the guidance objects displayed superimposed on the scenery include information about the vehicle and various information used to assist the driver. For example, the guidance objects include warnings for objects (other vehicles, pedestrians, guide signs) that should be warned to the driver, the guide route set by the navigation device 1 and guidance information based on the guide route (arrows indicating the direction of right and left turns, icons indicating the markers of the guidance branch point, distance to the guidance branch point, etc.), warnings displayed on the road surface (watch for rear-end collisions, speed limits, etc.), lane markings on which the vehicle is traveling, current vehicle speed, shift position, remaining energy, advertising images, facility information, guide signs, map images, traffic information, news, weather forecasts, time, the screen of a connected smartphone, etc. In the first embodiment described below, the guidance objects are displayed at the timing when it is recommended to change lanes, and serve as guidance information for guiding the vehicle to change lanes (i.e., encouraging the vehicle to change lanes). More specifically, the guidance objects are displayed superimposed on the road surface ahead of the vehicle in the traveling direction, and are multiple arrows indicating the direction of movement of the vehicle when changing lanes.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。 The speaker 16 also outputs voice guidance to guide the driver along the guide route based on instructions from the navigation ECU 13, as well as traffic information.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 The DVD drive 17 is a drive capable of reading data recorded on recording media such as DVDs and CDs. Based on the read data, music and video are played, and the map information DB 31 is updated. Note that instead of the DVD drive 17, a card slot for reading and writing to a memory card may be provided.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。 The communication module 18 is a communication device for receiving traffic information, such as congestion information, regulation information, and traffic accident information, transmitted from a traffic information center, such as a VICS center or a probe center, and is, for example, a mobile phone or DCM.

また、フロントカメラ19は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ19により撮像された撮像画像は、前述したように車両周辺(特に車両前方)の風景(実景画像)として液晶ディスプレイ15に対して表示される。また、車両が車線変更を行う際にはナビゲーションECU13は撮像画像に対して画像認識処理を行うことによって、車線変更によって跨ぐ対象となる区画線と自車両との相対位置の特定についても行う。 The front camera 19 is an imaging device having a camera using a solid-state imaging element such as a CCD, and is installed with its optical axis oriented forward in the direction of travel of the vehicle. The image captured by the front camera 19 is displayed on the liquid crystal display 15 as the scenery (actual image) around the vehicle (particularly in front of the vehicle) as described above. When the vehicle changes lanes, the navigation ECU 13 also performs image recognition processing on the captured image to identify the relative position of the vehicle and the marking line that will be crossed when changing lanes.

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する走行支援処理プログラムについて図2に基づき説明する。図2は第1実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、液晶ディスプレイ15に表示された車両周辺の風景に重畳した案内オブジェクトを視認させることによって、車両の走行支援を行うプログラムである。尚、以下の図2、図4及び図8にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。 Next, the driving support processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described with reference to FIG. 2. FIG. 2 is a flowchart of the driving support processing program according to the first embodiment. Here, the driving support processing program is executed after the vehicle's ACC power (accessory power supply) is turned on, and is a program that provides driving support for the vehicle by allowing the driver to visually recognize a guide object superimposed on the scenery around the vehicle displayed on the liquid crystal display 15. The programs shown in the flowcharts in FIG. 2, FIG. 4, and FIG. 8 below are stored in the RAM 42 and ROM 43 of the navigation device 1, and are executed by the CPU 41.

以下の説明では案内オブジェクトを用いた車両の走行支援として、車線変更の推奨されるタイミングにおいて、車両に車線変更を行うことを案内する(即ち車線変更を促す)例について説明する。また、表示対象となる案内オブジェクトは、特に車両の進行方向前方の道路の路面に重畳して表示され、車線変更での車両の移動方向を示す複数個の矢印を案内オブジェクトとして表示する場合の処理を例に挙げて説明する。但し、ナビゲーション装置1では案内オブジェクトを用いて上記走行支援以外の案内や情報提供を行うことも可能である。また、表示対象となる案内オブジェクトは、上記矢印以外の情報とすることも可能である。例えば、案内オブジェクトとして乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等を表示することも可能である。 In the following description, an example of vehicle driving assistance using a guide object is described, in which the vehicle is guided to change lanes (i.e., encouraged to change lanes) at the recommended timing for lane changing. The guide object to be displayed is superimposed on the road surface ahead of the vehicle in the traveling direction, and a process in which multiple arrows indicating the direction of movement of the vehicle when changing lanes are displayed as guide objects is described as an example. However, the navigation device 1 can also use guide objects to provide guidance and information other than the above driving assistance. The guide object to be displayed can also be information other than the arrows. For example, it is possible to display, as guide objects, warnings for objects to be warned to the occupant (other vehicles, pedestrians, guide signs), warnings to be displayed on the road surface (beware of rear-end collisions, speed limits, etc.), lane markings on which the vehicle is traveling, current vehicle speed, gear shift position, remaining energy, advertising images, facility information, guide signs, map images, traffic information, news, weather forecasts, time, the screen of a connected smartphone, etc.

先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1においてCPU41は、車線変更の推奨されるタイミングか否かを判定する。尚、車線変更の推奨されるタイミングとしては、例えばナビゲーション装置1で設定された案内経路に沿って走行を行うために車線変更を行う必要のあるタイミング(例えば左折する必要のある交差点の手前で左側の車線以外の車線を走行している場合、高速道路から退出する場合等)がある。CPU41は、ナビゲーション装置1で設定されている案内経路と、地図情報DB31或いは外部のサーバから取得した地図情報と、現在位置検出部11により検出された車両の現在位置(フロントカメラ19を用いて走行レーンの特定についても行う)に基づいて判定する。 First, in step (hereinafter abbreviated as S) 1 of the driving assistance processing program, the CPU 41 determines whether it is the recommended timing for a lane change. The recommended timing for a lane change is, for example, a timing when it is necessary to change lanes in order to travel along the guidance route set in the navigation device 1 (for example, when traveling in a lane other than the left lane before an intersection where a left turn is required, or when exiting a highway). The CPU 41 makes the determination based on the guidance route set in the navigation device 1, map information acquired from the map information DB 31 or an external server, and the current position of the vehicle detected by the current position detection unit 11 (the driving lane is also identified using the front camera 19).

但し、ナビゲーション装置1において案内経路が設定されていない場合であっても、車両が現在走行する車線がその後に車線減少や工事により走行できなくなる場合や、車両が現在走行する車線の進行方向前方において渋滞が発生している場合については、車線変更の推奨されるタイミングであると判定するのが望ましい。 However, even if a guidance route has not been set in the navigation device 1, it is desirable to determine that it is time to recommend a lane change if the lane on which the vehicle is currently traveling will become impassable due to a reduction in the number of lanes or construction work, or if congestion occurs ahead in the direction of travel of the lane on which the vehicle is currently traveling.

そして、車線変更の推奨されるタイミングであると判定された場合(S1:YES)には、S2へと移行する。それに対して、車線変更の推奨されるタイミングでないと判定された場合(S1:NO)には案内オブジェクトの表示を行うことなく当該走行支援処理プログラムを終了する。但し、車線変更の推奨されるタイミングでない場合には案内オブジェクトを表示しないのではなく、直進方向を示す矢印の案内オブジェクトを表示するようにしても良い。 If it is determined that it is a recommended time to change lanes (S1: YES), the process proceeds to S2. On the other hand, if it is determined that it is not a recommended time to change lanes (S1: NO), the driving support processing program is terminated without displaying the guidance object. However, instead of not displaying the guidance object when it is not a recommended time to change lanes, a guidance object in the form of an arrow indicating the direction to go straight may be displayed.

S2においてCPU41は、後述の進捗状況特定処理(図4)を行う。進捗状況特定処理は、車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係と、経過時間とに基づいて、車両の車線変更に対する進捗状況を特定する処理である。特に第1実施形態では車両の車線変更に対する進捗状況を以下の5つの段階(フェーズ)に区分して特定する。
『フェーズ0』・・・車線変更前の車線を走行している段階
『フェーズ1』・・・区画線の跨ぎを開始してから区画線が車両の中心に位置するまでの段階
『フェーズ2』・・・区画線が車両の中心を過ぎてから区画線を跨ぐまでの段階
『フェーズ3』・・・区画線を跨いでから車線変更を完了するまでの段階
『フェーズ4』・・・車線変更を完了して車線変更後の車線を走行している段階
In S2, the CPU 41 performs a progress status determination process ( FIG. 4 ) to be described later. The progress status determination process is a process for determining the progress status of the vehicle's lane change based on the relative positional relationship between the vehicle and the marking line that is to be crossed by the lane change and the elapsed time. In particular, in the first embodiment, the progress status of the vehicle's lane change is determined by dividing it into the following five phases.
"Phase 0": The stage in which the vehicle is traveling in the lane before changing lanes. "Phase 1": The stage from when the vehicle starts crossing the lane marking until the lane marking is in the center of the vehicle. "Phase 2": The stage from when the lane marking passes the center of the vehicle until the vehicle crosses the lane marking. "Phase 3": The stage from when the vehicle crosses the lane marking until the lane change is completed. "Phase 4": The stage in which the vehicle has completed the lane change and is traveling in the lane after the lane change.

但し、車両の車線変更に対する進捗状況は必ずしも上記5つの段階(フェーズ)で区分する必要はなく、より細かい段階或いはより粗い段階で区分しても良い。但し、少なくとも車線変更前の車線を走行している段階(上記例ではフェーズ0が該当)と、車線変更中の段階(上記例ではフェーズ1~3が該当)と、車線変更後の車線を走行している段階(上記例ではフェーズ4が該当)の3段階には区分するのが望ましい。 However, the progress of a vehicle's lane change does not necessarily have to be divided into the above five phases, and may be divided into more detailed or coarse phases. However, it is desirable to divide it into at least three phases: the phase in which the vehicle is traveling in the lane before the lane change (corresponding to phase 0 in the above example), the phase during the lane change (corresponding to phases 1 to 3 in the above example), and the phase in which the vehicle is traveling in the lane after the lane change (corresponding to phase 4 in the above example).

続いてS3においてCPU41は、後述の案内オブジェクト表示位置決定処理(図8)を行う。案内オブジェクト表示位置決定処理は、上記S2で特定された車両の車線変更の進捗状況に基づいて、液晶ディスプレイ15に対して表示する案内オブジェクトの形状及び案内オブジェクトを表示する位置(範囲)を具体的に決定する処理である。 Next, in S3, the CPU 41 performs the guide object display position determination process (FIG. 8) described below. The guide object display position determination process is a process for specifically determining the shape of the guide object to be displayed on the liquid crystal display 15 and the position (range) in which the guide object is to be displayed, based on the progress of the lane change of the vehicle identified in S2 above.

その後、S4においてCPU41は、前記S3で決定された形状の案内オブジェクトの画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された案内オブジェクトの画像を前記S3で決定された位置(範囲)に対して描画する。尚、液晶ディスプレイ15には予めフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)が表示されている。その結果、車両の乗員に風景に重畳された案内オブジェクトを視認させることが可能となる。 Then, in S4, the CPU 41 generates an image of the guide object having the shape determined in S3, and further transmits a control signal to the LCD display 15, which causes the LCD display 15 to draw the image of the generated guide object in the position (range) determined in S3. Note that the LCD display 15 displays an image captured in advance by the front camera 19, i.e., the scenery (actual scenery image) around the vehicle (particularly in front of the vehicle) at the current time. As a result, it becomes possible for the vehicle occupants to visually recognize the guide object superimposed on the scenery.

図3は前記S4において液晶ディスプレイ15に表示される走行案内画面51の一例を示した図である。図3に示すように液晶ディスプレイ15には、フロントカメラ19により撮像された現時点の車両前方の風景52が表示される。そして、車両前方の風景52に重畳して案内オブジェクトの画像53が表示される。案内オブジェクトの画像53は、互いに離間した複数の矢印形状のオブジェクトの画像を含み、複数のオブジェクトの画像を車線変更の進路に沿って現在走行する車線から目標とする車線へと跨ぐように所定間隔で表示する。各矢印の向きは基本的に車線変更の方向を示しているが向きは各矢印で異なっており、最も手前側に位置する矢印は道路の進行方向に対して90度傾斜して車線変更を行う方向を示しており、手前側から2番目に位置する矢印は道路の進行方向に対して60度傾斜して車線変更を行う方向を示しており、手前側から3番目に位置する矢印は道路の進行方向に対して30度傾斜して車線変更を行う方向を示しており、最も離れて位置する矢印は道路の進行方向、即ち直進方向を示す。従って、走行案内画面51を車両の乗員が視認した場合に、各矢印の配置と向きから車線変更における車両の移動方向と進路を把握可能となる。 3 is a diagram showing an example of a driving guidance screen 51 displayed on the liquid crystal display 15 in S4. As shown in FIG. 3, the liquid crystal display 15 displays a current view 52 in front of the vehicle captured by the front camera 19. Then, an image 53 of a guide object is displayed superimposed on the view 52 in front of the vehicle. The image 53 of the guide object includes images of a plurality of arrow-shaped objects spaced apart from each other, and the images of the plurality of objects are displayed at a predetermined interval so as to straddle the current lane to the target lane along the lane change path. The direction of each arrow basically indicates the direction of lane change, but the direction is different for each arrow. The arrow located at the frontmost position indicates the direction of lane change at an angle of 90 degrees to the traveling direction of the road, the arrow located second from the front indicates the direction of lane change at an angle of 60 degrees to the traveling direction of the road, the arrow located third from the front indicates the direction of lane change at an angle of 30 degrees to the traveling direction of the road, and the arrow located furthest from the front indicates the traveling direction of the road, i.e., the straight direction. Therefore, when a vehicle occupant views the driving guidance screen 51, they can understand the direction of movement and route of the vehicle when changing lanes from the arrangement and orientation of each arrow.

また、後述のように案内オブジェクトの画像53は、車両の車線変更の進捗状況に合わせて個々のオブジェクト単位で表示態様が変化する。具体的には、現在の車両の車線変更の進捗状況に対応するオブジェクトの表示位置を、道路幅方向(横方向)或いは道路の進行方向(縦方向)に沿って移動させる。また、進行方向に沿って車両側に移動する場合には画像のサイズが拡大され、更に、手前側にあるオブジェクトから順に画面外へと移動して非表示となる。それによって、個々のオブジェクトの表示位置に多少の違和感があったり、前記S2の車両の車線変更の進捗状況の特定において多少の誤差が生じていたとしても、案内オブジェクト全体としてはリアルタイムの車線移動の進捗状況に合わせた効果的で違和感のない案内が可能となっており、案内オブジェクトの画像53を視認すれば、車線変更を行う前であるのか車線変更を行っている途中であるのか車線変更が完了したのかを車両の乗員が把握することも可能である。詳細については後述する。 As described later, the display mode of the image 53 of the guidance object changes for each individual object according to the progress of the lane change of the vehicle. Specifically, the display position of the object corresponding to the current progress of the lane change of the vehicle is moved along the road width direction (horizontal direction) or the traveling direction (vertical direction) of the road. When moving toward the vehicle along the traveling direction, the size of the image is enlarged, and further, the objects on the front side are moved out of the screen in order and hidden. As a result, even if there is some discomfort in the display position of each object or some error occurs in identifying the progress of the lane change of the vehicle in S2, the guidance object as a whole can provide effective and natural guidance according to the progress of the lane change in real time, and by visually checking the image 53 of the guidance object, the vehicle occupant can also know whether the lane change is before, during, or completed. Details will be described later.

その後、S5においてCPU41は、車線変更の案内を終了するか否か判定する。尚、CPU41は前記S2において車両の車線変更の進捗状況が“フェーズ4”と最初に判定されてから所定時間経過した時点で、車線変更の案内を終了すると判定する。また、所定時間は例えば上記のように車線変更の進捗状況に応じて車両側へと移動する案内オブジェクトが全て画面外へと移動して非表示となるまでの時間とする。 Then, in S5, the CPU 41 determines whether or not to end the lane change guidance. The CPU 41 determines to end the lane change guidance when a predetermined time has elapsed since the progress of the lane change of the vehicle was first determined to be "Phase 4" in S2. The predetermined time is, for example, the time until all of the guidance objects that move toward the vehicle according to the progress of the lane change as described above move off the screen and are hidden.

そして、車線変更の案内を終了すると判定された場合(S5:YES)には、S6へと移行する。それに対して、車線変更の案内を終了しないと判定された場合(S5:NO)にはS1へと戻り、案内オブジェクトの表示を継続して行う。 If it is determined that the lane change guidance should be ended (S5: YES), the process proceeds to S6. On the other hand, if it is determined that the lane change guidance should not be ended (S5: NO), the process returns to S1 and the guidance object continues to be displayed.

S6においてCPU41は、液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に表示されていた案内オブジェクトを非表示とする。尚、フロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)については継続して表示される。但し、風景の画像についても非表示とし、液晶ディスプレイ15の表示画面を地図画像の表示などに切り替えても良い。 At S6, the CPU 41 sends a control signal to the LCD display 15, and the guidance object that was displayed on the LCD display 15 is hidden. Note that the image captured by the front camera 19, i.e., the scenery (actual scenery image) around the vehicle at the current time (particularly in front of the vehicle), continues to be displayed. However, the scenery image may also be hidden, and the display screen of the LCD display 15 may be switched to displaying a map image, etc.

また、その後に次の車線変更が推奨されるタイミングに車両が到達すると、S2以降の処理が実行され案内オブジェクトの画像が液晶ディスプレイ15に再び表示されることとなる。 Furthermore, when the vehicle subsequently reaches the timing when the next lane change is recommended, the processing from S2 onwards is executed and the image of the guidance object is displayed again on the LCD display 15.

次に、前記S2において実行される進捗状況特定処理のサブ処理について図4に基づき説明する。図4は進捗状況特定処理のサブ処理プログラムのフローチャートである。 Next, the sub-processing of the progress status determination process executed in S2 will be described with reference to FIG. 4. FIG. 4 is a flowchart of the sub-processing program of the progress status determination process.

先ず、S11においてCPU41は、フロントカメラ19で撮像した撮像画像に対して画像認識処理を行うことによって、車線変更によって跨ぐ対象となる区画線を特定し、自車両と車線変更によって跨ぐ対象となる区画線との間の距離(以下、区画線間距離という)を取得する。例えば図5のように車両60が右側の車線61から左側の車線62へと車線変更する場合には、車線変更によって跨ぐ対象となる区画線は車線61と車線62との間にある車線境界線63であり、車両60の中心と車線境界線63の中央までの距離Lが区画線間距離として取得される。尚、図5は車両が車線境界線63に対して右側に位置する場合を示しているが、車両が車線境界線63を越えて車線境界線63に対して左側に位置する場合においても同様に車両60の中心と車線境界線63の中央までの距離Lが区画線間距離として取得される。 First, in S11, the CPU 41 performs image recognition processing on the captured image captured by the front camera 19 to identify the marking line that is to be crossed by the lane change, and obtains the distance between the vehicle and the marking line that is to be crossed by the lane change (hereinafter, referred to as the marking line distance). For example, as shown in FIG. 5, when the vehicle 60 changes lanes from the right lane 61 to the left lane 62, the marking line that is to be crossed by the lane change is the lane boundary line 63 between the lanes 61 and 62, and the distance L from the center of the vehicle 60 to the center of the lane boundary line 63 is obtained as the marking line distance. Note that FIG. 5 shows a case where the vehicle is located to the right of the lane boundary line 63, but even when the vehicle crosses the lane boundary line 63 and is located to the left of the lane boundary line 63, the distance L from the center of the vehicle 60 to the center of the lane boundary line 63 is similarly obtained as the marking line distance.

次に、S12においてCPU41は、前記S11において取得した区画線間距離が50cm未満であるか否か判定する。尚、前記S12の判定条件となる距離は車両が区画線の跨ぎを開始或いは終了したタイミングを判定する為の閾値であるが、その値は50cmに限られることなく適宜変更可能であり、例えば40cmや60cmとしても良い。 Next, in S12, the CPU 41 determines whether the distance between the lane lines acquired in S11 is less than 50 cm. The distance that is the determination condition in S12 is a threshold value for determining the timing when the vehicle starts or finishes crossing the lane line, but the value is not limited to 50 cm and can be changed as appropriate, and may be, for example, 40 cm or 60 cm.

そして、前記S11において取得した区画線間距離が50cm未満であると判定された場合(S12:YES)には、S13へと移行する。それに対して、前記S11において取得した区画線間距離が50cm以上であると判定された場合(S12:NO)には、S17へと移行する。 If it is determined in S11 that the distance between the lane lines is less than 50 cm (S12: YES), the process proceeds to S13. On the other hand, if it is determined in S11 that the distance between the lane lines is 50 cm or more (S12: NO), the process proceeds to S17.

その後、S13においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ0”であるか否かを判定する。尚、フラッシュメモリ44に格納されるパラメータ値は初期値として“フェーズ0(車線変更前の車線を走行している段階)”が設定されており、車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係と経過時間とに基づいて、後述のように適宜更新される(S14、S16、S18、S20)。 Then, in S13, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "phase 0." The parameter value stored in the flash memory 44 is initially set to "phase 0 (the stage in which the vehicle is traveling in the lane before the lane change)," and is updated appropriately based on the relative positional relationship between the vehicle and the lane marking that will be crossed by the lane change and the elapsed time, as described below (S14, S16, S18, S20).

そして、パラメータ値が“フェーズ0”であると判定された場合(S13:YES)には、S14へと移行する。それに対して、パラメータ値が“フェーズ0”以外であると判定された場合(S13:NO)には、S15へと移行する。 If it is determined that the parameter value is "phase 0" (S13: YES), the process proceeds to S14. On the other hand, if it is determined that the parameter value is other than "phase 0" (S13: NO), the process proceeds to S15.

S14においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値を“フェーズ1(区画線の跨ぎを開始してから区画線が車両の中心に位置するまでの段階)”に更新する。その結果、その後のS3以降ではフェーズ1の車線変更の進捗状況に応じた案内オブジェクトの表示が行われる。詳細については後述する。 In S14, the CPU 41 reads from the flash memory 44 a parameter value that specifies the current stage (phase) of the progress of the vehicle's lane change, and updates the read parameter value to "Phase 1 (the stage from when the vehicle starts crossing the lane line until the lane line is positioned at the center of the vehicle)." As a result, from S3 onwards, a guidance object is displayed according to the progress of the lane change in Phase 1. Details will be described later.

一方、S15においてCPU41は、前記S14でパラメータ値が“フェーズ1”に更新された時点から0.5sec経過したか否かを判定する。ここで、第1実施形態では車両が車線移動する際の道路幅方向の移動速度は経験則に基づいて1m/sと仮定する。従って、図6に示すように前記S14でパラメータ値が“フェーズ1”に更新された時点、即ち車両60の中心と車線変更によって跨ぐ対象となる車線境界線63の中央までの距離が50cmである時点から0.5sec経過した時点とは、車線境界線63が車両60の中心に位置する時点と推定される。 Meanwhile, in S15, the CPU 41 determines whether 0.5 seconds have passed since the parameter value was updated to "phase 1" in S14. Here, in the first embodiment, the moving speed in the road width direction when the vehicle moves between lanes is assumed to be 1 m/s based on empirical rules. Therefore, as shown in FIG. 6, the time when the parameter value was updated to "phase 1" in S14, that is, the time when 0.5 seconds have passed from the time when the distance between the center of the vehicle 60 and the center of the lane boundary line 63 to be crossed by the lane change is 50 cm, is estimated to be the time when the lane boundary line 63 is located at the center of the vehicle 60.

尚、前記S15の判定条件となる経過時間は、車両が車線移動する際の道路幅方向の移動速度が1m/sと仮定した場合における区画線が車両の中心に位置するまでの経過時間である。従って、移動速度を異なる速度に仮定すれば経過時間もそれに伴って変更される。また、前記S12の判定条件となる距離を50cm以外とした場合においても同様に変更される。 The elapsed time that serves as the judgment condition in S15 is the time that elapses until the lane marking is located at the center of the vehicle, assuming that the speed of movement in the road width direction when the vehicle moves in the lane is 1 m/s. Therefore, if a different moving speed is assumed, the elapsed time will change accordingly. Also, if the distance that serves as the judgment condition in S12 is set to a value other than 50 cm, the elapsed time will change in the same way.

そして、前記S14でパラメータ値が“フェーズ1”に更新された時点から0.5sec経過したと判定された場合(S15:YES)には、S16へと移行する。それに対して、前記S14でパラメータ値が“フェーズ1”に更新された時点から0.5sec経過していないと判定された場合(S15:NO)には、現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を更新することなく進捗状況特定処理を終了してS3へと移行する。 If it is determined in S14 that 0.5 seconds have passed since the parameter value was updated to "Phase 1" (S15: YES), the process proceeds to S16. On the other hand, if it is determined in S14 that 0.5 seconds have not passed since the parameter value was updated to "Phase 1" (S15: NO), the process ends the progress status determination process without updating the parameter value that identifies the stage (phase) of the progress status for the current lane change of the vehicle, and proceeds to S3.

S16においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値を“フェーズ2(区画線が車両の中心を過ぎてから区画線を跨ぐまでの段階)”に更新する。その結果、その後のS3以降ではフェーズ2の車線変更の進捗状況に応じた案内オブジェクトの表示が行われる。詳細については後述する。 In S16, the CPU 41 reads from the flash memory 44 a parameter value that specifies the current stage (phase) of the progress of the vehicle's lane change, and updates the read parameter value to "Phase 2 (the stage from when the lane marking passes the center of the vehicle until it crosses the lane marking)." As a result, from S3 onwards, a guidance object is displayed according to the progress of the lane change in Phase 2. Details will be described later.

一方、前記S11において取得した区画線間距離が50cm以上であると判定された場合に実行されるS17においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ2”であるか否かを判定する。 On the other hand, in S17, which is executed if it is determined in S11 that the distance between the lane markings is 50 cm or more, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "phase 2."

そして、パラメータ値が“フェーズ2”であると判定された場合(S17:YES)には、S18へと移行する。それに対して、パラメータ値が“フェーズ2”以外であると判定された場合(S17:NO)には、S19へと移行する。 If it is determined that the parameter value is "phase 2" (S17: YES), the process proceeds to S18. On the other hand, if it is determined that the parameter value is other than "phase 2" (S17: NO), the process proceeds to S19.

S18においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値を“フェーズ3(区画線を跨いでから車線変更を完了するまでの段階)”に更新する。その結果、その後のS3以降ではフェーズ3の車線変更の進捗状況に応じた案内オブジェクトの表示が行われる。詳細については後述する。 In S18, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and updates the read parameter value to "Phase 3 (the stage from crossing the dividing line to completing the lane change)." As a result, from S3 onwards, a guidance object is displayed according to the progress of the lane change in Phase 3. Details will be described later.

一方、S19においてCPU41は、前記S18でパラメータ値が“フェーズ3”に更新された時点から1.3sec経過したか否かを判定する。ここで、第1実施形態では車両が車線移動する際の道路幅方向の移動速度は経験則に基づいて1m/sと仮定する。また、車線幅は国道や高速道路などに一般的に使われる3.5mであることを前提とする。従って、図7に示すように前記S18でパラメータ値が“フェーズ3”に更新された時点、即ち車両60が車線境界線63を越えて車両60の中心と車線境界線63の中央までの距離が50cmとなった時点から1.3sec経過した時点とは、車両60が車線変更後の車線の中心付近に位置する時点と推定される。 Meanwhile, in S19, the CPU 41 determines whether 1.3 seconds have passed since the parameter value was updated to "phase 3" in S18. Here, in the first embodiment, the moving speed in the road width direction when the vehicle moves between lanes is assumed to be 1 m/s based on empirical rules. Also, it is assumed that the lane width is 3.5 m, which is generally used for national roads and expressways. Therefore, as shown in FIG. 7, the time when the parameter value was updated to "phase 3" in S18, that is, the time when 1.3 seconds have passed since the vehicle 60 crossed the lane boundary line 63 and the distance between the center of the vehicle 60 and the center of the lane boundary line 63 became 50 cm, is estimated to be the time when the vehicle 60 is located near the center of the lane after the lane change.

尚、前記S19の判定条件となる経過時間は、車両が車線移動する際の道路幅方向の移動速度が1m/s且つ車線幅が3.5mと仮定した場合における車両が車線の中心に位置するまでの経過時間である。従って、移動速度や車線幅を異なる値に仮定すれば経過時間もそれに伴って変更される。例えば車両が走行する道路種別によって経過時間を異なる値に設定しても良い。また、前記S12の判定条件となる距離を50cm以外とした場合においても同様に変更される。 The elapsed time, which is the judgment condition in S19, is the time elapsed until the vehicle is positioned at the center of the lane, assuming that the moving speed in the road width direction when the vehicle moves in the lane is 1 m/s and the lane width is 3.5 m. Therefore, if the moving speed and lane width are assumed to be different values, the elapsed time will change accordingly. For example, the elapsed time may be set to a different value depending on the type of road the vehicle is traveling on. Also, the same change will occur if the distance, which is the judgment condition in S12, is set to a value other than 50 cm.

そして、前記S18でパラメータ値が“フェーズ3”に更新された時点から1.3sec経過したと判定された場合(S19:YES)には、S20へと移行する。それに対して、前記S18でパラメータ値が“フェーズ3”に更新された時点から1.3sec経過していないと判定された場合(S19:NO)には、現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を更新することなく進捗状況特定処理を終了してS3へと移行する。 If it is determined in S18 that 1.3 seconds have passed since the parameter value was updated to "Phase 3" (S19: YES), the process proceeds to S20. On the other hand, if it is determined in S18 that 1.3 seconds have not passed since the parameter value was updated to "Phase 3" (S19: NO), the process ends the progress status determination process without updating the parameter value that identifies the stage (phase) of the progress status for the current lane change of the vehicle, and proceeds to S3.

S20においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値を“フェーズ4(車線変更を完了して車線変更後の車線を走行している段階)”に更新する。その結果、その後のS3以降ではフェーズ4の車線変更の進捗状況に応じた案内オブジェクトの表示が行われる。詳細については後述する。 In S20, the CPU 41 reads from the flash memory 44 a parameter value that specifies the current stage (phase) of the progress of the vehicle's lane change, and updates the read parameter value to "Phase 4 (the stage where the lane change has been completed and the vehicle is traveling in the lane after the lane change)." As a result, from S3 onwards, a guidance object is displayed according to the progress of the lane change in Phase 4. Details will be described later.

次に、前記S3において実行される案内オブジェクト表示位置決定処理のサブ処理について図8に基づき説明する。図8は案内オブジェクト表示位置決定処理のサブ処理プログラムのフローチャートである。 Next, the sub-processing of the guide object display position determination process executed in S3 will be described with reference to FIG. 8. FIG. 8 is a flowchart of the sub-processing program of the guide object display position determination process.

先ず、S31においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ0”であるか否かを判定する。“フェーズ0”は車両と車線変更によって跨ぐ対象となる区画線との間の距離が離れており、車線変更前の車線を走行している段階である。尚、フラッシュメモリ44に格納されるパラメータ値は初期値として“フェーズ0”が設定されており、車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係と経過時間とに基づいて、前述のように適宜更新される(S14、S16、S18、S20)。 First, in S31, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "phase 0." "Phase 0" is a stage in which the vehicle is traveling in the lane before the lane change, and is far away from the marking line that will be crossed by the lane change. The parameter value stored in the flash memory 44 is initially set to "phase 0," and is updated as appropriate based on the relative positional relationship between the vehicle and the marking line that will be crossed by the lane change and the elapsed time, as described above (S14, S16, S18, S20).

そして、パラメータ値が“フェーズ0”であると判定された場合(S31:YES)には、S32へと移行する。それに対して、パラメータ値が“フェーズ0”以外であると判定された場合(S31:NO)には、S33へと移行する。 If it is determined that the parameter value is "phase 0" (S31: YES), the process proceeds to S32. On the other hand, if it is determined that the parameter value is other than "phase 0" (S31: NO), the process proceeds to S33.

S32においてCPU41は、“案内オブジェクトを風景に対して重畳する位置”を、車両の現在位置に対して進行方向へ所定距離前方(例えば10m前方)の路面上の位置(初期位置)とする。ここで、第1実施形態では表示対象とする案内オブジェクトを、図9に示すように車両60の車線変更の進路に沿って現在走行する車線61から目標とする車線62へと跨ぐように所定間隔で配列された複数の矢印とする。尚、以下の説明では各矢印を車両60に近い方から順に第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68と称する。そして、前記S32では最も車両60に近い位置にある第1オブジェクト65を風景に対して重畳する位置を、車両60の現在位置に対して進行方向へ所定距離前方(例えば10m前方)の路面上で、車両の走行する車線の中央に対してやや右寄りに当たる位置(例えば車両の中心に対して1m右側)とする。また、第2オブジェクト66を風景に対して重畳する位置を、第1オブジェクト65から所定の配置間隔だけ前方に離れた路面上で、車両の走行する車線の中央に対してやや左寄りに当たる位置(例えば車両の中心に対して1m左側)とする。また、第3オブジェクト67を風景に対して重畳する位置を、第2オブジェクト66から所定の配置距離だけ前方に離れた路面上で、車線変更により跨ぐ区画線付近に当たる位置(例えば車両の中心に対して1.75m左側)とする。また、第4オブジェクト68を風景に対して重畳する位置を、第3オブジェクト67から所定の配置間隔だけ前方に離れた路面上で、目標とする車線62の中央付近に当たる位置(例えば車両の中心に対して3.5m左側)とする。一方、案内オブジェクトの鉛直方向の位置については下端が路面に接する位置としても良いし、路面から所定距離だけ上方に離間した位置としても良い。また、各オブジェクトの配置間隔は例えば10mとする。但し、オブジェクトの数や配置間隔は適宜設定可能である。フェーズ0の間は第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68が風景に対して重畳される車両からの相対位置は図9に示す位置で固定となる。その後、S42へと移行する。 In S32, the CPU 41 sets the "position where the guide object is superimposed on the scenery" to a position (initial position) on the road surface a predetermined distance ahead (for example, 10 m ahead) in the direction of travel from the current position of the vehicle. Here, in the first embodiment, the guide objects to be displayed are a plurality of arrows arranged at a predetermined interval so as to straddle the current lane 61 along the lane change path of the vehicle 60 from the lane 61 currently travelling to the target lane 62, as shown in FIG. 9. In the following description, the arrows are referred to as the first object 65, the second object 66, the third object 67, and the fourth object 68 in order from the one closest to the vehicle 60. In S32, the position where the first object 65, which is located closest to the vehicle 60, is superimposed on the scenery is set to a position on the road surface a predetermined distance ahead (for example, 10 m ahead) in the direction of travel from the current position of the vehicle 60, and slightly to the right of the center of the lane in which the vehicle is travelling (for example, 1 m to the right of the center of the vehicle). The position where the second object 66 is superimposed on the scenery is a position on the road surface a predetermined distance forward from the first object 65, which is slightly left of the center of the lane on which the vehicle runs (for example, 1 m to the left of the center of the vehicle). The position where the third object 67 is superimposed on the scenery is a position on the road surface a predetermined distance forward from the second object 66, which is near the dividing line that is crossed by lane change (for example, 1.75 m to the left of the center of the vehicle). The position where the fourth object 68 is superimposed on the scenery is a position on the road surface a predetermined distance forward from the third object 67, which is near the center of the target lane 62 (for example, 3.5 m to the left of the center of the vehicle). On the other hand, the vertical position of the guide object may be a position where the lower end is in contact with the road surface, or a position spaced a predetermined distance above the road surface. The placement interval of each object is, for example, 10 m. However, the number of objects and the placement interval can be set appropriately. During phase 0, the relative positions from the vehicle at which the first object 65, second object 66, third object 67, and fourth object 68 are superimposed on the scenery are fixed at the positions shown in FIG. 9. Then, the process proceeds to S42.

一方、S33においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ1”であるか否かを判定する。“フェーズ1”は区画線の跨ぎを開始してから区画線が車両の中心に位置するまでの段階である。 On the other hand, in S33, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "phase 1." "Phase 1" is the stage from when the vehicle starts crossing the lane marking until the lane marking is positioned at the center of the vehicle.

そして、パラメータ値が“フェーズ1”であると判定された場合(S33:YES)には、S34へと移行する。それに対して、パラメータ値が“フェーズ1”以外であると判定された場合(S33:NO)には、S35へと移行する。 If it is determined that the parameter value is "phase 1" (S33: YES), the process proceeds to S34. On the other hand, if it is determined that the parameter value is other than "phase 1" (S33: NO), the process proceeds to S35.

S34においてCPU41は、“案内オブジェクトを風景に対して重畳する位置”について、現在の設定位置に対して第1オブジェクト65の位置を車両側へv1×tだけ移動させた位置へと更新する。尚、v1は車速センサ22により取得した車両の現在の車速とする。tは走行支援処理プログラムにおいてS3の案内オブジェクト表示位置決定処理(図8)が実行される間隔であり、例えば0.03secとする。前記S34の処理を行った結果、フェーズ1の間は第2オブジェクト66、第3オブジェクト67、第4オブジェクト68が風景に対して重畳される車両60からの相対位置は図10に示す位置(S32と同じ初期位置)で固定となる。一方で第1オブジェクト65については、風景に対して重畳される車両からの相対位置が車両60の走行速度に応じて車両60側へと接近する、より具体的には乗員からは第1オブジェクト65が路面上に静止して車両との距離が徐々に縮まるように視認されることとなる。尚、第1オブジェクト65については車両60を通り過ぎた時点で表示対象から除外される。その後、S42へと移行する。 In S34, the CPU 41 updates the "position where the guide object is superimposed on the scenery" to a position where the first object 65 is moved by v1×t toward the vehicle side from the currently set position. Note that v1 is the current vehicle speed of the vehicle acquired by the vehicle speed sensor 22. t is the interval at which the guide object display position determination process (FIG. 8) of S3 is executed in the driving support processing program, and is set to, for example, 0.03 sec. As a result of performing the process of S34, the relative positions from the vehicle 60 where the second object 66, the third object 67, and the fourth object 68 are superimposed on the scenery are fixed at the positions shown in FIG. 10 (the same initial positions as in S32) during phase 1. On the other hand, for the first object 65, the relative position from the vehicle where the first object 65 is superimposed on the scenery approaches the vehicle 60 side according to the traveling speed of the vehicle 60, and more specifically, the first object 65 is visually recognized by the occupant as if it is stationary on the road surface and the distance from the vehicle is gradually reduced. Note that the first object 65 is removed from the display list once it has passed the vehicle 60. Then, the process proceeds to S42.

次に、S35においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ2”であるか否かを判定する。“フェーズ2”は区画線が車両の中心を過ぎてから区画線を跨ぐまでの段階である。 Next, in S35, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "phase 2." "Phase 2" is the stage from when the lane marking passes the center of the vehicle to when the lane marking is crossed.

そして、パラメータ値が“フェーズ2”であると判定された場合(S35:YES)には、S36へと移行する。それに対して、パラメータ値が“フェーズ2”以外であると判定された場合(S35:NO)には、S39へと移行する。 If it is determined that the parameter value is "phase 2" (S35: YES), the process proceeds to S36. On the other hand, if it is determined that the parameter value is other than "phase 2" (S35: NO), the process proceeds to S39.

S36においてCPU41は、“案内オブジェクトを風景に対して重畳する位置”について、現在の設定位置に対して第2オブジェクト66の位置を車両側へv1×tだけ移動させた位置へと更新する。尚、v1は車速センサ22により取得した車両の現在の車速とする。tは走行支援処理プログラムにおいてS3の案内オブジェクト表示位置決定処理(図8)が実行される間隔であり、例えば0.03secとする。また、現在の設定位置に対して第3オブジェクト67の位置を道路幅方向に沿って車線変更の方向と逆方向(左側の車線へ移動するのであれば右方向)へv2×tだけ移動させた位置へと更新する。尚、v2は車両が車線移動する際の道路幅方向の移動速度とし、経験則に基づいて1m/sと仮定する。同じく、現在の設定位置に対して第4オブジェクト68の位置についても道路幅方向に沿って車線変更の方向と逆方向(左側の車線へ移動するのであれば右方向)へv2×tだけ移動させた位置へと更新する。前記S36~S38の処理を行った結果、図11に示すようにフェーズ2の間は第2オブジェクト66については、風景に対して重畳される車両からの相対位置が車両60の走行速度に応じて車両60側へと接近する、より具体的には乗員からは第2オブジェクト66が路面上に静止して車両との距離が徐々に縮まるように視認されることとなる。また、第3オブジェクト67及び第4オブジェクト68については、風景に対して重畳される車両からの相対位置が車両60の横方向の移動速度に応じて車両60の移動方向と反対方向へと移動する、より具体的には乗員からは第3オブジェクト67が車両からの距離は変わらずに区画線付近に常に位置し、第4オブジェクト68が車両からの距離は変わらずに目標とする車線62の中央付近に常に位置するように視認されることとなる。尚、第2オブジェクト66については車両60を通り過ぎた時点で表示対象から除外される。その後、S42へと移行する。 In S36, the CPU 41 updates the position of the second object 66 to a position that is moved by v1×t toward the vehicle side with respect to the currently set position for the "position where the guide object is superimposed on the scenery". Note that v1 is the current vehicle speed of the vehicle acquired by the vehicle speed sensor 22. t is the interval at which the guide object display position determination process (FIG. 8) of S3 is executed in the driving support processing program, and is set to, for example, 0.03 sec. Also, the position of the third object 67 is updated to a position that is moved by v2×t along the road width direction in the opposite direction to the lane change direction (to the right if moving to the left lane) with respect to the currently set position. Note that v2 is the moving speed in the road width direction when the vehicle moves in the lane, and is assumed to be 1 m/s based on empirical rules. Similarly, the position of the fourth object 68 is updated to a position that is moved by v2×t along the road width direction in the opposite direction to the lane change direction (to the right if moving to the left lane) with respect to the currently set position. As a result of the processing of S36 to S38, as shown in FIG. 11, during phase 2, the relative position of the second object 66 from the vehicle superimposed on the scenery approaches the vehicle 60 according to the traveling speed of the vehicle 60, more specifically, the second object 66 is visually recognized by the occupant as if it were stationary on the road surface and the distance from the vehicle gradually decreases. Also, the relative positions of the third object 67 and the fourth object 68 from the vehicle superimposed on the scenery move in the opposite direction to the moving direction of the vehicle 60 according to the lateral moving speed of the vehicle 60, more specifically, the third object 67 is visually recognized by the occupant as always being located near the dividing line without changing the distance from the vehicle, and the fourth object 68 is visually recognized as always being located near the center of the target lane 62 without changing the distance from the vehicle. Note that the second object 66 is removed from the display target when it passes the vehicle 60. Then, the process proceeds to S42.

次に、S39においてCPU41は、フラッシュメモリ44から現在の車両の車線変更に対する進捗状況の段階(フェーズ)を特定するパラメータ値を読み出し、読み出したパラメータ値が“フェーズ3”であるか否かを判定する。“フェーズ3”は区画線を跨いでから車線変更を完了するまでの段階である。 Next, in S39, the CPU 41 reads from the flash memory 44 a parameter value that specifies the stage (phase) of the progress of the vehicle's current lane change, and determines whether the read parameter value is "Phase 3." "Phase 3" is the stage from crossing the dividing line to completing the lane change.

そして、パラメータ値が“フェーズ3”であると判定された場合(S39:YES)には、S40へと移行する。それに対して、パラメータ値が“フェーズ4”であると判定された場合(S39:NO)には、S41へと移行する。 If it is determined that the parameter value is "phase 3" (S39: YES), the process proceeds to S40. On the other hand, if it is determined that the parameter value is "phase 4" (S39: NO), the process proceeds to S41.

S40においてCPU41は、“案内オブジェクトを風景に対して重畳する位置”について、現在の設定位置に対して第3オブジェクト67の位置を車両側へv1×tだけ移動させた位置へと更新する。尚、v1は車速センサ22により取得した車両の現在の車速とする。tは走行支援処理プログラムにおいてS3の案内オブジェクト表示位置決定処理(図8)が実行される間隔であり、例えば0.03secとする。前記S40の処理を行った結果、フェーズ3の間は第4オブジェクト68が風景に対して重畳される車両60からの相対位置は図12に示す位置(S38で横移動した後の位置)で固定となる。一方で第3オブジェクト67については、風景に対して重畳される車両からの相対位置が車両60の走行速度に応じて車両60側へと接近する、より具体的には乗員からは第3オブジェクト67が路面上に静止して車両との距離が徐々に縮まるように視認されることとなる。尚、第3オブジェクト67については車両60を通り過ぎた時点で表示対象から除外される。その後、S42へと移行する。 In S40, the CPU 41 updates the "position where the guide object is superimposed on the scenery" to a position where the position of the third object 67 is moved by v1×t toward the vehicle side from the currently set position. Note that v1 is the current vehicle speed of the vehicle acquired by the vehicle speed sensor 22. t is the interval at which the guide object display position determination process (FIG. 8) of S3 is executed in the driving support processing program, and is set to, for example, 0.03 sec. As a result of performing the process of S40, the relative position of the fourth object 68 from the vehicle 60 where the fourth object 68 is superimposed on the scenery during phase 3 is fixed at the position shown in FIG. 12 (the position after the lateral movement in S38). On the other hand, for the third object 67, the relative position from the vehicle where the third object 67 is superimposed on the scenery approaches the vehicle 60 side according to the traveling speed of the vehicle 60, more specifically, the third object 67 is visually recognized by the occupant as if it is stationary on the road surface and the distance from the vehicle is gradually reduced. Note that the third object 67 is removed from the display target when it passes the vehicle 60. Then proceed to S42.

一方、S41においてCPU41は、“案内オブジェクトを風景に対して重畳する位置”について、現在の設定位置に対して第4オブジェクト68の位置を車両側へv1×tだけ移動させた位置へと更新する。尚、v1は車速センサ22により取得した車両の現在の車速とする。tは走行支援処理プログラムにおいてS3の案内オブジェクト表示位置決定処理(図8)が実行される間隔であり、例えば0.03secとする。前記S41の処理を行った結果、図13に示すようにフェーズ4の間は第4オブジェクト68については、風景に対して重畳される車両からの相対位置が車両60の走行速度に応じて車両60側へと接近する、より具体的には乗員からは第4オブジェクト68が路面上に静止して車両との距離が徐々に縮まるように視認されることとなる。尚、第4オブジェクト68については車両60を通り過ぎた時点で表示対象から除外される。 On the other hand, in S41, the CPU 41 updates the "position where the guide object is superimposed on the scenery" to a position where the position of the fourth object 68 is moved by v1×t toward the vehicle from the currently set position. Here, v1 is the current vehicle speed of the vehicle acquired by the vehicle speed sensor 22. t is the interval at which the guide object display position determination process (FIG. 8) of S3 is executed in the driving support processing program, and is set to, for example, 0.03 sec. As a result of performing the process of S41, as shown in FIG. 13, during phase 4, the relative position of the fourth object 68 from the vehicle superimposed on the scenery approaches the vehicle 60 according to the traveling speed of the vehicle 60, and more specifically, the fourth object 68 is visually recognized by the occupant as if it is stationary on the road surface and the distance from the vehicle is gradually shortened. Here, the fourth object 68 is removed from the display target when it passes the vehicle 60.

次に、S42においてCPU41は、車両の現在位置周辺(特に車両進行方向の前方)に対応した3次元空間を生成する。尚、3次元空間には、道路以外に、建築物、道路標識などについてもモデリングしても良いし、道路のみをモデリングしても良い。或いは道路についてもモデリングしない地面のみがある単なる空白の3次元空間としても良い。また、3次元空間は予め3次元地図情報として地図情報DB31に格納しておき、前記S42では地図情報DB31から該当する自車位置周辺の3次元地図情報を読み出しても良い。また、フロントカメラ19で撮像した画像に基づいて3次元空間を生成しても良い。例えばフロントカメラ19で撮像した撮像画像に対して点群マッチングを行うことによって、道路や道路周辺にある構造物を検出し、3次元空間を生成することが可能である。 Next, in S42, the CPU 41 generates a three-dimensional space corresponding to the surroundings of the current position of the vehicle (particularly forward in the direction of travel of the vehicle). In addition to roads, buildings, road signs, etc. may be modeled in the three-dimensional space, or only roads may be modeled. Alternatively, the three-dimensional space may simply be a blank three-dimensional space with only the ground without modeling roads. The three-dimensional space may be stored in advance as three-dimensional map information in the map information DB 31, and in S42, the three-dimensional map information of the surroundings of the vehicle position may be read from the map information DB 31. The three-dimensional space may also be generated based on an image captured by the front camera 19. For example, by performing point cloud matching on the image captured by the front camera 19, it is possible to detect roads and structures around the roads and generate a three-dimensional space.

また、前記S42でCPU41は、現在位置検出部11で検出されたパラメータに基づいて、生成された3次元空間における自車両の現在位置及び方位についても特定する。特に、車両に設置されたフロントカメラ19の位置を自車両の現在位置とし、フロントカメラ19の光軸方向を自車両の方位とする。尚、フロントカメラ19の位置は車両の乗員の位置、フロントカメラ19の光軸方向は車両の乗員の視線方向にも相当する。 In addition, in S42, the CPU 41 also determines the current position and orientation of the vehicle in the generated three-dimensional space based on the parameters detected by the current position detection unit 11. In particular, the position of the front camera 19 installed in the vehicle is set as the current position of the vehicle, and the direction of the optical axis of the front camera 19 is set as the orientation of the vehicle. The position of the front camera 19 also corresponds to the position of the vehicle occupant, and the direction of the optical axis of the front camera 19 also corresponds to the line of sight of the vehicle occupant.

続いて、S43においてCPU41は、液晶ディスプレイ15に表示する対象となる案内オブジェクトを生成する。生成される案内オブジェクトの形状は、第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68のいずれも同一サイズの矢印の形状とする(但し、同一サイズであっても後述のように配置される3次元空間での車両からの距離によって見かけ上の大きさは変化する)。また、案内オブジェクトは2次元ポリゴンとし、基本的に厚みは存在しないこととする。但し、厚みを持たせた3次元ポリゴンとしても良い。また、図14に示すように第1オブジェクト65、第2オブジェクト66、第3オブジェクト67については車両の進行方向前方の路面に対して平行ではなく傾斜させる。尚、傾斜方向は車線変更の移動方向に対応した方向とし、より具体的には車線変更での旋回方向に対して外周側(右側に車線変更する場合には左側、左側に車線変更する場合には右側)が高くなる傾斜方向とする。尚、具体的な傾斜角度θの値は第1オブジェクト65が90度、第2オブジェクト66が60度、第3オブジェクト67が30度とする。一方、第4オブジェクト68については道路の路面に対して底面を平行とする。また、各オブジェクトは矢印の向きについても異なっており、第1オブジェクト65は道路の進行方向に対して90度傾斜して車線変更を行う方向を示しており、第2オブジェクト66は道路の進行方向に対して60度傾斜して車線変更を行う方向を示しており、第3オブジェクト67は道路の進行方向に対して30度傾斜して車線変更を行う方向を示しており、第4オブジェクト68は道路の進行方向、即ち直進方向を示す。 Next, in S43, the CPU 41 generates a guide object to be displayed on the liquid crystal display 15. The shape of the generated guide object is an arrow shape of the same size for the first object 65, the second object 66, the third object 67, and the fourth object 68 (however, even if the objects are the same size, their apparent size changes depending on the distance from the vehicle in the three-dimensional space in which they are placed, as described later). The guide object is a two-dimensional polygon that does not have any thickness. However, it may be a three-dimensional polygon with thickness. As shown in FIG. 14, the first object 65, the second object 66, and the third object 67 are inclined rather than parallel to the road surface ahead of the vehicle in the traveling direction. The inclination direction is a direction corresponding to the moving direction of the lane change, and more specifically, the inclination direction is such that the outer periphery side (the left side when changing lanes to the right, and the right side when changing lanes to the left) is higher in the turning direction during the lane change. The specific values of the inclination angle θ are 90 degrees for the first object 65, 60 degrees for the second object 66, and 30 degrees for the third object 67. Meanwhile, the bottom surface of the fourth object 68 is parallel to the road surface. The arrow directions of the objects are also different: the first object 65 is inclined 90 degrees with respect to the traveling direction of the road to indicate the direction of lane change, the second object 66 is inclined 60 degrees with respect to the traveling direction of the road to indicate the direction of lane change, the third object 67 is inclined 30 degrees with respect to the traveling direction of the road to indicate the direction of lane change, and the fourth object 68 indicates the traveling direction of the road, i.e., the straight ahead direction.

尚、前記S43で生成される案内オブジェクトの形状は適宜変更可能であり、車線変更を行う方向を示すことができる形状であれば矢印以外の形状であっても良い。 The shape of the guidance object generated in S43 can be changed as appropriate, and can be any shape other than an arrow as long as it can indicate the direction in which a lane change is to be made.

続いて、S44においてCPU41は、前記S43で生成された案内オブジェクトを、前記S42で生成された3次元空間に対して配置する。尚、3次元空間に対して案内オブジェクトを配置する位置は、前記S32、S34、S36~S38、S40、S41において設定された“風景に対して案内オブジェクトを重畳する位置”に基づいて決定される。 Next, in S44, the CPU 41 places the guide object generated in S43 in the three-dimensional space generated in S42. The position at which the guide object is placed in the three-dimensional space is determined based on the "position at which the guide object is to be superimposed on the landscape" set in S32, S34, S36 to S38, S40, and S41.

例えば現在の車両の車線変更に対する進捗状況が“フェーズ0”である場合には、図9に示すように3次元空間における車両60の進行方向前方の道路の路面上で且つ車両60の現在位置に対して所定距離前方の位置に第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の各矢印を所定間隔で配置する。特に、車両60から第1オブジェクト65までの距離が所定距離(例えば10m)となる位置に配置する。 For example, when the progress of the current lane change of the vehicle is "phase 0", the arrows of the first object 65, the second object 66, the third object 67, and the fourth object 68 are placed at a predetermined interval on the road surface ahead of the vehicle 60 in the direction of travel in three-dimensional space and at a predetermined distance ahead of the current position of the vehicle 60, as shown in FIG. 9. In particular, they are placed at a position where the distance from the vehicle 60 to the first object 65 is a predetermined distance (for example, 10 m).

次に、S45においてCPU41は、先ず案内オブジェクトが配置された3次元空間を、前記S42で特定された車両の位置(視点に相当する)から車両の進行方向に視認した画像(以下、視認画像という)を取得する。例えば、図15は図9に示す態様で車両並びに案内オブジェクトが配置された場合に取得される視認画像71を示した図である。特に車両の位置はフロントカメラ19の位置とするので、取得された視認画像71は3次元空間に配置された案内オブジェクトをフロントカメラ19の視点から車両の進行方向に視認した際に視認できる像となるが、車両の乗員の視界にも相当する。 Next, in S45, the CPU 41 first acquires an image (hereinafter referred to as a visual image) of the three-dimensional space in which the guide object is arranged, viewed in the direction of travel of the vehicle from the vehicle position (corresponding to the viewpoint) identified in S42. For example, FIG. 15 is a diagram showing a visual image 71 acquired when the vehicle and guide object are arranged in the manner shown in FIG. 9. In particular, since the position of the vehicle is the position of the front camera 19, the acquired visual image 71 is an image that can be viewed when the guide object arranged in the three-dimensional space is viewed in the direction of travel of the vehicle from the viewpoint of the front camera 19, but also corresponds to the field of view of the vehicle occupant.

その後、CPU41は、視認画像71に含まれる案内オブジェクトの形状及び案内オブジェクトの位置を、液晶ディスプレイ15により表示対象とする案内オブジェクトの形状及び案内オブジェクトの位置として記憶する。ここで、前記S45で記憶される案内オブジェクトの形状は、3次元空間に配置された案内オブジェクトを車両(より正確にはフロントカメラ19)の視点から視認した際に視認できる案内オブジェクトの形状である。また、前記S45で記憶される案内オブジェクトの位置は、3次元空間に配置された案内オブジェクトを車両(より正確にはフロントカメラ19)の視点から視認した際に視認できる案内オブジェクトの位置である。 Then, the CPU 41 stores the shape and position of the guide object contained in the visual image 71 as the shape and position of the guide object to be displayed by the liquid crystal display 15. Here, the shape of the guide object stored in S45 is the shape of the guide object that can be seen when the guide object arranged in three-dimensional space is viewed from the viewpoint of the vehicle (more precisely, the front camera 19). In addition, the position of the guide object stored in S45 is the position of the guide object that can be seen when the guide object arranged in three-dimensional space is viewed from the viewpoint of the vehicle (more precisely, the front camera 19).

その後、S46においてCPU41は、前記S45で記憶された案内オブジェクトの形状及び案内オブジェクトの位置に基づいて、液晶ディスプレイ15において案内オブジェクトを表示する範囲を決定する。尚、案内オブジェクトの表示範囲は、前記S45で記憶される形状を有する案内オブジェクトが、3次元空間において配置された案内オブジェクトと同位置に表示される範囲となる。その後、S4へと移行し、前述したように液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して前記S45で記憶された形状の案内オブジェクトの画像を、前記S46で決定された表示範囲に表示する。 Then, in S46, the CPU 41 determines the range in which the guide object is to be displayed on the liquid crystal display 15, based on the shape and position of the guide object stored in S45. The display range of the guide object is the range in which the guide object having the shape stored in S45 is displayed at the same position as the guide object arranged in three-dimensional space. Then, the process proceeds to S4, where a control signal is sent to the liquid crystal display 15 as described above, and an image of the guide object having the shape stored in S45 is displayed on the liquid crystal display 15 in the display range determined in S46.

その結果、車両の走行に伴って液晶ディスプレイ15に表示される走行案内画面51は図16~図19のような画面となる。先ず、車両の車線変更に対する進捗状況が“フェーズ0”の状態では、図16に示すように第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の画像が、フロントカメラ19で撮像した車両の進行方向前方の風景52に重畳して表示される。尚、第1オブジェクト65の画像が重畳する位置は例えば車両の10m前方に相当する位置となる。また、第1オブジェクト65、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の画像は車線変更の進路に沿って配列された状態で視認される。また、各オブジェクトの矢印の向きは車線変更の方向を示す。従って、走行案内画面51を車両の乗員が視認した場合に、各矢印の配置と向きから車線変更における車両の移動方向と進路を把握可能となる。尚、フェーズ0の間は各オブジェクトの車両に対する相対位置は固定されるので、表示される各オブジェクトの画像の画面上の表示位置と表示サイズも固定となる。 As a result, the driving guidance screen 51 displayed on the liquid crystal display 15 as the vehicle travels becomes a screen as shown in Figs. 16 to 19. First, when the progress status of the lane change of the vehicle is in "phase 0", as shown in Fig. 16, the images of the first object 65, the second object 66, the third object 67, and the fourth object 68 are displayed superimposed on the scenery 52 in front of the vehicle in the traveling direction captured by the front camera 19. The position where the image of the first object 65 is superimposed is, for example, a position corresponding to 10 m ahead of the vehicle. The images of the first object 65, the second object 66, the third object 67, and the fourth object 68 are viewed in a state where they are arranged along the path of the lane change. The direction of the arrow of each object indicates the direction of the lane change. Therefore, when the vehicle occupant views the driving guidance screen 51, the moving direction and the path of the vehicle during the lane change can be understood from the arrangement and direction of each arrow. During Phase 0, the relative position of each object to the vehicle is fixed, so the display position and size of the image of each displayed object on the screen are also fixed.

その後、車両が車線変更を開始し、車両から区画線までの距離が閾値未満の状態となると、車両の車線変更に対する進捗状況が“フェーズ1”の状態へと移行する。フェーズ1の状態では、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の車両に対する相対位置は固定されるので、図16に示すように第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の画像については画面上の表示位置と表示サイズも固定となる。一方で第1オブジェクト65については車両からの相対位置が車両の走行速度に応じて車両側へと移動するので、図16に示すように第1オブジェクト65の画像は車両側に接近するように画面下方へ移動するとともに表示サイズも徐々に拡大する。そして、第1オブジェクト65の画像については最終的に画面外へと移動して表示対象から除外される。 After that, when the vehicle starts to change lanes and the distance from the vehicle to the lane marking becomes less than the threshold, the progress of the vehicle's lane change transitions to "Phase 1". In Phase 1, the relative positions of the second object 66, the third object 67, and the fourth object 68 to the vehicle are fixed, so that the display positions and display sizes on the screen of the images of the second object 66, the third object 67, and the fourth object 68 are also fixed, as shown in FIG. 16. On the other hand, the relative position of the first object 65 from the vehicle moves toward the vehicle in accordance with the vehicle's traveling speed, so that the image of the first object 65 moves toward the bottom of the screen so as to approach the vehicle, and the display size gradually increases, as shown in FIG. 16. Then, the image of the first object 65 finally moves off the screen and is excluded from the display targets.

その後、フェーズ1に移行してから所定時間が経過すると、車両の車線変更に対する進捗状況が“フェーズ2”の状態へと移行する。フェーズ2の状態では、第2オブジェクト66については車両からの相対位置が車両の走行速度に応じて車両側へと移動するので、図17に示すように第2オブジェクト66の画像は車両側に接近するように画面下方へ移動するとともに表示サイズも徐々に拡大する。そして、第2オブジェクト66の画像については最終的に画面外へと移動して表示対象から除外される。一方で、第3オブジェクト67及び第4オブジェクト68については車両からの相対位置が道路幅方向に沿って車線変更の方向と逆方向(左側の車線へ移動するのであれば右方向)へと移動するので、図17に示すように第3オブジェクト67及び第4オブジェクト68の画像は表示サイズについては変わらないが画面右側へと移動する。より具体的には風景52の変化に合わせて第3オブジェクト67の画像が区画線付近に常に位置し、第4オブジェクト68の画像が目標とする車線の中央付近に常に位置するように表示位置が移動する。 After that, when a predetermined time has elapsed since the transition to Phase 1, the progress status of the lane change of the vehicle transitions to the state of "Phase 2". In the state of Phase 2, the relative position of the second object 66 from the vehicle moves toward the vehicle according to the traveling speed of the vehicle, so that the image of the second object 66 moves downward on the screen so as to approach the vehicle, and the display size also gradually increases, as shown in FIG. 17. Then, the image of the second object 66 finally moves off the screen and is excluded from the display target. On the other hand, the relative positions of the third object 67 and the fourth object 68 from the vehicle move along the road width direction in the opposite direction to the direction of the lane change (to the right if moving to the left lane), so that the images of the third object 67 and the fourth object 68 move to the right side of the screen without changing the display size, as shown in FIG. 17. More specifically, the display position moves so that the image of the third object 67 is always located near the dividing line and the image of the fourth object 68 is always located near the center of the target lane in accordance with the change in the scenery 52.

その後、車両から区画線までの距離が閾値以上の状態となると、車両の車線変更に対する進捗状況が“フェーズ3”の状態へと移行する。フェーズ3の状態では、第4オブジェクト68の車両に対する相対位置は固定されるので、図18に示すように第4オブジェクト68の画像については画面上の表示位置と表示サイズも固定となる。一方で第3オブジェクト67については車両からの相対位置が車両の走行速度に応じて車両側へと移動するので、図18に示すように第3オブジェクト67の画像は車両側に接近するように画面下方へ移動するとともに表示サイズも徐々に拡大する。そして、第3オブジェクト67の画像については最終的に画面外へと移動して表示対象から除外される。 After that, when the distance from the vehicle to the lane marking becomes equal to or greater than the threshold, the progress of the vehicle's lane change transitions to "Phase 3". In Phase 3, the position of the fourth object 68 relative to the vehicle is fixed, so the display position and display size on the screen of the image of the fourth object 68 are also fixed, as shown in FIG. 18. On the other hand, the position of the third object 67 relative to the vehicle moves toward the vehicle in accordance with the vehicle's traveling speed, so the image of the third object 67 moves toward the bottom of the screen so as to approach the vehicle, and the display size gradually increases, as shown in FIG. 18. Then, the image of the third object 67 finally moves off the screen and is excluded from the display.

その後、フェーズ3に移行してから所定時間が経過すると、車両の車線変更に対する進捗状況が“フェーズ4”の状態へと移行する。フェーズ4の状態では、第4オブジェクト68について車両からの相対位置が車両の走行速度に応じて車両側へと移動するので、図19に示すように第4オブジェクト68の画像は車両側に接近するように画面下方へ移動するとともに表示サイズも徐々に拡大する。そして、第4オブジェクト68の画像については最終的に画面外へと移動して表示対象から除外される。 After that, when a predetermined time has elapsed since the transition to Phase 3, the progress of the vehicle's lane change transitions to "Phase 4". In Phase 4, the relative position of the fourth object 68 from the vehicle moves toward the vehicle in accordance with the vehicle's traveling speed, so that the image of the fourth object 68 moves toward the bottom of the screen so as to approach the vehicle, and the display size gradually increases, as shown in FIG. 19. Then, the image of the fourth object 68 finally moves off the screen and is removed from the display.

その結果、車両の乗員は走行案内画面51を視認した場合に、車線変更を行う前には複数の矢印からなる案内オブジェクトの画像の配置と各矢印の向きによって車線変更における車両の移動方向と進路を把握可能となる。また、車線移動を開始した後には、オブジェクト単位で、現在の車両の車線変更の進捗状況に対応する案内オブジェクトの画像の表示位置を、現在の車両の車線変更の進捗状況に対応する移動態様で移動させる。尚、第1実施形態で特定される車線変更の進捗状況は正確に検出したものではなく、区画線との相対位置と経過時間を使って予測されたものであるので、車両の車線変更の進捗状況の特定において多少の誤差が生じ、個々のオブジェクトの表示位置や形状に多少の違和感を生むこととなるが、案内オブジェクト全体では風景との対応関係について違和感を感じさせることなく、効果的な案内が可能となる。また、案内オブジェクトの画像を視認すれば、車線変更を行う前であるのか車線変更を行っている途中であるのか車線変更が完了したのかを車両の乗員が把握することも可能である。 As a result, when the vehicle occupant visually checks the driving guidance screen 51, the vehicle can grasp the moving direction and the course of the vehicle in the lane change from the arrangement of the image of the guidance object consisting of multiple arrows and the direction of each arrow before the lane change. In addition, after the lane change is started, the display position of the image of the guidance object corresponding to the current lane change progress of the vehicle is moved in a moving manner corresponding to the current lane change progress of the vehicle, for each object. Note that the lane change progress identified in the first embodiment is not detected accurately, but is predicted using the relative position with respect to the dividing line and the elapsed time, so there is some error in identifying the lane change progress of the vehicle, which creates some discomfort in the display position and shape of each object, but the guidance object as a whole does not cause discomfort in the correspondence with the scenery, and effective guidance is possible. In addition, by visually checking the image of the guidance object, the vehicle occupant can also grasp whether the lane change is before the lane change, the lane change is in progress, or the lane change is completed.

以上詳細に説明した通り、第1実施形態に係るナビゲーション装置1、案内オブジェクトの画像の描画方法及びナビゲーション装置1で実行されるコンピュータプログラムによれば、車両に車線変更を行うことを案内する案内オブジェクトを車両周辺の風景に重畳して表示する場合に、案内オブジェクトを互いに離間した複数のオブジェクトとするとともに、車両の車線変更に対する進捗状況を取得し(S2)、複数のオブジェクトについて、オブジェクト単位で車両の車線変更に対する進捗状況に従って表示態様を変更して表示する(S3、S4)ので、個々のオブジェクトの表示位置や形状に多少の違和感があったとしてもオブジェクト全体として車線変更の進捗状況に対して違和感を感じさせない案内が可能となる。従って、従来と比べて車線変更の進捗状況を特定する為の詳細な情報が不要となり、処理負荷についても軽減できる。
また、車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係と、経過時間とに基づいて、車両の車線変更に対する進捗状況を特定して取得する(S11~S20)ので、従来に比べて車線変更の進捗状況を特定する為の情報量を減らしつつ車両の車線変更に対する進捗状況を推定することが可能となる。従って、車両の車線変更に対する進捗状況の特定に係る処理負荷について軽減できる。
また、車両の車線変更に対する進捗状況は、車線変更前の車線を走行している段階と、車線変更中の段階と、車線変更後の車線を走行している段階の少なくとも3段階に区分されるので、車線変更の進捗状況を詳細に区分しない場合であっても、最低限必要な区分に従って案内オブジェクトの表示態様を変更することにより、車線変更の進捗状況に対して違和感を感じさせない案内が可能となる。
また、車両の車線変更に対する進捗状況は複数の段階に区分され、オブジェクト単位で複数の段階毎に表示位置の移動対象となるオブジェクトと移動態様が設定され、現在の車両の車線変更に対する進捗状況に対応するオブジェクトの表示位置を、現在の車両の車線変更に対する進捗状況に対応する移動態様で移動させる(S31~S41)ので、車線変更の進捗状況に対して違和感を感じさせない案内が可能となる。
また、複数のオブジェクトを車両の車線変更の進路に沿って配列し、車両の車線変更に対する進捗状況が進行するのに従って、車線変更の方向と逆方向に対して所定距離だけ移動させる第1のステップと、第1のステップにより移動した後のオブジェクトを車両側に移動させる第2のステップと、により表示態様を変更して表示する(S31~S41)ので、車両の車線変更の進捗状況に応じてオブジェクトを横方向及び縦方向に夫々移動させることにより、車線変更により移動する車両の乗員から視認される案内オブジェクトと風景との対応関係について違和感を感じさせない案内が可能となる。
As described above in detail, according to the navigation device 1, the method for drawing an image of a guidance object, and the computer program executed by the navigation device 1 in the first embodiment, when a guidance object for guiding a vehicle to change lanes is displayed superimposed on the scenery around the vehicle, the guidance object is made into a plurality of objects spaced apart from each other, the progress of the vehicle's lane change is acquired (S2), and the display mode of the plurality of objects is changed and displayed according to the progress of the vehicle's lane change for each object (S3, S4), so that even if there is some discomfort in the display position or shape of each object, guidance that does not give a sense of discomfort in the progress of the lane change for the objects as a whole is possible. Therefore, detailed information for identifying the progress of the lane change is not required compared to the conventional method, and the processing load can be reduced.
In addition, the progress of the vehicle's lane change is identified and acquired based on the relative positional relationship between the vehicle and the lane marking that is to be crossed by the lane change and the elapsed time (S11 to S20), so it is possible to estimate the progress of the vehicle's lane change while reducing the amount of information required to identify the progress of the lane change compared to the conventional method. Therefore, the processing load related to identifying the progress of the vehicle's lane change can be reduced.
In addition, the progress of a vehicle's lane change is divided into at least three stages: the stage of traveling in the lane before the lane change, the stage of changing the lane, and the stage of traveling in the lane after the lane change. Therefore, even if the progress of the lane change is not divided into detailed stages, by changing the display mode of the guidance object according to the minimum necessary division, it is possible to provide guidance that does not create a sense of incongruity regarding the progress of the lane change.
In addition, the progress of the vehicle's lane change is divided into a plurality of stages, and the object to be moved in display position and the movement pattern are set for each of the plurality of stages on an object-by-object basis, and the display position of the object corresponding to the progress of the current vehicle's lane change is moved in the movement pattern corresponding to the progress of the current vehicle's lane change (S31 to S41), making it possible to provide guidance that does not create a sense of incongruity regarding the progress of the lane change.
In addition, a plurality of objects are arranged along the path of the vehicle's lane change, and the display mode is changed and displayed through a first step of moving the objects a predetermined distance in the direction opposite to the lane change as the vehicle progresses in the lane change, and a second step of moving the objects moved in the first step toward the vehicle (S31 to S41).By moving the objects horizontally and vertically according to the progress of the vehicle's lane change, it is possible to provide guidance that does not create an awkward feeling about the correspondence between the guidance objects and the scenery as viewed by the occupants of the vehicle moving due to the lane change.

[第2実施形態]
次に、第2実施形態に係る重畳画像表示装置について図20及び図21に基づいて説明する。尚、以下の説明において上記図1乃至図19の第1実施形態に係る重畳画像表示装置の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置等の構成と同一あるいは相当部分を示すものである。
[Second embodiment]
Next, a superimposed image display device according to a second embodiment will be described with reference to Fig. 20 and Fig. 21. In the following description, the same reference numerals as those in the configuration of the superimposed image display device according to the first embodiment shown in Figs. 1 to 19 indicate the same or corresponding parts as those in the configuration of the superimposed image display device according to the first embodiment.

この第2実施形態に係る重畳画像表示装置の概略構成は、第1実施形態に係る重畳画像表示装置とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る重畳画像表示装置とほぼ同じ制御処理である。
ただし、第1実施形態に係る重畳画像表示装置が、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した撮像画像を表示し、更に液晶ディスプレイ15に対して案内オブジェクトを表示することによって、車両周辺の風景に案内オブジェクトを重畳させて表示するのに対して、第2実施形態に係る重畳画像表示装置は車両周辺の風景に重畳する画像を表示する手段としてヘッドアップディスプレイシステムを用いる点で異なる。
The schematic configuration of the superimposed image display device according to the second embodiment is almost the same as that of the superimposed image display device according to the first embodiment. In addition, various control processes are also almost the same as those of the superimposed image display device according to the first embodiment.
However, the superimposed image display device of the first embodiment differs in that it displays an image captured by the front camera 19 on the liquid crystal display 15 of the navigation device 1, and further displays a guide object on the liquid crystal display 15, thereby superimposing the guide object on the scenery around the vehicle, whereas the superimposed image display device of the second embodiment uses a head-up display system as a means for displaying an image to be superimposed on the scenery around the vehicle.

以下に第2実施形態に係る重畳画像表示装置の概略構成について図20を用いて説明する。図20は第2実施形態に係る重畳画像表示装置101の概略構成図である。
図20に示すように重畳画像表示装置101は、車両102に搭載されたナビゲーション装置103と、同じく車両102に搭載されるとともにナビゲーション装置103と接続されたフロントディスプレイ104とを基本的に有する。尚、フロントディスプレイ104は車両102のフロントガラス105とともにヘッドアップディスプレイとして機能し、車両102の乗員106に対して様々な情報の提供を行う情報提供手段となる。
A schematic configuration of the superimposed image display device according to the second embodiment will be described below with reference to Fig. 20. Fig. 20 is a schematic configuration diagram of a superimposed image display device 101 according to the second embodiment.
20 , the superimposed image display device 101 basically includes a navigation device 103 mounted on a vehicle 102, and a front display 104 also mounted on the vehicle 102 and connected to the navigation device 103. The front display 104 functions as a head-up display together with a windshield 105 of the vehicle 102, and serves as an information providing means for providing various information to an occupant 106 of the vehicle 102.

ここで、フロントディスプレイ104は、車両102のダッシュボード107内部に設置され、前面に設けられた画像表示面に対して画像を表示する機能を有する液晶ディスプレイである。バックライトとしては例えばCCFL(冷陰極管)や白色LEDが用いられる。尚、フロントディスプレイ104としては、液晶ディスプレイ以外に、有機ELディスプレイや液晶プロジェクタとスクリーンの組み合わせを用いても良い。 Here, the front display 104 is a liquid crystal display that is installed inside the dashboard 107 of the vehicle 102 and has the function of displaying images on an image display surface provided on the front. For example, a CCFL (cold cathode fluorescent lamp) or a white LED is used as the backlight. Note that, in addition to a liquid crystal display, the front display 104 may also be an organic electroluminescence display or a combination of a liquid crystal projector and a screen.

そして、フロントディスプレイ104は車両102のフロントガラス105とともにヘッドアップディスプレイとして機能し、フロントディスプレイ104から出力される画像を、運転席の前方のフロントガラス105に反射させて車両102の乗員106に視認させるように構成されている。尚、フロントディスプレイ104には、必要に応じて案内オブジェクトを表示する。尚、以下に説明する第2実施形態では案内オブジェクトは、第1実施形態と同様に車線変更を行うことが推奨されるタイミングにおいて表示され、車両に車線変更を行うことを案内する(即ち車線変更を促す)為の案内情報とする。より具体的には車両の進行方向前方の道路の路面に重畳して表示され、車線変更での車両の移動方向を示す複数個の矢印とする。 The front display 104 functions as a head-up display together with the windshield 105 of the vehicle 102, and is configured to reflect the image output from the front display 104 on the windshield 105 in front of the driver's seat so that it can be viewed by the occupants 106 of the vehicle 102. Note that the front display 104 displays a guide object as necessary. Note that in the second embodiment described below, the guide object is displayed at a timing when it is recommended to change lanes, as in the first embodiment, and serves as guide information to guide the vehicle to change lanes (i.e., to encourage the vehicle to change lanes). More specifically, it is displayed superimposed on the road surface ahead of the vehicle in the direction of travel, and is a plurality of arrows that indicate the direction of movement of the vehicle when changing lanes.

また、フロントガラス105を反射して乗員106がフロントディスプレイ104に表示された映像を視認した場合に、乗員106にはフロントガラス105の位置ではなく、フロントガラス105の先の遠方の位置にフロントディスプレイ104に表示された映像が虚像110として視認されるように構成される。また、虚像110は車両前方の周辺環境(風景、実景)に重畳して表示されることとなり、例えば車両前方に位置する任意の対象物(路面、建築物、警告対象となる物等)に重畳させて表示させることも可能である。 When the occupant 106 sees the image displayed on the front display 104 reflected by the windshield 105, the image displayed on the front display 104 is perceived by the occupant 106 not at the position of the windshield 105, but at a distant position beyond the windshield 105, as a virtual image 110. The virtual image 110 is displayed superimposed on the surrounding environment (landscape, real scene) in front of the vehicle, and can be displayed superimposed on any object (road surface, building, object that is the subject of a warning, etc.) located in front of the vehicle.

ここで、虚像110を生成する位置、より具体的には乗員106から虚像110までの距離(以下、結像距離という)Lについては、フロントディスプレイ104の位置によって決定される。例えば、フロントディスプレイ104において映像の表示された位置からフロントガラス105までの光路に沿った距離(光路長)によって結像距離Lが決定される。例えば結像距離Lが1.5mとなるように光路長が設定されている。 The position where the virtual image 110 is generated, more specifically the distance L from the occupant 106 to the virtual image 110 (hereinafter referred to as the imaging distance), is determined by the position of the front display 104. For example, the imaging distance L is determined by the distance (optical path length) along the optical path from the position where the image is displayed on the front display 104 to the windshield 105. For example, the optical path length is set so that the imaging distance L is 1.5 m.

また、車両のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ111が設置される。フロントカメラ111は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ111により撮像された撮像画像に対して画像処理が行われることによって、フロントガラス越しに乗員106に視認される前方環境(即ち虚像110が重畳される環境)の状況等が検出される。尚、フロントカメラ111の代わりにミリ波レーダ等のセンサを用いても良い。 A front camera 111 is also installed above the vehicle's front bumper or behind the rearview mirror. The front camera 111 is an imaging device having a camera using a solid-state imaging element such as a CCD, and is installed with its optical axis direction facing forward in the direction of travel of the vehicle. Image processing is then performed on the image captured by the front camera 111 to detect the condition of the forward environment (i.e. the environment on which the virtual image 110 is superimposed) as viewed by the occupant 106 through the windshield. Note that a sensor such as a millimeter wave radar may be used instead of the front camera 111.

また、車両のインストルメントパネルの上面には車内カメラ112が設置される。車内カメラ112は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を運転席に向けて設置される。車内において一般的に乗員の顔が位置すると予想される範囲を検出範囲(車内カメラ112の撮像範囲)として設定し、運転席に座った乗員106の顔を撮像する。そして、車内カメラ112により撮像された撮像画像に対して画像処理が行われることによって、乗員106の目の位置(視線開始点)や視線方向を検出する。 An in-vehicle camera 112 is also installed on the top surface of the vehicle's instrument panel. The in-vehicle camera 112 is an imaging device having a camera using a solid-state imaging element such as a CCD, and is installed with its optical axis direction facing the driver's seat. The range in the vehicle where the face of an occupant is generally expected to be located is set as the detection range (imaging range of the in-vehicle camera 112), and an image of the face of the occupant 106 sitting in the driver's seat is captured. Then, image processing is performed on the captured image captured by the in-vehicle camera 112 to detect the eye position (starting point of gaze) and gaze direction of the occupant 106.

そして、第2実施形態に係る重畳画像表示装置は、前述した走行支援処理プログラム(図2)のS4において、図21に示すようにフロントディスプレイ104に対して案内オブジェクトの画像120を表示する。その結果、図21に示すようにフロントディスプレイ104に表示された案内オブジェクトの画像120を車両の乗員が視認することによって、フロントガラス105越しの風景に重畳して案内オブジェクトの画像120の虚像121が視認される。 The superimposed image display device according to the second embodiment displays an image 120 of a guide object on the front display 104 as shown in FIG. 21 in S4 of the driving support processing program (FIG. 2) described above. As a result, when a vehicle occupant visually recognizes the image 120 of a guide object displayed on the front display 104 as shown in FIG. 21, a virtual image 121 of the image 120 of the guide object is visually recognized superimposed on the scenery seen through the windshield 105.

それによって、第1実施形態に係る重畳画像表示装置と同様に、車線変更における車両の移動方向と進路を把握可能となる。尚、第2実施形態に係る重畳画像表示装置では、前記S3の案内オブジェクト表示位置決定処理において、フロントディスプレイ104に対して表示する案内オブジェクトの形状及び案内オブジェクトを表示する位置(範囲)を決定する。また、前記S42で3次元空間に特定する自車両の現在位置及び方位は、車両の乗員の位置及び車内カメラ112を用いて検出した乗員の視線方向とするのが望ましい。 As a result, it becomes possible to grasp the direction of movement and course of the vehicle when changing lanes, just like the superimposed image display device according to the first embodiment. In the superimposed image display device according to the second embodiment, the shape of the guide object to be displayed on the front display 104 and the position (range) in which the guide object is to be displayed are determined in the guide object display position determination process of S3. In addition, it is preferable that the current position and orientation of the vehicle identified in three-dimensional space in S42 be the position of the vehicle occupant and the line of sight of the occupant detected using the in-vehicle camera 112.

尚、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば車両周辺の風景に重畳する画像を表示する手段として、第1実施形態では実景画像の表示された液晶ディスプレイ15を用い、第2実施形態ではヘッドアップディスプレイシステムを用いているが、フロントガラスに対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。WSDでは、フロントガラスをスクリーンとしてプロジェクタから映像を表示しても良いし、フロントガラスを透過液晶ディスプレイとしても良い。WSDによってフロントガラスに対して表示された画像は、車両周辺の風景に重畳する画像となる。
Incidentally, the present invention is not limited to the above-described embodiment, and it is needless to say that various improvements and modifications are possible without departing from the spirit and scope of the present invention.
For example, as a means for displaying an image to be superimposed on the scenery around the vehicle, the first embodiment uses the liquid crystal display 15 that displays an image of the actual scenery, and the second embodiment uses a head-up display system, but a windshield display (WSD) that displays an image on the windshield may also be used. In the WSD, the windshield may be used as a screen to display an image from a projector, or the windshield may be a transparent liquid crystal display. The image displayed on the windshield by the WSD becomes an image to be superimposed on the scenery around the vehicle.

また、第1及び第2実施形態では、案内オブジェクトは車線変更の進路に沿って配置された矢印形状からなる4個のオブジェクトとしているが、オブジェクトの形状は矢印以外であっても良い。例えば、円形や矩形形状の画像としても良い。また、オブジェクトの数についても4個に限られることなく、例えば3個や5個としても良い。 In the first and second embodiments, the guide objects are four arrow-shaped objects arranged along the lane change path, but the object shapes may be other than arrows. For example, they may be circular or rectangular images. The number of objects is not limited to four, and may be, for example, three or five.

また、第1及び第2実施形態では、車両の車線変更に対する進捗状況が“フェーズ1”である場合には第1オブジェクト65の表示位置のみを車両側に移動させ、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の表示位置は固定としているが、第2オブジェクト66、第3オブジェクト67、第4オブジェクト68の表示位置を道路幅方向に沿って車線変更の方向と逆方向に移動させるようにしても良い。また、車両の車線変更に対する進捗状況が“フェーズ3”である場合には第3オブジェクト67の表示位置のみを車両側に移動させ、第4オブジェクト68の表示位置は固定としているが、第4オブジェクト68の表示位置を道路幅方向に沿って車線変更の方向と逆方向に移動させるようにしても良い。また、第1及び第2実施形態では、車両の車線変更に対する進捗状況に従って案内オブジェジェクトの表示位置を変更しているが、表示位置を変更する以外に表示サイズを変更したり表示色を変更するようにしても良い。 In the first and second embodiments, when the progress of the lane change of the vehicle is "phase 1", only the display position of the first object 65 is moved toward the vehicle, and the display positions of the second object 66, the third object 67, and the fourth object 68 are fixed. However, the display positions of the second object 66, the third object 67, and the fourth object 68 may be moved in the opposite direction to the lane change along the road width direction. In the first and second embodiments, the display position of the guidance object is changed according to the progress of the lane change of the vehicle. However, in addition to changing the display position, the display size or the display color may be changed.

また、第1実施形態では、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した実景画像や案内オブジェクトを表示しているが、実景画像や案内オブジェクトを表示するディスプレイとしては車両内に配置されたディスプレイであれば、液晶ディスプレイ15以外のディスプレイであっても良い。 In the first embodiment, the real-world image captured by the front camera 19 and the guide objects are displayed on the LCD display 15 of the navigation device 1, but the display that displays the real-world image and the guide objects may be a display other than the LCD display 15 as long as it is a display disposed within the vehicle.

また、第2実施形態では、フロントディスプレイ104によって車両102のフロントガラス105の前方に虚像を生成する構成としているが、フロントガラス105以外のウィンドウの前方に虚像を生成する構成としても良い。また、フロントディスプレイ104により映像を反射させる対象はフロントガラス105自身ではなくフロントガラス105の周辺に設置されたバイザー(コンバイナー)であっても良い。 In the second embodiment, the front display 104 is configured to generate a virtual image in front of the windshield 105 of the vehicle 102, but the virtual image may be generated in front of a window other than the windshield 105. In addition, the object onto which the image is reflected by the front display 104 may not be the windshield 105 itself, but a visor (combiner) installed around the windshield 105.

また、第1及び第2実施形態では、走行支援処理プログラム(図2)の処理をナビゲーション装置1のナビゲーションECU13が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、液晶ディスプレイ15の制御部、車両制御ECU、その他の車載器が実行する構成としても良い。 In the first and second embodiments, the navigation ECU 13 of the navigation device 1 is configured to execute the processing of the driving assistance processing program (Figure 2), but the execution entity can be changed as appropriate. For example, the processing may be executed by the control unit of the liquid crystal display 15, the vehicle control ECU, or other in-vehicle device.

1…ナビゲーション装置、15…液晶ディスプレイ、19…フロントカメラ、41…CPU、42…RAM、43…ROM、51…走行案内画面、52…風景、53…案内オブジェクトの画像、60…車両、61,62…車線、63…車線境界線(区画線)、65…第1オブジェクト、66…第2オブジェクト、67…第3オブジェクト、68…第4オブジェクト 1...navigation device, 15...liquid crystal display, 19...front camera, 41...CPU, 42...RAM, 43...ROM, 51...travel guidance screen, 52...landscape, 53...image of guidance object, 60...vehicle, 61, 62...lane, 63...lane boundary line (dividing line), 65...first object, 66...second object, 67...third object, 68...fourth object

Claims (4)

車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、
車両に車線変更を行うことを案内する前記案内オブジェクトを表示するオブジェクト表示手段と、
車両の車線変更に対する進捗状況を取得する進捗状況取得手段と、を有し、
前記車両の車線変更に対する進捗状況は複数の段階に区分され、
前記案内オブジェクトは、互いに離間した複数のオブジェクトからなり、オブジェクト単位で前記複数の段階毎に表示位置の移動対象となるオブジェクトと移動態様が設定されており、
前記オブジェクト表示手段は、現在の車両の車線変更に対する進捗状況において表示位置の移動対象に設定されたオブジェクトを、オブジェクト単位で表示位置を設定された移動態様で移動させて表示する重畳画像表示装置。
A superimposed image display device is mounted on a vehicle, and displays a guide object for providing information to a vehicle occupant by superimposing the guide object on a landscape around the vehicle, the superimposed image display device comprising:
an object display means for displaying the guidance object for guiding the vehicle to change lanes;
a progress status acquisition means for acquiring a progress status of a lane change of a vehicle,
The progress of the vehicle in changing lanes is divided into a plurality of stages;
the guide object is composed of a plurality of objects spaced apart from each other, and an object to be moved as a display position and a manner of movement are set for each of the plurality of steps on an object-by-object basis;
The object display means is a superimposed image display device that displays objects set as targets for moving their display positions in the progress of the current vehicle's lane change by moving the display positions of the objects in a set movement manner on an object-by-object basis.
車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、
車両に車線変更を行うことを案内する前記案内オブジェクトを表示するオブジェクト表示手段と、
車両の車線変更に対する進捗状況を取得する進捗状況取得手段と、を有し、
前記案内オブジェクトは、互いに離間した複数のオブジェクトからなり、
前記オブジェクト表示手段は、
前記複数のオブジェクトを車両の車線変更の進路に沿って配列し、
車両の車線変更に対する進捗状況が進行するのに従って、前記複数のオブジェクトオブジェクト単位で、車線変更の方向と逆方向に対して所定距離だけ移動させる第1のステップと、前記第1のステップにより移動した後のオブジェクトを車両側に移動させる第2のステップと、により表示態様を変更して表示する重畳画像表示装置。
A superimposed image display device is mounted on a vehicle, and displays a guide object for providing information to a vehicle occupant by superimposing the guide object on a landscape around the vehicle, the superimposed image display device comprising:
an object display means for displaying the guidance object for guiding the vehicle to change lanes;
a progress status acquisition means for acquiring a progress status of a lane change of a vehicle,
The guide object is made up of a plurality of objects spaced apart from one another,
The object display means includes:
arranging the plurality of objects along a lane change path of the vehicle;
A superimposed image display device that changes and displays the display mode by performing a first step of moving the plurality of objects, on an object-by-object basis, a predetermined distance in a direction opposite to the direction of the lane change as the vehicle 's lane change progresses, and a second step of moving the objects that have been moved in the first step toward the vehicle .
前記進捗状況取得手段は、車両と車線変更によって跨ぐ対象となる区画線との間の相対位置関係と、経過時間とに基づいて、前記車両の車線変更に対する進捗状況を特定して取得する請求項1又は請求項2に記載の重畳画像表示装置。 The superimposed image display device according to claim 1 or claim 2, wherein the progress acquisition means identifies and acquires the progress of the vehicle's lane change based on the relative positional relationship between the vehicle and the dividing line that will be crossed by the lane change and the elapsed time . 前記車両の車線変更に対する進捗状況は、車線変更前の車線を走行している段階と、車線変更中の段階と、車線変更後の車線を走行している段階の少なくとも3段階に区分される請求項1乃至請求項3のいずれかに記載の重畳画像表示装置。 4. The superimposed image display device according to claim 1, wherein the progress of the vehicle in changing lanes is divided into at least three stages: a stage in which the vehicle is traveling in the lane before the lane change, a stage in which the lane is being changed, and a stage in which the vehicle is traveling in the lane after the lane change.
JP2021006483A 2021-01-19 2021-01-19 Overlay image display device Active JP7571565B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021006483A JP7571565B2 (en) 2021-01-19 2021-01-19 Overlay image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021006483A JP7571565B2 (en) 2021-01-19 2021-01-19 Overlay image display device

Publications (2)

Publication Number Publication Date
JP2022110828A JP2022110828A (en) 2022-07-29
JP7571565B2 true JP7571565B2 (en) 2024-10-23

Family

ID=82570136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021006483A Active JP7571565B2 (en) 2021-01-19 2021-01-19 Overlay image display device

Country Status (1)

Country Link
JP (1) JP7571565B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117774688B (en) * 2022-09-26 2025-09-26 华为技术有限公司 Display method, electronic device and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084112A (en) 2015-10-28 2017-05-18 株式会社デンソー Information presentation system
JP2019138773A (en) 2018-02-09 2019-08-22 トヨタ自動車株式会社 Display device
JP2019174459A (en) 2018-03-29 2019-10-10 株式会社リコー Control device, display device, mobile body, control method, and program
JP2019172070A (en) 2018-03-28 2019-10-10 株式会社リコー Information processing device, movable body, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084112A (en) 2015-10-28 2017-05-18 株式会社デンソー Information presentation system
JP2019138773A (en) 2018-02-09 2019-08-22 トヨタ自動車株式会社 Display device
JP2019172070A (en) 2018-03-28 2019-10-10 株式会社リコー Information processing device, movable body, information processing method, and program
JP2019174459A (en) 2018-03-29 2019-10-10 株式会社リコー Control device, display device, mobile body, control method, and program

Also Published As

Publication number Publication date
JP2022110828A (en) 2022-07-29

Similar Documents

Publication Publication Date Title
JP7694340B2 (en) Overlay image display device
JP6658905B2 (en) Travel support device and computer program
JP7476568B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP7120963B2 (en) display unit
JP2006243455A (en) Map display method, map display program, and map display device
US11828613B2 (en) Superimposed-image display device
JP2019027996A (en) Display method for vehicle and display device for vehicle
JP7571565B2 (en) Overlay image display device
JP2021038978A (en) Superimposed image display device and computer program
JP2024018205A (en) Superimposed image display device
JP7302389B2 (en) Superimposed image display device and computer program
JP2023097939A (en) Superimposed image display device
JP7571484B2 (en) Overlay image display device
JP7703954B2 (en) Overlay image display device
JP7484132B2 (en) Superimposed image display device and computer program
JP2019095214A (en) Superimposed image display device and computer program
JP2021076415A (en) Superimposed image display apparatus and computer program
JP2018173315A (en) Display device
JP7400356B2 (en) Superimposed image display device and computer program
JP2025086072A (en) Overlay image display device
JP2024071143A (en) Overlay image display device
JP2024033759A (en) Superimposed image display device
JP2024121324A (en) Overlay image display device
JP2024049817A (en) Overlay image display device
JP2025074512A (en) Overlay image display device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240923

R150 Certificate of patent or registration of utility model

Ref document number: 7571565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150