JP4574157B2 - Information display device and information display method - Google Patents
Information display device and information display method Download PDFInfo
- Publication number
- JP4574157B2 JP4574157B2 JP2003357201A JP2003357201A JP4574157B2 JP 4574157 B2 JP4574157 B2 JP 4574157B2 JP 2003357201 A JP2003357201 A JP 2003357201A JP 2003357201 A JP2003357201 A JP 2003357201A JP 4574157 B2 JP4574157 B2 JP 4574157B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- display device
- recognized
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、情報表示装置および情報表示方法に係り、特に、自車両前方の走行状況とナビゲーション情報とを重ねて表示する手法に関する。 The present invention relates to an information display device and an information display method, and more particularly, to a technique for displaying a traveling situation ahead of a host vehicle and navigation information in an overlapping manner.
近年、車両に設けられたディスプレイに、ナビゲーション情報とともに、前方の走行状況を表示する情報表示装置が注目されている。例えば、特許文献1には、赤外線カメラによって撮影された赤外画像のうち、自車両が走行する領域に対応する部分画像を、地図画像に重ね合わせて表示画面上に表示する車両用表示装置が開示されている。この特許文献1によれば、必要性の低い部分がカットされた赤外画像を地図画像に重ね合わせることにより、障害物の種類や大きさなどの認識が容易となり、対象物の認知性の向上を図ることができる。また、特許文献2には、クルーズコントロール装置において、地図情報から生成した道路形状に周辺車両や追従車両の位置情報を重ねて表示する情報表示装置が開示されている。この特許文献2によれば、自車位置を示すマーク、追従車の位置を示すマーク、および追従車両以外の周辺車両位置を示すマークが、それぞれ色や模様を変えて道路上に重ねて表示される。
しかしながら、上記の特許文献1によれば、赤外画像をそのまま表示するに過ぎず、利用者は動的に変化する画像から障害物を認識することとなる。また、特許文献2によれば、自車両、追従車両および周辺車両が異なる表示形態で表示されるものの、その表示からは、それ以上の情報を得ることはできない。このような情報表示装置は、安全かつ快適なドライブを楽しむための装置であり、利用者にとっての使い勝手のよさが付加価値となり、購買意欲があおられることになる。そのため、この類の装置では、使い勝手がよく、かつ、その装置にユニークな機能が求められている。
However, according to
本発明は、かかる事情に鑑みてなされたものであり、その目的は、ナビゲーション情報と走行状況とを重ねて表示する情報表示装置において、利用者の利便性の向上を図ることである。 The present invention has been made in view of such circumstances, and an object of the present invention is to improve user convenience in an information display device that displays navigation information and a traveling state in an overlapping manner.
かかる課題を解決するために、第1の発明は、自車両の走行に応じて、ドライバーズアイによる表示手法で表示されるナビゲーション情報に、自車両前方の走行状況を検出するプレビューセンサから得られた情報を重ねて表示する情報表示装置において、
プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、認識された対象物を対象物が属する種類に分類するとともに、道路形状を規定する道路モデルを算出する認識部と、認識部により認識された対象物とナビゲーション情報とに基づいて、表示すべき情報を決定する制御部と、制御部によって制御され、決定された情報を表示する表示装置とを有する情報表示装置を提供する。ここで、制御部は、ナビゲーション情報の道路位置と、認識部により算出された道路モデルを基準とした対象物の位置とを対応付けて、認識された対象物を示すシンボルとナビゲーション情報とを重ねて表示するように表示装置を制御するとともに、それぞれが対象物が属する種類に対応した複数の異なる表示カラーを用いてシンボルを表示するように表示装置を制御する。
In order to solve such problems, a first invention, in accordance with the traveling of the vehicle, the navigation information displayed on the display method according to the driver's eye, obtained from the preview sensor for detecting the running condition of the vehicle ahead in the information display apparatus for displaying overlapping information,
Based on the detection result of the preview sensor recognizes the vehicle ahead of the object, with the object the recognized object is classified into the type belonging, a recognition unit that calculates a road model which defines the road shape recognition Provided is an information display device comprising: a control unit that determines information to be displayed based on an object recognized by the unit and navigation information; and a display device that is controlled by the control unit and displays the determined information . Here, the control unit associates the road position of the navigation information with the position of the object based on the road model calculated by the recognition unit , and superimposes the symbol indicating the recognized object and the navigation information. The display device is controlled so that the symbols are displayed using a plurality of different display colors corresponding to the type to which the object belongs.
ここで、第1の発明において、認識部は、少なくとも自動車、二輪車、歩行者および障害物のいずれかに認識された対象物を分類することが好ましい。 Here, in the first invention, it is preferable that the recognition unit classifies an object recognized as at least one of an automobile, a two-wheeled vehicle, a pedestrian, and an obstacle.
また、第2の発明は、自車両の走行に応じて、ドライバーズアイによる表示手法で表示されるナビゲーション情報に、自車両前方の走行状況を検出するプレビューセンサから得られた情報を重ねて表示する情報表示方法において、コンピュータが、プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、認識された対象物を対象物が属する種類に分類するとともに、道路形状を規定する道路モデルを算出する第1のステップと、コンピュータが、認識された対象物とナビゲーション情報とに基づいて、表示すべき情報を決定するとともに、表示装置を制御することにより、決定された情報を表示する第2のステップとを有する情報表示方法を提供する。ここで、第2のステップは、ナビゲーション情報の道路位置と、道路モデルを基準とした対象物の位置とを対応付けて、認識された対象物を示すシンボルとナビゲーション情報とを重ねて表示するように表示装置を制御するとともに、それぞれが対象物が属する種類に対応した複数の異なる表示カラーを用いてシンボルを表示するように表示装置を制御する。 The second invention is, according to the traveling of the vehicle, the navigation information displayed on the display method according to the driver's eye, displays superimposed information obtained from the preview sensor for detecting the running condition of the vehicle ahead in the information display method, the computer, on the basis of the detection result of the preview sensor recognizes the vehicle ahead of the object, with the object the recognized object is classified into the type belonging, road model defining the road shape A first step of calculating the first step, and the computer determines the information to be displayed based on the recognized object and the navigation information, and controls the display device to display the determined information. An information display method having two steps is provided. Here, the second step associates the road position of the navigation information with the position of the object based on the road model, and displays the symbol indicating the recognized object and the navigation information in an overlapping manner. In addition to controlling the display device, the display device is controlled to display symbols using a plurality of different display colors corresponding to the types to which the object belongs.
ここで、第2の発明において、第1のステップは、少なくとも自動車、二輪車、歩行者および障害物のいずれかに認識された対象物を分類するステップであることが好ましい。 Here, in the second invention, it is preferable that the first step is a step of classifying an object recognized as at least one of an automobile, a two-wheeled vehicle, a pedestrian, and an obstacle.
また、第3の発明は、自車両の走行に応じて、ドライバーズアイによる表示手法で表示されるナビゲーション情報に、自車両前方の走行状況を検出するプレビューセンサから得られた情報を重ねて表示する情報表示装置において、プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、認識された対象物の自車両に対する危険の程度を示す危険度を算出するとともに、道路形状を規定する道路モデルを算出する認識部と、認識部により認識された対象物とナビゲーション情報とに基づいて、表示すべき情報を決定する制御部と、制御部によって制御され、決定された情報を表示する表示装置とを有する情報表示装置を提供する。ここで、制御部は、ナビゲーション情報の道路位置と、認識部により算出された道路モデルを基準とした対象物の位置とを対応付けて、認識された対象物を示すシンボルとナビゲーション情報とを重ねて表示するように表示装置を制御するとともに、それぞれが危険度に対応した複数の異なる表示カラーを用いてシンボルを表示するように表示装置を制御する。 The third invention is according to the traveling of the vehicle, the navigation information displayed on the display method according to the driver's eye, displays superimposed information obtained from the preview sensor for detecting the running condition of the vehicle ahead In the information display device, based on the detection result of the preview sensor, the object ahead of the host vehicle is recognized , the risk level indicating the degree of danger of the recognized object to the host vehicle is calculated , and the road shape is defined. A recognition unit that calculates a road model, a control unit that determines information to be displayed based on the object recognized by the recognition unit and navigation information, and a display that displays the determined information controlled by the control unit An information display apparatus having the apparatus is provided. Here, the control unit associates the road position of the navigation information with the position of the object based on the road model calculated by the recognition unit , and superimposes the symbol indicating the recognized object and the navigation information. The display device is controlled so that the symbols are displayed using a plurality of different display colors corresponding to the degree of risk.
さらに、第4の発明は、自車両の走行に応じて、ドライバーズアイによる表示手法で表示されるナビゲーション情報に、自車両前方の走行状況を検出するプレビューセンサから得られた情報を重ねて表示する情報表示方法において、コンピュータが、プレビューセンサから得られた情報に基づいて、自車両前方の対象物を認識し、認識された対象物の自車両に対する危険の程度を示す危険度を算出する第1のステップと、コンピュータが、認識された対象物とナビゲーション情報とに基づいて、表示すべき情報を決定するとともに、表示装置を制御することにより、決定された情報を表示する第2のステップとを有する情報表示方法を提供する。ここで、第2のステップは、ナビゲーション情報の道路位置と、道路モデルを基準とした対象物の位置とを対応付けて、認識された対象物を示すシンボルとナビゲーション情報とを重ねて表示するように表示装置を制御するとともに、それぞれが危険度に対応した複数の異なる表示カラーを用いてシンボルを表示するように表示装置を制御する。 Further, the fourth invention, in accordance with the traveling of the vehicle, the navigation information displayed on the display method according to the driver's eye, displays superimposed information obtained from the preview sensor for detecting the running condition of the vehicle ahead In the information display method, the computer recognizes an object ahead of the host vehicle based on information obtained from the preview sensor, and calculates a risk level indicating a degree of danger of the recognized object to the host vehicle. And a second step in which the computer determines information to be displayed based on the recognized object and the navigation information, and displays the determined information by controlling the display device. Provided is an information display method. Here, the second step associates the road position of the navigation information with the position of the object based on the road model, and displays the symbol indicating the recognized object and the navigation information in an overlapping manner. In addition to controlling the display device, the display device is controlled to display symbols using a plurality of different display colors each corresponding to the degree of danger.
ここで、第3の発明または第4の発明において、表示カラーは、危険度に応じて三色以上に設定されていることが好ましい。 Here, in the third invention or the fourth invention, the display color is preferably set to three or more colors according to the degree of danger.
本発明によれば、プレビューセンサにおける検出結果に基づいて、自車両前方に存在する対象物が認識される。そして、この対象物を示すシンボルとナビゲーション情報とが重ねて表示される。この場合、表示されるシンボルは、認識された対象物に応じて異なる表示カラーで表示されるように表示装置が制御される。そのため、色彩によって対象物の違いを判断することができるので、利用者の認視性の向上を図ることができる。その結果、利用者の利便性の向上を図ることができる。また、ドライバーズアイによる表示手法において、ナビゲーション情報の道路位置と、道路モデルを基準とした立体物の位置とを対応付けることにより、より正確な位置にシンボルを表示することができる。 According to the present invention, an object existing ahead of the host vehicle is recognized based on the detection result of the preview sensor. A symbol indicating the object and navigation information are displayed in an overlapping manner. In this case, the display device is controlled so that the displayed symbols are displayed in different display colors depending on the recognized object. Therefore, the difference in the object can be determined based on the color, so that the visibility of the user can be improved. As a result, it is possible to improve user convenience. Further, in the display method using the driver's eye, the symbol can be displayed at a more accurate position by associating the road position of the navigation information with the position of the three-dimensional object based on the road model.
図1は、本実施形態にかかる情報表示装置1の全体構成を示すブロック図である。自車両前方の走行状況を検出するプレビューセンサ2としては、ステレオカメラおよび画像処理系で構成された周知のステレオ画像処理装置を用いることができる。
FIG. 1 is a block diagram showing the overall configuration of the
車両前方の景色を撮像するステレオカメラは、例えば、ルームミラー近傍に取付けられている。このステレオカメラは、一対のカメラ20,21で構成されており、それぞれのカメラ20,21には、イメージセンサ(例えば、CCDまたはCMOSセンサ等)が内蔵されている。メインカメラ20は、ステレオ画像処理を行う際に必要な基準画像を撮像し、サブカメラ21は、比較画像を撮像する。互いの同期が取れている状態において、カメラ20,21から出力された各アナログ画像は、A/Dコンバータ22,23により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
A stereo camera that captures the scenery in front of the vehicle is attached, for example, in the vicinity of a room mirror. This stereo camera includes a pair of
デジタル化された一対の画像データは、画像補正部24において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ20,21の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。
The pair of digitized image data is subjected to brightness correction, image geometric conversion, and the like in the
このような画像処理を経て、メインカメラ20より基準画像データが得られ、サブカメラ21より比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当のステレオ画像データは、後段のステレオ画像処理部25に出力されるとともに、画像データメモリ26に格納される。
Through such image processing, reference image data is obtained from the
ステレオ画像処理部25は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差の集合であり、個々の視差は画像平面上の位置(i,j)と対応付けられている。それぞれの視差は、基準画像の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。
The stereo
ある画素ブロック(相関元)に関する視差を算出する場合、この画素ブロックの輝度特性と相関を有する領域(相関先)を比較画像において特定する。カメラ20,21から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部25は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックの視差とする。ステレオ画像処理部25のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データ、すなわち、画像上の位置(i,j)と対応付けられた視差の集合は、距離データメモリ27に格納される。
When calculating the parallax regarding a certain pixel block (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of this pixel block is specified in the comparison image. The distance from the
マイクロコンピュータ3は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、認識部4と、制御部5とを有する。認識部4は、プレビューセンサ2における検出結果に基づいて、自車両前方の対象物を認識するとともに、認識された対象物を、この対象物が属する種類に分類する。認識部4が認識すべき対象物は、典型的に、立体物であり、本実施形態では、自動車、二輪車、歩行者および障害物(例えば、道路上の落下物、道路工事用のパイロンや道路脇の立木など)の四種類がこれに該当する。制御部5は、認識部4によって認識された対象物と、ナビゲーション情報とに基づいて、表示装置6に対して表示すべき情報を決定する。そして、制御部5は、表示装置6を制御することにより、認識された対象物を示すシンボルとナビゲーション情報とを重ねて表示する。そのため、マイクロコンピュータ3のROMには、対象物(本実施形態では、自動車、二輪車、歩行者および障害物)を示すシンボルが、所定の形式(例えば、画像やワイヤーフレームモデル)のデータで格納されている。そして、これらの対象物を示すシンボルは、それぞれの対象物が属する種類に対応した複数の異なる表示カラーを用いて表示される。また、認識部4は、対象物の認識結果に基づいて、ドライバーへの警報が必要と判定した場合には、表示装置6やスピーカ7を動作させ、ドライバーに注意喚起を促すことができる。また、認識部4は、必要に応じて制御装置8を制御し、シフトダウン、ブレーキコントロールなどの車両制御を行ってもよい。
The
ここで、ナビゲーション情報は、自車両の現在位置や自車両の予定経路を地図情報とともに表示するために必要な情報であり、周知のナビゲーションシステム9から取得することができる。このナビゲーションシステム9は、図1には明記されていないが、車速センサ、ジャイロスコープ、GPS受信機、地図データ入力部、およびナビ制御部を主体に構成されている。車速センサは車両の速度を検出するセンサであり、ジャイロスコープは車両に加わる回転運動の角速度に基づいて車両の方位角変化量を検出する。GPS受信機は、アンテナを介し、GPS用の人工衛星から送信された電波を受信し、車両の位置、方位(進行方向)などといった測位情報を検出する。地図データ入力部は、一般にCD−ROMやDVDといった記録媒体に格納された地図情報のデータ(以下「地図データ」という)をシステム9に入力するための装置である。ナビ制御部は、GPS受信機から得られる測位情報、或いは車速に応じた車両の移動距離および車両の方位変化量に基づいて、車両の現在位置を算出する。算出された現在位置、およびこの現在位置に対応した地図データは、ナビゲーション情報として上記の制御部5に対して出力される。 Here, the navigation information is information necessary for displaying the current position of the host vehicle and the planned route of the host vehicle together with the map information, and can be acquired from the known navigation system 9. Although not shown in FIG. 1, the navigation system 9 is mainly composed of a vehicle speed sensor, a gyroscope, a GPS receiver, a map data input unit, and a navigation control unit. The vehicle speed sensor is a sensor that detects the speed of the vehicle, and the gyroscope detects the amount of change in the azimuth angle of the vehicle based on the angular velocity of the rotational motion applied to the vehicle. The GPS receiver receives radio waves transmitted from a GPS artificial satellite via an antenna and detects positioning information such as the position and direction (traveling direction) of the vehicle. The map data input unit is a device for inputting map information data (hereinafter referred to as “map data”) stored in a recording medium such as a CD-ROM or DVD to the system 9. The navigation control unit calculates the current position of the vehicle on the basis of the positioning information obtained from the GPS receiver or the moving distance of the vehicle and the direction change amount of the vehicle according to the vehicle speed. The calculated current position and map data corresponding to the current position are output to the control unit 5 as navigation information.
図2は、本実施形態にかかる情報表示処理の手順を示したフローチャートである。このフローチャートに示すルーチンは所定間隔毎に呼び出され、マイクロコンピュータ3によって実行される。ステップ1において、プレビューセンサ2における検出結果、すなわち、自車両前方の走行状況を認識するために必要な情報が取得される。プレビューセンサ2として機能するステレオ画像処理装置では、このステップ1において、距離データメモリ27に格納された距離データが読み込まれる。なお、必要に応じて、画像データメモリ26に格納された画像データも読み込まれる。
FIG. 2 is a flowchart showing a procedure of information display processing according to the present embodiment. The routine shown in this flowchart is called at predetermined intervals and executed by the
ステップ2において、自車両前方に存在する立体物が認識される。立体物認識では、まず、グループフィルタ処理によって距離データに含まれるノイズ、すなわち、信頼性が低いと思われる視差が除去される。ノイズ等の影響によるミスマッチにより生じた視差は、周囲の視差の値と大きく異なり、かつ、その視差と同様の値を有するグループの面積が比較的小さくなるという特性がある。そこで、それぞれの画素ブロックに関して算出された視差について、その上下および左右方向に隣接した画素ブロックにおける視差との変化量が所定のしきい値以内のものをグループ化する。そして、グループの面積の大きさが検出され、所定の大きさ(例えば2画素ブロック)よりも大きな面積を有するグループが有効グループと判断される。一方、所定の大きさ以下の面積を有するグループに属する距離データ(孤立距離データ)は、算出された視差の信頼性が低いと判断され、距離データから除去される。
In
つぎに、グループフィルタ処理によって抽出された視差と、この視差に対応する画像平面上の座標位置とに基づいて、周知の座標変換式を用いて、実空間上の位置が算出される。そして、算出された実空間上の位置と、道路面の位置とを比較することにより、道路面よりも上に位置する視差、すなわち、立体物に相当する視差(以下「立体物視差」という)が抽出される。道路面の位置は、道路形状を規定する道路モデルを算出することにより、特定可能である。道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出される。路面上に描かれた白線は道路面と比較して高輝度であるという知得に基づき、画像データが参照される。この画像データに基づいて、道路の幅方向の輝度変化を評価することにより、画像平面上の左右の白線の位置が特定される。そして、この白線の画像平面上の位置に基づき、距離データを用いて白線の実空間上の位置が検出される。道路モデルは、道路上の白線を距離方向に複数区間に分割し、各区間における左右の白線を三次元の直線で近似し、これらを折れ線状に連結することにより、算出される。 Next, based on the parallax extracted by the group filter processing and the coordinate position on the image plane corresponding to the parallax, a position in the real space is calculated using a known coordinate conversion formula. Then, by comparing the calculated position in the real space with the position of the road surface, the parallax positioned above the road surface, that is, the parallax corresponding to the three-dimensional object (hereinafter referred to as “three-dimensional object parallax”). Is extracted. The position of the road surface can be specified by calculating a road model that defines the road shape. The road model is expressed by a linear equation in the horizontal direction and the vertical direction in the coordinate system of the real space, and is calculated by setting the parameters of the linear equation to values that match the actual road shape. Based on the knowledge that the white line drawn on the road surface is higher in luminance than the road surface, the image data is referred to. Based on this image data, the position of the left and right white lines on the image plane is specified by evaluating the luminance change in the width direction of the road. Based on the position of the white line on the image plane, the position of the white line in the real space is detected using the distance data. The road model is calculated by dividing the white line on the road into a plurality of sections in the distance direction, approximating the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line shape.
つぎに、距離データが格子状に区分され、この格子状の区分毎に、各区分に属する立体物視差に関するヒストグラムが作成される。このヒストグラムは単位区分あたりに含まれる立体物視差の頻度の分布を示しており、このヒストグラムにおいて、ある立体物を示す視差の頻度は高くなる。そのため、作成されたヒストグラムにおいて、度数が判定値以上となる立体物視差を検出することにより、この検出された立体物視差を自車両前方に存在する立体物の候補として検出する。この際、立体物の候補までの距離も算出される。つぎに、隣接する区分において、算出された距離が近接する立体物の候補同士がグループ化され、各グループが立体物として認識される。認識された立体物は、左右の端部位置、中心位置および距離などがパラメータとして対応付けられる。なお、グループフィルタにおける具体的な処理手順、および立体物認識の具体的な処理手順については、特開平10−285582号公報に開示されているので、必要ならば参照されたい。 Next, the distance data is sectioned in a grid pattern, and a histogram relating to the three-dimensional object parallax belonging to each section is created for each grid pattern section. This histogram shows the distribution of the frequency of the three-dimensional object parallax included per unit section. In this histogram, the frequency of the parallax indicating a certain three-dimensional object is high. Therefore, by detecting the three-dimensional object parallax whose frequency is equal to or higher than the determination value in the created histogram, the detected three-dimensional object parallax is detected as a candidate for a three-dimensional object existing in front of the host vehicle. At this time, the distance to the candidate for the three-dimensional object is also calculated. Next, three-dimensional object candidates whose calculated distances are close to each other are grouped in adjacent sections, and each group is recognized as a three-dimensional object. The recognized three-dimensional object is associated with the left and right end positions, the center position, the distance, and the like as parameters. A specific processing procedure in the group filter and a specific processing procedure for three-dimensional object recognition are disclosed in Japanese Patent Laid-Open No. 10-285582, so refer to them if necessary.
ステップ3において、認識された立体物が、その立体物が属する種類に分類される。認識された立体物は、例えば、以下の(1)〜(3)に示す条件に基づいて、分類される。
(1) 立体物の横方向の幅が判定値以下であるか
認識された立体物のうち、自動車は他の立体物(二輪車、歩行者および障害物)と比較して横方向の幅が大きいため、立体物の横幅を基準として、自動車と他の立体物とを切り分けることができる。そのため、適切に設定された判定値(例えば、1m)を用いることにより、立体物の横幅が判定値よりも大きな立体物は、その種類が自動車に分類される。
(2) 立体物の速度Vが判定値以下であるか
自動車を除く立体物のうち、二輪車は他の立体物(歩行者および障害物)と比較してその速度Vが大きいため、立体物の速度Vを基準として、二輪車と他の立体物とを切り分けることができる。そのため、適切に設定された判定値(例えば、10kn/h)を用いることにより、立体物の速度Vが判定値よりも大きな立体物は、その種類が二輪車に分類される。なお、立体物の速度Vは、現在の立体物の位置と所定時間前の立体物の位置とに基づいて算出される相対速度Vrと、現在の自車両の速度V0とに基づき、算出可能である。
(3) 速度Vが0であるか
自動車および二輪車を除く立体物のうち、障害物はその速度Vが0であるため、立体物の速度Vを判断基準として、歩行者と障害物とを切り分けることができる。そこで、その速度が0となる立体物は、その種類が障害物に分類される。
In
(1) Of the three-dimensional objects that are recognized as to whether the horizontal width of the three-dimensional object is equal to or less than the determination value, the automobile has a larger width in the horizontal direction than other three-dimensional objects (two-wheeled vehicle, pedestrian, and obstacle) Therefore, it is possible to separate the automobile and the other three-dimensional object based on the width of the three-dimensional object. Therefore, by using an appropriately set determination value (for example, 1 m), the three-dimensional object whose width of the three-dimensional object is larger than the determination value is classified as an automobile.
(2) Since the speed V of the three-dimensional object is equal to or lower than the judgment value or the three-dimensional object excluding the automobile, the two-wheeled vehicle has a higher speed V than other three-dimensional objects (pedestrians and obstacles). On the basis of the speed V, the two-wheeled vehicle and other three-dimensional objects can be separated. Therefore, by using an appropriately set determination value (for example, 10 kn / h), a three-dimensional object having a three-dimensional object speed V greater than the determination value is classified as a two-wheeled vehicle. The speed V of the three-dimensional object can be calculated based on the relative speed Vr calculated based on the current position of the three-dimensional object and the position of the three-dimensional object a predetermined time ago and the current speed V0 of the host vehicle. is there.
(3) Among the three-dimensional objects excluding automobiles and two-wheeled vehicles, whether the speed V is 0 or not, since the speed V of the obstacle is 0, the pedestrian and the obstacle are separated using the speed V of the three-dimensional object as a criterion. be able to. Therefore, the three-dimensional object whose speed is 0 is classified as an obstacle.
なお、これらの条件以外にも、立体物の高さを比較することにより、歩行者と自動車とを切り分けてもよい。また、実空間上での位置が白線位置(道路モデル)よりも外側に存在する立体物を歩行者と分類してもよいし、横方向に移動する立体物を、道路を横断する歩行者と分類してもよい。 In addition to these conditions, the pedestrian and the car may be separated by comparing the heights of the three-dimensional objects. In addition, a three-dimensional object whose position in the real space is outside the white line position (road model) may be classified as a pedestrian, or a three-dimensional object that moves in the horizontal direction is a pedestrian that crosses the road. You may classify.
ステップ4において、ナビゲーション情報と、認識された立体物とに基づいて、表示処理が行われる。まず、制御部5は、立体物の属する種類に基づいて、この立体物を表示装置6に表示するためのシンボルを決定する。図3は、シンボルの一例を示した模式図である。同図には、各種類に属する立体物を表示するためのシンボルが示されており、各シンボルはその種類を模したデザインとなっている。(a)はその種類が「自動車」と分類された立体物を表示するためのシンボルであり、同図(b)はその種類が「二輪車」と分類された立体物を表示するためのシンボルである。また、同図(c)はその種類が「歩行者」と分類された立体物を表示するためのシンボルであり、同図(d)はその種類が「障害物」と分類された立体物を表示するためのシンボルである。
In step 4, display processing is performed based on the navigation information and the recognized three-dimensional object. First, the control unit 5 determines a symbol for displaying the three-dimensional object on the
例えば、立体物の種類が「二輪車」と分類されているケースでは、制御部5は、その立体物を示すシンボルとして、図3(b)に示すシンボルを表示するように表示装置6を制御する。なお、同一の種類に分類された立体物が2つ以上認識されているケース、或いは異なる種類に分類された立体物が2つ以上認識されているケースでは、各々認識された立体物の種類に対応したシンボルが表示されように表示装置6が制御される。
For example, in the case where the type of the three-dimensional object is classified as “two-wheeled vehicle”, the control unit 5 controls the
そして、制御部5は、次の(1),(2)に示す表示形態となるように表示装置6を制御する。
(1) シンボルとナビゲーション情報とを重ねて表示する
プレビューセンサ2を用いた立体物認識において、立体物の位置は、自車両を原点位置とした座標系(本実施形態では三次元座標系)で表現される。そこで、制御部5は、ナビゲーションシステム9から得られる自車両の現在位置を基準に、認識された立体物の位置を考慮した上で、各立体物に対応するシンボルと地図データとを重ね合わせる。この場合、道路モデルを参照し、地図データ上の道路位置と、道路モデルを基準とした立体物の位置とを対応付けることにより、より正確な位置にシンボルを表示することができる。
(2) シンボルを所定の表示カラーで表示する
地図データ上に表示されるシンボルは、その立体物の属する種類に対応して表示カラーが予め設定されている。本実施形態では、交通環境における弱者保護という観点から、最も注意すべき歩行者を示すシンボルには色彩的に目立つ赤色、次に注意すべき二輪車を示すシンボルには黄色の表示カラーが設定されている。また、自動車を示すシンボルには青色、障害物を示すシンボルには緑色の表示カラーが対応付けられている。そのため、制御部5は、シンボルを表示する際には、そのシンボルを、立体物が属する種類に応じた表示カラーで表示されるように表示装置6を制御する。
And the control part 5 controls the
(1) In the three-dimensional object recognition using the
(2) Displaying Symbols in a Predetermined Display Color Symbols displayed on the map data have a display color set in advance corresponding to the type to which the three-dimensional object belongs. In the present embodiment, from the viewpoint of protecting the weak in the traffic environment, the symbol indicating the pedestrian to be most careful is set to a red color that stands out in color, and the symbol indicating the next motorcycle to be noted is set to a yellow display color. Yes. Further, a blue display color is associated with a symbol indicating an automobile, and a green display color is associated with a symbol indicating an obstacle. Therefore, when displaying the symbol, the control unit 5 controls the
図4は表示装置6の表示状態を示す説明図である。同図には、自動車が二台、二輪車が一台、歩行者が一人だけ認識されるケースにおいて、いわゆる、ドライバーズアイと呼ばれる手法を用いて地図データが表示されており、その上に各立体物を示すシンボルが重ねて表示されている。上述したように、表示装置6に表示されるシンボルは、その種類によって表示カラーが設定されており、同一の種類に分類された立体物を示すシンボルのみが同一の表示カラーで表示される。
FIG. 4 is an explanatory diagram showing a display state of the
なお、同図に示すように、制御部5は、上記の(1),(2)の条件以外にも、シンボルに遠近感が表現されるように、表示装置6を制御してもよい。このケースでは、認識された立体物から自車両までの距離に応じ、遠方に存在する立体物ほど、そのシンボルの表示サイズが小さくなる。また、制御部5は、位置的に遠方に表示されるシンボルと、それよりも近い位置に表示されるシンボルとがオーバーラップするようなケースでは、前者のシンボルが後者のシンボルよりも上面側に表示されるように、表示装置6を制御してもよい。これにより、遠方のシンボルが、近傍のシンボルによって覆い隠されるため、シンボルの認視性が向上するとともに、シンボル間の位置的な前後関係を表現することができる。
As shown in the figure, the control unit 5 may control the
このように、本実施形態によれば、プレビューセンサにおける検出結果に基づいて、自車両前方に存在する対象物(本実施形態では、立体物)が認識される。また、認識された対象物は、プレビューセンサにおける検出結果に基づいて、その立体物が属する種類に分類される。そして、この認識された対象物を示すシンボルとナビゲーション情報とが重ねて表示される。この場合、表示されるシンボルは、分類された種類に対応した表示カラーとなるように表示装置が制御される。そのため、色彩によって対象物の種類の違い認識することができるので、利用者(典型的には、ドライバー)による認視性の向上を図ることができる。また、注意喚起の程度に応じて表示カラーを使い分けることにより、ドライバーが注意すべき立体物の順位を、色彩から経験的に把握することができる。その結果、従来にはない機能により、利便性の向上を図ることができるので、ユーザーフレンドリーといった観点から、商品訴求力の向上を図ることができる。 Thus, according to the present embodiment, an object (a three-dimensional object in the present embodiment) existing in front of the host vehicle is recognized based on the detection result of the preview sensor. The recognized object is classified into the type to which the three-dimensional object belongs based on the detection result in the preview sensor. Then, the symbol indicating the recognized object and the navigation information are displayed in an overlapping manner. In this case, the display device is controlled so that the displayed symbol has a display color corresponding to the classified type. Therefore, since the difference in the type of the object can be recognized depending on the color, it is possible to improve the visibility by the user (typically a driver). In addition, by properly using display colors according to the degree of alerting, the order of three-dimensional objects that the driver should be aware of can be empirically grasped from the colors. As a result, it is possible to improve convenience by using a function that is not present in the past, and therefore it is possible to improve the appeal of the product from the viewpoint of user friendliness.
なお、認識されたすべての立体物に対応するシンボルを表示した場合、走行状況を詳細に表示するといった点で有利であるものの、画面上に表示される情報量が増える。すなわち、自車両から遠方に存在する先行車のように、運転に直接関係のない情報までも表示されることにもなりかねない。そこで、不要な情報を排除するという観点から、自車両から近い複数個の立体物を選択し、この選択された立体物に対応するシンボルのみを表示してもよい。ただし、もっとも保護すべき歩行者は、優先的に選択するといったように、その選択手法は任意に決定することができる。また、本実施形態では立体物を4種類に分類したが、プレビューセンサ2によって認識可能な範囲内において、これよりも細かな種類に分類してもよい。
Note that displaying symbols corresponding to all recognized three-dimensional objects is advantageous in that the driving situation is displayed in detail, but the amount of information displayed on the screen increases. That is, information that is not directly related to driving may be displayed, such as a preceding vehicle that is far away from the host vehicle. Therefore, from the viewpoint of eliminating unnecessary information, a plurality of three-dimensional objects close to the host vehicle may be selected, and only symbols corresponding to the selected three-dimensional objects may be displayed. However, the selection method can be arbitrarily determined such that the pedestrian to be most protected is preferentially selected. In the present embodiment, three-dimensional objects are classified into four types. However, the three-dimensional objects may be classified into finer types within a range recognizable by the
(第2の実施形態)
第2の実施形態にかかる情報表示処理が、第1の実施形態のそれと相違する点は、認識された立体物の自車両に対する危険の程度(具体的には、衝突可能性)に応じて、シンボルの表示カラーが設定されている点である。そのため、第2の実施形態では、認識された立体物について、自車両に対する危険の程度を示す危険度Tが認識部4によってさらに算出される。そして、認識された立体物を示すシンボルが、それぞれが立体物の危険度Tに対応した複数の異なる表示カラーを用いて表示される。
(Second Embodiment)
The difference between the information display processing according to the second embodiment and that of the first embodiment is that depending on the degree of danger (specifically, the possibility of collision) of the recognized three-dimensional object to the host vehicle, The symbol display color is set. For this reason, in the second embodiment, the recognizing unit 4 further calculates a risk T indicating the degree of danger to the host vehicle for the recognized three-dimensional object. Then, the symbols indicating the recognized three-dimensional object are displayed using a plurality of different display colors each corresponding to the risk T of the three-dimensional object.
具体的には、まず、図3におけるステップ1〜3に示す処理と同様に、プレビューセンサ2における検出結果に基づいて、自車両前方に存在する立体物が認識されるとともに、その対象物が属する種類に分類される。そして、本実施形態では、ステップ3の後に、認識された対象物のそれぞれを演算対象として危険度Tが算出される。この危険度Tは、例えば、以下に示す数式1を用いて一義的に算出可能である。
(数式1)
T=K1・D+K2・Vr+K3・Ar
Specifically, first, similarly to the processing shown in
(Formula 1)
T = K1, D + K2, Vr + K3, Ar
ここで、Dは対象物までの距離(m)であり、Vrは自車両と対象物との相対速度であり、Arは自車両と対象物との相対加速度である。また、パラメータK1〜K3は、各変数D,Vr,Arにかかる係数であり、予め実験やシミュレーションなどを通じて適切な値に設定されている。例えば、これらの係数K1〜K3が設定された数式1(危険度T)は、自車両が立体物に到達するまでの時間的な余裕を示す。このケースでは、この危険度Tが大きな対象物ほど、危険の程度が低いことを意味し(衝突可能性が小)、危険度Tが小さな対象物ほど、危険の程度が高いことを意味する(衝突可能性が大)。 Here, D is the distance (m) to the object, Vr is the relative speed between the host vehicle and the object, and Ar is the relative acceleration between the host vehicle and the object. The parameters K1 to K3 are coefficients related to the variables D, Vr, and Ar, and are set to appropriate values through experiments and simulations in advance. For example, Formula 1 (risk degree T) in which these coefficients K1 to K3 are set indicates a time margin until the host vehicle reaches the three-dimensional object. In this case, an object with a higher risk T means that the degree of danger is lower (the possibility of collision is smaller), and an object with a lower risk T means that the degree of danger is higher ( High possibility of collision).
そして、図3におけるステップ4に示す処理と同様に、ナビゲーション情報と、認識部4によって認識された立体物とに基づいて、表示処理が行われる。具体的には、まず、認識された立体物の属する種類に基づいて、表示すべきシンボルが決定される。そして、このシンボルとナビゲーション情報とが重ねて表示されるように表示装置6が制御される。この場合、表示されるシンボルは、その対応する立体物に関して算出された危険度Tに対応して表示カラーが予め設定されている。具体的には、危険度Tが第1の判定値以下となる対象物(危険度T≦第1の判定値)、すなわち、危険の程度が高い立体物は、そのシンボルが色彩的に目立つ赤色に設定されている。また、危険度Tが第1の判定値よりも大きく、かつ、この第1の判定値よりも大きな第2の判定値以下となる対象物(第1の判定値<危険度≦第2の判定値)、すなわち、危険の程度が比較的に高い立体物は、そのシンボルが黄色に設定されている。そして、危険度Tが第2の判定値よりも大きな対象物(第2の判定値<危険度T)、すなわち、危険の程度が低い立体物は、そのシンボルが青色に設定されている。
And a display process is performed based on navigation information and the solid object recognized by the recognition part 4 similarly to the process shown to step 4 in FIG. Specifically, first, a symbol to be displayed is determined based on the type to which the recognized three-dimensional object belongs. Then, the
図5は、表示装置6の表示状態を示す説明図である。同図では、例示的に、前方の自動車が急ブレーキをかけているケースでの表示状態が示されている。この図5に示すように、危険度Tに対応して表示カラーを使い分けることにより、自車両に対する危険度の程度が高い(衝突の可能性が高い)前方の自動車を示すシンボルが赤色で表示される。そして、自車両の対する危険の程度が低い(衝突の可能性が低い)立体物を示すシンボルは、その危険の程度に応じて、黄色または青色の表示カラーで表示される。
FIG. 5 is an explanatory diagram showing a display state of the
このように本実施形態によれば、認識された対象物を示すシンボルとナビゲーション情報とが重ねて表示されるとともに、このシンボルが自車両に対する危険の程度に応じた表示カラーとなるように表示装置が制御される。そのため、色彩によって対象物の自車両に対する危険の程度の違いを認識することができるので、ドライバーによる認視性の向上を図ることができる。また、注意喚起の程度に応じて表示カラーを使い分けることにより、ドライバーが注意すべき立体物の順位を、色彩から経験則的に把握することができる。その結果、従来にはない機能により、利便性の向上を図ることができるので、ユーザーフレンドリーといった観点から、商品訴求力の向上を図ることができる。 As described above, according to the present embodiment, the symbol indicating the recognized object and the navigation information are displayed in an overlapping manner, and the display device is configured so that the symbol has a display color corresponding to the degree of danger to the host vehicle. Is controlled. Therefore, since the difference in the degree of danger of the target object with respect to the host vehicle can be recognized by the color, the visibility by the driver can be improved. In addition, by properly using display colors according to the degree of alerting, the order of three-dimensional objects that the driver should be aware of can be ascertained from the colors based on experience. As a result, it is possible to improve convenience by using a function that is not present in the past, and therefore it is possible to improve the appeal of the product from the viewpoint of user friendliness.
なお、本実施形態では、危険度Tに応じて3つの表示カラーで表示を行っているが、これよりも多い表示カラーとなるように表示を行ってもよい。このケースでは、ドライバーに対してより細かなレンジで危険の程度を認識させることができる。 In the present embodiment, display is performed in three display colors according to the degree of risk T, but display may be performed so that there are more display colors. In this case, the driver can be made aware of the degree of danger in a finer range.
また、第1および第2の実施形態では、プレビューセンサ25として、ステレオ画像処理装置を用いたが、これ以外にも、単眼カメラ、レーザレーダ、ミリ波レーダといった周知の距離検出センサを単独で、或いは、これらを併用して用いてもよい。かかる手法であっても、上述した実施形態と同様の効果を奏することができる。
In the first and second embodiments, a stereo image processing apparatus is used as the
また、第1および第2の実施形態では、予め立体物の種類に応じてそのデザインが決定されたシンボルを用いたが、立体物の種類に拘わらず一種類のシンボルのみを表示してもよい。また、ステレオカメラによって撮像された画像データに基づいて、認識された立体物に相当する画像を表示してもよい。これらのケースであっても、表示カラーを相違させることにより、同一種類の立体物(或いは、立体物の危険の程度)を色彩から認識することができる。 In the first and second embodiments, symbols whose design is determined in advance according to the type of the three-dimensional object are used. However, only one type of symbol may be displayed regardless of the type of the three-dimensional object. . Further, an image corresponding to a recognized three-dimensional object may be displayed based on image data captured by a stereo camera. Even in these cases, the same kind of three-dimensional object (or the degree of danger of the three-dimensional object) can be recognized from the colors by changing the display colors.
1 情報表示装置
2 プレビューセンサ
3 マイクロコンピュータ
4 認識部
5 制御部
6 表示装置
7 スピーカ
8 制御装置
9 ナビゲーションシステム
DESCRIPTION OF
Claims (8)
前記プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、当該認識された対象物を当該対象物が属する種類に分類するとともに、道路形状を規定する道路モデルを算出する認識部と、
前記認識部により認識された対象物と前記ナビゲーション情報とに基づいて、表示すべき情報を決定する制御部と、
前記制御部によって制御され、前記決定された情報を表示する表示装置とを有し、
前記制御部は、前記ナビゲーション情報の道路位置と、前記認識部により算出された前記道路モデルを基準とした前記対象物の位置とを対応付けて、前記認識された対象物を示すシンボルと前記ナビゲーション情報とを重ねて表示するように前記表示装置を制御するとともに、それぞれが前記対象物が属する種類に対応した複数の異なる表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする情報表示装置。 According to the running of the vehicle, the navigation information displayed on the display method according to the driver's eye, the information display apparatus for displaying overlapping information obtained from the preview sensor for detecting the running condition of the vehicle ahead,
A recognition unit that recognizes an object ahead of the host vehicle based on a detection result in the preview sensor, classifies the recognized object into a type to which the object belongs , and calculates a road model that defines a road shape When,
A control unit for determining information to be displayed based on the object recognized by the recognition unit and the navigation information;
A display device that is controlled by the control unit and displays the determined information;
The control unit associates the road position of the navigation information with the position of the target object based on the road model calculated by the recognition unit, the symbol indicating the recognized target object, and the navigation Controlling the display device to display information in an overlapping manner, and controlling the display device to display the symbol using a plurality of different display colors corresponding to the type to which the object belongs. An information display device.
前記プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、当該認識された対象物の自車両に対する危険の程度を示す危険度を算出するとともに、道路形状を規定する道路モデルを算出する認識部と、
前記認識部により認識された対象物と前記ナビゲーション情報とに基づいて、表示すべき情報を決定する制御部と、
前記制御部によって制御され、前記決定された情報を表示する表示装置とを有し、
前記制御部は、前記ナビゲーション情報の道路位置と、前記認識部により算出された前記道路モデルを基準とした前記対象物の位置とを対応付けて、前記認識された対象物を示すシンボルと前記ナビゲーション情報とを重ねて表示するように前記表示装置を制御するとともに、それぞれが前記危険度に対応した複数の異なる表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする情報表示装置。 According to the running of the vehicle, the navigation information displayed on the display method according to the driver's eye, the information display apparatus for displaying overlapping information obtained from the preview sensor for detecting the running condition of the vehicle ahead,
A road model that recognizes an object ahead of the host vehicle based on the detection result in the preview sensor, calculates a risk level indicating the degree of danger of the recognized object to the host vehicle , and defines a road shape. A recognition unit to calculate ,
A control unit for determining information to be displayed based on the object recognized by the recognition unit and the navigation information;
A display device that is controlled by the control unit and displays the determined information;
The control unit associates the road position of the navigation information with the position of the target object based on the road model calculated by the recognition unit, the symbol indicating the recognized target object, and the navigation The display device is controlled to display information in an overlapping manner, and the display device is controlled to display the symbol by using a plurality of different display colors corresponding to the degree of risk. Information display device.
コンピュータが、前記プレビューセンサにおける検出結果に基づいて、自車両前方の対象物を認識し、当該認識された対象物を当該対象物が属する種類に分類するとともに、道路形状を規定する道路モデルを算出する第1のステップと、
前記コンピュータが、前記認識された対象物と前記ナビゲーション情報とに基づいて、表示すべき情報を決定するとともに、前記表示装置を制御することにより、前記決定された情報を表示する第2のステップとを有し、
前記第2のステップは、前記ナビゲーション情報の道路位置と、前記道路モデルを基準とした前記対象物の位置とを対応付けて、前記認識された対象物を示すシンボルと前記ナビゲーション情報とを重ねて表示するように前記表示装置を制御するとともに、それぞれが前記対象物が属する種類に対応した複数の異なる表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする情報表示方法。 According to the running of the vehicle, the navigation information displayed on the display method according to the driver's eye, the information display method of displaying overlapping information obtained from the preview sensor for detecting the running condition of the vehicle ahead,
Computer, based on a detection result in the preview sensor recognizes the vehicle ahead of the subject, the recognized object with classifying the type of the object belongs, calculating a road model which defines a road shape A first step to:
A second step in which the computer determines information to be displayed based on the recognized object and the navigation information, and displays the determined information by controlling the display device; Have
In the second step, the road position of the navigation information is associated with the position of the object on the basis of the road model, and the symbol indicating the recognized object and the navigation information are overlapped. Controlling the display device to display, and controlling the display device to display the symbol using a plurality of different display colors corresponding to the type to which the object belongs, respectively. Display method.
コンピュータが、前記プレビューセンサから得られた情報に基づいて、自車両前方の対象物を認識し、当該認識された対象物の自車両に対する危険の程度を示す危険度を算出する第1のステップと、
前記コンピュータが、前記認識された対象物と前記ナビゲーション情報とに基づいて、表示すべき情報を決定するとともに、前記表示装置を制御することにより、前記決定された情報を表示する第2のステップとを有し、
前記第2のステップは、前記ナビゲーション情報の道路位置と、前記道路モデルを基準とした前記対象物の位置とを対応付けて、前記認識された対象物を示すシンボルと前記ナビゲーション情報とを重ねて表示するように前記表示装置を制御するとともに、それぞれが前記危険度に対応した複数の異なる表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする情報表示方法。 According to the running of the vehicle, the navigation information displayed on the display method according to the driver's eye, the information display method of displaying overlapping information obtained from the preview sensor for detecting the running condition of the vehicle ahead,
Computer, based on the information obtained from the preview sensor recognizes the vehicle ahead of the object, a first step of calculating the risk level indicating a degree of danger with respect to the vehicle of the recognized object ,
A second step in which the computer determines information to be displayed based on the recognized object and the navigation information, and displays the determined information by controlling the display device; Have
In the second step, the road position of the navigation information is associated with the position of the object on the basis of the road model, and the symbol indicating the recognized object and the navigation information are overlapped. An information display method comprising: controlling the display device to display, and controlling the display device to display the symbol using a plurality of different display colors corresponding to the degree of risk.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357201A JP4574157B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
US10/965,126 US7356408B2 (en) | 2003-10-17 | 2004-10-14 | Information display apparatus and information display method |
DE602004011164T DE602004011164T2 (en) | 2003-10-17 | 2004-10-15 | Device and method for displaying information |
EP04024625A EP1524638B9 (en) | 2003-10-17 | 2004-10-15 | Information display apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357201A JP4574157B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005121495A JP2005121495A (en) | 2005-05-12 |
JP4574157B2 true JP4574157B2 (en) | 2010-11-04 |
Family
ID=34614158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003357201A Expired - Fee Related JP4574157B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4574157B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4952429B2 (en) * | 2007-08-02 | 2012-06-13 | 株式会社デンソー | Driving support system |
JP5054555B2 (en) * | 2008-02-07 | 2012-10-24 | クラリオン株式会社 | Vehicle peripheral image display device |
EP2506234A4 (en) | 2010-03-17 | 2013-09-18 | Honda Motor Co Ltd | DEVICE FOR MONITORING VEHICLE ENVIRONMENTS |
KR101823029B1 (en) * | 2016-01-27 | 2018-01-31 | 대우조선해양 주식회사 | System for managing obstacle of ship and method for managing obstacle |
JP6372556B2 (en) * | 2016-12-27 | 2018-08-15 | エイディシーテクノロジー株式会社 | In-vehicle image display device |
JP2018198071A (en) * | 2018-07-24 | 2018-12-13 | エイディシーテクノロジー株式会社 | On-vehicle image display device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265547A (en) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | On-vehicle outside monitoring device |
JPH06266828A (en) * | 1993-03-12 | 1994-09-22 | Fuji Heavy Ind Ltd | Outside monitoring device for vehicle |
JPH07223488A (en) * | 1994-02-14 | 1995-08-22 | Mitsubishi Motors Corp | Vehicle surrounding information display device |
JPH09166452A (en) * | 1995-12-14 | 1997-06-24 | Pioneer Electron Corp | Drive support apparatus |
JPH1069598A (en) * | 1996-08-29 | 1998-03-10 | Fuji Heavy Ind Ltd | Collision preventing device for vehicle |
JP2000211452A (en) * | 1999-01-20 | 2000-08-02 | Toyota Motor Corp | Runway shape display device and map database recording medium |
JP2002046506A (en) * | 2000-04-24 | 2002-02-12 | Matsushita Electric Ind Co Ltd | Navigation device |
JP2002049998A (en) * | 2000-04-24 | 2002-02-15 | Matsushita Electric Ind Co Ltd | Drive support device |
JP2002156233A (en) * | 2000-11-16 | 2002-05-31 | Fuji Heavy Ind Ltd | In-vehicle information display device |
JP2002342899A (en) * | 2001-05-14 | 2002-11-29 | Denso Corp | Device and program for supporting driving |
-
2003
- 2003-10-17 JP JP2003357201A patent/JP4574157B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265547A (en) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | On-vehicle outside monitoring device |
JPH06266828A (en) * | 1993-03-12 | 1994-09-22 | Fuji Heavy Ind Ltd | Outside monitoring device for vehicle |
JPH07223488A (en) * | 1994-02-14 | 1995-08-22 | Mitsubishi Motors Corp | Vehicle surrounding information display device |
JPH09166452A (en) * | 1995-12-14 | 1997-06-24 | Pioneer Electron Corp | Drive support apparatus |
JPH1069598A (en) * | 1996-08-29 | 1998-03-10 | Fuji Heavy Ind Ltd | Collision preventing device for vehicle |
JP2000211452A (en) * | 1999-01-20 | 2000-08-02 | Toyota Motor Corp | Runway shape display device and map database recording medium |
JP2002046506A (en) * | 2000-04-24 | 2002-02-12 | Matsushita Electric Ind Co Ltd | Navigation device |
JP2002049998A (en) * | 2000-04-24 | 2002-02-15 | Matsushita Electric Ind Co Ltd | Drive support device |
JP2002156233A (en) * | 2000-11-16 | 2002-05-31 | Fuji Heavy Ind Ltd | In-vehicle information display device |
JP2002342899A (en) * | 2001-05-14 | 2002-11-29 | Denso Corp | Device and program for supporting driving |
Also Published As
Publication number | Publication date |
---|---|
JP2005121495A (en) | 2005-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7356408B2 (en) | Information display apparatus and information display method | |
US6734787B2 (en) | Apparatus and method of recognizing vehicle travelling behind | |
US9056630B2 (en) | Lane departure sensing method and apparatus using images that surround a vehicle | |
JP4321821B2 (en) | Image recognition apparatus and image recognition method | |
US9121717B1 (en) | Collision avoidance for vehicle control | |
JP4696248B2 (en) | MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE | |
US8340866B2 (en) | Vehicle and steering control device for vehicle | |
JP4557288B2 (en) | Image recognition device, image recognition method, position specifying device using the same, vehicle control device, and navigation device | |
US9659497B2 (en) | Lane departure warning system and lane departure warning method | |
EP3557527B1 (en) | Object detection device | |
JP4901275B2 (en) | Travel guidance obstacle detection device and vehicle control device | |
JP2007300181A (en) | Peripheral recognition device, peripheral recognition method, and program | |
US20140002655A1 (en) | Lane departure warning system and lane departure warning method | |
JP2008033750A (en) | Object tilt detection device | |
JP2008158640A (en) | Moving object detection device | |
KR102031635B1 (en) | Collision warning device and method using heterogeneous cameras having overlapped capture area | |
JP4721278B2 (en) | Lane departure determination device, lane departure prevention device, and lane tracking support device | |
JP5188429B2 (en) | Environment recognition device | |
EP3859390A1 (en) | Method and system for rendering a representation of an evinronment of a vehicle | |
JP2005038225A (en) | Lane follow-up device | |
JP2004310522A (en) | Image processing device for vehicles | |
JP4574157B2 (en) | Information display device and information display method | |
JP2004104478A (en) | Parking assist device and parking assist method | |
JP4398216B2 (en) | Information display device and information display method | |
JP4629638B2 (en) | Vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4574157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |