JP2017191472A - Image display method and image display device - Google Patents
Image display method and image display device Download PDFInfo
- Publication number
- JP2017191472A JP2017191472A JP2016080668A JP2016080668A JP2017191472A JP 2017191472 A JP2017191472 A JP 2017191472A JP 2016080668 A JP2016080668 A JP 2016080668A JP 2016080668 A JP2016080668 A JP 2016080668A JP 2017191472 A JP2017191472 A JP 2017191472A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- attention
- area
- host vehicle
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims description 106
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 7
- 238000004040 coloring Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両等の乗用移動体用の画像表示方法及び画像表示装置に関する。 The present invention relates to an image display method and an image display device for a passenger moving body such as a vehicle.
従来、車両の進行方向に存在する対象物を検出し、検出された対象物の強調画像をヘッドアップディスプレイ(HUD)の表示画面に表示する技術が知られている(特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for detecting an object existing in the traveling direction of a vehicle and displaying an emphasized image of the detected object on a display screen of a head-up display (HUD) is known (see Patent Document 1).
しかしながら、特許文献1に記載の技術では、車両の直進時の進行方向に存在する対象物を強調表示しているが、直進以外の運転シーンについては配慮されていない。直進以外の、例えば車両の進行方向の変更を伴うような運転シーンにおいては特に、進行方向以外の範囲にも幅広く注意を向ける必要がある。
However, in the technique described in
上記課題に鑑み、本発明は、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することを目的とする。 In view of the above problems, the present invention provides an image display method and an image display device for a passenger moving body that can easily cause the passenger to perceive the surrounding situation of the passenger moving body that the passenger should be aware of depending on the driving scene. The purpose is to provide.
本発明の一態様によれば、乗用移動体の周囲状況を検出し、その周囲状況に基づいて、乗用移動体の周囲の注意領域を検出し、その注意領域に対して強調箇所を決定し、その強調箇所を強調表示するように周囲状況を示す仮想画像を生成し、その仮想画像を表示部に表示することを特徴とする画像表示方法及び画像表示装置が提供される。 According to one aspect of the present invention, the surrounding situation of the passenger moving body is detected, the attention area around the passenger moving body is detected based on the surrounding situation, and the highlighted portion is determined for the attention area, There is provided an image display method and an image display device characterized by generating a virtual image indicating a surrounding situation so as to highlight the highlighted portion and displaying the virtual image on a display unit.
本発明によれば、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することができる。 According to the present invention, it is possible to provide an image display method and an image display device for a passenger moving body that can easily cause the passenger to perceive the surrounding situation of the passenger moving body that a passenger should be aware of depending on the driving scene. Can do.
以下において、図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are affixed with the same or similar reference numerals. However, it should be noted that the drawings are schematic, and the relationship between the thickness and the planar dimensions, the ratio of the thickness, and the like are different from the actual ones. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings. Further, the following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is the material, shape, structure, and arrangement of components. Etc. are not specified as follows. The technical idea of the present invention can be variously modified within the technical scope defined by the claims described in the claims.
<画像表示装置の構成>
本発明の実施形態に係る画像表示装置は、車両等の乗用移動体に搭載可能である。以下の本発明の実施形態の説明においては、車両に搭載する場合を例示する。本発明の実施形態に係る画像表示装置は、図1に示すように、制御装置1、自車位置取得部2、周囲状況検出部4及び表示部5を備える。
<Configuration of image display device>
The image display apparatus according to the embodiment of the present invention can be mounted on a passenger moving body such as a vehicle. In the following description of the embodiments of the present invention, a case of mounting on a vehicle is illustrated. As shown in FIG. 1, the image display device according to the embodiment of the present invention includes a
自車位置取得部2は、例えばナビゲーション装置や、全地球測位システム(GPS)からGPS信号を受信するGPS受信機等で構成できる。自車位置取得部2は、自車両の地図上における現在位置を取得する。 The own vehicle position acquisition unit 2 can be configured by, for example, a navigation device or a GPS receiver that receives a GPS signal from a global positioning system (GPS). The own vehicle position acquisition unit 2 acquires the current position on the map of the own vehicle.
周囲状況検出部4は、自車両の前方状況、後方状況、側方状況を含む自車両の周囲状況を検出する。周囲状況検出部4が検出可能な自車両の周囲状況は、他車両、歩行者、自転車、信号、標識、横断歩道、電柱、交差点及び白線を含む。周囲状況検出部4としては、例えばレーザレーダ、ミリ波レーダ、定在波レーダ、又はCCDカメラ等のカメラを用いたセンサが使用可能である。周囲状況検出部4の個数や種類、配置位置は特に限定されず、例えば自車両の前方、側方及び後方に複数個設置されていてもよい。 The surrounding situation detection unit 4 detects the surrounding situation of the host vehicle including the front situation, the rear situation, and the side situation of the own vehicle. The surrounding conditions of the host vehicle that can be detected by the surrounding condition detection unit 4 include other vehicles, pedestrians, bicycles, signals, signs, crosswalks, utility poles, intersections, and white lines. For example, a sensor using a camera such as a laser radar, a millimeter wave radar, a standing wave radar, or a CCD camera can be used as the ambient condition detection unit 4. The number, type, and arrangement position of the surrounding state detection unit 4 are not particularly limited. For example, a plurality of surrounding state detection units 4 may be installed in front, side, and rear of the host vehicle.
表示部5としては、液晶ディスプレイ等のディスプレイが使用可能である。表示部5は、車室内のインストルメンタルパネル等の乗員から視認しやすい位置に設置される。
As the
制御装置1は、例えば、論理演算処理装置6、注意領域記憶装置3及びデータ記憶装置7等を含む電子制御ユニット(ECU)で構成できる。注意領域記憶装置3及びデータ記憶装置7としては、半導体記憶装置、磁気記憶装置又は光学記憶装置等が使用できる。なお、注意領域記憶装置3及びデータ記憶装置7は、論理演算処理装置6内に備えられるレジスタ等であってもよく、キャッシュメモリ等を含んでもよい。注意領域記憶装置3及びデータ記憶装置7は更に、2次記憶装置や、2次記憶装置等に設定される仮想メモリでもよい。注意領域記憶装置3は、自車両の各種の運転シーンと、後述する注意領域との対応関係を記憶する。
The
論理演算処理装置6としては、中央処理装置(CPU)等が使用できる。論理演算処理装置6は、シーン判別部10、注意領域検出部11、移動物体検出部12、強調箇所決定部13及び画像生成部14を機能的に備える。
As the
シーン判別部10は、自車位置取得部2により取得された自車両の地図上における現在位置や、周囲状況検出部4により検出される自車両の周囲状況、シフトレバーの操作情報、ウインカスイッチの操作情報等から、自車両の運転シーンを判別する。シーン判別部10により判別可能な運転シーンは、例えば、後退駐車、縦列駐車、狭路での幅寄せ、狭路での通り抜け、車線変更(合流)、T字路、交差点左折及び交差点右折を含む。
The
注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された自車両の周囲状況において、シーン判別部10により判別された運転シーンに応じた乗員が注意すべき注意領域を検出する。
The attention
ここで、注意領域検出部11により検出可能な「注意領域」とは、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性が有る領域を意味する。注意領域は、注意対象物が存在する領域、注意場所が存在する領域、及び注意度が所定の閾値よりも高い領域を含む。
Here, the “attention area” that can be detected by the attention
注意対象物は、例えば、他車両、歩行者(特に交通弱者)、盲導犬等を含む動物、自転車、信号、標識、横断歩道、交差点及び積雪等の障害物を含む。他車両は、例えば、対向車、暴走車及び緊急車両を含む。注意対象物は、例えば、周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。 The attention object includes obstacles such as other vehicles, animals including pedestrians (especially those with weak traffic), guide dogs, bicycles, signals, signs, crosswalks, intersections, and snow. Other vehicles include oncoming vehicles, runaway vehicles, and emergency vehicles, for example. The attention object can be determined from, for example, the surrounding state of the host vehicle detected by the surrounding state detection unit 4.
注意場所は、例えば、自車両の周囲、交差点、横断歩道、インターチェンジ、合流地点を含む。なお、例えば横断歩道のように、注意場所と注意対象物で共通する場所(物)があってもよい。注意場所は、例えば、自車位置取得部2により取得された自車両の地図上における現在位置や周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。 The attention place includes, for example, the surroundings of the own vehicle, an intersection, a pedestrian crossing, an interchange, and a meeting point. It should be noted that there may be a common place (object) between the attention place and the attention object, such as a pedestrian crossing. The attention place can be determined from, for example, the current position on the map of the host vehicle acquired by the host vehicle position acquisition unit 2, the surrounding situation of the host vehicle detected by the surrounding situation detection unit 4, and the like.
注意度とは、自車両の周囲に存在する移動物体と自車両との接近度合いを意味する。注意度は、例えば周囲状況検出部4により検出される自車両の周囲状況等から得られる自車両と移動物体との距離及び相対速度から算出可能である。例えば、自車両と移動物体との距離が近いほど注意度を高く算出し、自車両と移動物体との相対速度が接近する方向に高いほど注意度を高く算出する。更に、自車両の速度が高いほど、注意度を高く算出してもよい。 The degree of caution means the degree of approach between a moving object existing around the host vehicle and the host vehicle. The degree of attention can be calculated from the distance and relative speed between the own vehicle and the moving object obtained from the surrounding situation of the own vehicle detected by the surrounding situation detection unit 4, for example. For example, the degree of attention is calculated higher as the distance between the host vehicle and the moving object is shorter, and the degree of attention is calculated higher as the relative speed between the host vehicle and the moving object is higher. Furthermore, the degree of attention may be calculated higher as the speed of the host vehicle is higher.
ここで、注意度の算出方法の一例を説明する。例えば、衝突余裕時間(TTC)及び車間時間(THW)を用いて注意度を算出できる。衝突余裕時間tcは、現在の相対速度が維持されると仮定して、自車両が先行する他車両に衝突するまでの時間を予測する指標であり、自車両と他車両との相対速度をvr、距離をxrとして、以下の式(1)で求められる。
tc=−xr/vr …(1)
Here, an example of a method for calculating the attention level will be described. For example, the attention level can be calculated using the collision margin time (TTC) and the inter-vehicle time (THW). The collision allowance time t c is an index for predicting the time until the host vehicle collides with the preceding other vehicle on the assumption that the current relative speed is maintained, and the relative speed between the host vehicle and the other vehicle is calculated. It is obtained by the following formula (1) where v r and distance are x r .
t c = −x r / v r (1)
また、車間時間thは、現在の自車速度で現在の先行車位置に到達する時間を示す指標であり、自車速度をvf、自車両と他車両との距離をxrとして、以下の式(2)で求められる。
th=−xr/vf …(2)
The inter-vehicle time t h is an index indicating the time to reach the current preceding vehicle position at the current host vehicle speed, where the host vehicle speed is v f , and the distance between the host vehicle and the other vehicle is x r . (2).
t h = −x r / v f (2)
式(1)及び式(2)で求めた衝突余裕時間tc及び車間時間thを用いて、注意度RPは以下の式(3)のように設定可能である。
RP=1/2(α/tc+β/th) …(3)
Equation (1) and (2) in the collision tolerable time t c and inter-vehicle time was determined using t h, alertness RP can be set as the following equation (3).
RP = 1/2 (α / t c + β / t h ) (3)
ここで、α、βのそれぞれは任意の係数であり適宜設定可能である。注意度と比較するための所定の閾値は適宜設定可能であり、制御装置1のデータ記憶装置7等に予め記憶していてもよい。
Here, each of α and β is an arbitrary coefficient and can be set as appropriate. The predetermined threshold for comparison with the attention level can be set as appropriate, and may be stored in advance in the data storage device 7 of the
移動物体検出部12は、周囲状況検出部4により検出された自車両の周囲状況を用いて、注意領域検出部11により検出された注意領域内の移動物体を検出する。移動物体検出部12が検出可能な移動物体は、他車両、歩行者、動物、自転車を含む。移動物体検出部12が検出可能な移動物体は、実際に移動している物体と、信号待ち等で現在移動を停止しているが、移動する可能性の有る物体とを含む。
The moving
強調箇所決定部13は、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。強調箇所決定部13は、例えば注意領域自体を強調箇所として決定してもよく、注意領域を囲む領域を強調箇所として決定してもよい。また、強調箇所決定部13は、注意領域の種類に応じて、注意領域の強調箇所や強調方法を変化させてもよい。
The emphasized
強調箇所決定部13は更に、移動物体検出部12により検出された移動物体の領域、移動物体の向き、移動物体の移動可能範囲等を強調箇所として決定してもよい。強調箇所決定部13は、移動物体が移動中の場合には、移動物体の相対的な移動速度に応じて、移動物体の強調箇所(範囲)や強調方法を変化させてもよい。例えば、強調箇所決定部13は、移動物体の相対的な移動速度が高いほど、移動物体が移動する方向に強調箇所を拡張してもよい。
The emphasis
画像生成部14は、周囲状況検出部4により検出された周囲状況を用いて、強調箇所決定部13により決定された強調箇所を強調表示するように仮想画像(コンピュータ・グラフィック(CG)画像)を生成する。画像生成部14は、例えば強調箇所の輝度を高めたり、着色したり、点滅させたりすること等により、強調箇所を強調表示してもよい。
The
画像生成部14は、運転シーン等に応じて種々の仮想視点位置から見た前方画像又は俯瞰画像等の仮想画像を生成可能であり、仮想画像のスケール、サイズ、縦横比等も適宜調整可能である。画像生成部14は、生成した仮想画像を表示するように表示用の画像信号を生成し、表示部5に画像信号を送信して表示部5を制御する。
The
次に、各種の運転シーンを挙げて、本発明の実施形態に係る画像表示方法の一例を説明する。まず、図2(a)は、「後退駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図2(a)に示した運転シーンを「後退駐車」と判別する。
Next, an example of an image display method according to an embodiment of the present invention will be described with various driving scenes. First, FIG. 2A shows a driving scene of “reverse parking”. The
注意領域検出部11は、注意領域記憶装置3に記憶されている「後退駐車」の運転シーンと注意領域との対応関係を参照して、自車両20の旋回の内側を含む後方の領域A1を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況から、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A1及び他車両21,22が存在する注意領域を強調箇所として決定する。
The caution
画像生成部14は、図2(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I1を生成する。仮想画像I1において、図2(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車枠(駐車スペース)MS1が仮想的に表示されている。
As illustrated in FIG. 2B, the
更に、図2(a)に示した領域A1及び他車両21,22に対応する領域MA1及び他車両M21,M22が強調表示されている。図2(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。なお、図2(b)では自車両M20や他車両M21,M22は実際の車両の形状を模擬しているが、例えば単なる矩形やアイコン等であっても構わない。
Furthermore, the area MA1 and the other vehicles M21 and M22 corresponding to the area A1 and the
次に、図3(a)は、「縦列駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22の間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図3(a)に示した運転シーンを「縦列駐車」と判別する。
Next, FIG. 3A shows a driving scene of “parallel parking”. The
注意領域検出部11は、注意領域記憶装置3に記憶されている「縦列駐車」の運転シーンと注意領域との対応関係を参照して、他車両21,22と接近する方向である、駐車したい方角に位置する前部角部の端部を含む円弧の領域A2と、駐車したい方角の後輪の接地部を含む円弧の領域A3を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、領域A2,A3及び他車両21,22が存在する注意領域を強調箇所として決定する。
The caution
画像生成部14は、図3(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I2を生成する。仮想画像I2において、図3(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車スペース)MS1が仮想的に表示されている。
As illustrated in FIG. 3B, the
更に、図3(a)に示した領域A2,A3及び他車両21,22に対応する領域MA2,MA3及び他車両M21,M22が強調表示されている。図3(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。
Further, the areas MA2 and MA3 and the other vehicles M21 and M22 corresponding to the areas A2 and A3 and the
次に、図4(a)は、「狭路での幅寄せ」の運転シーンを示している。図4(a)に示すように、自車両20は、狭路において対向車である他車両21が接近しているため、左側のガードレール31に寄って走行している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での幅寄せ」と判別する。
Next, FIG. 4A shows a driving scene of “justification in a narrow road”. As shown in FIG. 4A, the
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での幅寄せ」の運転シーンと注意領域との対応関係を参照して、自車両20を寄せる左側の操舵輪側面含む車体側面の領域A4を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及びガードレール31を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A4、他車両21及びガードレール31が存在する注意領域を強調箇所として決定する。
The caution
画像生成部14は、図4(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I3を生成する。仮想画像I3において、図4(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図4(a)に示した領域A4、他車両21及びガードレール31に対応する領域MA4及び他車両M21が強調表示されている。図4(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 4B, the
次に、図5(a)は、「狭路での通り抜け」の運転シーンを示している。自車両20は、狭路において、対向車である他車両21が接近する前に、自車両20の前方の破線の矢印で示すようにS字を描いて前方の他車両22を追い越そうとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。
Next, FIG. 5A shows a driving scene of “passing through a narrow path”. The
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A5を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A5及び他車両21,22が存在する注意領域を強調箇所として決定する。
The caution
画像生成部14は、図5(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I4を生成する。仮想画像I4において、図5(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図5(a)に示した領域A5、他車両21,22に対応する領域MA5、他車両M21,M22が強調表示されている。図5(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 5B, the
次に、図6(a)は、「狭路での通り抜け」の他の運転シーンを示している。自車両20は、狭路において、電柱32と他車両21との間を通過しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。
Next, FIG. 6A shows another driving scene of “passing through a narrow path”. The
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A6を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及び電柱32を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A6、他車両21、電柱32が存在する注意領域を強調箇所として決定する。
The caution
画像生成部14は、図6(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I5を生成する。仮想画像I5において、図6(a)に示した自車両20及びガードレール31に対応する自車両M20及びガードレールM31が仮想的に表示されている。更に、図6(a)に示した領域A6、他車両21及び電柱32に対応する領域MA6、他車両M21及び電柱32が強調表示されている。図6(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As shown in FIG. 6B, the
次に、図7(a)は、「車線変更」の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
Next, FIG. 7A shows a driving scene of “lane change”. At the interchange, the
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の後方の領域A7を注意場所として検出する。なお、変更先の車線L2の自車両20の前方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。
The attention
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A7及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。
The highlighted
画像生成部14は、図7(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I6を生成する。仮想画像I6において、図7(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図7(a)に示した領域A7及び他車両21に対応する領域MA7及び他車両M21が強調表示されている。図7(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の後部には後ろ向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。
As illustrated in FIG. 7B, the
なお、例えば図8に示すように、図6(a)に示した「狭路での通り抜け」の運転シーンにおける仮想画像I5の視点位置P1は、自車両20の上方且つ後方側から撮像するように設定され、撮像範囲R1を有している。一方、図7(a)に示した「車線変更」の運転シーンにおける仮想画像I6の視点位置P2は、視点位置P1よりも自車両20の上方且つ後方側から撮像するように設定され、視点位置P1の撮像範囲R1よりも広い撮像範囲R2を有している。このように、仮想画像の視点位置は、運転シーン等に応じて適宜調整可能である。
For example, as shown in FIG. 8, the viewpoint position P <b> 1 of the virtual image I <b> 5 in the driving scene “passing through a narrow road” shown in FIG. 6A is taken from above and behind the
次に、図9(a)は、「車線変更」の他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)と同様であり、他車両21が自車両20の前方を走行している点が図7(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
Next, FIG. 9A shows another driving scene of “lane change”. In the interchange, the
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前方の領域A8を注意場所として検出する。なお、変更先の車線L2の自車両20の後方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。
The caution
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A8及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。
The highlighted
画像生成部14は、図9(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I7を生成する。仮想画像I7において、図9(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図9(a)に示した領域A8及び他車両21に対応する領域MA8及び他車両M21が強調表示されている。図9(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の前部には前向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。矢印M21aは、相対速度が高いほど長くしてもよい。
As illustrated in FIG. 9B, the
次に、図10(a)は、「車線変更」の更に他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)及び図9(a)と同様であり、他車両21,22が自車両20の前方及び後方を走行している点が図7(a)及び図9(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
Next, FIG. 10A shows still another driving scene of “lane change”. In the interchange, the
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前後方向の領域A9を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。
The attention
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A9及び他車両21,22が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21,22の相対速度を算出し、相対速度を強調箇所として決定する。
The highlight
画像生成部14は、図10(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図10(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図10(a)に示した領域A9及び他車両21,22に対応する領域MA9及び他車両M21,M22が強調表示されている。図10(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 10B, the
更に、自車両M20の後方に位置する他車両M21の前部には前向きに矢印M21aで相対速度が強調表示され、他車両M21の相対速度が自車両M20に接近する方向に高いことを示している。更に、自車両M20の前方に位置する他車両M22の後部には後向ききに矢印M22aで相対速度が強調表示され、他車両M22の相対速度が自車両M20に接近する方向に高いことを示している。矢印M21a,M22aは、相対速度が高いほど長くしてもよい。 Further, the relative speed is highlighted forward by an arrow M21a at the front of the other vehicle M21 located behind the host vehicle M20, indicating that the relative speed of the other vehicle M21 is higher in the direction approaching the host vehicle M20. Yes. Further, the relative speed is highlighted with an arrow M22a in a rearward direction at the rear part of the other vehicle M22 located in front of the host vehicle M20, indicating that the relative speed of the other vehicle M22 is high in the direction approaching the host vehicle M20. Yes. The arrows M21a and M22a may be longer as the relative speed is higher.
次に、図11(a)は、図10(a)と同様の「車線変更」の運転シーンを示しているが、注意領域検出部11は、周囲状況検出部4により検出された周囲状況に基づいて、自車両20の周囲を複数(図11(a)では12個)の領域RAに仮想的に分割して、領域RAごとに注意度を算出してもよい。図11(a)では、複数の領域RAを自車両20の位置を基準に、車線に沿うように設定している。なお、複数の領域RAの形状や位置、個数は特に限定されず、運転シーン等に応じて適宜設定可能である。
Next, FIG. 11A shows the driving scene of “lane change” similar to FIG. 10A, but the attention
例えば、領域RA内に他車両21,22が有る場合には、注意領域検出部11は、他車両21,22の相対距離及び相対速度から注意度を算出する。注意領域検出部11は更に、注意度が所定の閾値以上か否かを判定し、所定の閾値以上の領域(例えば他車両21が含まれる領域)RAを注意領域として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された他車両21が含まれる領域RAを強調箇所として決定する。
For example, when there are
画像生成部14は、図11(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図11(a)に示した自車両20、他車両21,22及び車線L1,L2に対応する自車両M20、他車両M21,M22及び車線ML1,ML2が仮想的に表示されている。更に、図11(a)に示した他車両21が含まれる領域RAに対応する領域RBが強調表示されている。図11(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 11B, the
次に、図12は、「T字路」の運転シーンを示している。自車両20は、前方のT字路に進入しようとしている。T字路において、標識51及び横断歩道41,42が設置されており、他車両21,22及び自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「T字路」と判別する。
Next, FIG. 12 shows a driving scene of “T-junction”. The
注意領域検出部11は、注意領域記憶装置3に記憶されている「T字路」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、自車両20の左右両方向の領域A11,A12及び交差点の中心に位置する半円の領域A10を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、交差点の交錯道路を走行している他車両21,22、自転車61〜64、標識51、横断歩道41,42を注意対象物として検出する。
The caution
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42が存在する注意領域を強調箇所として決定する。
The highlighted
画像生成部14は、図13に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I9を生成する。仮想画像I9において、図12に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図12に示した領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42に対応する領域MA10〜MA12、他車両M21,M22、自転車M61〜M64、標識M51、横断歩道M41,M42が強調表示されている。図13では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 13, the
次に、図14は、「交差点左折」の運転シーンを示している。交差点には、標識51、信号機53及び横断歩道41,42が設置されており、他車両21,22、二輪車81,82、歩行者71及び自転車61が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。
Next, FIG. 14 shows a driving scene of “turn left at the intersection”. At the intersection, a
注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点左折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況に基づいて、交差点中心C1を基準とした自車両20の進行方向(左折)を含まない3/4程度の円弧の領域A13を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42を注意対象物として検出する。
The attention
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。
The highlight
画像生成部14は、図15に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I10を生成する。仮想画像I10において、図14に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図14に示した領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42に対応する領域MA13、他車両M21,M22、二輪車M81,M82、歩行者M71、自転車M61、標識M51、信号機M53、横断歩道M41,M42が強調表示されている。図15では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As shown in FIG. 15, the
次に、図16は、「交差点右折」の運転シーンを示している。交差点には、標識51,52、信号機53及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。
Next, FIG. 16 shows a driving scene of “turn right at the intersection”.
注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点右折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、交差点中心を基準とした自車両20の進行方向(右折)を含まない3/4程度の円弧の領域A14を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42を注意対象物として検出する。
The caution
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。
The highlight
画像生成部14は、図17に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I11を生成する。仮想画像I11において、図16に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図16に示した領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42に対応する領域MA14、他車両M21〜M23、二輪車M81〜M83、歩行者M71,M72、自転車M61〜M64、標識M51,M52、信号機M53、横断歩道M41,M42が強調表示されている。図17では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
As illustrated in FIG. 17, the
<画像表示方法>
次に、図18のフローチャートを参照しながら、本発明の実施形態に係る乗用移動体用の画像表示方法の一例を説明する。なお、図18のフローチャートの一連の処理は、所定の制御周期で繰り返し実行可能である。
<Image display method>
Next, an example of an image display method for a riding vehicle according to an embodiment of the present invention will be described with reference to the flowchart of FIG. Note that a series of processes in the flowchart of FIG. 18 can be repeatedly executed at a predetermined control cycle.
ステップS1において、自車位置取得部2が、自車両20の地図上における現在位置を取得し、取得した自車両20の地図上における現在位置を制御装置1に入力する。周囲状況検出部4が、自車両20の周囲状況を検出し、検出した自車両20の周囲状況を制御装置1に入力する。
In step S <b> 1, the host vehicle position acquisition unit 2 acquires the current position of the
ステップS2において、シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置、周囲状況検出部4により検出された周囲状況、シフトレバーやウインカスイッチの操作情報等に基づいて、自車両20の運転シーンを判別する。
In step S <b> 2, the
ステップS3において、注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、シーン判別部10により判別された運転シーンに対応する注意領域を抽出する。そして、注意領域検出部11は、周囲状況検出部4により検出された自車両の周囲状況中の、注意場所が存在する領域、注意対象物が存在する領域、注意度が所定の閾値以上の領域等を含む注意領域を検出する。
In step S <b> 3, the attention
ステップS4において、移動物体検出部12は、周囲状況検出部4により検出された周囲状況に基づいて、注意領域検出部11により検出された注意領域内の移動物体を検出する。ステップS5において、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定する。移動物体が有ると判定された場合、ステップS6に進み、強調箇所決定部13が、注意領域内の移動物体を強調箇所として決定する。画像生成部14は、注意領域内の移動物体を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。
In step S <b> 4, the moving
ステップS7において、画像生成部14は、周囲状況検出部4により検出された周囲状況等に基づいて、移動物体が注意領域外に移動したか否かを判定する。移動物体が注意領域外に移動したと判定された場合、ステップS8に進む。ステップS8において、画像生成部14が、仮想画像中の移動物体の強調表示を停止する信号を表示部5に出力する。
In step S <b> 7, the
ステップS5において、移動物体検出部12により検出された移動物体が無いと判定された場合、ステップS9に進む。ステップS9において、強調箇所決定部13が、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。画像生成部14は、注意領域を強調表示した仮想画像を生成し、仮想画像を表示部5に表示させる。
If it is determined in step S5 that there is no moving object detected by the moving
ステップS10において、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS8に進み、画像生成部14は、仮想画像中の注意領域の強調表示を停止する信号を表示部5に出力する。
In step S <b> 10, the
本発明の本発明の実施形態に係る乗用移動体用の画像表示プログラムは、図18に示した画像表示方法の手順を、制御装置1を構成するコンピュータに実行させる。即ち、本発明の実施の形態に係る運転支援プログラムは、乗用移動体の周囲状況を検出する手順、周囲状況に基づいて、乗用移動体の周囲の注意領域を検出する手順、注意領域に対して強調箇所を決定する手順、強調箇所を強調するように周囲状況を表示する仮想画像を生成する手順、仮想画像を表示部に表示する手順等を制御装置1を構成するコンピュータに実行させる。本発明の実施の形態に係る画像表示プログラムは、例えばデータ記憶装置7に格納可能である。
The image display program for a passenger moving body according to the embodiment of the present invention causes the computer constituting the
なお、本発明の実施形態に係る画像表示方法は、例えば図19に示すフローチャートの手順であってもよい。図18に示したフローチャートと同様にステップS1〜S3の手順を実行した後、ステップS11に進み、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定せずに、注意領域検出部11により検出された注意領域注意領域に対して強調箇所を決定してもよい。画像生成部14は、注意領域を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。
The image display method according to the embodiment of the present invention may be, for example, a flowchart shown in FIG. After executing the steps S1 to S3 as in the flowchart shown in FIG. 18, the process proceeds to step S11, and the emphasis
その後、ステップS12において、図18に示したフローチャートのステップS10と同様に、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS13に進み、図18に示したフローチャートのステップS10と同様に、画像生成部14は、仮想画像中の注意領域の強調表示を停止する。
Thereafter, in step S12, as in step S10 of the flowchart shown in FIG. 18, the
また、図18に示したフローチャートでは、ステップS6とステップS9でそれぞれ注意領域又は移動物体を択一的に強調表示する場合を例示したが、注意領域及び移動物体を同時に強調表示してもよい。 In the flowchart illustrated in FIG. 18, the case where the attention area or the moving object is alternatively highlighted in step S6 and step S9 is illustrated, but the attention area and the moving object may be highlighted simultaneously.
以上説明したように、本発明の実施形態によれば、運転シーンを判別して、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性の有る領域を注意領域として、自車両20の周囲の幅広い範囲において運転シーンに応じた注意領域を検出し、注意領域を強調表示する。この結果、運転シーンに応じて特に進行方向以外にも乗員が注意すべき領域を、容易に且つ幅広い範囲で、乗員に対して知覚させることができる。
As described above, according to the embodiment of the present invention, a driving scene is discriminated, and an area where vehicles or vehicles and people may cross each other according to the road structure on the road is used as an attention area. The attention area corresponding to the driving scene is detected in a wide range around the
特に、本発明の実施形態のように自車両20の周囲状況全体をCG画像で表示する場合には、CG化により現実世界において運転時に不要な情報を排除できる一方で、乗員が注意領域を知覚するのに役立つ情報の損失が考えられる。これに対して、本発明の実施形態によれば、CG化による情報の損失を補うように、乗員に対して注意領域を容易に知覚させることができる。
In particular, when the entire surrounding situation of the
更に、自車両20の周囲を複数の領域RAに仮想的に分割して、複数の領域RAごとに注意度を算出し、注意度が所定の閾値以上の領域を強調するように仮想画像を生成することにより、乗員が注意を向けるべき領域を複数の領域RAの単位で容易に知覚することができる。
Further, the periphery of the
<第1の変形例>
本発明の実施形態の第1の変形例として、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合を説明する。
<First Modification>
As a first modification of the embodiment of the present invention, a traveling direction that may intersect with the
図20は、「交差点左折」の運転シーンを示している。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71〜73及び自転車61〜67が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。
FIG. 20 shows a driving scene of “turn left at the intersection”.
注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点左折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図14に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。
The caution
強調箇所決定部13は、注意領域検出部11により検出された他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67が、自車両20が左折する際に交錯する可能性のある進行方向を検出する。
The highlight
例えば、強調箇所決定部13は、左側から交差点に進入する他車両21について、直進又は右左折する可能性があるが、自車両20が左折する際には交錯する可能性はないと判定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車81について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある右折方向を強調箇所として決定する。
For example, the emphasis
強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車83について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある直進方向を強調箇所として決定する。強調箇所決定部13は、自車両20の後方の二輪車82について、自車両20が左折する際に巻き込む可能性がある直進方向を強調箇所として決定する。
The emphasis
強調箇所決定部13は、左側の横断歩道41近傍の歩行者71、72、自転車61,62,64については、自車両20が左折する際に交錯する可能性がある横断歩道41を横断する方向を強調箇所としてそれぞれ決定する。強調箇所決定部13は、交差点の横断歩道から離れた場所にいる歩行者73、自転車61,65,67については、自車両20が左折する際に交錯する可能性がある自車両20の前方を横断する方向を強調箇所としてそれぞれ決定する。
The emphasis
画像生成部14は、図21に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I13を生成する。仮想画像I13において、図20に示した他車両21〜23に対応する他車両M21〜M23が強調表示されるとともに、他車両M22,M23の進行方向を示す矢印D22,D23も強調表示されている。
As illustrated in FIG. 21, the
更に、図20に示した二輪車81〜83に対応する二輪車M81〜M83が強調表示されるとともに、二輪車M81〜M83の進行方向を示す矢印D81〜D83も強調表示されている。更に、図20に示した歩行者71〜73及び自転車61〜67に対応する歩行者M71〜M73及び自転車M61〜M67が強調表示されるとともに、歩行者M71〜M73及び自転車M61〜M67の進行方向を示す矢印D71〜D73,D61〜D67も強調表示されている。
Further, the two-wheeled vehicles M81 to M83 corresponding to the two-wheeled
本発明の実施形態の第1の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I13を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。
According to the first modification of the embodiment of the present invention, a virtual image in which a traveling direction that may intersect with the
<第2の変形例>
本発明の実施形態の第3の変形例として、第1の変形例と同様に、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合であるが、第1の変形例とは異なり交差点を右折する場合を説明する。
<Second Modification>
As a third modified example of the embodiment of the present invention, as in the first modified example, a traveling direction that may intersect with the
図22は、「交差点右折」の運転シーンを示している。自車両20は、信号機が無い交差点を右折しようとしている。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜24、二輪車81〜84、歩行者71及び自転車61〜63が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。
FIG. 22 shows a driving scene of “turn right at the intersection”. The
注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点右折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図16に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。
The caution
強調箇所決定部13は、注意領域検出部11により検出された他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、が右折する際に交錯する可能性のある進行方向を強調箇所として決定する。
The emphasis
例えば、強調箇所決定部13は、左側から交差点に進入する他車両21及び二輪車81について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車82について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。
For example, the emphasis
強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車84について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、自車両20の側方で交差点から離れていく他車両24について、自車両20が右折する際に交錯する可能性は無いと判定する。強調箇所決定部13は、自車両20の後方の二輪車83について、自車両20が右折する際に巻き込む可能性がある直進方向及び右折方向を強調箇所として決定する。
The emphasis
画像生成部14は、図23に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I14を生成する。仮想画像I14において、図22に示した他車両21〜24に対応する他車両M21〜M24が強調表示されるとともに、他車両M21〜M23の進行方向を示す矢印D21〜D23も強調表示されている。
As shown in FIG. 23, the
更に、図22に示した二輪車81〜84に対応する二輪車M81〜M84が強調表示されるとともに、二輪車M81〜M84の進行方向を示す矢印D81〜D84も強調表示されている。更に、図22に示した歩行者71及び自転車61〜63に対応する歩行者M71及び自転車M61〜M63が強調表示されるとともに、歩行者M71及び自転車M61〜M63の進行方向を示す矢印D71,D61〜D63も強調表示されている。
Further, the two-wheeled vehicles M81 to M84 corresponding to the two-wheeled
本発明の実施形態の第2の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I14を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。
According to the second modification of the embodiment of the present invention, a virtual image in which a traveling direction that may intersect with the
<第3の変形例>
本発明の実施形態の第3の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」である場合に、自車両20が前方に駐車中の他車両21を追い越す場合において、図24(a)に示すように、仮想画像I15中に、自車両M20の前方に車幅W1を規定する平行な直線L11,L12を強調表示してもよい。直線L11,L12を強調表示することにより、他車両M21との間隔及び自車両M20の車幅W1を容易に把握できる。
<Third Modification>
As a third modified example of the embodiment of the present invention, a modified example of the highlight display when the driving scene is “passing through a narrow road” will be described. When the driving scene is “passing through a narrow road” and the
したがって、図24(b)に示すように、自車両20を旋回させ、図24(c)に示すように、他車両M21を追い越すたときも、仮想画像I15中の直線L11,L12により他車両M21との間隔を容易に把握でき、他車両M21を安全に追い越すことができる。
Accordingly, as shown in FIG. 24 (b), when the
<第4の変形例>
本発明の実施形態の第4の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」であり、図4(a)に示すように自車両20がガードレール31と他車両21の間を通り抜ける場合に、図25(a)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I16を生成してもよい。直線L11,L12を強調表示することにより、ガードレールM31や対向車である他車両M21との間隔を容易に把握できる。
<Fourth Modification>
As a fourth modified example of the embodiment of the present invention, a modified example of highlighting when the driving scene is “passing through a narrow road” will be described. When the driving scene is “passing through a narrow road” and the
また、運転シーンが「狭路での通り抜け」であり、図6(a)に示すように自車両20が電柱32と他車両21の間を通り抜ける場合に、図25(b)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I17を生成してもよい。直線L11,L12を強調表示することにより、電柱M32や対向車である他車両M21との間隔を容易に把握できる。
Further, when the driving scene is “passing through a narrow road” and the
また、運転シーンが「狭路での通り抜け」であり、自車両20が左折する場合に、図25(c)に示すように、自車両M20の軌跡を規定する曲線L11,L12を強調表示した仮想画像I18を生成してもよい。直線L11,L12を強調表示することにより、左折する軌跡を容易に把握できる。
Further, when the driving scene is “passing through a narrow road” and the
(その他の実施の形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As mentioned above, although this invention was described by embodiment, it should not be understood that the statement and drawing which form a part of this indication limit this invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.
本発明の実施形態においては、乗用移動体が車両(自動車)である場合を例示したが、乗用移動体は車両に限定されず、飛行機やヘリコプター等の航空機、船舶等の乗員が乗って移動する移動体にも適用可能である。例えば、乗用移動体が航空機の場合の注意領域は、上空における航空機同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。また、乗用移動体が船舶の場合の注意領域は、海上における船舶同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。 In the embodiment of the present invention, the case where the passenger moving body is a vehicle (automobile) is exemplified, but the passenger moving body is not limited to the vehicle, and an occupant such as an airplane such as an airplane or a helicopter, or a ship moves on board. It can also be applied to moving objects. For example, the attention area when the passenger moving body is an aircraft means an area where aircrafts in the sky may cross each other, and the attention area can be highlighted as in the embodiment of the present invention. Moreover, the attention area | region in case a passenger moving body is a ship means the area | region where ships on the sea have a possibility of crossing, and an attention area | region can be highlighted like the embodiment of this invention.
本発明の実施形態においては、画像生成部14が仮想画像として俯瞰画像を生成する場合を例示したが、図26に示すように、仮想画像として前方画像I19を生成してもよい。前方画像I19においては、交差点において、他車両M21が強調表示されている。また、歩行者M71自体を強調表示するとともに、歩行者M71の足元を囲むように円形の領域M71aも強調表示されている。この領域M71aは、例えば歩行者M71の足元を囲みつつ、歩行者M71の向いている方向(移動可能性の高い方向)へ拡張してもよい。更に、歩行者M71の進行方向を示す矢印D71が矢印で強調表示されている。このように、注意領域に対する強調方法としては種々のバリエーションが採用可能である。
In the embodiment of the present invention, the case where the
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 As described above, the present invention naturally includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1…制御装置
2…自車位置取得部
3…注意領域記憶装置
4…周囲状況検出部
5…表示部
6…論理演算処理装置
7…データ記憶装置
10…シーン判別部
11…注意領域検出部
12…移動物体検出部
13…強調箇所決定部
14…画像生成部
20…自車両
21〜24…他車両
31…ガードレール
32…電柱
41,42…横断歩道
51,52…標識
53…信号機
61〜67…自転車
71〜73…歩行者
81〜84…二輪車
DESCRIPTION OF
Claims (6)
前記周囲状況に基づいて、前記乗用移動体の周囲の注意領域を検出するステップと、
前記注意領域に対して強調箇所を決定するステップと、
前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成するステップと、
前記仮想画像を表示部に表示するステップと
を含むことを特徴とする画像表示方法。 Detecting the surroundings of the passenger vehicle;
Detecting a caution area around the riding vehicle based on the surrounding situation;
Determining an emphasis location for the attention area;
Generating a virtual image indicating the surrounding situation so as to highlight the highlighted portion;
And a step of displaying the virtual image on a display unit.
前記乗用移動体の周囲を仮想的に分割した複数の領域毎に注意度を算出し、
前記注意度が所定の閾値以上の領域を前記強調箇所として決定する
ことを特徴とする請求項1又は2に記載の画像表示方法。 The step of determining the emphasized portion includes:
Calculating a degree of attention for each of a plurality of regions virtually divided around the passenger moving body;
The image display method according to claim 1, wherein an area where the degree of attention is greater than or equal to a predetermined threshold is determined as the emphasized portion.
前記検出された注意領域内の移動物体を検出し、
前記検出された移動物体の進行方向を前記強調箇所として決定する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像表示方法。 The step of determining the emphasized portion includes:
Detecting a moving object in the detected attention area;
The image display method according to any one of claims 1 to 3, wherein a traveling direction of the detected moving object is determined as the emphasized portion.
前記乗用移動体の運転シーンを判別し、
前記判別された運転シーンに応じて前記注意領域を検出する
ことを特徴とする請求項1〜4のいずれか1項に記載の画像表示方法。 The step of detecting the attention area includes:
Determine the driving scene of the passenger moving body,
The image display method according to claim 1, wherein the attention area is detected according to the determined driving scene.
前記周囲状況に基づいて、前記乗用移動体の周囲の注意領域を検出する注意領域検出部と、
前記注意領域に対して強調箇所を決定する強調箇所決定部と、
前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成する画像生成部と、
前記仮想画像を表示する表示部と
を備えることを特徴とする画像表示装置。 An ambient condition detection unit for detecting the ambient condition of the passenger moving body;
A caution area detection unit that detects a caution area around the passenger moving body based on the surrounding situation;
An emphasis location determination unit that determines an emphasis location for the attention area;
An image generation unit that generates a virtual image indicating the surrounding situation so as to highlight the highlighted portion;
An image display device comprising: a display unit that displays the virtual image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016080668A JP6733277B2 (en) | 2016-04-13 | 2016-04-13 | Image display method and image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016080668A JP6733277B2 (en) | 2016-04-13 | 2016-04-13 | Image display method and image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017191472A true JP2017191472A (en) | 2017-10-19 |
JP6733277B2 JP6733277B2 (en) | 2020-07-29 |
Family
ID=60084855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016080668A Active JP6733277B2 (en) | 2016-04-13 | 2016-04-13 | Image display method and image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6733277B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020077127A (en) * | 2018-11-06 | 2020-05-21 | 三菱自動車工業株式会社 | Driving support device |
CN111937055A (en) * | 2018-04-05 | 2020-11-13 | 三菱电机株式会社 | Driving support device |
JP2021086342A (en) * | 2019-11-27 | 2021-06-03 | 株式会社デンソーテン | Information processing device and information processing method |
US11804135B2 (en) | 2019-11-28 | 2023-10-31 | Mitsubishi Electric Corporation | Object recognition apparatus, object recognition method, and computer readable medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269010A (en) * | 2004-03-17 | 2005-09-29 | Olympus Corp | Image creating device, program and method |
JP2006327527A (en) * | 2005-05-30 | 2006-12-07 | Honda Motor Co Ltd | Vehicle travel safety device |
JP2011209919A (en) * | 2010-03-29 | 2011-10-20 | Denso Corp | Point map creating device and program for crossing point map creating device |
JP2015079421A (en) * | 2013-10-18 | 2015-04-23 | クラリオン株式会社 | Vehicle start-assisting device |
JP2015221633A (en) * | 2014-05-23 | 2015-12-10 | 日本精機株式会社 | Vehicular display system |
-
2016
- 2016-04-13 JP JP2016080668A patent/JP6733277B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269010A (en) * | 2004-03-17 | 2005-09-29 | Olympus Corp | Image creating device, program and method |
JP2006327527A (en) * | 2005-05-30 | 2006-12-07 | Honda Motor Co Ltd | Vehicle travel safety device |
JP2011209919A (en) * | 2010-03-29 | 2011-10-20 | Denso Corp | Point map creating device and program for crossing point map creating device |
JP2015079421A (en) * | 2013-10-18 | 2015-04-23 | クラリオン株式会社 | Vehicle start-assisting device |
JP2015221633A (en) * | 2014-05-23 | 2015-12-10 | 日本精機株式会社 | Vehicular display system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111937055A (en) * | 2018-04-05 | 2020-11-13 | 三菱电机株式会社 | Driving support device |
JPWO2019193715A1 (en) * | 2018-04-05 | 2021-01-07 | 三菱電機株式会社 | Driving support device |
US12134385B2 (en) | 2018-04-05 | 2024-11-05 | Mitsubishi Electric Corporation | Driving support device |
JP2020077127A (en) * | 2018-11-06 | 2020-05-21 | 三菱自動車工業株式会社 | Driving support device |
JP2021086342A (en) * | 2019-11-27 | 2021-06-03 | 株式会社デンソーテン | Information processing device and information processing method |
US11804135B2 (en) | 2019-11-28 | 2023-10-31 | Mitsubishi Electric Corporation | Object recognition apparatus, object recognition method, and computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP6733277B2 (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11996018B2 (en) | Display control device and display control program product | |
JP6658905B2 (en) | Travel support device and computer program | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
CA3002628C (en) | Display control method and display control device | |
RU2691463C1 (en) | Method (embodiments) and parking assistance device | |
JP6825709B2 (en) | Surrounding vehicle display method and surrounding vehicle display device | |
US9827907B2 (en) | Drive assist device | |
JP2023112082A (en) | vehicle display | |
JP2019053574A (en) | Vehicle control device, vehicle control method, and program | |
JP2019036826A (en) | VEHICLE DISPLAY METHOD AND VEHICLE DISPLAY DEVICE | |
JP7283448B2 (en) | Display controller and display control program | |
JPWO2020003452A1 (en) | Driving support method and driving support device | |
JP2023165721A (en) | display control device | |
CN111707283A (en) | A navigation method, device, system and device based on augmented reality technology | |
JP6733277B2 (en) | Image display method and image display device | |
JP7697309B2 (en) | Display control device and display control program | |
JP2019020127A (en) | Route search method and route search apparatus for driving support vehicle | |
JP2017129980A (en) | Vehicle recognition device and vehicle recognition method | |
US20200168180A1 (en) | Display system, display control method, and storage medium | |
JP7310851B2 (en) | vehicle display | |
CN110888432B (en) | Display system, display control method, and storage medium | |
JP7342926B2 (en) | Display control device and display control program | |
WO2020246114A1 (en) | Display control device and display control program | |
US20240106989A1 (en) | Vehicle display control device and non-transitory computer-readable medium | |
WO2021015090A1 (en) | Control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6733277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |