[go: up one dir, main page]

JP2017191472A - Image display method and image display device - Google Patents

Image display method and image display device Download PDF

Info

Publication number
JP2017191472A
JP2017191472A JP2016080668A JP2016080668A JP2017191472A JP 2017191472 A JP2017191472 A JP 2017191472A JP 2016080668 A JP2016080668 A JP 2016080668A JP 2016080668 A JP2016080668 A JP 2016080668A JP 2017191472 A JP2017191472 A JP 2017191472A
Authority
JP
Japan
Prior art keywords
vehicle
attention
area
host vehicle
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016080668A
Other languages
Japanese (ja)
Other versions
JP6733277B2 (en
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
拓良 柳
Hiroyoshi Yanagi
柳  拓良
渡辺 省吾
Shogo Watanabe
省吾 渡辺
則政 岸
Norimasa Kishi
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016080668A priority Critical patent/JP6733277B2/en
Publication of JP2017191472A publication Critical patent/JP2017191472A/en
Application granted granted Critical
Publication of JP6733277B2 publication Critical patent/JP6733277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display method that can cause a driver to easily perceive a region to which the driver should pay attention according to a driving scene in a wide range around a riding movable body.SOLUTION: The image display method includes the steps of: detecting (S1) a condition around a riding movable body, detecting (S3) an attention region around the riding movable body on the basis of the condition around the riding movable body, determining (S6, S9) a highlight place with respect to the attention region, generating (S6, S9) a virtual image indicating the condition around the riding movable body to highlight the highlight place, and displaying (S6, S9) the virtual image on a display unit.SELECTED DRAWING: Figure 18

Description

本発明は、車両等の乗用移動体用の画像表示方法及び画像表示装置に関する。   The present invention relates to an image display method and an image display device for a passenger moving body such as a vehicle.

従来、車両の進行方向に存在する対象物を検出し、検出された対象物の強調画像をヘッドアップディスプレイ(HUD)の表示画面に表示する技術が知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for detecting an object existing in the traveling direction of a vehicle and displaying an emphasized image of the detected object on a display screen of a head-up display (HUD) is known (see Patent Document 1).

しかしながら、特許文献1に記載の技術では、車両の直進時の進行方向に存在する対象物を強調表示しているが、直進以外の運転シーンについては配慮されていない。直進以外の、例えば車両の進行方向の変更を伴うような運転シーンにおいては特に、進行方向以外の範囲にも幅広く注意を向ける必要がある。   However, in the technique described in Patent Document 1, an object existing in the traveling direction when the vehicle goes straight is highlighted, but no consideration is given to driving scenes other than straight running. In driving scenes other than going straight, for example, with a change in the traveling direction of the vehicle, it is necessary to pay wide attention to a range other than the traveling direction.

特開2001−23091号公報JP 2001-23091 A

上記課題に鑑み、本発明は、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することを目的とする。   In view of the above problems, the present invention provides an image display method and an image display device for a passenger moving body that can easily cause the passenger to perceive the surrounding situation of the passenger moving body that the passenger should be aware of depending on the driving scene. The purpose is to provide.

本発明の一態様によれば、乗用移動体の周囲状況を検出し、その周囲状況に基づいて、乗用移動体の周囲の注意領域を検出し、その注意領域に対して強調箇所を決定し、その強調箇所を強調表示するように周囲状況を示す仮想画像を生成し、その仮想画像を表示部に表示することを特徴とする画像表示方法及び画像表示装置が提供される。   According to one aspect of the present invention, the surrounding situation of the passenger moving body is detected, the attention area around the passenger moving body is detected based on the surrounding situation, and the highlighted portion is determined for the attention area, There is provided an image display method and an image display device characterized by generating a virtual image indicating a surrounding situation so as to highlight the highlighted portion and displaying the virtual image on a display unit.

本発明によれば、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することができる。   According to the present invention, it is possible to provide an image display method and an image display device for a passenger moving body that can easily cause the passenger to perceive the surrounding situation of the passenger moving body that a passenger should be aware of depending on the driving scene. Can do.

本発明の実施形態に係る画像表示装置の一例を示すブロック図である。It is a block diagram which shows an example of the image display apparatus which concerns on embodiment of this invention. 図2(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図2(b)は、図2(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 2A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 2B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図3(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図3(b)は、図3(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 3A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 3B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図4(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図4(b)は、図4(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 4A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 4B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図5(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図5(b)は、図5(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 5A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 5B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図6(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図6(b)は、図6(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 6A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 6B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図7(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図7(b)は、図7(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 7A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 7B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 本発明の実施形態に係る表示画像の仮想視点の一例を示す概略図である。It is the schematic which shows an example of the virtual viewpoint of the display image which concerns on embodiment of this invention. 図9(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図9(b)は、図9(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 9A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 9B relates to the embodiment of the present invention corresponding to FIG. 9A. It is the schematic which shows an example of a display image. 図10(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図10(b)は、図10(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 10A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 10B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 図11(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図11(b)は、図11(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。FIG. 11A is a schematic diagram illustrating an example of a driving scene of the host vehicle according to the embodiment of the present invention, and FIG. 11B relates to the embodiment of the present invention corresponding to FIG. It is the schematic which shows an example of a display image. 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。It is the schematic which shows an example of the driving scene of the own vehicle which concerns on embodiment of this invention. 図12に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on embodiment of this invention corresponding to FIG. 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。It is the schematic which shows an example of the driving scene of the own vehicle which concerns on embodiment of this invention. 図14に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on embodiment of this invention corresponding to FIG. 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。It is the schematic which shows an example of the driving scene of the own vehicle which concerns on embodiment of this invention. 図16に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on embodiment of this invention corresponding to FIG. 本発明の実施形態に係る画像表示方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the image display method which concerns on embodiment of this invention. 本発明の実施形態に係る画像表示方法の他の一例を説明するためのフローチャートである。It is a flowchart for demonstrating another example of the image display method which concerns on embodiment of this invention. 本発明の実施形態の第1の変形例に係る自車両の運転シーンの一例を示す概略図である。It is the schematic which shows an example of the driving scene of the own vehicle which concerns on the 1st modification of embodiment of this invention. 図20に対応した本発明の実施形態の第1の変形例に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on the 1st modification of embodiment of this invention corresponding to FIG. 本発明の実施形態の第2の変形例に係る自車両の運転シーンの一例を示す概略図である。It is the schematic which shows an example of the driving scene of the own vehicle which concerns on the 2nd modification of embodiment of this invention. 図22に対応した本発明の実施形態の第2の変形例に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on the 2nd modification of embodiment of this invention corresponding to FIG. 図24(a)〜図24(c)は、本発明の実施形態の第3の変形例に係る表示画像の一例を示す概略図である。FIG. 24A to FIG. 24C are schematic diagrams illustrating an example of a display image according to a third modification of the embodiment of the present invention. 図25(a)〜図25(c)は、本発明の実施形態の第4の変形例に係る表示画像の一例を示す概略図である。FIG. 25A to FIG. 25C are schematic diagrams illustrating an example of a display image according to a fourth modification of the embodiment of the present invention. 本発明のその他の実施形態に係る表示画像の一例を示す概略図である。It is the schematic which shows an example of the display image which concerns on other embodiment of this invention.

以下において、図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are affixed with the same or similar reference numerals. However, it should be noted that the drawings are schematic, and the relationship between the thickness and the planar dimensions, the ratio of the thickness, and the like are different from the actual ones. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings. Further, the following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is the material, shape, structure, and arrangement of components. Etc. are not specified as follows. The technical idea of the present invention can be variously modified within the technical scope defined by the claims described in the claims.

<画像表示装置の構成>
本発明の実施形態に係る画像表示装置は、車両等の乗用移動体に搭載可能である。以下の本発明の実施形態の説明においては、車両に搭載する場合を例示する。本発明の実施形態に係る画像表示装置は、図1に示すように、制御装置1、自車位置取得部2、周囲状況検出部4及び表示部5を備える。
<Configuration of image display device>
The image display apparatus according to the embodiment of the present invention can be mounted on a passenger moving body such as a vehicle. In the following description of the embodiments of the present invention, a case of mounting on a vehicle is illustrated. As shown in FIG. 1, the image display device according to the embodiment of the present invention includes a control device 1, a vehicle position acquisition unit 2, a surrounding state detection unit 4, and a display unit 5.

自車位置取得部2は、例えばナビゲーション装置や、全地球測位システム(GPS)からGPS信号を受信するGPS受信機等で構成できる。自車位置取得部2は、自車両の地図上における現在位置を取得する。   The own vehicle position acquisition unit 2 can be configured by, for example, a navigation device or a GPS receiver that receives a GPS signal from a global positioning system (GPS). The own vehicle position acquisition unit 2 acquires the current position on the map of the own vehicle.

周囲状況検出部4は、自車両の前方状況、後方状況、側方状況を含む自車両の周囲状況を検出する。周囲状況検出部4が検出可能な自車両の周囲状況は、他車両、歩行者、自転車、信号、標識、横断歩道、電柱、交差点及び白線を含む。周囲状況検出部4としては、例えばレーザレーダ、ミリ波レーダ、定在波レーダ、又はCCDカメラ等のカメラを用いたセンサが使用可能である。周囲状況検出部4の個数や種類、配置位置は特に限定されず、例えば自車両の前方、側方及び後方に複数個設置されていてもよい。   The surrounding situation detection unit 4 detects the surrounding situation of the host vehicle including the front situation, the rear situation, and the side situation of the own vehicle. The surrounding conditions of the host vehicle that can be detected by the surrounding condition detection unit 4 include other vehicles, pedestrians, bicycles, signals, signs, crosswalks, utility poles, intersections, and white lines. For example, a sensor using a camera such as a laser radar, a millimeter wave radar, a standing wave radar, or a CCD camera can be used as the ambient condition detection unit 4. The number, type, and arrangement position of the surrounding state detection unit 4 are not particularly limited. For example, a plurality of surrounding state detection units 4 may be installed in front, side, and rear of the host vehicle.

表示部5としては、液晶ディスプレイ等のディスプレイが使用可能である。表示部5は、車室内のインストルメンタルパネル等の乗員から視認しやすい位置に設置される。   As the display unit 5, a display such as a liquid crystal display can be used. The display unit 5 is installed at a position that can be easily seen by the occupant such as an instrument panel in the vehicle interior.

制御装置1は、例えば、論理演算処理装置6、注意領域記憶装置3及びデータ記憶装置7等を含む電子制御ユニット(ECU)で構成できる。注意領域記憶装置3及びデータ記憶装置7としては、半導体記憶装置、磁気記憶装置又は光学記憶装置等が使用できる。なお、注意領域記憶装置3及びデータ記憶装置7は、論理演算処理装置6内に備えられるレジスタ等であってもよく、キャッシュメモリ等を含んでもよい。注意領域記憶装置3及びデータ記憶装置7は更に、2次記憶装置や、2次記憶装置等に設定される仮想メモリでもよい。注意領域記憶装置3は、自車両の各種の運転シーンと、後述する注意領域との対応関係を記憶する。   The control device 1 can be constituted by an electronic control unit (ECU) including, for example, a logical operation processing device 6, a caution area storage device 3, a data storage device 7, and the like. As the attention area storage device 3 and the data storage device 7, a semiconductor storage device, a magnetic storage device, an optical storage device, or the like can be used. Note that the attention area storage device 3 and the data storage device 7 may be a register or the like provided in the logical operation processing device 6, and may include a cache memory or the like. The attention area storage device 3 and the data storage device 7 may be a virtual memory set in a secondary storage device, a secondary storage device, or the like. The caution area storage device 3 stores correspondence relationships between various driving scenes of the host vehicle and caution areas described later.

論理演算処理装置6としては、中央処理装置(CPU)等が使用できる。論理演算処理装置6は、シーン判別部10、注意領域検出部11、移動物体検出部12、強調箇所決定部13及び画像生成部14を機能的に備える。   As the logical processing unit 6, a central processing unit (CPU) or the like can be used. The logical operation processing device 6 functionally includes a scene determination unit 10, an attention area detection unit 11, a moving object detection unit 12, an emphasis location determination unit 13, and an image generation unit 14.

シーン判別部10は、自車位置取得部2により取得された自車両の地図上における現在位置や、周囲状況検出部4により検出される自車両の周囲状況、シフトレバーの操作情報、ウインカスイッチの操作情報等から、自車両の運転シーンを判別する。シーン判別部10により判別可能な運転シーンは、例えば、後退駐車、縦列駐車、狭路での幅寄せ、狭路での通り抜け、車線変更(合流)、T字路、交差点左折及び交差点右折を含む。   The scene discriminating unit 10 includes the current position on the map of the host vehicle acquired by the host vehicle position acquiring unit 2, the surrounding state of the host vehicle detected by the surrounding state detecting unit 4, operation information of the shift lever, the turn signal switch The driving scene of the host vehicle is determined from the operation information and the like. The driving scenes that can be discriminated by the scene discriminating unit 10 include, for example, reverse parking, parallel parking, narrowing in narrow roads, passing through narrow roads, changing lanes (merging), T-shaped roads, turning left at intersections and turning right at intersections. .

注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された自車両の周囲状況において、シーン判別部10により判別された運転シーンに応じた乗員が注意すべき注意領域を検出する。   The attention area detection unit 11 refers to the correspondence relationship between the driving scene and the attention area stored in the attention area storage device 3, and determines the scene determination unit in the surrounding situation of the host vehicle detected by the surrounding situation detection unit 4. The caution area to be watched by the occupant corresponding to the driving scene determined by 10 is detected.

ここで、注意領域検出部11により検出可能な「注意領域」とは、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性が有る領域を意味する。注意領域は、注意対象物が存在する領域、注意場所が存在する領域、及び注意度が所定の閾値よりも高い領域を含む。   Here, the “attention area” that can be detected by the attention area detection unit 11 means an area where vehicles or vehicles and people may cross each other according to the road structure on the road. The attention area includes an area where an attention object exists, an area where an attention place exists, and an area whose attention level is higher than a predetermined threshold.

注意対象物は、例えば、他車両、歩行者(特に交通弱者)、盲導犬等を含む動物、自転車、信号、標識、横断歩道、交差点及び積雪等の障害物を含む。他車両は、例えば、対向車、暴走車及び緊急車両を含む。注意対象物は、例えば、周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。   The attention object includes obstacles such as other vehicles, animals including pedestrians (especially those with weak traffic), guide dogs, bicycles, signals, signs, crosswalks, intersections, and snow. Other vehicles include oncoming vehicles, runaway vehicles, and emergency vehicles, for example. The attention object can be determined from, for example, the surrounding state of the host vehicle detected by the surrounding state detection unit 4.

注意場所は、例えば、自車両の周囲、交差点、横断歩道、インターチェンジ、合流地点を含む。なお、例えば横断歩道のように、注意場所と注意対象物で共通する場所(物)があってもよい。注意場所は、例えば、自車位置取得部2により取得された自車両の地図上における現在位置や周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。   The attention place includes, for example, the surroundings of the own vehicle, an intersection, a pedestrian crossing, an interchange, and a meeting point. It should be noted that there may be a common place (object) between the attention place and the attention object, such as a pedestrian crossing. The attention place can be determined from, for example, the current position on the map of the host vehicle acquired by the host vehicle position acquisition unit 2, the surrounding situation of the host vehicle detected by the surrounding situation detection unit 4, and the like.

注意度とは、自車両の周囲に存在する移動物体と自車両との接近度合いを意味する。注意度は、例えば周囲状況検出部4により検出される自車両の周囲状況等から得られる自車両と移動物体との距離及び相対速度から算出可能である。例えば、自車両と移動物体との距離が近いほど注意度を高く算出し、自車両と移動物体との相対速度が接近する方向に高いほど注意度を高く算出する。更に、自車両の速度が高いほど、注意度を高く算出してもよい。   The degree of caution means the degree of approach between a moving object existing around the host vehicle and the host vehicle. The degree of attention can be calculated from the distance and relative speed between the own vehicle and the moving object obtained from the surrounding situation of the own vehicle detected by the surrounding situation detection unit 4, for example. For example, the degree of attention is calculated higher as the distance between the host vehicle and the moving object is shorter, and the degree of attention is calculated higher as the relative speed between the host vehicle and the moving object is higher. Furthermore, the degree of attention may be calculated higher as the speed of the host vehicle is higher.

ここで、注意度の算出方法の一例を説明する。例えば、衝突余裕時間(TTC)及び車間時間(THW)を用いて注意度を算出できる。衝突余裕時間tは、現在の相対速度が維持されると仮定して、自車両が先行する他車両に衝突するまでの時間を予測する指標であり、自車両と他車両との相対速度をv、距離をxとして、以下の式(1)で求められる。
=−x/v …(1)
Here, an example of a method for calculating the attention level will be described. For example, the attention level can be calculated using the collision margin time (TTC) and the inter-vehicle time (THW). The collision allowance time t c is an index for predicting the time until the host vehicle collides with the preceding other vehicle on the assumption that the current relative speed is maintained, and the relative speed between the host vehicle and the other vehicle is calculated. It is obtained by the following formula (1) where v r and distance are x r .
t c = −x r / v r (1)

また、車間時間tは、現在の自車速度で現在の先行車位置に到達する時間を示す指標であり、自車速度をv、自車両と他車両との距離をxとして、以下の式(2)で求められる。
=−x/v …(2)
The inter-vehicle time t h is an index indicating the time to reach the current preceding vehicle position at the current host vehicle speed, where the host vehicle speed is v f , and the distance between the host vehicle and the other vehicle is x r . (2).
t h = −x r / v f (2)

式(1)及び式(2)で求めた衝突余裕時間t及び車間時間tを用いて、注意度RPは以下の式(3)のように設定可能である。
RP=1/2(α/t+β/t) …(3)
Equation (1) and (2) in the collision tolerable time t c and inter-vehicle time was determined using t h, alertness RP can be set as the following equation (3).
RP = 1/2 (α / t c + β / t h ) (3)

ここで、α、βのそれぞれは任意の係数であり適宜設定可能である。注意度と比較するための所定の閾値は適宜設定可能であり、制御装置1のデータ記憶装置7等に予め記憶していてもよい。   Here, each of α and β is an arbitrary coefficient and can be set as appropriate. The predetermined threshold for comparison with the attention level can be set as appropriate, and may be stored in advance in the data storage device 7 of the control device 1 or the like.

移動物体検出部12は、周囲状況検出部4により検出された自車両の周囲状況を用いて、注意領域検出部11により検出された注意領域内の移動物体を検出する。移動物体検出部12が検出可能な移動物体は、他車両、歩行者、動物、自転車を含む。移動物体検出部12が検出可能な移動物体は、実際に移動している物体と、信号待ち等で現在移動を停止しているが、移動する可能性の有る物体とを含む。   The moving object detection unit 12 detects the moving object in the attention area detected by the attention area detection unit 11 using the surrounding condition of the host vehicle detected by the surrounding condition detection unit 4. The moving objects that can be detected by the moving object detection unit 12 include other vehicles, pedestrians, animals, and bicycles. The moving objects that can be detected by the moving object detection unit 12 include objects that are actually moving, and objects that are currently moving but have a possibility of moving, such as waiting for a signal.

強調箇所決定部13は、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。強調箇所決定部13は、例えば注意領域自体を強調箇所として決定してもよく、注意領域を囲む領域を強調箇所として決定してもよい。また、強調箇所決定部13は、注意領域の種類に応じて、注意領域の強調箇所や強調方法を変化させてもよい。   The emphasized part determination unit 13 determines an emphasized part for the attention region detected by the attention region detection unit 11. The highlight location determination unit 13 may determine, for example, the attention region itself as the highlight location, or may determine the region surrounding the attention region as the highlight location. Further, the emphasized part determination unit 13 may change the emphasized part and the emphasis method of the attention area according to the type of the attention area.

強調箇所決定部13は更に、移動物体検出部12により検出された移動物体の領域、移動物体の向き、移動物体の移動可能範囲等を強調箇所として決定してもよい。強調箇所決定部13は、移動物体が移動中の場合には、移動物体の相対的な移動速度に応じて、移動物体の強調箇所(範囲)や強調方法を変化させてもよい。例えば、強調箇所決定部13は、移動物体の相対的な移動速度が高いほど、移動物体が移動する方向に強調箇所を拡張してもよい。   The emphasis location determination unit 13 may further determine the region of the moving object detected by the moving object detection unit 12, the direction of the moving object, the movable range of the moving object, and the like as the emphasis location. When the moving object is moving, the emphasis location determination unit 13 may change the emphasis location (range) or the emphasis method of the moving object according to the relative moving speed of the moving object. For example, the emphasis location determination unit 13 may expand the emphasis location in the direction in which the moving object moves as the relative moving speed of the moving object increases.

画像生成部14は、周囲状況検出部4により検出された周囲状況を用いて、強調箇所決定部13により決定された強調箇所を強調表示するように仮想画像(コンピュータ・グラフィック(CG)画像)を生成する。画像生成部14は、例えば強調箇所の輝度を高めたり、着色したり、点滅させたりすること等により、強調箇所を強調表示してもよい。   The image generation unit 14 displays a virtual image (computer graphic (CG) image) so as to highlight the emphasized portion determined by the emphasized portion determination unit 13 using the surrounding state detected by the surrounding state detection unit 4. Generate. The image generation unit 14 may highlight the highlighted portion by increasing the brightness of the highlighted portion, coloring, or blinking, for example.

画像生成部14は、運転シーン等に応じて種々の仮想視点位置から見た前方画像又は俯瞰画像等の仮想画像を生成可能であり、仮想画像のスケール、サイズ、縦横比等も適宜調整可能である。画像生成部14は、生成した仮想画像を表示するように表示用の画像信号を生成し、表示部5に画像信号を送信して表示部5を制御する。   The image generation unit 14 can generate a virtual image such as a front image or a bird's-eye view viewed from various virtual viewpoint positions according to a driving scene or the like, and the scale, size, aspect ratio, etc. of the virtual image can be adjusted as appropriate. is there. The image generation unit 14 generates a display image signal so as to display the generated virtual image, and transmits the image signal to the display unit 5 to control the display unit 5.

次に、各種の運転シーンを挙げて、本発明の実施形態に係る画像表示方法の一例を説明する。まず、図2(a)は、「後退駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図2(a)に示した運転シーンを「後退駐車」と判別する。   Next, an example of an image display method according to an embodiment of the present invention will be described with various driving scenes. First, FIG. 2A shows a driving scene of “reverse parking”. The host vehicle 20 is about to park in the parking frame (parking space) S <b> 1 between the other vehicles 21 and 22 behind the host vehicle 20. Based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the shift lever, etc., the scene determination unit 10 displays the driving scene shown in FIG. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「後退駐車」の運転シーンと注意領域との対応関係を参照して、自車両20の旋回の内側を含む後方の領域A1を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況から、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A1及び他車両21,22が存在する注意領域を強調箇所として決定する。   The caution area detection unit 11 refers to the correspondence relationship between the driving scene of “reverse parking” stored in the caution area storage device 3 and the caution area, and selects the rear area A1 including the inside of the turn of the host vehicle 20. Detect as caution place. The caution area detection unit 11 further detects the other vehicles 21 and 22 as caution objects from the surrounding situation detected by the surrounding situation detection unit 4. The highlighted part determination unit 13 determines, for example, the area A1 detected by the attention area detection unit 11 and the attention area where the other vehicles 21 and 22 exist as the emphasized part.

画像生成部14は、図2(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I1を生成する。仮想画像I1において、図2(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車枠(駐車スペース)MS1が仮想的に表示されている。   As illustrated in FIG. 2B, the image generation unit 14 generates a virtual image I1 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I1, the host vehicle M20 and the parking frame (parking frame (parking space) MS1) corresponding to the host vehicle 20 and the parking frame (parking space) S1 shown in FIG. 2A are virtually displayed.

更に、図2(a)に示した領域A1及び他車両21,22に対応する領域MA1及び他車両M21,M22が強調表示されている。図2(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。なお、図2(b)では自車両M20や他車両M21,M22は実際の車両の形状を模擬しているが、例えば単なる矩形やアイコン等であっても構わない。   Furthermore, the area MA1 and the other vehicles M21 and M22 corresponding to the area A1 and the other vehicles 21 and 22 shown in FIG. 2A are highlighted. In FIG. 2B, for the sake of convenience, it is shown that it is highlighted by being hatched. For example, the area MA may be highlighted by surrounding the area MA with a frame or coloring the area MA. In addition, the other vehicles 21 and 22 may be highlighted by surrounding the other vehicles 21 and 22 with a frame line or changing the color and brightness in the other vehicles 21 and 22. In FIG. 2B, the host vehicle M20 and the other vehicles M21 and M22 simulate the actual shape of the vehicle, but may be a simple rectangle or an icon, for example.

次に、図3(a)は、「縦列駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22の間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図3(a)に示した運転シーンを「縦列駐車」と判別する。   Next, FIG. 3A shows a driving scene of “parallel parking”. The host vehicle 20 is about to park in the parking frame (parking space) S <b> 1 between the other vehicles 21 and 22 behind the host vehicle 20. Based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the shift lever, etc., the scene determination unit 10 displays the driving scene shown in FIG. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「縦列駐車」の運転シーンと注意領域との対応関係を参照して、他車両21,22と接近する方向である、駐車したい方角に位置する前部角部の端部を含む円弧の領域A2と、駐車したい方角の後輪の接地部を含む円弧の領域A3を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、領域A2,A3及び他車両21,22が存在する注意領域を強調箇所として決定する。   The caution area detection unit 11 refers to the correspondence relationship between the driving scene of “parallel parking” and the caution area stored in the caution area storage device 3 and wants to park in the direction approaching the other vehicles 21 and 22. An arc region A2 including the end of the front corner located in the direction and an arc region A3 including the ground contact portion of the rear wheel in the direction desired to be parked are detected as caution locations. The caution area detection unit 11 further detects the other vehicles 21 and 22 as caution objects based on the surrounding situation detected by the surrounding situation detection unit 4. The highlighted part determination unit 13 determines, for example, the attention area where the areas A2 and A3 and the other vehicles 21 and 22 exist as the emphasized part.

画像生成部14は、図3(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I2を生成する。仮想画像I2において、図3(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車スペース)MS1が仮想的に表示されている。   As illustrated in FIG. 3B, the image generation unit 14 generates a virtual image I <b> 2 that highlights the emphasized part determined by the emphasized part determining unit 13. In the virtual image I2, the host vehicle M20 and the parking frame (parking space) MS1 corresponding to the host vehicle 20 and the parking frame (parking space) S1 shown in FIG. 3A are virtually displayed.

更に、図3(a)に示した領域A2,A3及び他車両21,22に対応する領域MA2,MA3及び他車両M21,M22が強調表示されている。図3(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。   Further, the areas MA2 and MA3 and the other vehicles M21 and M22 corresponding to the areas A2 and A3 and the other vehicles 21 and 22 shown in FIG. 3A are highlighted. In FIG. 3B, for the sake of convenience, it is shown that it is highlighted by being hatched. For example, the area MA may be highlighted by surrounding the area MA with a frame or coloring the area MA. In addition, the other vehicles 21 and 22 may be highlighted by surrounding the other vehicles 21 and 22 with a frame line or changing the color and brightness in the other vehicles 21 and 22.

次に、図4(a)は、「狭路での幅寄せ」の運転シーンを示している。図4(a)に示すように、自車両20は、狭路において対向車である他車両21が接近しているため、左側のガードレール31に寄って走行している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での幅寄せ」と判別する。   Next, FIG. 4A shows a driving scene of “justification in a narrow road”. As shown in FIG. 4A, the host vehicle 20 is traveling near the guardrail 31 on the left side because the other vehicle 21 that is an oncoming vehicle is approaching on a narrow road. The scene discriminating unit 10 determines the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquiring unit 2, the surrounding state detected by the surrounding state detecting unit 4 and the like based on the “narrow road”. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での幅寄せ」の運転シーンと注意領域との対応関係を参照して、自車両20を寄せる左側の操舵輪側面含む車体側面の領域A4を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及びガードレール31を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A4、他車両21及びガードレール31が存在する注意領域を強調箇所として決定する。   The caution area detection unit 11 refers to the correspondence relationship between the driving scene of “narrow road narrowing” stored in the caution area storage device 3 and the caution area, and the left side surface of the steering wheel toward which the host vehicle 20 is approached The area A4 on the side surface of the vehicle body is detected as the attention place. The caution area detection unit 11 further detects the other vehicle 21 and the guard rail 31 as a caution object based on the surrounding situation detected by the surrounding situation detection unit 4. The highlight location determination unit 13 determines, for example, the region A4 detected by the attention region detection unit 11, the attention region where the other vehicle 21 and the guardrail 31 are present as the highlight location.

画像生成部14は、図4(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I3を生成する。仮想画像I3において、図4(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図4(a)に示した領域A4、他車両21及びガードレール31に対応する領域MA4及び他車両M21が強調表示されている。図4(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 4B, the image generation unit 14 generates a virtual image I <b> 3 that highlights the emphasized part determined by the emphasized part determining unit 13. In the virtual image I3, the host vehicle M20 corresponding to the host vehicle 20 shown in FIG. 4A is virtually displayed. Further, the area A4, the area MA4 and the other vehicle M21 corresponding to the area A4, the other vehicle 21, and the guardrail 31 shown in FIG. 4A are highlighted. In FIG. 4B, for the sake of convenience, it is shown that it is highlighted by being hatched.

次に、図5(a)は、「狭路での通り抜け」の運転シーンを示している。自車両20は、狭路において、対向車である他車両21が接近する前に、自車両20の前方の破線の矢印で示すようにS字を描いて前方の他車両22を追い越そうとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。   Next, FIG. 5A shows a driving scene of “passing through a narrow path”. The own vehicle 20 tries to pass the other vehicle 22 ahead by drawing an S-shape as indicated by the dashed arrow in front of the own vehicle 20 before the other vehicle 21 that is an oncoming vehicle approaches on a narrow road. Yes. The scene discriminating unit 10 determines the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquiring unit 2, the surrounding state detected by the surrounding state detecting unit 4 and the like based on the “narrow road”. It is determined as “pass through”.

注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A5を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A5及び他車両21,22が存在する注意領域を強調箇所として決定する。   The caution area detection unit 11 includes the front (traveling direction) of the host vehicle 20 with reference to the correspondence relationship between the driving scene of “passing through a narrow road” and the caution area stored in the caution area storage device 3. Then, the region A5 on the left and right side surfaces of the vehicle body is detected as the attention place. The caution area detection unit 11 further detects the other vehicles 21 and 22 as caution objects based on the surrounding situation detected by the surrounding situation detection unit 4. The highlighted part determination unit 13 determines, for example, the attention area where the area A5 and the other vehicles 21 and 22 detected by the attention area detection unit 11 are present as the emphasized part.

画像生成部14は、図5(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I4を生成する。仮想画像I4において、図5(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図5(a)に示した領域A5、他車両21,22に対応する領域MA5、他車両M21,M22が強調表示されている。図5(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 5B, the image generation unit 14 generates a virtual image I4 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I4, the host vehicle M20 corresponding to the host vehicle 20 shown in FIG. 5A is virtually displayed. Further, the area A5 shown in FIG. 5A, the area MA5 corresponding to the other vehicles 21 and 22, and the other vehicles M21 and M22 are highlighted. In FIG. 5B, for the sake of convenience, it is shown highlighted by being hatched.

次に、図6(a)は、「狭路での通り抜け」の他の運転シーンを示している。自車両20は、狭路において、電柱32と他車両21との間を通過しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。   Next, FIG. 6A shows another driving scene of “passing through a narrow path”. The host vehicle 20 is about to pass between the utility pole 32 and the other vehicle 21 on a narrow road. The scene discriminating unit 10 determines the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquiring unit 2, the surrounding state detected by the surrounding state detecting unit 4 and the like based on the “narrow road”. It is determined as “pass through”.

注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A6を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及び電柱32を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A6、他車両21、電柱32が存在する注意領域を強調箇所として決定する。   The caution area detection unit 11 includes the front (traveling direction) of the host vehicle 20 with reference to the correspondence relationship between the driving scene of “passing through a narrow road” and the caution area stored in the caution area storage device 3. Then, the region A6 on the left and right side surfaces of the vehicle body is detected as the attention place. The caution area detection unit 11 further detects the other vehicle 21 and the utility pole 32 as caution objects based on the surrounding situation detected by the surrounding situation detection unit 4. The highlight location determination unit 13 determines, for example, the attention region where the region A6 detected by the attention region detection unit 11, the other vehicle 21, and the utility pole 32 exist as the highlight location.

画像生成部14は、図6(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I5を生成する。仮想画像I5において、図6(a)に示した自車両20及びガードレール31に対応する自車両M20及びガードレールM31が仮想的に表示されている。更に、図6(a)に示した領域A6、他車両21及び電柱32に対応する領域MA6、他車両M21及び電柱32が強調表示されている。図6(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As shown in FIG. 6B, the image generation unit 14 generates a virtual image I5 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I5, the host vehicle M20 and the guard rail M31 corresponding to the host vehicle 20 and the guard rail 31 illustrated in FIG. 6A are virtually displayed. Further, the region MA6, the other vehicle M21, and the utility pole 32 corresponding to the region A6, the other vehicle 21, and the utility pole 32 shown in FIG. 6A are highlighted. In FIG. 6 (b), for the sake of convenience, it is shown that it is highlighted by being hatched.

次に、図7(a)は、「車線変更」の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。   Next, FIG. 7A shows a driving scene of “lane change”. At the interchange, the host vehicle 20 is traveling in the lane L1 before merging, and is about to change the lane to the right lane L2. The scene determination unit 10 performs “lane change” on the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the surrounding situation detected by the surrounding state detection unit 4, and the like. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の後方の領域A7を注意場所として検出する。なお、変更先の車線L2の自車両20の前方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。   The attention area detection unit 11 refers to the correspondence relationship between the driving scene of “lane change” stored in the attention area storage device 3 and the attention area, and includes the rear side of the own vehicle 20 including the side of the lane L2 to be changed. The area A7 is detected as an attention place. It should be noted that an area located in front of the host vehicle 20 in the lane L2 to be changed is not detected as a caution place because there is no other vehicle. The attention area detection unit 11 further detects the other vehicle 21 as the attention object based on the surrounding situation detected by the surrounding situation detection unit 4.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A7及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。   The highlighted part determination unit 13 determines, for example, the attention area where the area A7 detected by the attention area detection unit 11 and the other vehicle 21 are present as the emphasized part. The emphasis location determination unit 13 further calculates the relative speed of the other vehicle 21 and determines the relative speed as the emphasis location.

画像生成部14は、図7(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I6を生成する。仮想画像I6において、図7(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図7(a)に示した領域A7及び他車両21に対応する領域MA7及び他車両M21が強調表示されている。図7(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の後部には後ろ向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。   As illustrated in FIG. 7B, the image generation unit 14 generates a virtual image I6 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I6, the host vehicle M20 and the lanes ML1, ML2 corresponding to the host vehicle 20 and the lanes L1, L2 shown in FIG. 7A are virtually displayed. Further, the area MA7 and the other vehicle M21 corresponding to the area A7 and the other vehicle 21 shown in FIG. 7A are highlighted. In FIG. 7B, for the sake of convenience, it is shown that it is highlighted by being hatched. Furthermore, the relative speed is highlighted at the rear of the other vehicle M21 with an arrow M21a facing backward. The arrow M21a indicates that the relative speed of the other vehicle M21 is high in the direction away from the host vehicle M20.

なお、例えば図8に示すように、図6(a)に示した「狭路での通り抜け」の運転シーンにおける仮想画像I5の視点位置P1は、自車両20の上方且つ後方側から撮像するように設定され、撮像範囲R1を有している。一方、図7(a)に示した「車線変更」の運転シーンにおける仮想画像I6の視点位置P2は、視点位置P1よりも自車両20の上方且つ後方側から撮像するように設定され、視点位置P1の撮像範囲R1よりも広い撮像範囲R2を有している。このように、仮想画像の視点位置は、運転シーン等に応じて適宜調整可能である。   For example, as shown in FIG. 8, the viewpoint position P <b> 1 of the virtual image I <b> 5 in the driving scene “passing through a narrow road” shown in FIG. 6A is taken from above and behind the host vehicle 20. And has an imaging range R1. On the other hand, the viewpoint position P2 of the virtual image I6 in the driving scene of “lane change” shown in FIG. 7A is set so as to capture images from above and behind the host vehicle 20 relative to the viewpoint position P1. The imaging range R2 is wider than the imaging range R1 of P1. As described above, the viewpoint position of the virtual image can be appropriately adjusted according to the driving scene and the like.

次に、図9(a)は、「車線変更」の他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)と同様であり、他車両21が自車両20の前方を走行している点が図7(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。   Next, FIG. 9A shows another driving scene of “lane change”. In the interchange, the own vehicle 20 is traveling in the lane L1 before the merge, and the point of trying to change the lane to the right lane L2 is the same as in FIG. 7A, and the other vehicle 21 passes the front of the own vehicle 20. The point which is drive | working differs from Fig.7 (a). The scene determination unit 10 performs “lane change” on the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the surrounding situation detected by the surrounding state detection unit 4, and the like. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前方の領域A8を注意場所として検出する。なお、変更先の車線L2の自車両20の後方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。   The caution area detection unit 11 refers to the correspondence relationship between the driving scene of “lane change” stored in the caution area storage device 3 and the caution area, and includes the front side of the host vehicle 20 including right next to the lane L2 to be changed. The area A8 is detected as a caution place. In addition, since the area | region located in the back of the own vehicle 20 of the change destination lane L2 does not have another vehicle, it is set as non-detection as a warning place. The attention area detection unit 11 further detects the other vehicle 21 as the attention object based on the surrounding situation detected by the surrounding situation detection unit 4.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A8及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。   The highlighted part determination unit 13 determines, for example, the attention area where the area A8 detected by the attention area detection unit 11 and the other vehicle 21 are present as the emphasized part. The emphasis location determination unit 13 further calculates the relative speed of the other vehicle 21 and determines the relative speed as the emphasis location.

画像生成部14は、図9(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I7を生成する。仮想画像I7において、図9(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図9(a)に示した領域A8及び他車両21に対応する領域MA8及び他車両M21が強調表示されている。図9(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の前部には前向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。矢印M21aは、相対速度が高いほど長くしてもよい。   As illustrated in FIG. 9B, the image generation unit 14 generates a virtual image I7 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I7, the host vehicle M20 and the lanes ML1, ML2 corresponding to the host vehicle 20 and the lanes L1, L2 shown in FIG. 9A are virtually displayed. Furthermore, the area MA8 and the other vehicle M21 corresponding to the area A8 and the other vehicle 21 shown in FIG. 9A are highlighted. In FIG. 9B, for the sake of convenience, it is shown highlighted by being hatched. Further, the relative speed is highlighted in the forward direction of the other vehicle M21 with an arrow M21a. The arrow M21a indicates that the relative speed of the other vehicle M21 is high in the direction away from the host vehicle M20. The arrow M21a may be longer as the relative speed is higher.

次に、図10(a)は、「車線変更」の更に他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)及び図9(a)と同様であり、他車両21,22が自車両20の前方及び後方を走行している点が図7(a)及び図9(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。   Next, FIG. 10A shows still another driving scene of “lane change”. In the interchange, the own vehicle 20 is traveling in the lane L1 before the merge, and the point of trying to change the lane to the lane L2 on the right side is the same as in FIG. 7 (a) and FIG. 9 (a). 7 differs from FIG. 7A and FIG. 9A in that 22 is traveling in front of and behind the host vehicle 20. The scene determination unit 10 performs “lane change” on the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the surrounding situation detected by the surrounding state detection unit 4, and the like. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前後方向の領域A9を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。   The attention area detection unit 11 refers to the correspondence relationship between the driving scene of “lane change” stored in the attention area storage device 3 and the attention area, and includes the front and rear of the host vehicle 20 including right next to the lane L2 to be changed. A direction area A9 is detected as a caution place. The caution area detection unit 11 further detects the other vehicles 21 and 22 as caution objects based on the surrounding situation detected by the surrounding situation detection unit 4.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A9及び他車両21,22が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21,22の相対速度を算出し、相対速度を強調箇所として決定する。   The highlight location determination unit 13 determines, for example, the region A9 detected by the attention region detection unit 11 and the attention region where the other vehicles 21 and 22 are present as the highlight location. The emphasized part determination unit 13 further calculates the relative speed of the other vehicles 21 and 22 and determines the relative speed as the emphasized part.

画像生成部14は、図10(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図10(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図10(a)に示した領域A9及び他車両21,22に対応する領域MA9及び他車両M21,M22が強調表示されている。図10(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 10B, the image generation unit 14 generates a virtual image I8 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I8, the host vehicle M20 and the lanes ML1, ML2 corresponding to the host vehicle 20 and the lanes L1, L2 shown in FIG. 10A are virtually displayed. Further, the area MA9 and the other vehicles M21 and M22 corresponding to the area A9 and the other vehicles 21 and 22 shown in FIG. 10A are highlighted. In FIG. 10B, for the sake of convenience, it is shown that it is highlighted by being hatched.

更に、自車両M20の後方に位置する他車両M21の前部には前向きに矢印M21aで相対速度が強調表示され、他車両M21の相対速度が自車両M20に接近する方向に高いことを示している。更に、自車両M20の前方に位置する他車両M22の後部には後向ききに矢印M22aで相対速度が強調表示され、他車両M22の相対速度が自車両M20に接近する方向に高いことを示している。矢印M21a,M22aは、相対速度が高いほど長くしてもよい。   Further, the relative speed is highlighted forward by an arrow M21a at the front of the other vehicle M21 located behind the host vehicle M20, indicating that the relative speed of the other vehicle M21 is higher in the direction approaching the host vehicle M20. Yes. Further, the relative speed is highlighted with an arrow M22a in a rearward direction at the rear part of the other vehicle M22 located in front of the host vehicle M20, indicating that the relative speed of the other vehicle M22 is high in the direction approaching the host vehicle M20. Yes. The arrows M21a and M22a may be longer as the relative speed is higher.

次に、図11(a)は、図10(a)と同様の「車線変更」の運転シーンを示しているが、注意領域検出部11は、周囲状況検出部4により検出された周囲状況に基づいて、自車両20の周囲を複数(図11(a)では12個)の領域RAに仮想的に分割して、領域RAごとに注意度を算出してもよい。図11(a)では、複数の領域RAを自車両20の位置を基準に、車線に沿うように設定している。なお、複数の領域RAの形状や位置、個数は特に限定されず、運転シーン等に応じて適宜設定可能である。   Next, FIG. 11A shows the driving scene of “lane change” similar to FIG. 10A, but the attention area detection unit 11 detects the surrounding situation detected by the surrounding situation detection unit 4. Based on this, the surroundings of the host vehicle 20 may be virtually divided into a plurality (12 in FIG. 11A) of regions RA, and the attention level may be calculated for each region RA. In FIG. 11A, a plurality of regions RA are set along the lane based on the position of the host vehicle 20. In addition, the shape, position, and number of the plurality of regions RA are not particularly limited, and can be set as appropriate according to the driving scene and the like.

例えば、領域RA内に他車両21,22が有る場合には、注意領域検出部11は、他車両21,22の相対距離及び相対速度から注意度を算出する。注意領域検出部11は更に、注意度が所定の閾値以上か否かを判定し、所定の閾値以上の領域(例えば他車両21が含まれる領域)RAを注意領域として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された他車両21が含まれる領域RAを強調箇所として決定する。   For example, when there are other vehicles 21 and 22 in the region RA, the attention region detection unit 11 calculates the degree of attention from the relative distance and the relative speed of the other vehicles 21 and 22. The attention area detection unit 11 further determines whether or not the attention level is equal to or higher than a predetermined threshold, and detects an area RA (for example, an area including the other vehicle 21) RA equal to or higher than the predetermined threshold as the attention area. The highlight location determination unit 13 determines, for example, the region RA including the other vehicle 21 detected by the attention region detection unit 11 as the highlight location.

画像生成部14は、図11(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図11(a)に示した自車両20、他車両21,22及び車線L1,L2に対応する自車両M20、他車両M21,M22及び車線ML1,ML2が仮想的に表示されている。更に、図11(a)に示した他車両21が含まれる領域RAに対応する領域RBが強調表示されている。図11(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 11B, the image generation unit 14 generates a virtual image I8 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I8, the host vehicle M20, the other vehicles M21, M22, and the lanes ML1, ML2 corresponding to the host vehicle 20, the other vehicles 21, 22 and the lanes L1, L2 shown in FIG. ing. Further, a region RB corresponding to the region RA including the other vehicle 21 shown in FIG. 11A is highlighted. In FIG. 11 (b), for the sake of convenience, it is shown highlighted by being hatched.

次に、図12は、「T字路」の運転シーンを示している。自車両20は、前方のT字路に進入しようとしている。T字路において、標識51及び横断歩道41,42が設置されており、他車両21,22及び自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「T字路」と判別する。   Next, FIG. 12 shows a driving scene of “T-junction”. The host vehicle 20 is about to enter a forward T-junction. On the T-shaped road, a sign 51 and pedestrian crossings 41 and 42 are installed, and other vehicles 21 and 22 and bicycles 61 to 64 exist. The scene discriminating unit 10 determines the driving scene based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquiring unit 2, the surrounding state detected by the surrounding state detecting unit 4, and the like. Is determined.

注意領域検出部11は、注意領域記憶装置3に記憶されている「T字路」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、自車両20の左右両方向の領域A11,A12及び交差点の中心に位置する半円の領域A10を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、交差点の交錯道路を走行している他車両21,22、自転車61〜64、標識51、横断歩道41,42を注意対象物として検出する。   The caution area detection unit 11 refers to the correspondence relationship between the driving scene of “T-junction” stored in the caution area storage device 3 and the caution area, and determines the surrounding situation detected by the surrounding situation detection unit 4. Based on the left and right direction regions A11 and A12 of the host vehicle 20 and the semicircular region A10 located at the center of the intersection are detected as caution locations. The attention area detection unit 11 further includes other vehicles 21 and 22, bicycles 61 to 64, a sign 51, and a pedestrian crossing 41 that are traveling on the intersection road based on the surrounding conditions detected by the surrounding condition detection unit 4. , 42 are detected as attention objects.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42が存在する注意領域を強調箇所として決定する。   The highlighted part determination unit 13 highlights the attention area where the areas A10 to A12, the other vehicles 21 and 22, the bicycles 61 to 64, the sign 51, and the pedestrian crossings 41 and 42 detected by the attention area detection unit 11 are emphasized. Determine as.

画像生成部14は、図13に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I9を生成する。仮想画像I9において、図12に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図12に示した領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42に対応する領域MA10〜MA12、他車両M21,M22、自転車M61〜M64、標識M51、横断歩道M41,M42が強調表示されている。図13では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 13, the image generation unit 14 generates a virtual image I <b> 9 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I9, the host vehicle M20 corresponding to the host vehicle 20 shown in FIG. 12 is virtually displayed. Furthermore, areas A10 to A12, other vehicles 21, 22 and bicycles 61 to 64, sign 51, regions MA10 to MA12 corresponding to pedestrian crossings 41 and 42, other vehicles M21 and M22, bicycles M61 to M64, shown in FIG. A sign M51 and pedestrian crossings M41 and M42 are highlighted. For the sake of convenience, FIG. 13 shows that highlighting is given by hatching.

次に、図14は、「交差点左折」の運転シーンを示している。交差点には、標識51、信号機53及び横断歩道41,42が設置されており、他車両21,22、二輪車81,82、歩行者71及び自転車61が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。   Next, FIG. 14 shows a driving scene of “turn left at the intersection”. At the intersection, a sign 51, a traffic light 53, and pedestrian crossings 41, 42 are installed, and there are other vehicles 21, 22, two-wheeled vehicles 81, 82, a pedestrian 71, and a bicycle 61. The scene determination unit 10 determines the driving scene as “turn left at the intersection” based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the direction indicator, and the like.

注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点左折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況に基づいて、交差点中心C1を基準とした自車両20の進行方向(左折)を含まない3/4程度の円弧の領域A13を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42を注意対象物として検出する。   The attention area detection unit 11 refers to the correspondence relationship between the driving scene of “intersection left turn” stored in the attention area storage device 3 and the attention area, and based on the surrounding situation detected by the surrounding situation detection unit 4. Then, an arc region A13 of about 3/4 that does not include the traveling direction (left turn) of the host vehicle 20 with respect to the intersection center C1 is detected as a caution place. The attention area detection unit 11 further includes other vehicles 21, 22, two-wheeled vehicles 81, 82, a pedestrian 71, a bicycle 61, a sign 51, a traffic light 53, a pedestrian crossing, based on the surroundings detected by the surroundings detection unit 4. 41 and 42 are detected as attention objects.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。   The highlight location determination unit 13 includes, for example, the region A13 detected by the attention region detection unit 11, the other vehicles 21, 22, two-wheeled vehicles 81 and 82, the pedestrian 71, the bicycle 61, the sign 51, the traffic lights 53, and the pedestrian crossings 41 and 42. The attention area in which is present is determined as an emphasis location.

画像生成部14は、図15に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I10を生成する。仮想画像I10において、図14に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図14に示した領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42に対応する領域MA13、他車両M21,M22、二輪車M81,M82、歩行者M71、自転車M61、標識M51、信号機M53、横断歩道M41,M42が強調表示されている。図15では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As shown in FIG. 15, the image generation unit 14 generates a virtual image I10 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I10, the host vehicle M20 corresponding to the host vehicle 20 shown in FIG. 14 is virtually displayed. Further, the area A13, the other vehicles 21, 22, the two-wheeled vehicles 81, 82, the pedestrian 71, the bicycle 61, the sign 51, the traffic light 53, the region MA13 corresponding to the pedestrian crossings 41, 42, the other vehicles M21, M22 shown in FIG. The motorcycles M81 and M82, the pedestrian M71, the bicycle M61, the sign M51, the traffic light M53, and the pedestrian crossings M41 and M42 are highlighted. In FIG. 15, for the sake of convenience, it is shown highlighted by being hatched.

次に、図16は、「交差点右折」の運転シーンを示している。交差点には、標識51,52、信号機53及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。   Next, FIG. 16 shows a driving scene of “turn right at the intersection”. Signs 51 and 52, traffic lights 53 and pedestrian crossings 41 and 42 are installed at the intersection, and there are other vehicles 21 to 23, two-wheeled vehicles 81 to 83, pedestrians 71 and 72, and bicycles 61 to 64. The scene determination unit 10 determines that the driving scene is “turn right at the intersection” based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the direction indicator, and the like.

注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点右折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、交差点中心を基準とした自車両20の進行方向(右折)を含まない3/4程度の円弧の領域A14を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42を注意対象物として検出する。   The caution area detection unit 11 refers to the correspondence between the driving scene of the “intersection right turn” stored in the caution area storage device 3 and the caution area, and is based on the surrounding situation detected by the surrounding situation detection unit 4. Thus, an arc region A14 of about 3/4 that does not include the traveling direction (right turn) of the host vehicle 20 with respect to the center of the intersection is detected as a caution place. The attention area detection unit 11 further includes other vehicles 21 to 23, two-wheeled vehicles 81 to 83, pedestrians 71 and 72, bicycles 61 to 64, and signs 51 and 52 based on the surroundings detected by the surroundings detection unit 4. The traffic light 53 and the pedestrian crossings 41 and 42 are detected as the attention objects.

強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。   The highlight location determination unit 13 includes, for example, the region A14 detected by the attention region detection unit 11, the other vehicles 21 to 23, the two-wheeled vehicles 81 to 83, the pedestrians 71 and 72, the bicycles 61 to 64, the signs 51 and 52, and the traffic lights 53. The attention area where the pedestrian crossings 41 and 42 exist is determined as an emphasis location.

画像生成部14は、図17に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I11を生成する。仮想画像I11において、図16に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図16に示した領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42に対応する領域MA14、他車両M21〜M23、二輪車M81〜M83、歩行者M71,M72、自転車M61〜M64、標識M51,M52、信号機M53、横断歩道M41,M42が強調表示されている。図17では便宜的に、ハッチングを付すことにより強調表示されていることを示す。   As illustrated in FIG. 17, the image generation unit 14 generates a virtual image I <b> 11 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I11, the host vehicle M20 corresponding to the host vehicle 20 shown in FIG. 16 is virtually displayed. Further, the area MA14 corresponding to the area A14, the other vehicles 21 to 23, the two-wheeled vehicles 81 to 83, the pedestrians 71 and 72, the bicycles 61 to 64, the signs 51 and 52, the traffic lights 53, and the pedestrian crossings 41 and 42 shown in FIG. Other vehicles M21 to M23, motorcycles M81 to M83, pedestrians M71 and M72, bicycles M61 to M64, signs M51 and M52, traffic lights M53, and crosswalks M41 and M42 are highlighted. In FIG. 17, for the sake of convenience, it is shown that it is highlighted by being hatched.

<画像表示方法>
次に、図18のフローチャートを参照しながら、本発明の実施形態に係る乗用移動体用の画像表示方法の一例を説明する。なお、図18のフローチャートの一連の処理は、所定の制御周期で繰り返し実行可能である。
<Image display method>
Next, an example of an image display method for a riding vehicle according to an embodiment of the present invention will be described with reference to the flowchart of FIG. Note that a series of processes in the flowchart of FIG. 18 can be repeatedly executed at a predetermined control cycle.

ステップS1において、自車位置取得部2が、自車両20の地図上における現在位置を取得し、取得した自車両20の地図上における現在位置を制御装置1に入力する。周囲状況検出部4が、自車両20の周囲状況を検出し、検出した自車両20の周囲状況を制御装置1に入力する。   In step S <b> 1, the host vehicle position acquisition unit 2 acquires the current position of the host vehicle 20 on the map, and inputs the acquired current position of the host vehicle 20 on the map to the control device 1. The surrounding state detection unit 4 detects the surrounding state of the host vehicle 20 and inputs the detected surrounding state of the host vehicle 20 to the control device 1.

ステップS2において、シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置、周囲状況検出部4により検出された周囲状況、シフトレバーやウインカスイッチの操作情報等に基づいて、自車両20の運転シーンを判別する。   In step S <b> 2, the scene determination unit 10 determines the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the surrounding state detected by the surrounding state detection unit 4, and operation information of the shift lever and the blinker switch. Based on the above, the driving scene of the host vehicle 20 is determined.

ステップS3において、注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、シーン判別部10により判別された運転シーンに対応する注意領域を抽出する。そして、注意領域検出部11は、周囲状況検出部4により検出された自車両の周囲状況中の、注意場所が存在する領域、注意対象物が存在する領域、注意度が所定の閾値以上の領域等を含む注意領域を検出する。   In step S <b> 3, the attention area detection unit 11 refers to the correspondence relationship between the driving scene and the attention area stored in the attention area storage device 3, and the attention area corresponding to the driving scene determined by the scene determination unit 10. To extract. Then, the attention area detection unit 11 includes an area where the attention place exists, an area where the attention object exists, and an area where the attention level is equal to or higher than a predetermined threshold in the surrounding conditions of the host vehicle detected by the surrounding condition detection unit 4 Detecting attention area including etc.

ステップS4において、移動物体検出部12は、周囲状況検出部4により検出された周囲状況に基づいて、注意領域検出部11により検出された注意領域内の移動物体を検出する。ステップS5において、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定する。移動物体が有ると判定された場合、ステップS6に進み、強調箇所決定部13が、注意領域内の移動物体を強調箇所として決定する。画像生成部14は、注意領域内の移動物体を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。   In step S <b> 4, the moving object detection unit 12 detects a moving object in the attention area detected by the attention area detection unit 11 based on the surrounding condition detected by the surrounding condition detection unit 4. In step S <b> 5, the emphasis location determination unit 13 determines whether or not there is a moving object detected by the moving object detection unit 12. When it is determined that there is a moving object, the process proceeds to step S6, and the emphasis location determination unit 13 determines the moving object in the attention area as the emphasis location. The image generation unit 14 generates a virtual image in which a moving object in the attention area is highlighted. The display unit 5 displays the virtual image generated by the image generation unit 14.

ステップS7において、画像生成部14は、周囲状況検出部4により検出された周囲状況等に基づいて、移動物体が注意領域外に移動したか否かを判定する。移動物体が注意領域外に移動したと判定された場合、ステップS8に進む。ステップS8において、画像生成部14が、仮想画像中の移動物体の強調表示を停止する信号を表示部5に出力する。   In step S <b> 7, the image generation unit 14 determines whether or not the moving object has moved out of the attention area based on the surrounding state detected by the surrounding state detection unit 4. When it is determined that the moving object has moved out of the attention area, the process proceeds to step S8. In step S <b> 8, the image generation unit 14 outputs a signal for stopping highlighting of the moving object in the virtual image to the display unit 5.

ステップS5において、移動物体検出部12により検出された移動物体が無いと判定された場合、ステップS9に進む。ステップS9において、強調箇所決定部13が、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。画像生成部14は、注意領域を強調表示した仮想画像を生成し、仮想画像を表示部5に表示させる。   If it is determined in step S5 that there is no moving object detected by the moving object detection unit 12, the process proceeds to step S9. In step S <b> 9, the emphasis location determination unit 13 determines an emphasis location for the attention region detected by the attention region detection unit 11. The image generation unit 14 generates a virtual image in which the attention area is highlighted, and causes the display unit 5 to display the virtual image.

ステップS10において、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS8に進み、画像生成部14は、仮想画像中の注意領域の強調表示を停止する信号を表示部5に出力する。   In step S <b> 10, the image generation unit 14 determines whether or not the own vehicle has passed the highlighted attention area based on the position of the own vehicle 20 obtained from GPS or the like. If it is determined that the vehicle has passed the caution area, the process proceeds to step S8, and the image generation unit 14 outputs a signal to the display unit 5 to stop highlighting the caution area in the virtual image.

本発明の本発明の実施形態に係る乗用移動体用の画像表示プログラムは、図18に示した画像表示方法の手順を、制御装置1を構成するコンピュータに実行させる。即ち、本発明の実施の形態に係る運転支援プログラムは、乗用移動体の周囲状況を検出する手順、周囲状況に基づいて、乗用移動体の周囲の注意領域を検出する手順、注意領域に対して強調箇所を決定する手順、強調箇所を強調するように周囲状況を表示する仮想画像を生成する手順、仮想画像を表示部に表示する手順等を制御装置1を構成するコンピュータに実行させる。本発明の実施の形態に係る画像表示プログラムは、例えばデータ記憶装置7に格納可能である。   The image display program for a passenger moving body according to the embodiment of the present invention causes the computer constituting the control device 1 to execute the procedure of the image display method shown in FIG. That is, the driving support program according to the embodiment of the present invention provides a procedure for detecting a surrounding situation of the riding mobile body, a procedure for detecting a caution area around the riding mobile body based on the surrounding situation, and a caution area. The computer which comprises the control apparatus 1 is made to perform the procedure which determines the emphasis location, the procedure which produces | generates the virtual image which displays a surrounding condition so that an emphasis location may be emphasized, the procedure which displays a virtual image on a display part, etc. The image display program according to the embodiment of the present invention can be stored in, for example, the data storage device 7.

なお、本発明の実施形態に係る画像表示方法は、例えば図19に示すフローチャートの手順であってもよい。図18に示したフローチャートと同様にステップS1〜S3の手順を実行した後、ステップS11に進み、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定せずに、注意領域検出部11により検出された注意領域注意領域に対して強調箇所を決定してもよい。画像生成部14は、注意領域を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。   The image display method according to the embodiment of the present invention may be, for example, a flowchart shown in FIG. After executing the steps S1 to S3 as in the flowchart shown in FIG. 18, the process proceeds to step S11, and the emphasis location determination unit 13 does not determine the presence or absence of the moving object detected by the moving object detection unit 12. The emphasis location may be determined for the attention area attention area detected by the attention area detection unit 11. The image generation unit 14 generates a virtual image in which the attention area is highlighted. The display unit 5 displays the virtual image generated by the image generation unit 14.

その後、ステップS12において、図18に示したフローチャートのステップS10と同様に、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS13に進み、図18に示したフローチャートのステップS10と同様に、画像生成部14は、仮想画像中の注意領域の強調表示を停止する。   Thereafter, in step S12, as in step S10 of the flowchart shown in FIG. 18, the image generation unit 14 displays the highlighted attention area based on the position of the host vehicle 20 obtained from GPS or the like. It is determined whether or not. When it is determined that the vehicle has passed the caution area, the process proceeds to step S13, and the image generation unit 14 stops highlighting the caution area in the virtual image, similarly to step S10 in the flowchart shown in FIG. .

また、図18に示したフローチャートでは、ステップS6とステップS9でそれぞれ注意領域又は移動物体を択一的に強調表示する場合を例示したが、注意領域及び移動物体を同時に強調表示してもよい。   In the flowchart illustrated in FIG. 18, the case where the attention area or the moving object is alternatively highlighted in step S6 and step S9 is illustrated, but the attention area and the moving object may be highlighted simultaneously.

以上説明したように、本発明の実施形態によれば、運転シーンを判別して、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性の有る領域を注意領域として、自車両20の周囲の幅広い範囲において運転シーンに応じた注意領域を検出し、注意領域を強調表示する。この結果、運転シーンに応じて特に進行方向以外にも乗員が注意すべき領域を、容易に且つ幅広い範囲で、乗員に対して知覚させることができる。   As described above, according to the embodiment of the present invention, a driving scene is discriminated, and an area where vehicles or vehicles and people may cross each other according to the road structure on the road is used as an attention area. The attention area corresponding to the driving scene is detected in a wide range around the vehicle 20, and the attention area is highlighted. As a result, it is possible to cause the occupant to easily and widely perceive a region that the occupant should pay attention to in addition to the traveling direction according to the driving scene.

特に、本発明の実施形態のように自車両20の周囲状況全体をCG画像で表示する場合には、CG化により現実世界において運転時に不要な情報を排除できる一方で、乗員が注意領域を知覚するのに役立つ情報の損失が考えられる。これに対して、本発明の実施形態によれば、CG化による情報の損失を補うように、乗員に対して注意領域を容易に知覚させることができる。   In particular, when the entire surrounding situation of the host vehicle 20 is displayed as a CG image as in the embodiment of the present invention, unnecessary information during driving in the real world can be eliminated by CG, while the occupant perceives the attention area. Loss of information that can help you. On the other hand, according to the embodiment of the present invention, it is possible to make the occupant easily perceive the attention area so as to compensate for the loss of information due to CG.

更に、自車両20の周囲を複数の領域RAに仮想的に分割して、複数の領域RAごとに注意度を算出し、注意度が所定の閾値以上の領域を強調するように仮想画像を生成することにより、乗員が注意を向けるべき領域を複数の領域RAの単位で容易に知覚することができる。   Further, the periphery of the host vehicle 20 is virtually divided into a plurality of regions RA, a degree of attention is calculated for each of the plurality of regions RA, and a virtual image is generated so as to emphasize a region where the degree of attention is a predetermined threshold or more. By doing so, it is possible to easily perceive the area to which the occupant should pay attention in units of a plurality of areas RA.

<第1の変形例>
本発明の実施形態の第1の変形例として、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合を説明する。
<First Modification>
As a first modification of the embodiment of the present invention, a traveling direction that may intersect with the subject vehicle 20 of the attention object existing in the attention area is detected, and a virtual image in which the detected traveling direction is emphasized is generated. The case where it does is demonstrated.

図20は、「交差点左折」の運転シーンを示している。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71〜73及び自転車61〜67が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。   FIG. 20 shows a driving scene of “turn left at the intersection”. Signs 51 and 52 and pedestrian crossings 41 and 42 are installed at the intersection, and there are other vehicles 21 to 23, two-wheeled vehicles 81 to 83, pedestrians 71 to 73, and bicycles 61 to 67. The scene determination unit 10 determines the driving scene as “turn left at the intersection” based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the direction indicator, and the like.

注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点左折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図14に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。   The caution area detection unit 11 determines that the other vehicles 21 to 23 and the two-wheeled vehicle 81 from the surroundings detected by the surroundings detection unit 4 based on the fact that the driving scene determined by the scene determination unit 10 is “turn left at the intersection”. ˜83, pedestrians 71 to 73, bicycles 61 to 67, signs 51 and 52, and pedestrian crossings 41 and 42 are detected as attention objects. As in the case of the driving scene of “turn left at the intersection” shown in FIG. 14, the attention area detection unit 11 may further detect an arc area of about ¾ of the center of the intersection as the attention place.

強調箇所決定部13は、注意領域検出部11により検出された他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67が、自車両20が左折する際に交錯する可能性のある進行方向を検出する。   The highlight location determination unit 13 includes the other vehicles 21 to 23, the two-wheeled vehicles 81 to 83, the pedestrians 71 to 73, the bicycles 61 to 67, the signs 51 and 52, and the pedestrian crossings 41 and 42 detected by the attention region detection unit 11. The attention area to be emphasized is determined as an emphasis location. The highlighted part determination unit 13 further includes other vehicles 21 to 23, two-wheeled vehicles 81 to 83, pedestrians 71 to 73, and bicycles 61 to 67 that are moving objects among the attention objects detected by the attention region detection unit 11. A traveling direction that may intersect when the host vehicle 20 turns left is detected.

例えば、強調箇所決定部13は、左側から交差点に進入する他車両21について、直進又は右左折する可能性があるが、自車両20が左折する際には交錯する可能性はないと判定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車81について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある右折方向を強調箇所として決定する。   For example, the emphasis location determination unit 13 determines that the other vehicle 21 entering the intersection from the left side may go straight or turn left or right, but there is no possibility of crossing when the host vehicle 20 turns left. The emphasis location determination unit 13 may go straight or turn left or right for the other vehicle 22 and the two-wheeled vehicle 81 entering the intersection from the oncoming lane side, but may turn when the host vehicle 20 makes a left turn. Is determined as an emphasis point.

強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車83について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある直進方向を強調箇所として決定する。強調箇所決定部13は、自車両20の後方の二輪車82について、自車両20が左折する際に巻き込む可能性がある直進方向を強調箇所として決定する。   The emphasis point determination unit 13 emphasizes the straight direction in which the other vehicle 23 and the two-wheeled vehicle 83 entering the intersection from the right side may go straight or turn right or left but may cross when the host vehicle 20 turns left. Determine as the location. The emphasis location determination unit 13 determines, as the emphasis location, a straight traveling direction that may be involved when the host vehicle 20 makes a left turn with respect to the two-wheeled vehicle 82 behind the host vehicle 20.

強調箇所決定部13は、左側の横断歩道41近傍の歩行者71、72、自転車61,62,64については、自車両20が左折する際に交錯する可能性がある横断歩道41を横断する方向を強調箇所としてそれぞれ決定する。強調箇所決定部13は、交差点の横断歩道から離れた場所にいる歩行者73、自転車61,65,67については、自車両20が左折する際に交錯する可能性がある自車両20の前方を横断する方向を強調箇所としてそれぞれ決定する。   The emphasis point determination unit 13 crosses the pedestrian crossing 41 that may intersect when the own vehicle 20 makes a left turn for the pedestrians 71 and 72 and the bicycles 61, 62, and 64 in the vicinity of the left pedestrian crossing 41. Are determined as emphasized points. The emphasis location determination unit 13 is located in front of the host vehicle 20 that may cross when the host vehicle 20 makes a left turn with respect to the pedestrian 73 and the bicycles 61, 65, and 67 located away from the crosswalk at the intersection. The crossing direction is determined as an emphasis location.

画像生成部14は、図21に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I13を生成する。仮想画像I13において、図20に示した他車両21〜23に対応する他車両M21〜M23が強調表示されるとともに、他車両M22,M23の進行方向を示す矢印D22,D23も強調表示されている。   As illustrated in FIG. 21, the image generation unit 14 generates a virtual image I13 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I13, other vehicles M21 to M23 corresponding to the other vehicles 21 to 23 shown in FIG. 20 are highlighted, and arrows D22 and D23 indicating the traveling directions of the other vehicles M22 and M23 are also highlighted. .

更に、図20に示した二輪車81〜83に対応する二輪車M81〜M83が強調表示されるとともに、二輪車M81〜M83の進行方向を示す矢印D81〜D83も強調表示されている。更に、図20に示した歩行者71〜73及び自転車61〜67に対応する歩行者M71〜M73及び自転車M61〜M67が強調表示されるとともに、歩行者M71〜M73及び自転車M61〜M67の進行方向を示す矢印D71〜D73,D61〜D67も強調表示されている。   Further, the two-wheeled vehicles M81 to M83 corresponding to the two-wheeled vehicles 81 to 83 shown in FIG. 20 are highlighted, and the arrows D81 to D83 indicating the traveling directions of the two-wheeled vehicles M81 to M83 are also highlighted. Furthermore, the pedestrians M71 to M73 and the bicycles M61 to M67 corresponding to the pedestrians 71 to 73 and the bicycles 61 to 67 shown in FIG. The arrows D71 to D73 and D61 to D67 are also highlighted.

本発明の実施形態の第1の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I13を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。   According to the first modification of the embodiment of the present invention, a virtual image in which a traveling direction that may intersect with the subject vehicle 20 of the attention object existing in the attention region is detected and the detected traveling direction is emphasized. By generating I13, it is possible to easily grasp the traveling direction of the attention object to be noted.

<第2の変形例>
本発明の実施形態の第3の変形例として、第1の変形例と同様に、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合であるが、第1の変形例とは異なり交差点を右折する場合を説明する。
<Second Modification>
As a third modified example of the embodiment of the present invention, as in the first modified example, a traveling direction that may intersect with the subject vehicle 20 of the attention object existing in the attention region is detected and detected. In the case of generating a virtual image in which the traveling direction is emphasized, a case where the intersection is turned to the right unlike the first modification will be described.

図22は、「交差点右折」の運転シーンを示している。自車両20は、信号機が無い交差点を右折しようとしている。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜24、二輪車81〜84、歩行者71及び自転車61〜63が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。   FIG. 22 shows a driving scene of “turn right at the intersection”. The host vehicle 20 is going to turn right at an intersection where there is no traffic light. Signs 51, 52 and pedestrian crossings 41, 42 are installed at the intersection, and there are other vehicles 21-24, two-wheeled vehicles 81-84, pedestrians 71, and bicycles 61-63. The scene determination unit 10 determines that the driving scene is “turn right at the intersection” based on the current position on the map of the host vehicle 20 acquired by the host vehicle position acquisition unit 2, the operation information of the direction indicator, and the like.

注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点右折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図16に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。   The caution area detection unit 11 determines that the other vehicles 21 to 24 and the two-wheeled vehicle 81 are based on the surroundings detected by the surroundings detection unit 4 based on the fact that the driving scene determined by the scene determination unit 10 is “turn right at the intersection”. To 84, pedestrian 71, bicycles 61 to 63, signs 51 and 52, and pedestrian crossings 41 and 42 are detected as attention objects. As in the case of the “intersection left turn” driving scene shown in FIG. 16, the caution area detection unit 11 may further detect an arc area of about ¾ of the center of the intersection as the caution place.

強調箇所決定部13は、注意領域検出部11により検出された他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、が右折する際に交錯する可能性のある進行方向を強調箇所として決定する。   The emphasis location determination unit 13 includes other vehicles 21 to 24, two-wheeled vehicles 81 to 84, pedestrians 71, bicycles 61 to 63, signs 51 and 52, and pedestrian crossings 41 and 42 detected by the attention region detection unit 11. The area is determined as an emphasis point. Further, among the attention objects detected by the attention region detection unit 11, the highlighted part determination unit 13 further turns the other vehicles 21 to 24, the two-wheeled vehicles 81 to 84, the pedestrian 71, and the bicycles 61 to 63 that are moving objects. The direction of travel that may be interlaced with each other is determined as an emphasis point.

例えば、強調箇所決定部13は、左側から交差点に進入する他車両21及び二輪車81について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車82について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。   For example, the emphasis location determination unit 13 determines, as the emphasis location, the other vehicle 21 and the two-wheeled vehicle 81 that enter the intersection from the left side, which are likely to cross each other when the host vehicle 20 makes a right turn. The emphasis location determination unit 13 determines, as an emphasis location, the other vehicle 22 and the two-wheeled vehicle 82 that enter the intersection from the oncoming lane side as the emphasized locations that may cross each other when the host vehicle 20 makes a right turn.

強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車84について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、自車両20の側方で交差点から離れていく他車両24について、自車両20が右折する際に交錯する可能性は無いと判定する。強調箇所決定部13は、自車両20の後方の二輪車83について、自車両20が右折する際に巻き込む可能性がある直進方向及び右折方向を強調箇所として決定する。   The emphasis location determination unit 13 determines, for the other vehicle 23 and the two-wheeled vehicle 84 entering the intersection from the right side, the straight traveling direction and the right turn direction that may intersect when the host vehicle 20 makes a right turn as the emphasis location. The emphasis location determination unit 13 determines that there is no possibility of crossing the other vehicle 24 moving away from the intersection on the side of the host vehicle 20 when the host vehicle 20 makes a right turn. The emphasis location determination unit 13 determines, for the two-wheeled vehicle 83 behind the host vehicle 20, the straight traveling direction and the right turn direction that may be involved when the host vehicle 20 makes a right turn as the emphasis location.

画像生成部14は、図23に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I14を生成する。仮想画像I14において、図22に示した他車両21〜24に対応する他車両M21〜M24が強調表示されるとともに、他車両M21〜M23の進行方向を示す矢印D21〜D23も強調表示されている。   As shown in FIG. 23, the image generation unit 14 generates a virtual image I14 in which the emphasized part determined by the emphasized part determining unit 13 is highlighted. In the virtual image I14, other vehicles M21 to M24 corresponding to the other vehicles 21 to 24 shown in FIG. 22 are highlighted, and arrows D21 to D23 indicating the traveling directions of the other vehicles M21 to M23 are also highlighted. .

更に、図22に示した二輪車81〜84に対応する二輪車M81〜M84が強調表示されるとともに、二輪車M81〜M84の進行方向を示す矢印D81〜D84も強調表示されている。更に、図22に示した歩行者71及び自転車61〜63に対応する歩行者M71及び自転車M61〜M63が強調表示されるとともに、歩行者M71及び自転車M61〜M63の進行方向を示す矢印D71,D61〜D63も強調表示されている。   Further, the two-wheeled vehicles M81 to M84 corresponding to the two-wheeled vehicles 81 to 84 shown in FIG. 22 are highlighted, and the arrows D81 to D84 indicating the traveling directions of the two-wheeled vehicles M81 to M84 are also highlighted. Furthermore, the pedestrian M71 and the bicycles M61 to M63 corresponding to the pedestrian 71 and the bicycles 61 to 63 shown in FIG. -D63 are also highlighted.

本発明の実施形態の第2の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I14を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。   According to the second modification of the embodiment of the present invention, a virtual image in which a traveling direction that may intersect with the subject vehicle 20 of the attention object existing in the attention region is detected and the detected traveling direction is emphasized. By generating I14, it is possible to easily grasp the traveling direction of the attention object to be noted.

<第3の変形例>
本発明の実施形態の第3の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」である場合に、自車両20が前方に駐車中の他車両21を追い越す場合において、図24(a)に示すように、仮想画像I15中に、自車両M20の前方に車幅W1を規定する平行な直線L11,L12を強調表示してもよい。直線L11,L12を強調表示することにより、他車両M21との間隔及び自車両M20の車幅W1を容易に把握できる。
<Third Modification>
As a third modified example of the embodiment of the present invention, a modified example of the highlight display when the driving scene is “passing through a narrow road” will be described. When the driving scene is “passing through a narrow road” and the own vehicle 20 passes the other vehicle 21 parked forward, the own vehicle is displayed in the virtual image I15 as shown in FIG. Parallel straight lines L11 and L12 that define the vehicle width W1 may be highlighted in front of M20. By highlighting the straight lines L11 and L12, the distance from the other vehicle M21 and the vehicle width W1 of the host vehicle M20 can be easily grasped.

したがって、図24(b)に示すように、自車両20を旋回させ、図24(c)に示すように、他車両M21を追い越すたときも、仮想画像I15中の直線L11,L12により他車両M21との間隔を容易に把握でき、他車両M21を安全に追い越すことができる。   Accordingly, as shown in FIG. 24 (b), when the host vehicle 20 is turned and overtakes the other vehicle M21 as shown in FIG. 24 (c), the other vehicle is also detected by the straight lines L11 and L12 in the virtual image I15. The distance from M21 can be easily grasped, and other vehicle M21 can be safely overtaken.

<第4の変形例>
本発明の実施形態の第4の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」であり、図4(a)に示すように自車両20がガードレール31と他車両21の間を通り抜ける場合に、図25(a)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I16を生成してもよい。直線L11,L12を強調表示することにより、ガードレールM31や対向車である他車両M21との間隔を容易に把握できる。
<Fourth Modification>
As a fourth modified example of the embodiment of the present invention, a modified example of highlighting when the driving scene is “passing through a narrow road” will be described. When the driving scene is “passing through a narrow road” and the host vehicle 20 passes between the guardrail 31 and the other vehicle 21 as shown in FIG. You may generate the virtual image I16 which highlighted the straight lines L11 and L12 which prescribe | regulate the vehicle width W1 of the vehicle M20. By highlighting the straight lines L11 and L12, the distance from the guardrail M31 and the other vehicle M21 that is the oncoming vehicle can be easily grasped.

また、運転シーンが「狭路での通り抜け」であり、図6(a)に示すように自車両20が電柱32と他車両21の間を通り抜ける場合に、図25(b)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I17を生成してもよい。直線L11,L12を強調表示することにより、電柱M32や対向車である他車両M21との間隔を容易に把握できる。   Further, when the driving scene is “passing through a narrow road” and the host vehicle 20 passes between the utility pole 32 and the other vehicle 21 as shown in FIG. 6A, as shown in FIG. The virtual image I17 in which the straight lines L11 and L12 defining the vehicle width W1 of the host vehicle M20 are highlighted may be generated. By highlighting the straight lines L11 and L12, the distance from the utility pole M32 and the other vehicle M21 which is an oncoming vehicle can be easily grasped.

また、運転シーンが「狭路での通り抜け」であり、自車両20が左折する場合に、図25(c)に示すように、自車両M20の軌跡を規定する曲線L11,L12を強調表示した仮想画像I18を生成してもよい。直線L11,L12を強調表示することにより、左折する軌跡を容易に把握できる。   Further, when the driving scene is “passing through a narrow road” and the host vehicle 20 makes a left turn, curves L11 and L12 that define the trajectory of the host vehicle M20 are highlighted as shown in FIG. A virtual image I18 may be generated. By highlighting the straight lines L11 and L12, it is possible to easily grasp the locus of the left turn.

(その他の実施の形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As mentioned above, although this invention was described by embodiment, it should not be understood that the statement and drawing which form a part of this indication limit this invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

本発明の実施形態においては、乗用移動体が車両(自動車)である場合を例示したが、乗用移動体は車両に限定されず、飛行機やヘリコプター等の航空機、船舶等の乗員が乗って移動する移動体にも適用可能である。例えば、乗用移動体が航空機の場合の注意領域は、上空における航空機同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。また、乗用移動体が船舶の場合の注意領域は、海上における船舶同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。   In the embodiment of the present invention, the case where the passenger moving body is a vehicle (automobile) is exemplified, but the passenger moving body is not limited to the vehicle, and an occupant such as an airplane such as an airplane or a helicopter, or a ship moves on board. It can also be applied to moving objects. For example, the attention area when the passenger moving body is an aircraft means an area where aircrafts in the sky may cross each other, and the attention area can be highlighted as in the embodiment of the present invention. Moreover, the attention area | region in case a passenger moving body is a ship means the area | region where ships on the sea have a possibility of crossing, and an attention area | region can be highlighted like the embodiment of this invention.

本発明の実施形態においては、画像生成部14が仮想画像として俯瞰画像を生成する場合を例示したが、図26に示すように、仮想画像として前方画像I19を生成してもよい。前方画像I19においては、交差点において、他車両M21が強調表示されている。また、歩行者M71自体を強調表示するとともに、歩行者M71の足元を囲むように円形の領域M71aも強調表示されている。この領域M71aは、例えば歩行者M71の足元を囲みつつ、歩行者M71の向いている方向(移動可能性の高い方向)へ拡張してもよい。更に、歩行者M71の進行方向を示す矢印D71が矢印で強調表示されている。このように、注意領域に対する強調方法としては種々のバリエーションが採用可能である。   In the embodiment of the present invention, the case where the image generation unit 14 generates a bird's-eye view image as a virtual image is illustrated. However, as shown in FIG. 26, a front image I19 may be generated as a virtual image. In the front image I19, the other vehicle M21 is highlighted at the intersection. In addition to highlighting the pedestrian M71 itself, a circular region M71a is also highlighted so as to surround the feet of the pedestrian M71. For example, the region M71a may be extended in a direction in which the pedestrian M71 is facing (a direction in which the pedestrian M71 is facing) while surrounding the foot of the pedestrian M71. Furthermore, an arrow D71 indicating the traveling direction of the pedestrian M71 is highlighted with an arrow. As described above, various variations can be adopted as an emphasis method for the attention area.

このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   As described above, the present invention naturally includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

1…制御装置
2…自車位置取得部
3…注意領域記憶装置
4…周囲状況検出部
5…表示部
6…論理演算処理装置
7…データ記憶装置
10…シーン判別部
11…注意領域検出部
12…移動物体検出部
13…強調箇所決定部
14…画像生成部
20…自車両
21〜24…他車両
31…ガードレール
32…電柱
41,42…横断歩道
51,52…標識
53…信号機
61〜67…自転車
71〜73…歩行者
81〜84…二輪車
DESCRIPTION OF SYMBOLS 1 ... Control apparatus 2 ... Own vehicle position acquisition part 3 ... Caution area memory | storage device 4 ... Ambient condition detection part 5 ... Display part 6 ... Logical operation processing apparatus 7 ... Data storage device 10 ... Scene discrimination | determination part 11 ... Caution area detection part 12 ... moving object detection unit 13 ... emphasis point determination unit 14 ... image generation unit 20 ... own vehicle 21-24 ... other vehicle 31 ... guard rail 32 ... electric pole 41, 42 ... pedestrian crossing 51, 52 ... sign 53 ... traffic lights 61-67 ... Bicycles 71-73 ... Pedestrians 81-84 ... Motorcycles

Claims (6)

乗用移動体の周囲状況を検出するステップと、
前記周囲状況に基づいて、前記乗用移動体の周囲の注意領域を検出するステップと、
前記注意領域に対して強調箇所を決定するステップと、
前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成するステップと、
前記仮想画像を表示部に表示するステップと
を含むことを特徴とする画像表示方法。
Detecting the surroundings of the passenger vehicle;
Detecting a caution area around the riding vehicle based on the surrounding situation;
Determining an emphasis location for the attention area;
Generating a virtual image indicating the surrounding situation so as to highlight the highlighted portion;
And a step of displaying the virtual image on a display unit.
前記注意領域は、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性の有る領域であることを特徴とする請求項1に記載の画像表示方法。   The image display method according to claim 1, wherein the attention area is an area where vehicles or vehicles and people may cross each other according to a road structure on the road. 前記強調箇所を決定するステップは、
前記乗用移動体の周囲を仮想的に分割した複数の領域毎に注意度を算出し、
前記注意度が所定の閾値以上の領域を前記強調箇所として決定する
ことを特徴とする請求項1又は2に記載の画像表示方法。
The step of determining the emphasized portion includes:
Calculating a degree of attention for each of a plurality of regions virtually divided around the passenger moving body;
The image display method according to claim 1, wherein an area where the degree of attention is greater than or equal to a predetermined threshold is determined as the emphasized portion.
前記強調箇所を決定するステップは、
前記検出された注意領域内の移動物体を検出し、
前記検出された移動物体の進行方向を前記強調箇所として決定する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像表示方法。
The step of determining the emphasized portion includes:
Detecting a moving object in the detected attention area;
The image display method according to any one of claims 1 to 3, wherein a traveling direction of the detected moving object is determined as the emphasized portion.
前記注意領域を検出するステップは、
前記乗用移動体の運転シーンを判別し、
前記判別された運転シーンに応じて前記注意領域を検出する
ことを特徴とする請求項1〜4のいずれか1項に記載の画像表示方法。
The step of detecting the attention area includes:
Determine the driving scene of the passenger moving body,
The image display method according to claim 1, wherein the attention area is detected according to the determined driving scene.
乗用移動体の周囲状況を検出する周囲状況検出部と、
前記周囲状況に基づいて、前記乗用移動体の周囲の注意領域を検出する注意領域検出部と、
前記注意領域に対して強調箇所を決定する強調箇所決定部と、
前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成する画像生成部と、
前記仮想画像を表示する表示部と
を備えることを特徴とする画像表示装置。
An ambient condition detection unit for detecting the ambient condition of the passenger moving body;
A caution area detection unit that detects a caution area around the passenger moving body based on the surrounding situation;
An emphasis location determination unit that determines an emphasis location for the attention area;
An image generation unit that generates a virtual image indicating the surrounding situation so as to highlight the highlighted portion;
An image display device comprising: a display unit that displays the virtual image.
JP2016080668A 2016-04-13 2016-04-13 Image display method and image display device Active JP6733277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016080668A JP6733277B2 (en) 2016-04-13 2016-04-13 Image display method and image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016080668A JP6733277B2 (en) 2016-04-13 2016-04-13 Image display method and image display device

Publications (2)

Publication Number Publication Date
JP2017191472A true JP2017191472A (en) 2017-10-19
JP6733277B2 JP6733277B2 (en) 2020-07-29

Family

ID=60084855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016080668A Active JP6733277B2 (en) 2016-04-13 2016-04-13 Image display method and image display device

Country Status (1)

Country Link
JP (1) JP6733277B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077127A (en) * 2018-11-06 2020-05-21 三菱自動車工業株式会社 Driving support device
CN111937055A (en) * 2018-04-05 2020-11-13 三菱电机株式会社 Driving support device
JP2021086342A (en) * 2019-11-27 2021-06-03 株式会社デンソーテン Information processing device and information processing method
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2006327527A (en) * 2005-05-30 2006-12-07 Honda Motor Co Ltd Vehicle travel safety device
JP2011209919A (en) * 2010-03-29 2011-10-20 Denso Corp Point map creating device and program for crossing point map creating device
JP2015079421A (en) * 2013-10-18 2015-04-23 クラリオン株式会社 Vehicle start-assisting device
JP2015221633A (en) * 2014-05-23 2015-12-10 日本精機株式会社 Vehicular display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2006327527A (en) * 2005-05-30 2006-12-07 Honda Motor Co Ltd Vehicle travel safety device
JP2011209919A (en) * 2010-03-29 2011-10-20 Denso Corp Point map creating device and program for crossing point map creating device
JP2015079421A (en) * 2013-10-18 2015-04-23 クラリオン株式会社 Vehicle start-assisting device
JP2015221633A (en) * 2014-05-23 2015-12-10 日本精機株式会社 Vehicular display system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111937055A (en) * 2018-04-05 2020-11-13 三菱电机株式会社 Driving support device
JPWO2019193715A1 (en) * 2018-04-05 2021-01-07 三菱電機株式会社 Driving support device
US12134385B2 (en) 2018-04-05 2024-11-05 Mitsubishi Electric Corporation Driving support device
JP2020077127A (en) * 2018-11-06 2020-05-21 三菱自動車工業株式会社 Driving support device
JP2021086342A (en) * 2019-11-27 2021-06-03 株式会社デンソーテン Information processing device and information processing method
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium

Also Published As

Publication number Publication date
JP6733277B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
US11996018B2 (en) Display control device and display control program product
JP6658905B2 (en) Travel support device and computer program
US11535155B2 (en) Superimposed-image display device and computer program
CA3002628C (en) Display control method and display control device
RU2691463C1 (en) Method (embodiments) and parking assistance device
JP6825709B2 (en) Surrounding vehicle display method and surrounding vehicle display device
US9827907B2 (en) Drive assist device
JP2023112082A (en) vehicle display
JP2019053574A (en) Vehicle control device, vehicle control method, and program
JP2019036826A (en) VEHICLE DISPLAY METHOD AND VEHICLE DISPLAY DEVICE
JP7283448B2 (en) Display controller and display control program
JPWO2020003452A1 (en) Driving support method and driving support device
JP2023165721A (en) display control device
CN111707283A (en) A navigation method, device, system and device based on augmented reality technology
JP6733277B2 (en) Image display method and image display device
JP7697309B2 (en) Display control device and display control program
JP2019020127A (en) Route search method and route search apparatus for driving support vehicle
JP2017129980A (en) Vehicle recognition device and vehicle recognition method
US20200168180A1 (en) Display system, display control method, and storage medium
JP7310851B2 (en) vehicle display
CN110888432B (en) Display system, display control method, and storage medium
JP7342926B2 (en) Display control device and display control program
WO2020246114A1 (en) Display control device and display control program
US20240106989A1 (en) Vehicle display control device and non-transitory computer-readable medium
WO2021015090A1 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R151 Written notification of patent or utility model registration

Ref document number: 6733277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151