JP7302311B2 - Vehicle display control device, vehicle display control method, vehicle display control program - Google Patents
Vehicle display control device, vehicle display control method, vehicle display control program Download PDFInfo
- Publication number
- JP7302311B2 JP7302311B2 JP2019107083A JP2019107083A JP7302311B2 JP 7302311 B2 JP7302311 B2 JP 7302311B2 JP 2019107083 A JP2019107083 A JP 2019107083A JP 2019107083 A JP2019107083 A JP 2019107083A JP 7302311 B2 JP7302311 B2 JP 7302311B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- display
- behavior
- processing unit
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 238000012545 processing Methods 0.000 claims description 115
- 238000001514 detection method Methods 0.000 claims description 35
- 238000011156 evaluation Methods 0.000 claims description 14
- 230000006399 behavior Effects 0.000 description 117
- 230000006870 function Effects 0.000 description 16
- 238000012544 monitoring process Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 8
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 8
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 239000000523 sample Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本開示は、車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムに関する。 The present disclosure relates to a vehicle display control device, a vehicle display control method, and a vehicle display control program.
近年、自動運転機能を備える車両の開発が進められている。自車両を自動で運転させる場合、自車両の周辺に存在する物標、例えば、他車両との衝突を回避するように走行を制御する必要がある。そのため、車両の周辺に存在する物標の挙動を考慮しながら自動運転を実現するための技術の開発が求められている。この種の技術の一例として、例えば特許文献1には、自車両の周辺を走行する車両の行動の予測結果と、他車両の周辺を走行する車両の行動の予測結果とを利用して、自車両を自動で運転させる走行制御計画を生成する技術が開示されている。 In recent years, the development of vehicles equipped with an automatic driving function is progressing. When the self-vehicle is driven automatically, it is necessary to control the running so as to avoid collisions with targets existing in the vicinity of the self-vehicle, such as other vehicles. Therefore, there is a demand for the development of technology for realizing automatic driving while considering the behavior of targets that exist around the vehicle. As an example of this type of technology, for example, in Patent Document 1, a prediction result of the behavior of a vehicle traveling around the own vehicle and a prediction result of the behavior of a vehicle traveling around another vehicle are used to predict the behavior of the vehicle. Techniques are disclosed for generating a cruise control plan for automatically driving a vehicle.
例えば特許文献1に開示されている技術によれば、自車両の周辺を走行する車両の行動の予測結果だけでなく、他車両の周辺を走行する車両の行動の予測結果も考慮して、自車両の走行制御計画を生成することができ、より高精度な自動運転を実現できる可能性がある。しかしながら、従来の技術では、物標の挙動の予測結果は、あくまでも装置が利用するものとなっており、車両のユーザである例えばドライバは、装置が予測した挙動を知ることができない。そのため、ユーザは、物標の挙動のどのような予測結果に基づき車両の自動運転が制御されているのかを知ることができず、状況によっては、不安を感じてしまうことも懸念される。 For example, according to the technology disclosed in Japanese Patent Laid-Open No. 2002-200000, the vehicle is capable of predicting not only the behavior of vehicles traveling around the own vehicle but also the behavior of vehicles traveling around other vehicles. It is possible to generate a driving control plan for a vehicle, and it may be possible to realize more accurate automatic driving. However, in the conventional technology, the prediction result of the behavior of the target is used only by the device, and the user of the vehicle, for example, the driver, cannot know the behavior predicted by the device. Therefore, the user cannot know what prediction result of the behavior of the target is based on which the automatic driving of the vehicle is controlled, and depending on the situation, there is concern that the user may feel uneasy.
そこで、本開示は、車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをユーザに知らせることができるようにした車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムを提供する。 Therefore, the present disclosure provides a display control device for a vehicle, a display control method for a vehicle, and a display control method for a vehicle, which enable a user to be notified of what kind of behavior is expected with respect to the behavior of a target existing around the vehicle. A vehicle display control program is provided.
本開示に係る車両用表示制御装置は、自動運転機能を備える車両に搭載される車両用表示制御装置20であって、車両の周辺に存在する物標を検出する検出処理部53と、前記検出処理部が検出する物標の挙動を予測する予測処理部54と、前記予測処理部が予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理部55と、ユーザの目線を特定する特定処理部56と、前記表示部への前記挙動予測情報の表示を制御する表示制御処理部57と、を備え、前記表示制御処理部は、前記特定処理部が特定するユーザの目線が、前記検出処理部が検出する物標に向かっている場合に、前記表示部に前記挙動予測情報を表示する。
The vehicle display control device according to the present disclosure is a vehicle
本開示に係る車両用表示制御方法は、自動運転機能を備える車両に搭載される車両用表示制御装置20を制御する車両用表示制御方法であって、車両の周辺に存在する物標を検出する検出処理と、前記検出処理により検出する物標の挙動を予測する予測処理と、前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理と、ユーザの目線を特定する特定処理と、前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、を含み、前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記表示処理により前記挙動予測情報を表示する。
A vehicle display control method according to the present disclosure is a vehicle display control method for controlling a vehicle
本開示に係る車両用表示制御プログラムは、コンピュータを、自動運転機能を備える車両に搭載される車両用表示制御装置20として機能させるための車両用表示制御プログラムであって、車両の周辺に存在する物標を検出する検出処理と、前記検出処理により検出する物標の挙動を予測する予測処理と、前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理と、ユーザの目線を特定する特定処理と、前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、を前記コンピュータに実行させ、前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記表示処理により前記挙動予測情報を表示させる。
The vehicular display control program according to the present disclosure is a vehicular display control program for causing a computer to function as a vehicular
本開示によれば、車両の周辺に存在する物標の挙動について、その挙動予測情報が表示部に表示される。よって、車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをユーザに知らせることができ、ユーザが不安に感じてしまうことを抑制することができる。 According to the present disclosure, the behavior prediction information is displayed on the display unit regarding the behavior of the target existing around the vehicle. Therefore, it is possible to inform the user of the predicted behavior of the target object existing around the vehicle, and to suppress the user from feeling uneasy.
以下、本開示に係る一実施形態について図面を参照しながら説明する。図1に例示する車両用システム1は、例えば道路上を走行する車両などの移動体に用いられるものであり、HMIシステム2(HMI:Human Machine Interface)、ADASロケータ3(ADAS:Advanced Driver Assistance Systems)、周辺監視センサ4、車両制御ECU5(ECU:Electronic Control Unit)、運転支援ECU6(ECU:Electronic Control Unit)などを備えている。HMIシステム2、ADASロケータ3、周辺監視センサ4、車両制御ECU5、運転支援ECU6は、例えば、車両に搭載されている車内LAN(LAN:Local Area Network)にそれぞれ接続されている。
An embodiment according to the present disclosure will be described below with reference to the drawings. A vehicle system 1 illustrated in FIG. 1 is used for a mobile object such as a vehicle traveling on a road, and includes an HMI system 2 (HMI: Human Machine Interface), an ADAS locator 3 (ADAS: Advanced Driver Assistance Systems ), a surrounding
ADASロケータ3は、GNSS受信機30(GNSS:Global Navigation Satellite System)、慣性センサ31、地図データベース32などを備えている。以下、地図データベース32を地図DB32と称する。GNSS受信機30は、複数の人工衛星から測位信号を受信する。慣性センサ31は、例えばジャイロセンサや加速度センサなどを備えている。ADASロケータ3は、GNSS受信機30により受信する測位信号と、慣性センサ31によるセンシング結果とを組み合わせることにより、車両用システム1が搭載されている自車両の車両位置を逐次測位する。そして、ADASロケータ3は、測位した車両位置を車内LANを介して出力する。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。
The ADAS
地図DB32は、例えば不揮発性メモリーなどで構成されており、リンクデータ、ノードデータ、道路形状データなどの各種のデータを含む地図データを格納している。リンクデータは、地図上の道路を構成するリンクを特定するリンク識別データ、リンクの長さを示すリンク長データ、リンクの方位を示すリンク方位データ、リンクの走行に要する時間を示すリンク走行時間データ、リンクの始点および終点を構成するノードの座標を示すノード座標データ、道路の属性を示すリンク属性データなどの各種のデータを含む。ノードデータは、地図上に存在するノードを特定するノード識別データ、ノードの座標を示すノード座標データ、ノードの名称を示すノード名称データ、例えば交差点などのノードの種別を示すノード種別データ、ノードに接続するリンクを特定する接続リンクデータなどの各種のデータを含む。道路形状データは、地図上に存在する道路の形状を示すデータである。道路形状データには、道路の高度、道路の横断勾配、道路の縦断勾配などを示すデータが含まれている。 The map DB 32 is composed of, for example, a non-volatile memory, and stores map data including various data such as link data, node data, and road shape data. The link data includes link identification data that identifies links that form roads on the map, link length data that indicates the length of the link, link orientation data that indicates the orientation of the link, and link traveling time data that indicates the time required for traveling the link. , node coordinate data indicating the coordinates of nodes forming the start point and end point of a link, and link attribute data indicating road attributes. The node data includes node identification data that identifies a node existing on the map, node coordinate data that indicates the coordinates of the node, node name data that indicates the name of the node, node type data that indicates the type of node such as an intersection, Contains various data such as connecting link data that identifies connecting links. The road shape data is data indicating the shape of roads existing on the map. The road shape data includes data indicating the altitude of the road, the cross slope of the road, the longitudinal slope of the road, and the like.
なお、地図データは、例えば車両に搭載されている通信モジュールなどを介して、自車両の外部から取得するようにしてもよい。また、地図データとして、道路形状の特徴点や地図上に存在する構造物の特徴点などの点群を含む三次元地図データを用いてもよい。また、三次元地図データを用いる場合、ADASロケータ3は、この三次元地図データや、点群を検出するLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などによるセンシング結果などを用いて自車両の車両位置を特定する構成としてもよい。
Note that the map data may be acquired from outside the own vehicle, for example, via a communication module mounted on the vehicle. As the map data, three-dimensional map data including point groups such as feature points of road shapes and feature points of structures existing on the map may be used. In addition, when using three-dimensional map data, the ADAS
周辺監視センサ4は、自車両の周辺環境を監視するセンサであり、この場合、自律的に動作する自律センサとして備えられている。周辺監視センサ4は、例えば、歩行者などの人間、人間以外の動物、自車両以外の車両などの自車両の周辺で移動する動的物標や、例えば、道路上に存在する落下物、道路の周辺に存在するガードレール、縁石、樹木などの自車両の周辺で静止している静的物標など、自車両の周辺に存在する対象物を検出する。また、周辺監視センサ4は、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、例えば「止まれ」などと表記された指示標示などの路面標示を検出可能である。そして、周辺監視センサ4は、得られるセンシングデータを車内LANに逐次出力する。周辺監視センサ4は、例えば、自車両周辺の所定範囲を撮像する周辺監視カメラ、自車両周辺の所定範囲に探査波を出力するミリ波レーダ、ソナー、LIDARなどの探査波センサなどで構成される。
The
探査波センサは、対象物によって反射された反射波を受信することにより得られる受信信号に基づく走査結果を、センシングデータとして車内LANに逐次出力する。より詳細に説明すると、探査波センサは、探査波を送信してから、対象物で反射される反射波を受信するまでの時間に基づいて、探査波センサから対象物までの距離を測定する。また、探査波センサは、反射波を受信する際の角度に基づいて、探査波センサに対する対象物の方位を測定する。なお、方位は、例えば方位角で表すことができ、例えば自車両の正面方向を基準として時計回りを正の方位角、反時計回りを負の方位角として表すことができる。 The survey wave sensor sequentially outputs scanning results based on received signals obtained by receiving reflected waves reflected by an object to the in-vehicle LAN as sensing data. More specifically, the probe wave sensor measures the distance from the probe wave sensor to the object based on the time from when the probe wave is transmitted to when the reflected wave reflected by the object is received. Also, the probe wave sensor measures the azimuth of the object with respect to the probe wave sensor based on the angle at which the reflected wave is received. The azimuth can be represented, for example, by an azimuth angle. For example, with the front direction of the host vehicle as a reference, clockwise rotation can be expressed as a positive azimuth angle, and counterclockwise rotation can be expressed as a negative azimuth angle.
この場合、周辺監視センサ4は、少なくとも、自車両の前方の所定範囲を撮像範囲とする前方カメラ41と、自車両の前方の所定範囲を探査範囲とするミリ波レーダ42と、を備えた構成となっている。前方カメラ41は、例えば、自車両のルームミラーや、インストルメントパネルの上面などに設けるとよい。また、ミリ波レーダ42は、例えば、自車両のフロントグリルや、フロントバンパーなどに設けるとよい。ミリ波レーダ42は、ミリ波または準ミリ波を自車両の前方のセンシング範囲に走査しながら送信し、対象物によって反射された反射波を受信することで、ミリ波レーダ42に対する対象物までの距離および方位を測定する。前方カメラ41によるセンシング範囲およびミリ波レーダ42によるセンシング範囲は、一致させるようにしてもよいし、一致させないようにしてもよい。また、前方カメラ41によるセンシング範囲とミリ波レーダ42によるセンシング範囲は、少なくとも一部が重なっていてもよいし、重なっていなくてもよい。また、自車両の異なる箇所に、複数の周辺監視センサ4を備えるようにしてもよい。
In this case, the
車両制御ECU5は、例えば、自車両の加速および減速の制御、操舵の制御、制動の制御などを行うための電子制御ユニットである。車両制御ECU5は、自車両の加速および減速の制御を行うパワーユニット制御ECU、自車両の操舵の制御を行う操舵制御ECU、自車両の制動を制御するブレーキ制御ECUなどを含む。車両制御ECU5は、自車両に搭載されているアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車輪速センサなどの各種のセンサから出力される検出信号に基づき、例えば、電子制御スロットル、ブレーキアクチュエータ、EPSモータ(EPS:Electric Power Steering)などの各種の走行制御系のデバイスに制御信号を出力する。また、車両制御ECU5は、各種のセンサから得られる検出信号を車内LANに出力可能である。
The
運転支援ECU6は、例えば、車両制御ECU5と協働することにより、ドライバによる運転操作を支援する。運転支援ECU6による支援には、自車両の走行を自動で制御する自動運転機能も含まれる。運転支援ECU6は、ADASロケータ3から取得する自車両の車両位置、地図DB32に格納されている地図データ、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の走行環境を認識する。より詳細に説明すると、運転支援ECU6は、例えば、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の周辺に存在する物体の位置、形状、移動状態などを認識したり、自車両の周辺に存在する路面標示の位置、大きさ、内容などを認識したりすることが可能である。そして、運転支援ECU6は、このように認識される情報と、地図データや自車両の車両位置などの情報を組み合わせることにより、自車両の周辺の実際の走行環境を三次元で再現した仮想空間を生成することが可能である。
The driving
また、運転支援ECU6は、認識した走行環境に基づき、自動運転機能によって自車両を自動走行させるための走行計画を生成する。走行計画としては、長中期の走行計画や、短期の走行計画を生成することができる。短期の走行計画では、生成した自車両周辺の仮想空間を用いて、例えば、先行車との目標車間距離を維持するための加減速制御、車線追従や車線変更のための操舵制御、衝突回避のための制動制御などが決定される。長中期の走行計画では、自車両を目的地に到達させるための推奨経路や走行スケジュールなどが決定される。なお、運転支援ECU6は、短期の走行計画および長中期の走行計画のうち何れか一方、例えば、短期の走行計画のみを生成するようにしてもよい。
Further, the driving
運転支援ECU6により実行される自動運転機能の一例としては、例えば、駆動力および制動力を調整することにより先行車との目標車間距離を維持するように自車両の走行速度を制御するACC機能(ACC:Adaptive Cruise Control)がある。また、自車両の前方のセンシング結果に基づき制動力を発生させることにより自車両を強制的に減速させるAEB機能(AEB:Autonomous Emergency Braking)がある。なお、ACC機能やAEB機能は、あくまでも一例であり、運転支援ECU6は、その他の機能を備える構成としてもよい。
An example of an automatic driving function executed by the driving
HMIシステム2は、HCU20(Human Machine Interface Control Unit)、操作デバイス21、DSM22(Driver Status Monitor)、表示装置23などを備えている。HMIシステム2は、自車両のユーザであるドライバによる入力操作を受け付けたり、自車両のドライバに向けて各種の情報を提示したりする。操作デバイス21は、自車両のドライバにより操作される各種のスイッチ類を含んでいる。操作デバイス21は、各種の設定などを行うために用いられる。具体的には、操作デバイス21は、自車両のステアリングのスポーク部に設けられているステアリングスイッチなどで構成されている。
The
DSM22は、例えば、近赤外光を発生する光源、近赤外光を検知する近赤外光カメラ、これらを制御する制御ユニットなどを含んでいる。DSM22は、例えば、ステアリングコラムカバーやインストルメントパネルの上面などにおいて、近赤外光カメラを自車両の運転席に指向させた状態で配置されている。DSM22は、近赤外光の光源から近赤外光が照射されたドライバの頭部を近赤外光カメラによって撮像する。そして、近赤外光カメラによる撮像画像は、図示しない制御ユニットによって画像解析される。この制御ユニットは、例えば、ドライバの目を撮像画像から抽出し、自車両の車室内に設定されている基準位置に対するドライバの目の位置を視点位置として検出する。なお、基準位置は、例えば、近赤外光カメラの設置位置を設定することができる。そして、DSM22は、検出したドライバの視点位置を表す情報をHCU20に出力する。また、制御ユニットは、近赤外光カメラによる撮像画像を画像解析することにより、ドライバの目線、つまり、ドライバの目がどの方向に向かっているのかを特定あるいは推測することが可能である。そして、DSM22は、特定あるいは推測されたドライバの目線の方向を表す目線情報をHCU20に出力する。
The
表示装置23は、ヘッドアップディスプレイ230(HUD:Head Up Display)として構成されている。以下、ヘッドアップディスプレイ230を、HUD230と称する。図2に例示するように、HUD230は、例えば、自車両のインストルメントパネル12に設けられている。HUD230は、例えば、液晶式または走査式などのプロジェクタ231により、HCU20から出力される画像データに基づく表示画像を形成する。表示画像としては、例えば、車両の経路案内に関連する情報を表す画像などである。
The
HUD230は、プロジェクタ231によって形成される表示画像を、例えば凹面鏡などを有する光学系232を介して、投影部の一例であるフロントウインドシールド10に投影する。フロントウインドシールド10には、投影領域Rが設けられており、プロジェクタ231によって形成される表示画像は、この投影領域R内に投影される。投影領域Rは、運転席の前方、特には、運転席に着座したドライバの前方に位置するように設けられている。ドライバは、ユーザの一例である。
The
フロントウインドシールド10に投影された表示画像の光束は、運転席に着座しているドライバによって知覚つまり視認される。また、フロントウインドシールド10は、例えば、透光性のガラス材などによって構成されており、自車両の前方に存在する風景つまり前景の光束も、運転席に着座しているドライバによって知覚つまり視認される。これにより、ドライバは、フロントウインドシールド10の前方にて結像される表示画像の虚像を、虚像コンテンツ100として前景の一部に重畳させた状態で視認可能となる。つまり、HUD230は、自車両の前景に虚像コンテンツ100を重畳表示することにより、いわゆるAR表示(AR:Augmented Reality)を実現する。虚像コンテンツ100は、少なくとも、自車両の走行支援に関連する情報、即ち、走行支援関連情報を視覚的に表すコンテンツである。走行支援関連情報としては、例えば、案内経路における自車両の進行方向などを示す経路案内関連情報、自車両を自動運転制御する場合における進路などを示す自動運転関連情報、自車両が走行するレーンを示すレーン情報、自車両の進行方向前方に存在するカーブを通知するカーブ通知情報、自車両の進行方向前方に歩行者が存在することを伝える歩行者情報、自車両の進行方向前方に停止線が存在することを伝える停止線情報など、自車両の走行支援に有用な情報であれば種々の情報を適用することができる。そして、例えば、歩行者情報を表す虚像コンテンツ100として、重畳コンテンツは、自車両の進行方向前方の交差点や路面上に存在する歩行者または歩行者周辺に重畳表示されるコンテンツであり、非重畳コンテンツは、自車両の進行方向前方の交差点や路面の構成を示す鳥瞰画像内に、歩行者の位置を示すようにしたアイコンなどのコンテンツである。
The luminous flux of the display image projected onto the
なお、HUD230が虚像コンテンツ100を投影する投影部は、フロントウインドシールド10に限られず、例えば、透光性のコンバイナなどで構成してもよい。また、表示装置23は、例えば、コンビネーションメータ、CUD(Center Information Display)などで構成してもよい。
Note that the projection unit on which the
HCU20は、例えば、プロセッサ、揮発性メモリー、不揮発性メモリー、入出力回路、これらを接続するバスなどを備えるマイクロコンピュータを主体として構成されている。HCU20は、HUD230や車内LANに接続されている。HCU20は、本開示に係る車両用表示制御装置の一例であり、例えば不揮発性メモリーなどの記憶媒体に格納されている制御プログラムを実行することにより、例えばHUD230などの表示部による表示などを制御する。この制御プログラムには、本開示に係る車両用表示制御プログラムが含まれている。また、HCU20は、制御プログラムを実行することにより、本開示に係る車両用表示制御方法が行われる。なお、メモリーは、例えば、コンピュータによって読み取り可能なプログラムやデータを非一時的に格納する非遷移的実体的記憶媒体(Non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、例えば、半導体メモリーや磁気ディスクなどによって実現することができる。
The
また、図1に例示するように、車両用システム1は、さらにメータ系表示部7を備えている。メータ系表示部7は、HUD230のフロントウインドシールド10とは異なる表示部の一例であり、例えば、自車両の走行速度やエンジンの回転速度などのメータ系の情報を表示可能な表示部である。また、メータ系表示部7は、後述するように、虚像コンテンツ100が表す走行支援関連情報などの各種の情報も、虚像コンテンツ100とは異なる態様、例えば液晶表示などにより表示可能である。また、車両用システム1は、さらにナビゲーション表示部8を備えている。ナビゲーション表示部8は、車両に搭載されるナビゲーション装置のディスプレイを構成している。ナビゲーション表示部8は、HUD230のフロントウインドシールド10とは異なる表示部の一例である。また、ナビゲーション表示部8は、虚像コンテンツ100が表す走行支援関連情報などの各種の情報も、虚像コンテンツ100とは異なる態様、例えば液晶表示などにより表示可能である。
Further, the vehicle system 1 further includes a meter
図3に例示するように、HUD230の投影領域Rは、フロントウインドシールド10のうち運転席の前方正面に位置して設けられている。また、メータ系表示部7は、インストルメントパネル12にあって、運転席の前方正面においてHUD230の投影領域Rよりも下方となる位置に設けられている。また、ナビゲーション表示部8は、インストルメントパネル12の左右方向のほぼ中央部に位置して設けられている。なお、図3に示した各種の表示系構成要素の配置位置は、あくまでも一例であり、それぞれの表示系構成要素の配置位置は、適宜変更して実施することができる。
As illustrated in FIG. 3, the projection area R of the
次に、HUD230による表示の制御に関するHCU20の構成例について、さらに詳細に説明する。図4に例示するように、HCU20は、車両用表示制御プログラムを実行することにより、重畳コンテンツ投影部51、非重畳コンテンツ投影部52、検出処理部53、予測処理部54、表示処理部55、特定処理部56、表示制御処理部57をソフトウェアにより仮想的に実現する。なお、HCU20は、これらの処理部をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。
Next, a configuration example of the
重畳コンテンツ投影部51は、重畳コンテンツ投影処理を実行する。重畳コンテンツ投影処理は、虚像コンテンツ100の一例である重畳コンテンツ101を、自車両の前景に含まれる対象に重畳させるようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、重畳コンテンツ101は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影される虚像コンテンツ100であり、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100、例えば、後述する非重畳コンテンツ102が偶発的に自車両の前景に含まれる対象に重畳する位置に投影される場合における当該非重畳コンテンツ102などとは異なるものである。具体的には、重畳コンテンツ101は、自車両の前景に含まれる対象、例えば、道路に沿うようにして投影される虚像コンテンツ100、ドライバから見てフロントウインドシールド10の奥行き方向、つまり、自車両の進行方向前方に向かって延びる虚像コンテンツ100、自車両の前景に含まれる対象、例えば、自車両の進行方向前方に実際に存在する停止線などに重畳して投影された状態が自車両の移動に関わらず維持される虚像コンテンツ100、ドライバの視点位置と、自車両の前方における実際の実景と、投影領域R内における投影位置との位置関係が所定の関係に維持される虚像コンテンツ100、などである。
The superimposed
非重畳コンテンツ投影部52は、非重畳コンテンツ投影処理を実行する。非重畳コンテンツ投影処理は、虚像コンテンツ100の一例である非重畳コンテンツ102を、自車両の前景に含まれる対象に重畳させないようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、非重畳コンテンツ102は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100であるが、偶発的に、自車両の前景に含まれる対象に重畳した状態で投影される場合も有り得る虚像コンテンツ100である。
The non-superimposed
検出処理部53は、検出処理を実行する。検出処理は、車両の周辺に存在する物標を検出する処理である。この場合、検出処理部53は、主として周辺監視センサ4によって、車両の周辺に存在する物標、例えば、他車両などを検出することが可能である。
The
予測処理部54は、予測処理を実行する。予測処理は、検出処理部53が検出する物標の挙動を予測する処理である。この場合、予測処理部54は、主として周辺監視センサ4の前方カメラ41やミリ波データ42によって物標の実際の挙動を特定し、その特定した挙動を分析することにより、その後における当該物標の挙動を予測する。また、予測処理部54は、検出処理部53が検出した物標の挙動履歴を記憶し、この挙動履歴を分析することにより当該物標の今後の挙動を予測することが可能である。
The
表示処理部55は、表示処理を実行する。表示処理は、予測処理部54が予測する物標の挙動を示す挙動予測情報を、車両の車室内の異なる位置にそれぞれ配置されている複数の表示部、この場合、HUD230の投影領域R、メータ系表示部7、ナビゲーション表示部8の少なくとも何れか1つの表示部に表示する処理である。
The
特定処理部56は、特定処理を実行する。特定処理は、ユーザ、この場合、運転席に着座しているドライバの目線を特定する処理である。この場合、特定処理部56は、主としてDSM22よって、ドライバの目線を特定することが可能となっている。
The
表示制御処理部57は、表示制御処理を実行する。表示制御処理は、車両に搭載されている複数の表示部への挙動予測情報の表示を制御する処理である。この場合、表示制御処理部57は、特定処理部56が特定するユーザの目線が、検出処理部53が検出する物標に向かっている場合に、複数の表示部の何れかに挙動予測情報を表示することが可能である。具体的には、表示制御処理部57は、特定処理部56が特定するユーザの目線に最も近い表示部に挙動予測情報を表示することが可能である。
The display
即ち、図5にポイントP1で例示するように、例えば直進時などにおいてドライバの目線が車両の進行方向前方、換言すれば、フロントウインドシールド10のうち運転席の正面前方部分に向かっている場合には、表示制御処理部57は、その目線を示すポイントP1に最も近い表示部、この場合、HUD230の投影領域R内に挙動予測情報を表示する。また、図5にポイントP2で例示するように、例えば停車時においてドライバの目線がインストルメントパネル12のうち運転席の正面前方部分、換言すれば、ステアリングやメータなどに向かっている場合には、表示制御処理部57は、その目線を示すポイントP2に最も近い表示部、この場合、メータ系表示部7に挙動予測情報を表示する。また、図5にポイントP3で例示するように、例えば左折時などにおいてドライバの目線がフロントウインドシールド10のうち運転席の前方左側部分に向かっている場合には、表示制御処理部57は、その目線を示すポイントP3に最も近い表示部、この場合、ナビゲーション表示部8に挙動予測情報を表示する。
That is, as illustrated by point P1 in FIG. 5, for example, when the driver's line of sight is directed forward in the traveling direction of the vehicle, in other words, when the driver's line of sight is directed toward the front portion of the
また、表示制御処理部57は、特定処理部56が特定するドライバの目線が、検出処理部53が検出する物標に向かっている状態が所定時間以上継続している場合に、表示部に挙動予測情報を表示することが可能である。この場合、所定時間として、少なくとも1秒以上の時間を設定するとよい。即ち、表示制御処理部57は、ドライバがある程度注視する物標、つまり、ドライバが関心を持っていると判定できる物標について、その挙動予測情報を提示するように構成するとよい。
In addition, the display
次に、本開示に係る車両用表示制御装置20による挙動予測情報の表示形態の例をいくつか説明する。
Next, some examples of display forms of behavior prediction information by the vehicle
図6に例示する表示態様は、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、HUD230の投影領域R内には、他車両Vbが自車両側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。この場合、挙動予測情報Y1は、自車両側に向かう複数の矢印マークにより構成されたアイコン情報となっている。なお、挙動予測情報Y1は、重畳コンテンツとして表示してもよいし、非重畳コンテンツとして表示してもよい。
The display mode illustrated in FIG. 6 is a display mode of the behavior prediction information Y1 when another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. In this case, within the projection area R of the
図7に例示する表示態様は、同じく、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、メータ系表示部7には、他車両Vbが自車両Va側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。この場合、挙動予測情報Y1は、自車両側に向かう複数の矢印マークにより構成されたアイコン情報となっている。なお、この場合、メータ系表示部7には、自車両Vaを示すアイコンのほか、他車両Vb以外の他車両Vcを示すアイコンも表示されている。
Similarly, the display mode illustrated in FIG. 7 is a display mode of the behavior prediction information Y1 in the case where another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. . In this case, the meter
図8に例示する表示態様は、同じく、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、メータ系表示部7には、他車両Vbが自車両Va側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。さらに、メータ系表示部7には、他車両Vbのそれまでの走行軌跡を示す走行軌跡情報Y2が表示されている。この走行軌跡情報Y2は、他車両Vbが、現在だけでなく過去においても、くねくねと蛇行しながら走行してきたことを示す蛇行状のアイコン情報となっている。この走行軌跡情報Y2は、例えば、他車両Vbについて周辺監視センサ4により得られる過去の履歴データを分析することにより生成することができる。
Similarly, the display mode illustrated in FIG. 8 is a display mode of the behavior prediction information Y1 in the case where another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. . In this case, the meter
次に、本開示に係る車両用表示制御装置、この場合、HCU20による制御の一例について説明する。図9に例示するように、HCU20は、検出処理部53により、車両の周辺に存在する物標、例えば、他車両の検出処理を実行する。そして、HCU20は、車両の周辺に存在する物標を検出すると(S1:YES)、その物標が示す挙動を記憶する(S2)。物標の挙動は、例えば周辺監視センサ4によって得られる各種のデータを分析することにより特定することができ、例えば、対象となる物標が他車両である場合には、その走行軌跡、走行態様、走行速度などの挙動を特定することが可能である。また、特定された挙動を示す挙動情報は、HCU20が備える図示しない記憶部に記憶される。なお、記憶部は、例えばメモリーなどといった記憶媒体により構成されている。
Next, the vehicle display control device according to the present disclosure, in this case, an example of control by the
この場合、HCU20は、検出された物標の挙動を示す挙動情報をリアルタイムに動的に記憶部に記憶するようになっている。但し、HCU20は、例えば所定期間ごとに、その間に蓄積された挙動情報を一括して記憶部に記憶するようにしてもよい。
In this case, the
そして、HCU20は、記憶した物標の挙動情報に基づき、その物標の今後の挙動を予測する(S3)。そして、HCU20は、予測した物標の挙動が不安定であるか否かを判定する(S4)。即ち、HCU20は、その物標の挙動予測情報が示す走行軌跡、走行態様、走行速度などの挙動に基づき、予想される挙動が不安定であるか否かを判定する。具体的には、HCU20は、物標が、蛇行しながら走行している場合、車線から大きくはみ出している場合、走行速度が法定速度を超えている場合などに、その物標について予測される挙動が不安定であると判定するようになっている。
Then, the
HCU20は、予測した物標の挙動が不安定ではないと判定した場合(S4:NO)には、この制御を終了する。しかし、HCU20は、予測した物標の挙動が不安定であると判定した場合(S4:YES)には、ユーザ、この場合、ドライバの視線が当該物標に向かっているか否か、即ち、ドライバが当該物標を注視しているか否かを判定する(S5)。
When the
HCU20は、ドライバの視線が当該物標に向かっている場合(S5:YES)には、その視線に最も近い表示部に当該物標に係る挙動予測情報を表示して(S6)、この制御を終了する。この場合、HCU20は、ドライバが当該物標を注視している時間が所定時間以上継続していることを条件に挙動予測情報を表示するようにしてもよいし、ドライバが当該物標を注視している時間が所定時間以上継続していなくても挙動予測情報を表示するようにしてもよい。
When the line of sight of the driver is directed toward the target (S5: YES), the
一方、HCU20は、ドライバの視線が当該物標に向かっていない場合(S5:NO)には、誘導処理を実行して(S7)、この制御を終了する。誘導処理は、ドライバの目線を当該物標に向かうように誘導するための処理であり、例えば、ドライバの目線に最も近い表示部に、当該物標が存在している方向を示す情報、例えば、矢印マークを表示したり、当該物標が存在している方向を示す音声情報を図示しないスピーカから出力したり、例えば運転席やステアリングホイールを振動させたりする処理などが考えられる。誘導処理を振動で実現する場合、例えば、運転席やステアリングホールのうち物標が存在している側の部分を振動させることなどが考えられる。
On the other hand, when the driver's line of sight is not directed toward the target (S5: NO), the
本実施形態によれば、自車両の周辺に存在する例えば他車両などの物標の挙動について、その挙動予測情報が視覚的な情報として表示部に表示される。よって、自車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをドライバに知らせることができ、ドライバが不安に感じてしまうことを抑制することができる。また、本実施形態によれば、挙動予測情報は、ドライバの目線が当該物標に向かっていることを条件に表示部に表示することが可能である。そのため、ドライバが注目している物標について、その挙動予測情報をドライバに提供することができ、ドライバが注目していない物標に関する挙動予測情報、つまり、ドライバにとって不要である可能性がある情報が提供されてしまうことを回避することができる。 According to the present embodiment, the behavior prediction information about the behavior of a target such as another vehicle existing around the own vehicle is displayed as visual information on the display unit. Therefore, it is possible to inform the driver of the expected behavior of the target objects existing around the vehicle, and to prevent the driver from feeling uneasy. Further, according to the present embodiment, the behavior prediction information can be displayed on the display unit on condition that the driver's line of sight is directed toward the target. Therefore, it is possible to provide the driver with behavior prediction information about the target that the driver is paying attention to, and behavior prediction information about the target that the driver is not paying attention to, that is, information that may be unnecessary for the driver. can be avoided from being provided.
また、本実施形態によれば、ドライバの目線に最も近い表示部に挙動予測情報を表示することが可能である。よって、ドライバは、視線を大きく変更あるいは全く変更しなくても挙動予測情報を確認することができ、より使い勝手のよい情報提供システムを実現することができる。なお、ドライバの目線に最も近い表示部が複数存在する場合には、複数の表示部に挙動予測情報を表示するようにしてもよいし、何れかの表示部を適宜選定して挙動予測情報を表示するようにしてもよい。また、ドライバの目線に最も近い表示部が複数存在する場合において何れかの表示部を選定する場合には、例えば、過去において挙動予測情報が表示された回数が多い表示部を選定するなど、適宜の手法により表示部を選定することができる。 Further, according to the present embodiment, it is possible to display the behavior prediction information on the display unit closest to the line of sight of the driver. Therefore, the driver can confirm the behavior prediction information without changing the line of sight significantly or at all, and a more user-friendly information providing system can be realized. If there are a plurality of display units that are closest to the line of sight of the driver, the behavior prediction information may be displayed on the plurality of display units, or one of the display units may be appropriately selected to display the behavior prediction information. You may make it display. Further, when there are a plurality of display units that are closest to the line of sight of the driver, when selecting one of the display units, for example, the display unit that has displayed the behavior prediction information many times in the past is selected. The display part can be selected by the method of
また、本実施形態においては、ドライバの目線が物標に向かっている状態が所定時間以上継続している場合に、表示部に挙動予測情報が表示されるようにするとよい。これによれば、ドライバがある程度注視する物標、つまり、ドライバが関心を持っている可能性が高い物標について、その挙動予測情報が提示されるようになる。従って、ドライバが不要と思っている可能性がある物標に関する情報が提示されてしまうことを回避することができ、換言すれば、ドライバにとって有用な情報を効率良く提示することができる。 Further, in the present embodiment, it is preferable that the behavior prediction information is displayed on the display unit when the driver's line of sight is directed toward the target for a predetermined time or longer. According to this, the behavior prediction information is presented for a target that the driver gazes at to some extent, that is, a target that the driver is likely to be interested in. Therefore, it is possible to avoid presenting information about targets that the driver may think is unnecessary. In other words, it is possible to efficiently present useful information to the driver.
なお、本開示は、上述した一実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更や拡張を行うことができる。例えば、HCU20は、まずはHUD230の投影領域R内に挙動予測情報を表示し、ドライバの目線がHUD230の投影領域Rから外れている場合、あるいは、ドライバの目線がHUD230の投影領域Rから外れた場合には、他の表示部に挙動予測情報を表示するようにしてもよい。また、他の表示部に挙動予測情報を表示する際には、そのときにおけるドライバの目線に最も近い表示部に挙動予測情報を表示するようにするとよい。即ち、車両の走行中においては、ドライバの目線は、進行方向前方に向かっている場合が殆どであると想定されるので、そのような目線に最も近いHUD230の投影領域R内に挙動予測情報を表示することにより、当該情報をドライバに効率良く伝えることができる。そして、ドライバの目線がHUD230の投影領域Rから外れている場合、あるいは、外れた場合には、その目線を追うようにして当該目線に最も近い表示部に挙動予測情報を表示することができ、ドライバの目線が車両の進行方向前方から変わったとしても挙動予測情報をドライバに伝達しやすくすることができる。
The present disclosure is not limited to the above-described embodiment, and various modifications and extensions can be made without departing from the scope of the present disclosure. For example, the
また、例えば図10に例示するように、HCU20は、さらに判定処理部58を備える構成としてもよい。HCU20は、車両用表示制御プログラムを実行することにより、判定処理部58をソフトウェアにより仮想的に実現することが可能である。なお、HCU20は、判定処理部58をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。
Further, the
判定処理部58は、予測処理部54が予測する物標の挙動の危険度を判定する。即ち、図11に例示するように、判定処理部58は、予測処理部54が予測する物標の挙動の危険度を複数段階、この場合、少なくとも危険度「高」,「中」,「低」の3段階に分けて判定するように構成されている。そして、表示制御処理部57は、判定処理部58が判定する危険度が上昇するごとに、改めて表示部に挙動予測情報を表示するように構成されている。また、表示制御処理部57は、判定処理部58が判定する危険度が不変または低下した場合には、改めて表示部に挙動予測情報を表示しないように構成されている。
The
この構成によれば、対象となる物標について予想される挙動の危険度が上昇した場合に限って、その挙動予測情報をドライバに通知することができ、不必要に何度も挙動予測情報がドライバに通知されてしまうことを回避することができる。なお、判定処理部58は、危険度を2段階に分けて判定するようにしてもよいし、4段階以上の多段階に分けて判定するようにしてもよい。また、表示制御処理部57は、危険度が1段階でも上昇したら挙動予測情報を再表示するようにしてもよいし、複数段階、例えば、2段階上昇したら挙動予測情報を再表示するようにしてもよい。
According to this configuration, the behavior prediction information can be notified to the driver only when the risk of the behavior expected of the target object increases, and the behavior prediction information is sent unnecessarily many times. It is possible to avoid notifying the driver. Note that the
また、図12に例示するように、HCU20は、さらに評価結果入力処理部59を備える構成としてもよい。HCU20は、車両用表示制御プログラムを実行することにより、評価結果入力処理部59をソフトウェアにより仮想的に実現することが可能である。なお、HCU20は、評価結果入力処理部59をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。
Moreover, as illustrated in FIG. 12, the
評価結果入力処理部59は、評価結果入力処理を実行する。評価結果入力処理は、表示部に表示される挙動予測情報が示す物標の挙動を評価した結果をHCU20に入力するための処理である。即ち、ドライバは、表示部に表示される挙動予測情報について、その表示内容や表示タイミングなどが自身の納得するものであるか否かを評価する。そして、ドライバは、その評価結果を例えば操作デバイス21などにより構成される入力部を介して評価結果入力処理部59、ひいては、HCU20に入力する。そして、HCU20は、入力された評価結果に基づき、挙動予測情報の表示態様、例えば、表示内容や表示タイミングなどを調整するようにするとよい。即ち、HCU20は、入力された評価結果に基づく学習機能を備えることにより、よりドライバの要求に応じた態様で挙動予測情報を表示できるようになる。
The evaluation result
入力部としては、操作デバイス21の他、例えば表示部のディスプレイ上に形成されるタッチボタン、運転席から手の届く範囲に設けられる機械式のボタンなどが考えられる。また、入力部としては、挙動予測情報がドライバの予測する内容と一致することを入力するための一致ボタン、および、一致しないことを入力する不一致ボタンを備える構成としてもよいし、挙動予測情報の内容を複数段階、例えば、「優」,「良」,「可」の3段階に分けて評価できるボタン群で構成してもよい。即ち、入力部は、何らかのかたちで挙動予測情報を評価できるものであれば、種々の構成を適用することができる。
As the input unit, in addition to the
また、図10に例示した制御系の構成例と図12に例示した制御系の構成例とを組み合わせた構成としてもよい。即ち、HCU20は、判定処理部58および評価結果入力処理部59の双方を備えた構成としてもよい。また、本開示は、自動運転機能により自動で走行している状況における車両に適用することができ、また、自動運転機能ではなくドライバによる操作に基づき走行している状況における車両にも適用することができる。また、表示部は、車両に搭載可能な表示部であれば種々の表示部を適用することができる。また、複数の表示部の配置位置は、適宜変更して実施することができる。
Further, the configuration example of the control system illustrated in FIG. 10 and the configuration example of the control system illustrated in FIG. 12 may be combined. That is, the
なお、本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described with reference to examples, it is understood that the present disclosure is not limited to such examples or structures. The present disclosure also includes various modifications and modifications within the equivalent range. In addition, various combinations and configurations, as well as other combinations and configurations, including single elements, more, or less, are within the scope and spirit of this disclosure.
また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Also, the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program. , may be implemented. Alternatively, the controls and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control units and techniques described in this disclosure can be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium.
図面中、7はメータ系表示部(表示部)、8はナビゲーション表示部(表示部)、20はHCU(車両用表示制御装置)、23は表示装置(表示部)、53は検出処理部、54は予測処理部、55は表示処理部、56は特定処理部、57は表示制御処理部、58は判定処理部、59は評価結果入力処理部を示す。
In the drawing, 7 is a meter system display unit (display unit), 8 is a navigation display unit (display unit), 20 is an HCU (vehicle display control unit), 23 is a display device (display unit), 53 is a detection processing unit, 54 is a prediction processing unit, 55 is a display processing unit, 56 is a specific processing unit, 57 is a display control processing unit, 58 is a determination processing unit, and 59 is an evaluation result input processing unit.
Claims (6)
車両の周辺に存在する物標を検出する検出処理部(53)と、
前記検出処理部が検出する物標の挙動を予測する予測処理部(54)と、
前記予測処理部が予測する物標の挙動を示す挙動予測情報を表示部(7,8,23)に表示する表示処理部(55)と、
ユーザの目線を特定する特定処理部(56)と、
前記表示部への前記挙動予測情報の表示を制御する表示制御処理部(57)と、
を備え、
それぞれ異なる位置に複数の前記表示部(7,8,23)が備えられており、
前記表示制御処理部は、前記特定処理部が特定するユーザの目線が、前記検出処理部が検出する物標に向かっている場合に、前記特定処理部が特定するユーザの目線に最も近い前記表示部に前記挙動予測情報を表示する車両用表示制御装置。 A vehicle display control device (20) mounted in a vehicle equipped with an automatic driving function,
a detection processing unit (53) for detecting targets existing around the vehicle;
a prediction processing unit (54) for predicting the behavior of the target detected by the detection processing unit;
a display processing unit (55) for displaying behavior prediction information indicating behavior of a target predicted by the prediction processing unit on a display unit (7, 8, 23);
a specific processing unit (56) that identifies the line of sight of the user;
a display control processing unit (57) for controlling display of the behavior prediction information on the display unit;
with
A plurality of display units (7, 8, 23) are provided at different positions,
When the line of sight of the user identified by the identification processing unit is directed toward the target detected by the detection processing unit, the display control processing unit controls the display closest to the line of sight of the user identified by the identification processing unit. A display control device for a vehicle that displays the behavior prediction information on the part.
前記表示制御処理部は、前記判定処理部が判定する危険度が上昇するごとに、前記表示部に前記挙動予測情報を表示する請求項1または2に記載の車両用表示制御装置。 further comprising a determination processing unit (58) for determining the degree of risk of behavior of the target predicted by the prediction processing unit;
The vehicle display control device according to claim 1 or 2, wherein the display control processing unit displays the behavior prediction information on the display unit each time the degree of risk determined by the determination processing unit increases.
車両の周辺に存在する物標を検出する検出処理と、
前記検出処理により検出する物標の挙動を予測する予測処理と、
前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部(7,8,23)に表示する表示処理と、
ユーザの目線を特定する特定処理と、
前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、
を含み、
それぞれ異なる位置に複数の前記表示部(7,8,23)が備えられており、
前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記特定処理により特定するユーザの目線に最も近い前記表示部に前記表示処理により前記挙動予測情報を表示する車両用表示制御方法。 A vehicle display control method for controlling a vehicle display control device (20) mounted in a vehicle equipped with an automatic driving function,
a detection process for detecting targets existing around the vehicle;
a prediction process for predicting the behavior of the target detected by the detection process;
Display processing for displaying behavior prediction information indicating the behavior of the target predicted by the prediction processing on a display unit (7, 8, 23);
a specific process for identifying the line of sight of the user;
a display control process for controlling display of the behavior prediction information by the display process;
including
A plurality of display units (7, 8, 23) are provided at different positions,
In the display control processing, when the line of sight of the user identified by the identification processing is directed toward the target detected by the detection processing, the display is performed on the display unit closest to the line of sight of the user identified by the identification processing. A vehicle display control method for displaying the behavior prediction information by processing.
自動運転機能を備え複数の表示部(7,8,23)をそれぞれ異なる位置に備える車両に搭載される車両用表示制御装置(20)として機能させるための車両用表示制御プログラムであって、
車両の周辺に存在する物標を検出する検出処理と、
前記検出処理により検出する物標の挙動を予測する予測処理と、
前記予測処理により予測する物標の挙動を示す挙動予測情報を前記表示部に表示する表示処理と、
ユーザの目線を特定する特定処理と、
前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、
を前記コンピュータに実行させ、
前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記特定処理により特定するユーザの目線に最も近い前記表示部に前記表示処理により前記挙動予測情報を表示させる車両用表示制御プログラム。 the computer,
A vehicle display control program for functioning as a vehicle display control device (20) mounted in a vehicle having a plurality of display units (7, 8, 23) at different positions and having an automatic driving function,
a detection process for detecting targets existing around the vehicle;
a prediction process for predicting the behavior of the target detected by the detection process;
a display process for displaying behavior prediction information indicating the behavior of the target predicted by the prediction process on the display unit ;
a specific process for identifying the line of sight of the user;
a display control process for controlling display of the behavior prediction information by the display process;
causing said computer to execute
In the display control processing, when the line of sight of the user identified by the identification processing is directed toward the target detected by the detection processing, the A vehicle display control program for displaying the behavior prediction information by display processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019107083A JP7302311B2 (en) | 2019-06-07 | 2019-06-07 | Vehicle display control device, vehicle display control method, vehicle display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019107083A JP7302311B2 (en) | 2019-06-07 | 2019-06-07 | Vehicle display control device, vehicle display control method, vehicle display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201647A JP2020201647A (en) | 2020-12-17 |
JP7302311B2 true JP7302311B2 (en) | 2023-07-04 |
Family
ID=73742671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019107083A Active JP7302311B2 (en) | 2019-06-07 | 2019-06-07 | Vehicle display control device, vehicle display control method, vehicle display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7302311B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7447039B2 (en) * | 2021-03-10 | 2024-03-11 | 矢崎総業株式会社 | Vehicle display device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170036673A1 (en) | 2015-08-03 | 2017-02-09 | Lg Electronics Inc. | Driver assistance apparatus and control method for the same |
-
2019
- 2019-06-07 JP JP2019107083A patent/JP7302311B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170036673A1 (en) | 2015-08-03 | 2017-02-09 | Lg Electronics Inc. | Driver assistance apparatus and control method for the same |
Also Published As
Publication number | Publication date |
---|---|
JP2020201647A (en) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293748B2 (en) | Information presentation system | |
JP6729220B2 (en) | Vehicle driving support device | |
JP6591087B2 (en) | Display control device, display device, and display control method | |
US11200806B2 (en) | Display device, display control method, and storage medium | |
JP7139902B2 (en) | Notification device | |
JP6969509B2 (en) | Vehicle display control device, vehicle display control method, and control program | |
JP7346859B2 (en) | Control device, display device, moving object, control method, and program | |
US12112085B2 (en) | Vehicle display control device, vehicle display control method, and vehicle display control program product | |
US11458841B2 (en) | Display control apparatus, display control method, and computer-readable storage medium storing program | |
JP2019079363A (en) | Vehicle control device | |
JP7285705B2 (en) | Autonomous driving system | |
JP6855759B2 (en) | Self-driving vehicle control system | |
US20240336266A1 (en) | Driving assistance device, driving assistance method, and storage medium | |
JP7263962B2 (en) | VEHICLE DISPLAY CONTROL DEVICE AND VEHICLE DISPLAY CONTROL METHOD | |
JP7400242B2 (en) | Vehicle display control device and vehicle display control method | |
JP7302311B2 (en) | Vehicle display control device, vehicle display control method, vehicle display control program | |
JP2021149319A (en) | Display control device, display control method, and program | |
EP4102323B1 (en) | Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program | |
JP7487593B2 (en) | Vehicle display control device, vehicle display control system, and vehicle display control method | |
JP2021028587A (en) | In-vehicle display control device | |
JP2020138609A (en) | Display control device for vehicle, display control method for vehicle, and display control program for vehicle | |
JP7172730B2 (en) | Vehicle display control device, vehicle display control method, vehicle display control program | |
JP2021043084A (en) | Display controller and display control program | |
JP7517248B2 (en) | Vehicle control device and vehicle control method | |
JP7206867B2 (en) | Display controller and display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7302311 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |