[go: up one dir, main page]

JP7596039B2 - Display System - Google Patents

Display System Download PDF

Info

Publication number
JP7596039B2
JP7596039B2 JP2021115638A JP2021115638A JP7596039B2 JP 7596039 B2 JP7596039 B2 JP 7596039B2 JP 2021115638 A JP2021115638 A JP 2021115638A JP 2021115638 A JP2021115638 A JP 2021115638A JP 7596039 B2 JP7596039 B2 JP 7596039B2
Authority
JP
Japan
Prior art keywords
vehicle
image
display
window
parallel running
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021115638A
Other languages
Japanese (ja)
Other versions
JP2023012155A (en
Inventor
幸治 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Alps Alpine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd, Alps Alpine Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2021115638A priority Critical patent/JP7596039B2/en
Publication of JP2023012155A publication Critical patent/JP2023012155A/en
Application granted granted Critical
Publication of JP7596039B2 publication Critical patent/JP7596039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、自動車等の移動体に搭載される表示システムに関する。 The present invention relates to a display system mounted on a moving object such as an automobile.

車両内に仮想環境を生成する表示制御システムとして、現在の移動ルートに沿った車両の移動中に、交通状況や気象状況などを車両の窓に表示する技術が特許文献1に開示されている。また、自車両の周囲に存在する他車両の走行状態を識別して運転者に認識させる表示システムが特許文献2に開示されている。例えば、他車画像が運転席からフロントガラス越しに見える景色に重畳されるように表示される。さらに特許文献3の通信車両表示装置は、送信元が車両の車窓から見える他車である際、車窓を介した運転者の視界に対して送信元の車両を表示する技術を開示している。 Patent Document 1 discloses a display control system for generating a virtual environment inside a vehicle, which displays traffic and weather conditions on the vehicle windows while the vehicle is moving along the current travel route. Patent Document 2 discloses a display system for identifying the driving conditions of other vehicles around the vehicle and making the driver aware of them. For example, an image of the other vehicle is displayed so as to be superimposed on the view seen through the windshield from the driver's seat. Furthermore, Patent Document 3 discloses a communication vehicle display device that, when the source of the transmission is another vehicle visible from the vehicle window, displays the source vehicle in the driver's field of view through the vehicle window.

特開2020-515886号公報JP 2020-515886 A 特開2017-37634号公報JP 2017-37634 A 特開2010-218568号公報JP 2010-218568 A

自動運転の技術進歩により、車室内は移動する為の空間から快適に過ごす為の空間に変わりつつある。完全自動運転に移行した際には、搭乗者はリビングや職場にいる感覚で車室内の時間を過ごすようになることが予測されている。 With advances in autonomous driving technology, the interior of a vehicle is changing from a space for travel to a space for comfort. When we move to fully autonomous driving, it is predicted that passengers will spend time in the vehicle as if they were in their living room or workplace.

完全自動運転となった場合、車は、法定速度を基準に走ることが想定され、そうすると、車同士が並走する場面も増えてくることが予想される。例えば、図1に示すように、自車10と並走する他車20が存在すると、お互いの車室内が良く見える状況が続くことになり、搭乗者14A、14Bは、車窓12から他車20を見ることができ、他車20の搭乗者22が実際にはこちらを見ていないとしても、やはり視線は気になってしまう。特に家のリビングにいる感覚で過ごしていたとすれば、窓12から家を覗かれているようで不快に感じる。 When fully automated driving becomes possible, cars are expected to run at legal speeds, which means that there will likely be more situations where cars will run side by side. For example, as shown in Figure 1, when there is another car 20 running side by side with one's own car 10, the interiors of each car will remain clearly visible, and passengers 14A and 14B will be able to see the other car 20 from the car window 12. Even if the passengers 22 of the other car 20 are not actually looking at them, they will still be bothered by their gazes. In particular, if the passenger is spending the day feeling as if they are in their living room at home, they will feel uncomfortable as if someone is peering into their house through the window 12.

他方、カーテンやフィルムで窓12を隠し、外から内部を見えなくすることも可能であるが、逆に、搭乗者14A、14Bにとって外が見辛くなり、移動の楽しさを減少させてしまうことになる。更に完全自動運転だとしても、運転者には外部状況を把握することは重要である。 On the other hand, it is possible to cover the windows 12 with curtains or film so that the inside cannot be seen from the outside, but this would make it difficult for passengers 14A and 14B to see outside, reducing the enjoyment of traveling. Furthermore, even in fully automated driving, it is important for the driver to be aware of the external situation.

本発明は、このような従来の課題を解決し、外部からの視線による不快感を取り除くことが可能な表示システムを提供することを目的とする。 The present invention aims to provide a display system that can solve these conventional problems and eliminate the discomfort caused by external gazes.

本発明に係る表示システムは、移動体等の車両に搭載されるものであって、並走車を検出する検出手段と、車両の窓に映像を表示する表示手段と、前記表示手段を制御する表示制御手段とを有し、前記表示制御手段は、前記検出手段により並走車が検出された場合、前記並走車と重複する前記窓上の位置に映像を表示させる、表示システム。 The display system according to the present invention is mounted on a vehicle such as a moving body, and has a detection means for detecting parallel running vehicles, a display means for displaying an image on a window of the vehicle, and a display control means for controlling the display means, and when a parallel running vehicle is detected by the detection means, the display control means displays an image on the window in a position that overlaps with the parallel running vehicle.

ある態様では、前記表示制御手段は、前記並走車の車両サイズを算出する算出手段を含み、当該算出手段により算出された車両サイズに応じた映像を表示させる。ある態様では、前記表示制御手段は、車両に対する前記並走車の相対的な位置を検出する検出手段と、搭乗者のアイポイントを検出する検出手段とを含み、前記表示制御手段は、前記相対的な位置および前記アイポイントとの関係に基づき前記映像を表示させる、請求項1または2に記載の表示システム。ある態様では、前記表示制御手段は、搭乗者を識別する識別手段と、複数の搭乗者の嗜好に応じた映像を格納する格納手段とを含み、前記表示制御手段は、識別した搭乗者の嗜好に応じた映像を前記格納手段から取得し、取得した映像を表示させる。ある態様では、前記表示手段は、車両の窓から見える外部の景色に前記映像をAR表示する。ある態様では、表示システムはさらに、車両の周辺を撮像する撮像手段を含み、前記表示手段は、前記撮像手段によって撮像された車両の周辺画像を前記窓に表示し、前記表示制御手段は、前記窓に表示された周辺画像に前記映像を合成する。 In one aspect, the display control means includes a calculation means for calculating the vehicle size of the parallel running vehicle, and displays an image corresponding to the vehicle size calculated by the calculation means. In one aspect, the display control means includes a detection means for detecting a relative position of the parallel running vehicle with respect to the vehicle, and a detection means for detecting an eye point of a passenger, and the display control means displays the image based on the relationship between the relative position and the eye point. In one aspect, the display control means includes an identification means for identifying a passenger, and a storage means for storing images corresponding to the preferences of multiple passengers, and the display control means acquires images corresponding to the preferences of the identified passenger from the storage means and displays the acquired images. In one aspect, the display means displays the images in an AR format on an external view seen through a window of the vehicle. In one aspect, the display system further includes an imaging means for capturing an image of the periphery of the vehicle, and the display means displays an image of the periphery of the vehicle captured by the imaging means on the window, and the display control means combines the image with the periphery image displayed on the window.

本発明によれば、並走車が検出された場合に、並走車と重複する窓上の位置に映像を表示させるようにしたので、並走車からの視線を感じることの無い車内空間を提供し、搭乗者にとって、外部からの視線による不快感を取り除くことができる。 According to the present invention, when a parallel running vehicle is detected, an image is displayed in a position above the window that overlaps with the parallel running vehicle, providing an interior space where passengers do not feel gazed upon by the parallel running vehicle, and eliminating discomfort felt by passengers due to gazes from outside.

発明が解決しようとする課題を説明する図である。FIG. 1 is a diagram for explaining a problem to be solved by the invention. 本発明の実施例に係る表示システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a display system according to an embodiment of the present invention. ユーザー識別とアニメーションデータとの関係を示す管理テーブルの例である。13 is an example of a management table showing a relationship between user identification and animation data. 本発明の実施例に係る表示システムの視線除去機能の構成を示すブロック図である。1 is a block diagram showing a configuration of a line of sight removal function of a display system according to an embodiment of the present invention. 自車と並走車との間に距離および方向の算出例を示す図である。11 is a diagram showing an example of calculation of the distance and direction between the host vehicle and a vehicle traveling parallel to the host vehicle; FIG. 本発明の実施例に係る表示システムの視線除去機能の動作を説明するフローである。11 is a flow diagram illustrating the operation of a line of sight removal function of a display system according to an embodiment of the present invention. 本発明の実施例に係る表示システムのAR表示例を示す図である。FIG. 1 is a diagram showing an example of AR display of a display system according to an embodiment of the present invention. 本発明の変形例に係る表示システムのAR表示例を示す図である。視線方向の検出を説明する図である。10A to 10C are diagrams illustrating an example of AR display of a display system according to a modified example of the present invention;

次に、本発明の実施の形態について説明する。本発明の表示システムは、自動車等の車両に搭載され、車両の窓などに映像を表示する機能を備える。本発明の表示システムは、AR(Augmented Reality)技術により周辺車両(並走車)に対して映像を重ね合わせることで、人の存在感を消し並走車からの視線を感じることの無い車室内空間を提供する。AR技術は、実在する風景にバーチャルの視覚情報を重ねて表示することで仮想的な視界を生成する。また、並走車にだけ映像を合成することで、車外の状況把握を阻害しない視界を確保する。 Next, an embodiment of the present invention will be described. The display system of the present invention is mounted on a vehicle such as an automobile, and has a function of displaying images on the vehicle windows, etc. The display system of the present invention uses AR (Augmented Reality) technology to overlay images onto surrounding vehicles (vehicles traveling parallel to the vehicle), thereby providing an interior space in which the presence of people is erased and the driver does not feel the gaze of vehicles traveling parallel to the vehicle. AR technology generates a virtual field of view by overlaying virtual visual information on real scenery. In addition, by synthesizing images only of vehicles traveling parallel to the vehicle, a field of view that does not impede understanding of the situation outside the vehicle is ensured.

次に、本発明の実施例について詳細に説明する。図2は、本発明の実施例に係る表示システムの構成を示すブロック図である。表示システム100は、複数の撮像カメラ110、センサ120、車両情報取得部130、通信部140、表示部150、記憶部160および制御部170を含んで構成される。なお、ここには図示しないが、表示システム100は、ユーザーからの入力を受け取る入力部や、表示部150によって表示される映像に関連する音声を出力する音声出力部や、楽曲や映像等のメディアを再生するメディア再生部を備えることも可能である。 Next, an embodiment of the present invention will be described in detail. FIG. 2 is a block diagram showing the configuration of a display system according to an embodiment of the present invention. The display system 100 includes a plurality of image capturing cameras 110, a sensor 120, a vehicle information acquisition unit 130, a communication unit 140, a display unit 150, a storage unit 160, and a control unit 170. Although not shown here, the display system 100 can also include an input unit that receives input from a user, an audio output unit that outputs audio related to the image displayed by the display unit 150, and a media playback unit that plays media such as music and images.

撮像カメラ110は、自車の周辺を撮像し、撮像した画像データを制御部170に提供する。この画像データは、表示部150によって表示されたり、あるいは、周辺車両の検出や周辺車両のサイズなどの算出に利用することができる。また、撮像カメラ110は、車外を撮像するもの以外に、車内空間を撮像する車内用撮像カメラも含む。車内用撮像カメラで撮像された画像データは、車内の搭乗者の有無や搭乗者の視点(アイポイント)を検出するために利用される。 The imaging camera 110 captures images of the surroundings of the vehicle and provides the captured image data to the control unit 170. This image data can be displayed by the display unit 150, or can be used to detect surrounding vehicles and calculate the size of surrounding vehicles. In addition to capturing images of the outside of the vehicle, the imaging camera 110 also includes an in-vehicle imaging camera that captures images of the interior of the vehicle. The image data captured by the in-vehicle imaging camera is used to detect the presence or absence of passengers in the vehicle and the passengers' viewpoints (eyepoints).

センサ120は、例えば、赤外線センサ、レーダーなどを含み、電波等の電磁波を送信し、その反射波を受信することによって車両の周辺に存在する物体や物体までの距離を検出する。この検出結果は、制御部170に提供される。センサ120は、これ以外にも、昼夜を検出するための照度センサなどを含むことが可能である。照度センサの検出結果は、表示部150の輝度の調整などに利用される。 The sensor 120 includes, for example, an infrared sensor, a radar, etc., and detects objects around the vehicle and the distance to the objects by transmitting electromagnetic waves such as radio waves and receiving the reflected waves. The detection results are provided to the control unit 170. The sensor 120 can also include an illuminance sensor for detecting day or night. The detection results of the illuminance sensor are used to adjust the brightness of the display unit 150, etc.

車両情報取得部130は、車両の動作に関する情報を取得する。車両情報は、例えば、自動運転のレベルを識別する情報や、これ以外にも、例えば、車両の速度情報(車速パルス)、ギアポジション情報、パーキング情報、ウィンカー情報、自車位置情報などを含むことができ、これらの情報を車内バス等を介して取得する。なお、自車位置情報は、例えば、GPS衛星を利用した位置情報、加速度センサは角速度センサを利用した位置情報などを含むことができる。車両情報取得部130で取得された情報は、制御部170に提供される。 The vehicle information acquisition unit 130 acquires information related to the operation of the vehicle. The vehicle information can include, for example, information identifying the level of autonomous driving, as well as other information such as vehicle speed information (vehicle speed pulse), gear position information, parking information, turn signal information, and vehicle position information, and this information is acquired via an in-vehicle bus or the like. Note that the vehicle position information can include, for example, position information using a GPS satellite, and position information using an acceleration sensor or an angular velocity sensor. The information acquired by the vehicle information acquisition unit 130 is provided to the control unit 170.

通信部140は、車両に搭載された電子機器との間で有線または無線による通信を可能にしたり、あるいは外部のネットワークを介してサーバー等との間で無線による通信を可能にしたり、他車両との間で車車間通信を可能にする。ある態様では、通信部140は、表示部150により表示される映像をサーバーなどからダウンロードすることが可能である。 The communication unit 140 enables wired or wireless communication with electronic devices mounted on the vehicle, or wireless communication with a server or the like via an external network, or vehicle-to-vehicle communication with other vehicles. In one aspect, the communication unit 140 is capable of downloading images to be displayed by the display unit 150 from a server or the like.

表示部150は、車両の窓に映像を表示したり、窓以外の車内空間に映像を表示する機能を備える。車両には、図1に示すように、座席の側部に取り付けられたガラス窓12や、それ以外にもフロントガラス、リアガラスの窓が設けられるが、本実施例では、表示部150は、少なくとも、並走車があるときに並走車からの視線を感じるような窓(図1の例では、窓12)に映像を表示する。表示部150の構成は、特に限定されないが、ある態様では、映像を投射するプロジェクターを含み、ガラス窓12に映像を投射することで窓12越しに見える景色に投射映像を重畳させる。また、別の態様では、表示部150は、窓12の形状に対応する液晶ディスプレイ等の表示パネルを窓12上に搭載し、例えば、液晶ディスプレイは、映像を表示しないとき車外の景色が透けて見えるような透明な状態を有し、この状態で特定の領域に映像を表示させることで窓越しに見える景色に映像を重畳させる。 The display unit 150 has a function of displaying an image on the vehicle window and displaying an image in the vehicle interior space other than the window. As shown in FIG. 1, the vehicle is provided with a glass window 12 attached to the side of the seat, as well as a front windshield and a rear windshield. In this embodiment, the display unit 150 displays an image at least on a window (window 12 in the example of FIG. 1) where the driver feels the line of sight of a parallel vehicle when the vehicle is traveling parallel. The configuration of the display unit 150 is not particularly limited, but in one embodiment, the display unit 150 includes a projector that projects an image, and projects an image on the glass window 12 to superimpose the projected image on the scenery seen through the window 12. In another embodiment, the display unit 150 is mounted on the window 12 with a display panel such as a liquid crystal display that corresponds to the shape of the window 12. For example, the liquid crystal display has a transparent state that allows the scenery outside the vehicle to be seen through when the image is not displayed, and in this state, the image is displayed in a specific area to superimpose the image on the scenery seen through the window.

記憶部160は、表示システム100にとって必要なデータやアプリケーションソフトウエアなどを格納する。また、記憶部160は、表示部150によって表示される映像データを格納し、ある態様では、ユーザーの嗜好に合うアニメーションデータを格納する。図3は、ユーザー識別とアニメーションデータとの関係を格納する管理テーブルの一例であり、例えば、表示部150が搭乗者の嗜好に合う映像を表示するとき、当該管理テーブルが参照される。記憶部160に格納されるアニメーションデータは、動画または静止画のいずれであってもよく、ユーザーの嗜好に合うアニメーションデータは、複数であってもよいし、映像サイズが異なるものを複数含んでもよく、映像サイズが異なるものを格納する場合にはサイズを識別する属性情報も同時に格納される。このようなアニメーションデータは、ユーザー入力により記憶部160に格納されてもよいし、あるいは通信部140を介してサーバーなどからダウンロードしたものを記憶部160に格納するようにしてもよい。そして、管理テーブルのデータは、アニメーションデータを格納するときに更新される。 The storage unit 160 stores data and application software necessary for the display system 100. The storage unit 160 also stores video data to be displayed by the display unit 150, and in one embodiment, stores animation data that matches the user's preferences. FIG. 3 is an example of a management table that stores the relationship between user identification and animation data. For example, when the display unit 150 displays an image that matches the passenger's preferences, the management table is referenced. The animation data stored in the storage unit 160 may be either a video or a still image, and the animation data that matches the user's preferences may be multiple, or may include multiple images with different image sizes. When images with different image sizes are stored, attribute information that identifies the size is also stored at the same time. Such animation data may be stored in the storage unit 160 by user input, or may be downloaded from a server or the like via the communication unit 140 and stored in the storage unit 160. The data in the management table is updated when the animation data is stored.

制御部170は、表示システム100の全体の動作を制御する。この制御は、ハードウエアおよび/またはソフトウエアにより実施される。ある態様では、制御部170は、ROM/RAMなどを含むマイクロコントローラ等を含み、ROM/RAMには、表示システム100の動作を制御するためのプログラムが格納される。本実施例では、制御部170は、その機能の一部として、並走車が存在するときに並走車の視線を除去する視線除去機能を備える。ある態様では、制御部170は、車両情報取得部130からの自動運転レベルに応じて視線除去機能を動作させるようにしてもよい。以下、この視線除去機能について説明する。 The control unit 170 controls the overall operation of the display system 100. This control is implemented by hardware and/or software. In one aspect, the control unit 170 includes a microcontroller including a ROM/RAM, and the like, and the ROM/RAM stores a program for controlling the operation of the display system 100. In this embodiment, the control unit 170 has, as part of its functions, a line of sight removal function for removing the line of sight of a parallel running vehicle when one is present. In one aspect, the control unit 170 may operate the line of sight removal function in accordance with the autonomous driving level from the vehicle information acquisition unit 130. This line of sight removal function is described below.

図4は、本実施例の視線除去機能200の構成を示すブロック図である。視線除去機能200は、並走車検出部210、車両サイズ算出部220、距離・方向検出部230、搭乗者識別部240、アニメーションデータ取得部250、アニメーション映像生成部260、アイポイント検出部270、表示座標算出部280、アニメーション映像出力部290を含んで構成される。 Figure 4 is a block diagram showing the configuration of the line of sight removal function 200 in this embodiment. The line of sight removal function 200 is configured to include a parallel vehicle detection unit 210, a vehicle size calculation unit 220, a distance/direction detection unit 230, a passenger identification unit 240, an animation data acquisition unit 250, an animation video generation unit 260, an eye point detection unit 270, a display coordinate calculation unit 280, and an animation video output unit 290.

並走車検出部210は、自車に対する並走車を検出する。並走車とは、自車にとって外部からの視線を窓を通して感じるような位置関係にある他車両であり、例えば、図1に示すように、自車10の真横を並走する他車両20である。並走車の検出方法は、特に限定されないが、並走車検出部210は、撮像カメラ110によって撮像された自車周辺の画像データを解析することで自車と並走関係にある他車両を検出したり、あるいはセンサ120のレーダー等によって並走関係にある他車両を検出する。 The parallel vehicle detection unit 210 detects vehicles running parallel to the own vehicle. A parallel vehicle is another vehicle that is in such a position that the own vehicle feels a line of sight from the outside through the window, for example, another vehicle 20 running parallel to the own vehicle 10 as shown in FIG. 1. There are no particular limitations on the method of detecting parallel vehicles, but the parallel vehicle detection unit 210 detects other vehicles running parallel to the own vehicle by analyzing image data of the surroundings of the own vehicle captured by the imaging camera 110, or detects other vehicles running parallel to the own vehicle using the radar of the sensor 120, etc.

車両サイズ算出部220は、並走車検出部210によって並走車が検出されたとき、並走車の車両サイズを算出する。車両サイズ算出部220は、例えば、撮像カメラ110で撮像された画像データを解析することで車両の輪郭を抽出したり、センサ110のレーダーの検出結果から車両の輪郭を抽出し、抽出した輪郭に近似するような矩形サイズを算出する。あるいは、車両サイズ算出部220は、抽出した輪郭の水平方向の最大値と垂直方向の最大値を算出する。車両サイズ算出部220によって算出された車両サイズは、窓12に映像を表示させるときの映像サイズの決定に利用される。 When a parallel running vehicle is detected by the parallel running vehicle detection unit 210, the vehicle size calculation unit 220 calculates the size of the parallel running vehicle. For example, the vehicle size calculation unit 220 extracts the vehicle outline by analyzing image data captured by the imaging camera 110, or extracts the vehicle outline from the detection results of the radar of the sensor 110, and calculates a rectangular size that approximates the extracted outline. Alternatively, the vehicle size calculation unit 220 calculates the maximum horizontal and vertical values of the extracted outline. The vehicle size calculated by the vehicle size calculation unit 220 is used to determine the image size when displaying an image on the window 12.

距離・方向検出部230は、並走車検出部210によって並走車が検出されたとき、自車に対する並走車の相対的な位置関係を知るために、並走車までの距離や方向(角度)を検出する。距離・方向の検出には、撮像カメラ110からの画像データの解析や、センサ120の検出結果が用いられる。ある態様では、距離・方向検出部230は、自車と並走車までの最短距離L、および自車の基準点P1から並走車の基準点P2までの方向を算出する。並走車の基準点P2は、車両サイズ算出部220によって算出された車両サイズから算出することができ、例えば、車両サイズが矩形で表された場合、当該矩形の対角線の交点を基準点としたり、あるいは車両サイズが水平方向の最大と垂直方向の最大値で表された場合、その水平方向の直線と垂直方向の直線との交点を基準点P2とすることができる。自車の基準点P1は、特に限定されないが、例えば、撮像カメラ110やセンサ120の取り付け位置、あるいは自車の側部の輪郭を矩形状に近似した場合の対角線が交差する点、あるいは窓12の中心部などを基準点P1とすることができる。 When the parallel vehicle detection unit 210 detects a parallel vehicle, the distance/direction detection unit 230 detects the distance and direction (angle) to the parallel vehicle in order to know the relative positional relationship of the parallel vehicle to the vehicle. The distance/direction detection unit 230 uses the analysis of image data from the imaging camera 110 and the detection results of the sensor 120. In one aspect, the distance/direction detection unit 230 calculates the shortest distance L between the vehicle and the parallel vehicle, and the direction from the reference point P1 of the vehicle to the reference point P2 of the parallel vehicle. The reference point P2 of the parallel vehicle can be calculated from the vehicle size calculated by the vehicle size calculation unit 220. For example, when the vehicle size is expressed by a rectangle, the intersection of the diagonal lines of the rectangle can be used as the reference point, or when the vehicle size is expressed by the maximum horizontal and maximum vertical values, the intersection of the horizontal and vertical lines can be used as the reference point P2. The reference point P1 of the vehicle is not particularly limited, but can be, for example, the mounting position of the imaging camera 110 or the sensor 120, or the point where the diagonals intersect when the outline of the side of the vehicle is approximated to a rectangle, or the center of the window 12.

また、自車と並走車とは同じ路面上を走行するので、自車の基準点P1と並走車の基準点P2との高さ方向の差が一定範囲内であれば両基準点の高さが等しいと仮定してもよく、その場合には、距離・方向検出部230によって検出される距離と方向は、図5に示すように、自車10の基準点P1と並走車20の基準点P2を含む水平なXY平面で表わすことができる。図5(A)は、自車10の真横に並走車20が存在する場合を示し、この場合、自車10と並走車20との最短距離がLであり、基準点P1と基準点P2とを結ぶ直線が最短距離Lと成す角は0度である。図5(B)は、自車10よりも前方に並走車20が存在する場合を示し、自車10と並走車20との最短距離はLであるが、基準点P1と基準点P2とを結ぶ直線が最短距離Lの直線と成す角はαである。図5(C)は、自車10よりも後方に並走車20が存在する場合を示し、自車10と並走車20との最短距離はLであるが、基準点P1と基準点P2とを結ぶ直線と最短局Lの直線が成す角はβである。 In addition, since the vehicle and the parallel vehicle run on the same road surface, it may be assumed that the heights of both reference points are equal if the difference in height between the reference point P1 of the vehicle and the reference point P2 of the parallel vehicle is within a certain range. In that case, the distance and direction detected by the distance/direction detection unit 230 can be expressed in a horizontal XY plane including the reference point P1 of the vehicle 10 and the reference point P2 of the parallel vehicle 20, as shown in FIG. 5. FIG. 5(A) shows a case where the parallel vehicle 20 is present directly to the side of the vehicle 10. In this case, the shortest distance between the vehicle 10 and the parallel vehicle 20 is L, and the angle between the line connecting the reference point P1 and the reference point P2 and the shortest distance L is 0 degrees. FIG. 5(B) shows a case where the parallel vehicle 20 is present ahead of the vehicle 10. The shortest distance between the vehicle 10 and the parallel vehicle 20 is L, but the angle between the line connecting the reference point P1 and the reference point P2 and the line of the shortest distance L is α. FIG. 5(C) shows a case where a parallel vehicle 20 is present behind the vehicle 10. The shortest distance between the vehicle 10 and the parallel vehicle 20 is L, but the angle between the line connecting the reference points P1 and P2 and the line of the shortest distance L is β.

勿論、並走車が大型車やトラックのように自車に対して高さがある車両である場合には、基準点P1と基準点P2との高さが異なるので、その場合には、距離・方向検出部230は、3次元空間または3次元座標において自車に対する並走車の相対的な距離および方向を検出するようにしてもよい。 Of course, if the parallel vehicle is a vehicle that is higher than the host vehicle, such as a large vehicle or truck, the heights of reference points P1 and P2 will be different, and in that case, the distance/direction detection unit 230 may detect the relative distance and direction of the parallel vehicle to the host vehicle in three-dimensional space or three-dimensional coordinates.

搭乗者識別部240は、自車に搭乗した搭乗者を識別する。搭乗者識別部240は、車内空間を撮像する撮像カメラ110からの画像データに基づき顔認識を行い、搭乗者を識別する。この場合、記憶部160には、搭乗者(ユーザー)の顔の特徴データが予め格納され、この特徴データと顔画像とを比較することで搭乗者を識別する。搭乗者識別部240は、搭乗者が複数であればそれぞれの搭乗者を識別し、その識別結果をアニメーションデータ取得部250へ提供する。 The passenger identification unit 240 identifies passengers aboard the vehicle. The passenger identification unit 240 performs facial recognition based on image data from the imaging camera 110 that captures the interior space of the vehicle, and identifies the passengers. In this case, facial feature data of the passengers (users) is pre-stored in the memory unit 160, and the passengers are identified by comparing this feature data with the facial image. If there are multiple passengers, the passenger identification unit 240 identifies each passenger, and provides the identification results to the animation data acquisition unit 250.

アニメーションデータ取得部250は、図3に示す管理テーブルを参照し、識別された搭乗者の嗜好に対応するアニメーションデータを取得する。例えば、搭乗者がユーザーA、ユーザーBと識別された場合には、アニメ映像A、アニメ映像Bが取得される。また、アニメーションデータ取得部250は、サイズが異なるアニメーションデータが複数格納されている場合には、車両サイズ算出部220によって算出された車両サイズに対応するアニメーションデータを選択するようにしてもよい。 The animation data acquisition unit 250 refers to the management table shown in FIG. 3 and acquires animation data corresponding to the preferences of the identified passenger. For example, if the passengers are identified as user A and user B, animation video A and animation video B are acquired. In addition, if multiple animation data of different sizes are stored, the animation data acquisition unit 250 may select animation data corresponding to the vehicle size calculated by the vehicle size calculation unit 220.

アニメーション映像生成部260は、アニメーションデータ取得部250で取得されたアニメ映像のサイズや向きを並走車の車両サイズ、並走車の距離・方向に合わせて加工する。例えば、図5(A)に示すような位置関係に並走車がある場合には、車両サイズと距離Lに応じてアニメーション映像の大きさが決定され、図5(B)や図5(C)に示すような位置関係に並走車がある場合には、角度α、βに考慮してアニメーション映像の大きさが決定される。 The animation image generation unit 260 processes the size and orientation of the animation image acquired by the animation data acquisition unit 250 to match the vehicle size of the parallel running vehicle and the distance and direction of the parallel running vehicle. For example, when the parallel running vehicles are in the positional relationship shown in FIG. 5(A), the size of the animation image is determined according to the vehicle size and distance L, and when the parallel running vehicles are in the positional relationship shown in FIG. 5(B) or FIG. 5(C), the size of the animation image is determined taking into account the angles α and β.

アイポイント検出部270は、車内空間を撮像する撮像カメラ110からの画像データに基づき搭乗者の視点の位置を算出する。アイポイントの算出は、搭乗者識別部240が搭乗者の顔認識を行うときに同時に行われるようにしてもよい。 The eye point detection unit 270 calculates the position of the passenger's viewpoint based on image data from the imaging camera 110 that captures the interior space of the vehicle. The eye point calculation may be performed simultaneously when the passenger identification unit 240 recognizes the passenger's face.

表示座標算出部280は、アニメーション映像生成部260で生成されたアニメーション映像を窓12に表示させるときの窓12上での表示座標を、アイポイント検出部270で算出されたアイポイントの座標と距離・方向検出部230で検出された距離・方向との相対的な位置関係に基づき算出する。つまり、窓12に表示されるアニメーション映像が並走車に重なり合うような表示座標が算出される。 The display coordinate calculation unit 280 calculates the display coordinates on the window 12 when the animation image generated by the animation image generation unit 260 is displayed on the window 12, based on the relative positional relationship between the eye point coordinates calculated by the eye point detection unit 270 and the distance and direction detected by the distance and direction detection unit 230. In other words, the display coordinates are calculated so that the animation image displayed on the window 12 overlaps with the vehicle traveling alongside.

アニメーション映像出力部290は、アニメーション映像生成部260で生成されたアニメーション映像および表示座標算出部280で算出された座標位置を表示部150に出力し、表示部150にアニメーション映像を窓12上に表示させる。 The animation video output unit 290 outputs the animation video generated by the animation video generation unit 260 and the coordinate position calculated by the display coordinate calculation unit 280 to the display unit 150, causing the display unit 150 to display the animation video on the window 12.

次に、本実施例の表示システム100の動作について図6のフローを参照して説明する。先ず、並走車検出部210によって並走車の有無が検出され(S100)、並走車がない場合には、当該フローを終了させる。並走車が検出された場合には、車両サイズ算出部220により並走車の車両サイズが算出され(S110)、さらに距離・方向算出部230により並走車までの距離および方向が算出され、次いでアニメーションデータ取得部250は、車両サイズや搭乗者の嗜好に応じたアニメーションデータを記憶部160から取得する(S120)。次いで、アニメーション映像生成部260は、並走車との距離や方向に合わせてアニメーション映像を生成し(S130)、アイポイント算出部270は、搭乗者のアイポイントを算出し、アニメーション映像出力部290は、並走車とアイポイントの位置関係に基づいた窓上の座標位置にアニメーション映像を表示させる(S140)。 Next, the operation of the display system 100 of this embodiment will be described with reference to the flow of FIG. 6. First, the parallel vehicle detection unit 210 detects the presence or absence of a parallel vehicle (S100), and if there is no parallel vehicle, the flow is terminated. If a parallel vehicle is detected, the vehicle size calculation unit 220 calculates the vehicle size of the parallel vehicle (S110), and the distance/direction calculation unit 230 calculates the distance and direction to the parallel vehicle. Next, the animation data acquisition unit 250 acquires animation data according to the vehicle size and the passenger's preferences from the storage unit 160 (S120). Next, the animation image generation unit 260 generates an animation image according to the distance and direction to the parallel vehicle (S130), the eye point calculation unit 270 calculates the passenger's eye point, and the animation image output unit 290 displays the animation image at a coordinate position on the window based on the positional relationship between the parallel vehicle and the eye point (S140).

図7は、本実施例の表示システム100の視線除去機能が実施されたときのAR表示例を示している。自車10の側方に並走車20が存在するとき、自車10の窓12には、搭乗者14Aの視界と重畳するように、搭乗者14Aの嗜好に応じたアニメーション映像300が表示され、また、搭乗者14Bの視界と重畳するように、搭乗者14Bの嗜好に応じたアニメーション映像310が表示される。 Figure 7 shows an example of an AR display when the line of sight removal function of the display system 100 of this embodiment is implemented. When a parallel vehicle 20 is present to the side of the vehicle 10, an animation image 300 according to the preferences of the passenger 14A is displayed on the window 12 of the vehicle 10 so as to be superimposed on the field of view of the passenger 14A, and an animation image 310 according to the preferences of the passenger 14B is displayed so as to be superimposed on the field of view of the passenger 14B.

このように本実施例によれば、窓12の搭乗者の視界にアニメーション映像を表示することで、並走車からの視線による不快感を取り除き、視線を感じることの無い車内空間を提供することができる。また、搭乗者の好みのアニメーションを表示することで、車室内のエンターティメント性を高めることができる。さらに、アニメーション映像をAR表示することで、車外の渋滞具合等の周辺状況を把握したり、車外の景色や風景を楽しむことができる。 In this way, according to this embodiment, by displaying animation images in the passenger's field of vision through the window 12, it is possible to eliminate the discomfort caused by the gaze of vehicles traveling alongside and provide an interior space where passengers do not feel the gaze of others. In addition, by displaying animations that suit the passenger's preferences, it is possible to increase the entertainment value of the interior of the vehicle. Furthermore, by displaying animation images in AR, it is possible to grasp the surrounding situation, such as the level of traffic congestion outside the vehicle, and enjoy the scenery and landscapes outside the vehicle.

次に、本実施例の表示システムの変形例について説明する。本変形例の表示システムは、撮像カメラ110によって撮像された画像データを窓12に映し出し、この画像データにアニメーション映像を合成するものである。図8は、自車10の真横に並走車20が存在するとき、窓12に撮像カメラ110で撮像された画像データ400を表示し、かつその中央にアニメーション映像300を合成して表示する例を示している。 Next, a modified example of the display system of this embodiment will be described. The display system of this modified example projects image data captured by the imaging camera 110 onto the window 12, and combines this image data with an animation image. Figure 8 shows an example in which, when a parallel vehicle 20 is present directly beside the vehicle 10, image data 400 captured by the imaging camera 110 is displayed on the window 12, and an animation image 300 is combined and displayed in the center.

並走車が検出された場合、上記実施例と同様に、車両サイズの算出、並走車の距離・方向の検出、搭乗者の識別が行われる。アニメーションデータ取得部250は、搭乗者14Aまたは搭乗者14Bのいずれかの嗜好に合うアニメーションデータを取得し、アニメーション映像生成部260は、車両サイズや並走車の距離・方向に応じたアニメーション映像を加工し、アイポイント算出部270は、搭乗者のアイポイントを算出し、表示座標算出部280は、搭乗者14A、14Bの視界に対応する窓12上の表示座標を算出する。図8の例は、並走車20が自車10の真横に存在するため、アニメーション映像300の表示座標は、窓12の略中央に決定される。こうして、窓12に映し出される車外の景色を映す画像データ400にアニメーション映像300が合成される。 When a parallel vehicle is detected, the vehicle size is calculated, the distance and direction of the parallel vehicle is detected, and the passenger is identified, as in the above embodiment. The animation data acquisition unit 250 acquires animation data that matches the preferences of either passenger 14A or passenger 14B, the animation image generation unit 260 processes the animation image according to the vehicle size and the distance and direction of the parallel vehicle, the eye point calculation unit 270 calculates the eye point of the passenger, and the display coordinate calculation unit 280 calculates the display coordinates on the window 12 that correspond to the field of view of passengers 14A and 14B. In the example of FIG. 8, since the parallel vehicle 20 is located directly to the side of the vehicle 10, the display coordinates of the animation image 300 are determined to be approximately the center of the window 12. In this way, the animation image 300 is synthesized with the image data 400 that shows the scenery outside the vehicle that is displayed on the window 12.

窓12は、撮像カメラ110によって撮像された画像を表示する表示画面なので実際には並走車20の搭乗者22が自車10の車室内を見ることができる訳ではないが、見知らぬ人が窓12の表示画面に移り続けることに対する不快感を消すことができる。 Since the window 12 is a display screen that displays the image captured by the imaging camera 110, the passenger 22 of the parallel vehicle 20 cannot actually see inside the vehicle 10, but this can eliminate the discomfort of having a stranger constantly appear on the display screen of the window 12.

なお、上記実施例では、表示部150がアニメ映像を表示させる例を示したが、映像は、アニメ映像に限らず他の映像であってもよい。 In the above embodiment, an example was shown in which the display unit 150 displayed an animated image, but the image is not limited to an animated image and may be other images.

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。 The above describes in detail the preferred embodiment of the present invention, but the present invention is not limited to a specific embodiment, and various modifications and variations are possible within the scope of the gist of the invention described in the claims.

10:自車 12:窓
14、14A、14B:搭乗者 20:並走車
22:搭乗者 100:表示システム
110:撮像カメラ 120:センサ
130:車両情報取得部 140:通信部
150:表示部 160:記憶部
170:制御部 200:視線除去機能
10: Vehicle 12: Window 14, 14A, 14B: Passenger 20: Parallel vehicle 22: Passenger 100: Display system 110: Imaging camera 120: Sensor 130: Vehicle information acquisition unit 140: Communication unit 150: Display unit 160: Memory unit 170: Control unit 200: Line-of-sight removal function

Claims (6)

移動体を含む車両に搭載される表示システムであって、
並走車を検出する検出手段と、
車両の窓に映像を表示する表示手段と、
並走車の車両サイズを算出する算出手段と、
車両に対する並走車の相対的な位置を検出する位置検出手段であって、当該位置検出手段は、並走車までの最短距離と、自車の基準点P1から前記算出手段によって算出された並走車の車両サイズに基づき算出された並走車の基準点P2までの方向を検出する、前記位置検出手段と、
搭乗者のアイポイントを検出する検出手段と、
前記表示手段を制御する表示制御手段とを有し、
前記表示制御手段は、前記検出手段により並走車が検出された場合、前記位置検出手段によって検出された並走車の距離と方向に合わせ、かつ車両サイズに応じた映像を生成させ、かつ前記位置検出手段により検出された並走車の位置とアイポイント検出手段により検出されたアイポイントの位置との関係に基づき前記生成された映像を、前記並走車と重複する前記窓上の位置に表示させる、表示システム。
A display system mounted on a vehicle including a moving body,
A detection means for detecting a parallel running vehicle;
A display means for displaying an image on a window of the vehicle;
A calculation means for calculating a vehicle size of a parallel running vehicle;
a position detection means for detecting a relative position of a parallel running vehicle with respect to the vehicle, the position detection means detecting a shortest distance to the parallel running vehicle and a direction from a reference point P1 of the vehicle to a reference point P2 of the parallel running vehicle calculated based on the vehicle size of the parallel running vehicle calculated by the calculation means;
A detection means for detecting an eye point of a passenger;
A display control means for controlling the display means,
When a parallel running vehicle is detected by the detection means, the display control means generates an image according to the distance and direction of the parallel running vehicle detected by the position detection means and according to the vehicle size, and displays the generated image based on the relationship between the position of the parallel running vehicle detected by the position detection means and the eye point position detected by the eye point detection means, at a position on the window overlapping with the parallel running vehicle.
前記算出手段は、車両の輪郭の水平方向の最大値と垂直方向の最大値を算出し、前記位置検出手段は、最大値の水平方向と最大値の垂直方向の交点を基準点P2として検出する、請求項1に記載の表示システム。2. The display system according to claim 1, wherein the calculation means calculates a maximum value in a horizontal direction and a maximum value in a vertical direction of the vehicle contour, and the position detection means detects an intersection point of the maximum value in the horizontal direction and the maximum value in the vertical direction as the reference point P2. 前記算出手段は、車両の輪郭に近似する矩形サイズを算出し、前記位置検出手段は、矩形サイズの対角線の交点を基準点P2として検出する、請求項1に記載の表示システム。2. The display system according to claim 1, wherein the calculation means calculates a rectangular size that approximates an outline of the vehicle, and the position detection means detects an intersection of diagonals of the rectangular size as the reference point P2. 前記表示制御手段は、搭乗者を識別する識別手段と、複数の搭乗者の嗜好に応じた映像を格納する格納手段とを含み、
前記表示制御手段は、識別した搭乗者の嗜好に応じた映像を前記格納手段から取得し、取得した映像を表示させる、請求項1ないし3いずれか1つに記載の表示システム。
The display control means includes an identification means for identifying a passenger and a storage means for storing images according to the preferences of a plurality of passengers,
4. The display system according to claim 1, wherein the display control means acquires an image corresponding to the identified passenger's preference from the storage means and displays the acquired image.
前記表示手段は、車両の窓から見える外部の景色に前記映像をAR表示する、請求項1に記載の表示システム。 The display system according to claim 1, wherein the display means displays the image in an AR manner on the external scenery visible through the vehicle window. 表示システムはさらに、車両の周辺を撮像する撮像手段を含み、
前記表示手段は、前記撮像手段によって撮像された車両の周辺画像を前記窓に表示し、
前記表示制御手段は、前記窓に表示された周辺画像に前記映像を合成する、請求項1ないし5いずれか1つに記載の表示システム。
The display system further includes an imaging means for imaging an area around the vehicle;
The display means displays an image of the surroundings of the vehicle captured by the imaging means on the window,
6. The display system according to claim 1, wherein the display control means combines the image with a surrounding image displayed on the window.
JP2021115638A 2021-07-13 2021-07-13 Display System Active JP7596039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021115638A JP7596039B2 (en) 2021-07-13 2021-07-13 Display System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021115638A JP7596039B2 (en) 2021-07-13 2021-07-13 Display System

Publications (2)

Publication Number Publication Date
JP2023012155A JP2023012155A (en) 2023-01-25
JP7596039B2 true JP7596039B2 (en) 2024-12-09

Family

ID=85381607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115638A Active JP7596039B2 (en) 2021-07-13 2021-07-13 Display System

Country Status (1)

Country Link
JP (1) JP7596039B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539346A (en) 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Interactive vehicle window display system with user identification and vehicle function control
JP2018169580A (en) 2017-03-30 2018-11-01 株式会社デンソーテン Display control device, display system, and display control method
US20190143905A1 (en) 2017-11-15 2019-05-16 Toyota Research Institute, Inc. Image capture with a vehicle object sensor device based on user input
JP2020042569A (en) 2018-09-11 2020-03-19 株式会社デンソー Vehicle decoration image synthesizing apparatus
JP2020515886A (en) 2017-03-17 2020-05-28 ソニー株式会社 Display control system and method for creating a virtual environment in a vehicle
JP2021066303A (en) 2019-10-23 2021-04-30 Agc株式会社 Light transmission control for vehicle windows

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539346A (en) 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Interactive vehicle window display system with user identification and vehicle function control
JP2020515886A (en) 2017-03-17 2020-05-28 ソニー株式会社 Display control system and method for creating a virtual environment in a vehicle
JP2018169580A (en) 2017-03-30 2018-11-01 株式会社デンソーテン Display control device, display system, and display control method
US20190143905A1 (en) 2017-11-15 2019-05-16 Toyota Research Institute, Inc. Image capture with a vehicle object sensor device based on user input
JP2019091446A (en) 2017-11-15 2019-06-13 トヨタ リサーチ インスティテュート,インコーポレイティド Image capture with vehicle object sensor device based on user input
JP2020042569A (en) 2018-09-11 2020-03-19 株式会社デンソー Vehicle decoration image synthesizing apparatus
JP2021066303A (en) 2019-10-23 2021-04-30 Agc株式会社 Light transmission control for vehicle windows

Also Published As

Publication number Publication date
JP2023012155A (en) 2023-01-25

Similar Documents

Publication Publication Date Title
JP7571829B2 (en) Information processing device, information processing method, program, and mobile object
EP3100913B1 (en) Vehicle display apparatus and vehicle including the same
JP7010221B2 (en) Image generator, image generation method, and program
US8754760B2 (en) Methods and apparatuses for informing an occupant of a vehicle of surroundings of the vehicle
JP6608146B2 (en) Virtually transparent instrument cluster with live video
EP2936065B1 (en) A system for a vehicle
JP3102250B2 (en) Ambient information display device for vehicles
US20070003162A1 (en) Image generation device, image generation method, and image generation program
WO2018167966A1 (en) Ar display device and ar display method
WO2010119496A1 (en) Image processing device, image processing program, and image processing method
KR20160144829A (en) Driver assistance apparatus and control method for the same
JP2004535971A (en) Head-up display system and method
JP7236442B2 (en) Control method for display device in automobile
US9836814B2 (en) Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio
WO2018100377A1 (en) Multi-dimensional display
JP7561910B2 (en) AR display device, AR display method, and program
JP7310560B2 (en) Display control device and display control program
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
WO2022085487A1 (en) Camera module, information processing system, information processing method, and information processing device
JP2014234139A (en) On-vehicle display device and program
KR101822896B1 (en) Driver assistance apparatus and control method for the same
JP7596039B2 (en) Display System
CN116500787B (en) Method and system for presenting augmented reality information in a vehicle
JP2024034755A (en) Display system and display method
CN116978300A (en) HUD display control method, vehicle-mounted display device and driving assistance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241126

R150 Certificate of patent or registration of utility model

Ref document number: 7596039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150