[go: up one dir, main page]

JP6392693B2 - Vehicle periphery monitoring device, vehicle periphery monitoring method, and program - Google Patents

Vehicle periphery monitoring device, vehicle periphery monitoring method, and program Download PDF

Info

Publication number
JP6392693B2
JP6392693B2 JP2015058475A JP2015058475A JP6392693B2 JP 6392693 B2 JP6392693 B2 JP 6392693B2 JP 2015058475 A JP2015058475 A JP 2015058475A JP 2015058475 A JP2015058475 A JP 2015058475A JP 6392693 B2 JP6392693 B2 JP 6392693B2
Authority
JP
Japan
Prior art keywords
vehicle
camera image
image
side camera
periphery monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015058475A
Other languages
Japanese (ja)
Other versions
JP2016175586A (en
Inventor
英樹 白井
英樹 白井
ウィドド アリ
ウィドド アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2015058475A priority Critical patent/JP6392693B2/en
Publication of JP2016175586A publication Critical patent/JP2016175586A/en
Application granted granted Critical
Publication of JP6392693B2 publication Critical patent/JP6392693B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載されたカメラにて車両周辺を監視する技術に関する。   The present invention relates to a technique for monitoring the periphery of a vehicle with a camera mounted on the vehicle.

従来から、サイドミラーの代わりにカメラで撮影した画像をドライバへ提示するシステム(特許文献1)や、車両の前後左右に広角のカメラを搭載し、それらの画像を合成し、ドライバへ提示するシステム(特許文献2)があった。また、側方カメラで撮影した画像と後方カメラで撮影した画像を合成し、車両後方の状況をドライバへ提示するシステムもあった(特許文献3)。   Conventionally, a system (Patent Document 1) that presents an image captured by a camera instead of a side mirror to a driver, or a system that is equipped with wide-angle cameras on the front, rear, left and right sides of a vehicle, synthesizes these images, and presents them to the driver (Patent Document 2). There is also a system that combines an image captured by a side camera and an image captured by a rear camera and presents the situation behind the vehicle to the driver (Patent Document 3).

特開平7−223487号公報JP-A-7-223487 特開2007−183877号公報JP 2007-183877 A 特開2013−141120号公報JP 2013-141120 A

特許文献1には、撮像手段で撮像した画像を表示すると共に、移動体の存在する領域を強調表示する発明が記載されている。この文献には、複数のテレビカメラを備えることが開示されているが、各テレビカメラで撮影した画像は、左右のフロントピラー及びインストルメントパネルのディスプレイに表示され、各画像は合成されない。   Patent Document 1 describes an invention in which an image captured by an imaging unit is displayed and a region where a moving body is present is highlighted. Although this document discloses that a plurality of television cameras are provided, images taken by the television cameras are displayed on the left and right front pillars and the display of the instrument panel, and the images are not synthesized.

特許文献2には、複数の車載カメラで撮影された映像を車両上方の仮想視点から見下ろした映像に視点変換して繋ぎ合わせる発明が記載されている。この文献に記載された発明では、車載カメラと地面の位置関係(車載カメラに対する地面の角度や距離)が既知なので、各車載カメラで撮影した画像を繋ぎ合わせることができるが、この発明では、走行時に後方を撮影した画像中に車両が存在する場合は、カメラと車両の位置関係が未知であるために、きれいに繋ぎ合わせることはできない。   Patent Document 2 describes an invention in which video images captured by a plurality of in-vehicle cameras are connected to a video image obtained by looking down from a virtual viewpoint above the vehicle. In the invention described in this document, since the positional relationship between the in-vehicle camera and the ground (the angle and the distance of the ground with respect to the in-vehicle camera) is known, it is possible to connect images taken by the in-vehicle cameras. Sometimes, when a vehicle is present in an image taken from behind, the positional relationship between the camera and the vehicle is unknown, so it cannot be connected cleanly.

文献3に記載された発明は、左右の側方カメラで撮影した画像と後方カメラで撮影した画像を合成する発明である。この発明では、ある距離(目安線)より遠方の自車線および左右1車線(計3車線)分の画像を後方カメラ画像より切り出して合成することにより、目安線より遠方でかつ自車線および左右1車線(計3車線)上に存在する車両を確実に表示させることができる。しかし、この文献3に記載された発明では、目安線(例えば15mとある)より、車両が近づいていきた場合には、車両がリア画像とサイドミラー画像の境界部をまたぐために、画像が不連続になり見づらくなる。   The invention described in Document 3 is an invention in which an image photographed by the left and right side cameras and an image photographed by the rear camera are synthesized. In the present invention, the image of the own lane farther than a certain distance (reference line) and the left and right lanes (total 3 lanes) are cut out from the rear camera image and synthesized, so Vehicles existing on the lane (a total of three lanes) can be displayed reliably. However, in the invention described in this document 3, when the vehicle approaches the reference line (for example, 15 m), the vehicle straddles the boundary between the rear image and the side mirror image, so the image is discontinuous. It becomes difficult to see.

本発明は、上記背景に鑑み、複数のカメラにて撮影した後方の画像を合成して表示するシステムにおいて、違和感の少ない合成画像をドライバへ提示できるシステムを提供することを目的とする。   In view of the above background, an object of the present invention is to provide a system capable of presenting a composite image with little discomfort to a driver in a system that combines and displays rear images taken by a plurality of cameras.

本発明の車両周辺監視装置は、車両の側部に設けられ、後方を撮影するサイドカメラと、車両の後部に設けられ、広角で後方を撮影するリアカメラと、前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離を測定する測距部と、前記後方車両までの距離の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように視点変換を行う視点変換部と、前記視点変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成する画像合成部と、合成された画像を表示する表示部とを備える。   A vehicle periphery monitoring device of the present invention is provided on a side portion of a vehicle, and a side camera that captures the rear, a rear camera that is disposed on the rear of the vehicle and captures the rear at a wide angle, and a side camera that is captured by the side camera. A distance measuring unit that measures a distance to a rear vehicle based on an image and a rear camera image captured by the rear camera, and information on the distance to the rear vehicle, the side camera image and the rear camera image A viewpoint converting unit that performs viewpoint conversion so that the viewpoints match, an image combining unit that combines the side camera image and the rear camera image whose viewpoints match by the viewpoint conversion, and a display unit that displays the combined image With.

このように後方車両までの距離の情報を用いて、サイドカメラ画像とリアカメラ画像の視点が一致するように視点変換を行うので、後方車両の画像を違和感なく合成することができる。   As described above, since the viewpoint conversion is performed using the information on the distance to the rear vehicle so that the viewpoints of the side camera image and the rear camera image coincide with each other, the image of the rear vehicle can be synthesized without a sense of incongruity.

本発明の車両周辺監視装置において、前記視点変換部は、前記リアカメラ画像を前記サイドカメラの視点から見た画像に変換し、前記画像合成部は、車体によって前記後方車両が隠れている前記サイドカメラ画像の領域に、前記視点変換された前記リアカメラ画像を合成し、前記表示部は、前記合成された画像に前記サイドカメラ画像に映る車体の画像を重畳して表示してもよい。   In the vehicle periphery monitoring device of the present invention, the viewpoint conversion unit converts the rear camera image into an image viewed from the viewpoint of the side camera, and the image composition unit includes the side where the rear vehicle is hidden by a vehicle body. The rear camera image that has undergone the viewpoint conversion may be combined with a region of the camera image, and the display unit may display an image of the vehicle body that is reflected in the side camera image superimposed on the combined image.

この構成により、サイドカメラ画像において後方車両が自車の車体で隠れている場合に、画像合成を行うことにより、あたかもサイドミラーから見た後方車両の画像を生成することができる。また、後方車両の画像を表示する際に、自車の車体を重畳して表示することにより、自車両と後方車両との位置関係をドライバに把握させることができる。なお、後方車両と自車の車体との重畳表示の仕方としては、例えば、自車両を半透明で表示することにより、自車両を透過して後方車両が見えるようにしてもよい。   With this configuration, when the rear vehicle is hidden by the body of the host vehicle in the side camera image, it is possible to generate an image of the rear vehicle as seen from the side mirror by performing image composition. Further, when displaying the image of the rear vehicle, the driver can grasp the positional relationship between the host vehicle and the rear vehicle by displaying the vehicle body of the host vehicle in a superimposed manner. In addition, as a method of superimposing and displaying the rear vehicle and the vehicle body of the host vehicle, for example, the host vehicle may be displayed in a semi-transparent manner so that the rear vehicle can be seen through the host vehicle.

本発明の車両周辺監視装置において、前記視点変換部は、前記リアカメラ画像及び前記サイドカメラ画像を車両の進行方向に沿った車両の中心軸上の所定位置の視点から見た画像に変換してもよい。   In the vehicle periphery monitoring device of the present invention, the viewpoint conversion unit converts the rear camera image and the side camera image into an image viewed from a viewpoint at a predetermined position on the central axis of the vehicle along the traveling direction of the vehicle. Also good.

この構成により、リアカメラ画像とサイドカメラ画像からパノラマ画像を生成することができる。   With this configuration, a panoramic image can be generated from the rear camera image and the side camera image.

本発明の車両周辺監視装置において、前記測距部は、前記後方車両の正面及び側面までの距離を求め、前記視点変換部は、前記後方車両の前面及び側面を路面に垂直な平面であるとして視点変換を行ってもよい。   In the vehicle periphery monitoring device of the present invention, the distance measuring unit obtains distances to the front and side surfaces of the rear vehicle, and the viewpoint conversion unit is a plane in which the front and side surfaces of the rear vehicle are perpendicular to the road surface. You may perform viewpoint conversion.

このように後方車両の前面と側面を異なる平面として扱い、それぞれの平面までの距離を用いて視点変換をすることにより、精度の良い視点変換を行うことができる。   Thus, by treating the front and side surfaces of the rear vehicle as different planes and performing viewpoint conversion using the distances to the respective planes, accurate viewpoint conversion can be performed.

本発明の車両周辺監視装置は、車両の外部形状情報を記憶した車両形状記憶部を備え、前記リアカメラ画像または前記サイドカメラ画像に映る後方車両に対応する車両の外部形状情報を前記車両形状記憶部から検索する車両形状特定部と、前記視点変換部は、前記車両の外部形状情報を用いて視点変換を行ってもよい。   A vehicle periphery monitoring device of the present invention includes a vehicle shape storage unit that stores external shape information of a vehicle, and stores the external shape information of a vehicle corresponding to a rear vehicle reflected in the rear camera image or the side camera image. The vehicle shape specifying unit searched from the unit and the viewpoint conversion unit may perform viewpoint conversion using external shape information of the vehicle.

この構成により、車両の外部の形状に基づいて、より精度の良い視点変換を行うことができる。なお、車両形状記憶部に、全車種の外部形状情報を記憶しておくのではなく、代表的な車両の外部形状の情報を記憶しておいてもよい。   With this configuration, more accurate viewpoint conversion can be performed based on the external shape of the vehicle. In addition, the external shape information of all vehicle types may be stored in the vehicle shape storage unit, but information on the external shape of a typical vehicle may be stored.

本発明の車両周辺監視装置において、前記測距部は、後方車両の車体上の複数の箇所までの距離を求め(このとき距離が求まってない部分については、求まった点を用いて補間するなどする)、前記視点変換部は、前記複数の箇所までの距離の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように前記視点変換を行ってもよい。   In the vehicle periphery monitoring device of the present invention, the distance measuring unit obtains distances to a plurality of locations on the vehicle body of the rear vehicle (for the part where distances are not obtained at this time, interpolation is performed using the obtained points, etc.) The viewpoint conversion unit may perform the viewpoint conversion so that viewpoints of the side camera image and the rear camera image coincide with each other using information on distances to the plurality of locations.

この構成により、車体上の複数箇所までの距離を用いることにより、視点変換の精度を高めることができる。距離を求める箇所を増やせば増やすほど、車両の外部形状を正確に把握でき、視点変換の精度を向上できる。   With this configuration, it is possible to improve the accuracy of viewpoint conversion by using distances to a plurality of locations on the vehicle body. As the number of points for which the distance is obtained is increased, the external shape of the vehicle can be accurately grasped, and the accuracy of viewpoint conversion can be improved.

本発明に車両周辺監視装置において、前記測距部は、前記リアカメラ画像の一部を切り出して歪みを補正する歪み補正部と、前記サイドカメラ画像または前記リアカメラ画像のいずれか一方から前記後方車両の特徴点を検出し、当該特徴点に対応する点を、前記サイドカメラ画像または前記リアカメラ画像の他方のエピポーラ線上から探索する特徴点探索部と、前記サイドカメラ画像中の特徴点と、それに対応する前記リアカメラ画像中の特徴点との位置関係に基づいて、前記後方車両までの距離を求めるステレオ測距部と、を備えてもよい。   In the vehicle periphery monitoring device according to the present invention, the distance measuring unit includes a distortion correction unit that cuts out a part of the rear camera image to correct distortion, and the rear from either the side camera image or the rear camera image. A feature point search unit that detects a feature point of the vehicle and searches for a point corresponding to the feature point on the other epipolar line of the side camera image or the rear camera image; and a feature point in the side camera image; And a stereo distance measuring unit that obtains a distance to the rear vehicle based on a positional relationship with a corresponding feature point in the rear camera image corresponding thereto.

この構成により、本来は異なる目的で搭載されたサイドカメラとリアカメラで撮影した画像を生かし、視野の重なっている領域でステレオ視による測距を行うことができる。   With this configuration, it is possible to perform distance measurement by stereo viewing in an area where the fields of view overlap, making use of images captured by side cameras and rear cameras originally mounted for different purposes.

本発明の車両周辺監視方法は、車両後方の画像を表示する方法であって、車両周辺監視装置が、車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、前記車両周辺監視装置が、車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、前記車両周辺監視装置が、前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離を測定するステップと、前記車両周辺監視装置が、前記後方車両までの距離の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように視点変換を行うステップと、前記車両周辺監視装置が、前記視点変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、前記車両周辺監視装置が、合成された画像を表示するステップとを備える。   The vehicle periphery monitoring method of the present invention is a method of displaying an image behind the vehicle, wherein the vehicle periphery monitoring device is provided on a side portion of the vehicle and acquires a side camera image from a side camera that captures the rear. The vehicle periphery monitoring device is provided at the rear of the vehicle, and acquires a rear camera image from a rear camera that captures the rear at a wide angle; and the vehicle periphery monitoring device captures a side camera image captured by the side camera; A step of measuring a distance to a rear vehicle based on a rear camera image photographed by the rear camera, and the vehicle periphery monitoring device using the information on the distance to the rear vehicle, the side camera image and the rear Performing viewpoint conversion so that the viewpoints of the camera images match; and Comprising a step of combining the camera image and the rear camera image, the vehicle periphery monitoring device, and displaying the synthesized image.

本発明のプログラムは、車両後方の画像を表示するためのプログラムであって、コンピュータに、車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離を測定するステップと、前記後方車両までの距離の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように視点変換を行うステップと、前記視点変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、合成された画像を表示するステップとを実行させる。   The program of the present invention is a program for displaying an image of the rear of the vehicle, the computer being provided on the side of the vehicle, obtaining a side camera image from a side camera that captures the rear, and the rear of the vehicle A rear camera image obtained from a rear camera that captures the rear at a wide angle, and a distance to the rear vehicle based on the side camera image captured by the side camera and the rear camera image captured by the rear camera. Using the information on the distance to the vehicle behind the vehicle, performing a viewpoint conversion such that the viewpoints of the side camera image and the rear camera image match, and the viewpoints matched by the viewpoint conversion A step of combining the side camera image and the rear camera image and a step of displaying the combined image are performed. Make.

本発明によれば、後方車両までの距離の情報を用いて、サイドカメラ画像とリアカメラ画像の視点が一致するように視点変換を行うので、後方車両の画像を違和感なく合成することができるという効果を有する。   According to the present invention, since the viewpoint conversion is performed so that the viewpoints of the side camera image and the rear camera image coincide with each other using the information on the distance to the rear vehicle, the image of the rear vehicle can be synthesized without a sense of incongruity. Has an effect.

第1の実施の形態の車両周辺監視装置の構成を示す図である。It is a figure which shows the structure of the vehicle periphery monitoring apparatus of 1st Embodiment. サイドカメラ及びリアカメラの取り付け位置を示す図である。It is a figure which shows the attachment position of a side camera and a rear camera. 視点変換の際に想定する平面を示す図である。It is a figure which shows the plane assumed in the case of viewpoint conversion. サイドカメラ画像とリアカメラ画像の合成の仕方を示す図である。It is a figure which shows the method of a synthesis | combination of a side camera image and a rear camera image. 合成画像に自車両の車体の画像を重畳した画像の例を示す図である。It is a figure which shows the example of the image which superimposed the image of the vehicle body of the own vehicle on the synthesized image. 車両周辺監視装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a vehicle periphery monitoring apparatus. 第1の実施の形態の車両周辺監視装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle periphery monitoring apparatus of 1st Embodiment. 第2の実施の形態の背景を説明する図である。It is a figure explaining the background of 2nd Embodiment. 第2の実施の形態の車両周辺監視装置の構成を示す図である。It is a figure which shows the structure of the vehicle periphery monitoring apparatus of 2nd Embodiment. 車両形状DBに記憶されたデータの例を示す図である。It is a figure which shows the example of the data memorize | stored in vehicle shape DB. 第3の実施の形態の車両周辺監視装置における視点変換について説明するための図である。It is a figure for demonstrating viewpoint conversion in the vehicle periphery monitoring apparatus of 3rd Embodiment. 第3の実施の形態の車両周辺監視装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle periphery monitoring apparatus of 3rd Embodiment. 測距部の構成を示す図である。It is a figure which shows the structure of a ranging part. (a)はリアカメラ画像の例を示す図である。(b)はリアカメラ画像の左半分を切り出して歪み補正した画像を示す図である。(c)は後方車両が正面向きになるように射影変換した画像を示す図である。(A) is a figure showing an example of a rear camera image. (B) is a figure which shows the image which cut out the left half of the rear camera image, and carried out distortion correction. (C) is a figure which shows the image which carried out projective transformation so that a back vehicle may become front direction. 後方車両が後方5mに接近した例を示す図である。It is a figure which shows the example which the back vehicle approached back 5m. (a)はサイドカメラ画像の例を示す図、(b)は歪み補正を行ったリアカメラ画像を示す図である。(A) is a figure which shows the example of a side camera image, (b) is a figure which shows the rear camera image which performed distortion correction. 測距部の動作を示す図である。It is a figure which shows operation | movement of a ranging part. 測距部の他の例を示す図である。It is a figure which shows the other example of a ranging part. 測距部の他の例の動作を示す図である。It is a figure which shows operation | movement of the other example of a ranging part.

以下、本発明の実施の形態の車両周辺監視装置について図面を参照しながら説明する。
(第1の実施の形態)
図1は、第1の実施の形態の車両周辺監視装置1の構成を示す図である。車両周辺監視装置1は、車両に取り付けられたサイドカメラ10及びリアカメラ11と、サイドカメラ10で撮影した画像(これを「サイドカメラ画像」という)及びリアカメラ11で撮影した画像(これを「リアカメラ画像」という)に基づいて、後方車両までの距離を求める測距部12と、サイドカメラ画像及びリアカメラ画像の視点を一致させるように画像変換を行う視点変換部13と、視点変換されたサイドカメラ画像及びリアカメラ画像を合成する画像合成部14と、合成画像を表示するモニタ15とを有している。
Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating a configuration of a vehicle periphery monitoring device 1 according to the first embodiment. The vehicle periphery monitoring device 1 includes a side camera 10 and a rear camera 11 attached to a vehicle, an image photographed by the side camera 10 (referred to as a “side camera image”), and an image photographed by the rear camera 11 (referred to as “ The distance measuring unit 12 for obtaining the distance to the rear vehicle, the viewpoint converting unit 13 for performing image conversion so as to match the viewpoints of the side camera image and the rear camera image, and the viewpoint converted. The image combining unit 14 combines the side camera image and the rear camera image, and the monitor 15 displays the combined image.

図2は、サイドカメラ10及びリアカメラ11の車両への取り付け位置を示す図である。車両側部のサイドミラーのある位置にサイドカメラ10が取り付けられている。サイドカメラ10は、斜め後方に向けて取り付けられ、車両の側方から後方を撮影する。サイドカメラ10にて撮影した画像を車内のモニタ15に表示することにより、あたかもサイドミラーに映る景色をドライバに見せることができる。サイドカメラ10の画角は一般に90度以下である。リアカメラ11は、車両の後部に取り付けられている。リアカメラ11の画角は一般にサイドカメラより広角で最大で約180度である。なお、サイドカメラ10及びリアカメラ11の設置位置及び姿勢についてはキャリブレーションが行われ、リアカメラ10とサイドカメラ11の相対的な位置及び姿勢は既知である。   FIG. 2 is a diagram illustrating attachment positions of the side camera 10 and the rear camera 11 to the vehicle. A side camera 10 is attached to a position on the side of the vehicle where the side mirror is located. The side camera 10 is attached obliquely rearward and photographs the rear from the side of the vehicle. By displaying an image photographed by the side camera 10 on the monitor 15 in the vehicle, it is possible to show the driver the scenery reflected in the side mirror. The angle of view of the side camera 10 is generally 90 degrees or less. The rear camera 11 is attached to the rear part of the vehicle. The angle of view of the rear camera 11 is generally wider than the side camera and about 180 degrees at the maximum. Note that the installation positions and postures of the side camera 10 and the rear camera 11 are calibrated, and the relative positions and postures of the rear camera 10 and the side camera 11 are known.

図1に戻って、車両周辺監視装置1の構成について説明する。測距部12は、サイドカメラ画像及びリアカメラ画像を用いて一番近い後方車両の例えばナンバープレートまでの距離をステレオ測距する。車両側面が見えている場合は、側面までの距離も測定できればする。測距部12の構成については、後に詳述する。   Returning to FIG. 1, the configuration of the vehicle periphery monitoring device 1 will be described. The distance measurement unit 12 performs stereo distance measurement on the distance from the nearest rear vehicle to, for example, the license plate, using the side camera image and the rear camera image. If the side of the vehicle is visible, the distance to the side can be measured. The configuration of the distance measuring unit 12 will be described in detail later.

視点変換部13は、サイドカメラ画像及びリアカメラ画像を視点が同じ位置になるように変換する。本実施の形態では、リアカメラ画像をサイドカメラの視点から見た画像に変換する。後方車両が自車両の右側にある場合には、リアカメラ画像を右側のサイドカメラの視点E1からの画像に変換し、後方車両の自車両の左側にある場合には、リアカメラ画像を左側のサイドカメラの視点E1からの画像に変換する。   The viewpoint conversion unit 13 converts the side camera image and the rear camera image so that the viewpoints are at the same position. In the present embodiment, the rear camera image is converted into an image viewed from the viewpoint of the side camera. When the rear vehicle is on the right side of the host vehicle, the rear camera image is converted into an image from the viewpoint E1 of the right side camera. When the rear vehicle is on the left side of the host vehicle, the rear camera image is The image is converted into an image from the viewpoint E1 of the side camera.

視点変換部13は、リアカメラ画像の視点変換を行う際に、後方車両の正面及び側面が測距部12で得られた正面および側面までの距離の位置に路面から垂直に立つ平面であると仮定して、視点変換を行う。ここでは、後方車両と自車両は同じ方向を向いていると仮定する。つまり自車両の正面および後方車両の正面は平行(側面も同様)としている。図3は、視点変換の際に想定する平面を示す図である。後方車両の前面が平面A、側面が平面Bであると仮定する。車両上の1点(例えば、ナンバープレート)までの距離や側面までの距離が分かれば、平面A及び平面Bを仮定することができる。もし正面までの距離しかわからない場合は、適当な車幅(例えば1.8m)を仮定して、側面の平面の位置を決定する。   When the viewpoint conversion unit 13 performs the viewpoint conversion of the rear camera image, the front and side surfaces of the rear vehicle are planes that stand vertically from the road surface at the position of the distance to the front and side surfaces obtained by the distance measurement unit 12. Assuming that the viewpoint is changed. Here, it is assumed that the rear vehicle and the host vehicle are facing the same direction. That is, the front face of the host vehicle and the front face of the rear vehicle are parallel (the same applies to the side faces). FIG. 3 is a diagram illustrating a plane assumed in the viewpoint conversion. Assume that the front surface of the rear vehicle is plane A and the side surface is plane B. If the distance to one point (for example, the license plate) on the vehicle and the distance to the side surface are known, the plane A and the plane B can be assumed. If only the distance to the front is known, an appropriate vehicle width (for example, 1.8 m) is assumed and the position of the side plane is determined.

視点変換部13は、リアカメラ画像をサイドカメラ10の視点E1から見た画像に変換する。視点変換部13は、サイドカメラ10と平面Aとの位置関係(距離および角度)平面Bとの位置関係(距離および角度)、リアカメラ11と平面Aとの位置関係(距離および角度)、平面Bとの位置関係(距離および角度)の情報を用いて視点変換を行うことにより、変換後のリアカメラ画像における後方車両とサイドカメラ画像における後方車両との一致度をなるべく高くする。   The viewpoint conversion unit 13 converts the rear camera image into an image viewed from the viewpoint E1 of the side camera 10. The viewpoint conversion unit 13 includes a positional relationship (distance and angle) between the side camera 10 and the plane A, a positional relationship (distance and angle) with the plane B, a positional relationship (distance and angle) between the rear camera 11 and the plane A, and a plane. By performing viewpoint conversion using information on the positional relationship (distance and angle) with B, the degree of coincidence between the rear vehicle in the rear camera image after conversion and the rear vehicle in the side camera image is made as high as possible.

画像合成部14は、サイドカメラ画像と、サイドカメラ10の視点E1に変換されたリアカメラ画像を合成する。図4は、サイドカメラ画像とリアカメラ画像の合成の仕方を説明するための図である。範囲Aについては、サイドカメラ画像を用いる。範囲Bは、サイドカメラ画像の視野の範囲外か、あるいは視野の範囲内であっても自車両が邪魔になって後方が適切に映らない範囲である。画像合成部14は、範囲Bについては、視点変換を行ったリアカメラ画像を合成する。リアカメラ画像の視点変換を後方車両の前面及び側面までの距離に基づいて行っているので、サイドカメラ画像内の後方車両とリアカメラ画像内の後方車両の一致度が高く、サイドカメラ画像内の後方車両とリアカメラ画像内の後方車両とがきれいにつながった合成画像が得られる。   The image synthesis unit 14 synthesizes the side camera image and the rear camera image converted into the viewpoint E1 of the side camera 10. FIG. 4 is a diagram for explaining how to synthesize a side camera image and a rear camera image. For range A, a side camera image is used. The range B is a range that is outside the range of the field of view of the side camera image or is not properly reflected behind the host vehicle even if it is within the range of the field of view. For the range B, the image composition unit 14 synthesizes the rear camera image that has undergone viewpoint conversion. Since the viewpoint conversion of the rear camera image is performed based on the distance to the front and side surfaces of the rear vehicle, the degree of coincidence between the rear vehicle in the side camera image and the rear vehicle in the rear camera image is high, A composite image in which the rear vehicle and the rear vehicle in the rear camera image are clearly connected is obtained.

画像合成部14は、サイドカメラ画像とリアカメラ画像とを合成した合成画像に、サイドカメラ画像に映り込んでいる自車両の車体の画像を重畳する。図5は、合成画像に自車両の車体の画像を重畳した画像の例を示す図である。従来のサイドミラーには自車両の車体が映り込むことがあったので、それと同様に自車両の車体を表示することにより、ドライバは、従来のサイドミラーと同じ感覚で、後方車両との距離感をつかむことができる。さらに、自車両に隠れて見えなかった部分まで見ることができるので、サイドカメラ画像により、従来のサイドミラーよりも多くの情報を得ることができる。   The image composition unit 14 superimposes the image of the vehicle body of the host vehicle reflected in the side camera image on the composite image obtained by combining the side camera image and the rear camera image. FIG. 5 is a diagram illustrating an example of an image in which an image of the vehicle body of the host vehicle is superimposed on the composite image. The car body of the host vehicle may be reflected in the conventional side mirror. By displaying the car body of the host vehicle in the same way, the driver can feel the distance to the rear vehicle in the same way as the conventional side mirror. Can be grabbed. Furthermore, since it is possible to see even a portion hidden behind the host vehicle, more information can be obtained from the side camera image than a conventional side mirror.

図6は、車両周辺監視装置1のハードウェア構成を示す図である。車両周辺監視装置1は、CPU20と、RAM21と、ROM22と、モニタ15と、ハードディスク24と、サイドカメラ10と、リアカメラ11とを備えている。ROM22には、車両周辺監視のためのプログラム23が記憶されている。CPU20がこのプログラム23を読み出して実行することにより、上述した車両周辺監視装置1を実現することができる。このようなプログラム23も本発明の範囲に含まれる。   FIG. 6 is a diagram illustrating a hardware configuration of the vehicle periphery monitoring device 1. The vehicle periphery monitoring device 1 includes a CPU 20, a RAM 21, a ROM 22, a monitor 15, a hard disk 24, a side camera 10, and a rear camera 11. The ROM 22 stores a program 23 for vehicle periphery monitoring. When the CPU 20 reads and executes the program 23, the vehicle periphery monitoring device 1 described above can be realized. Such a program 23 is also included in the scope of the present invention.

図7は、第1の実施の形態の車両周辺監視装置1の動作を示すフローチャートである。車両周辺監視装置1は、まず、サイドカメラ10にて自車両の後方を撮影してサイドカメラ画像を取得すると共に、リアカメラ11にて自車両の後方を撮影してリアカメラ画像を取得する(S10)。続いて、車両周辺監視装置1は、サイドカメラ画像及びリアカメラ画像に映る後方車両までの距離を測定する(S11)。後方車両までの距離を測定する方法については、後述する。   FIG. 7 is a flowchart showing the operation of the vehicle periphery monitoring device 1 according to the first embodiment. First, the vehicle periphery monitoring device 1 captures the rear camera image by photographing the rear of the host vehicle with the rear camera 11 while capturing the rear camera image by photographing the rear of the host vehicle with the side camera 10 ( S10). Subsequently, the vehicle periphery monitoring device 1 measures the distance to the rear vehicle shown in the side camera image and the rear camera image (S11). A method for measuring the distance to the vehicle behind will be described later.

次に、車両周辺監視装置1は、リアカメラ画像をサイドカメラ10の視点E1から見た画像に変換する(S12)。ここで、左右いずれのサイドカメラ10の視点E1に変換するかについては、後方車両が大きく映っている方のサイドカメラ10の視点E1に変換する。続いて、車両周辺監視装置1は、サイドカメラ画像と視点変換を行ったリアカメラ画像を合成する(S13)。この際、車両周辺監視装置1は、サイドカメラ画像の視野ではカバーできない部分にリアカメラ画像を合成する。   Next, the vehicle periphery monitoring apparatus 1 converts the rear camera image into an image viewed from the viewpoint E1 of the side camera 10 (S12). Here, the viewpoint E1 of the left side camera 10 is converted to the viewpoint E1 of the side camera 10 on which the rear vehicle is greatly reflected. Subsequently, the vehicle periphery monitoring device 1 synthesizes the side camera image and the rear camera image subjected to viewpoint conversion (S13). At this time, the vehicle periphery monitoring device 1 combines the rear camera image with a portion that cannot be covered by the field of view of the side camera image.

次に、車両周辺監視装置1は、合成された画像に対して、サイドカメラ画像に映っている自車両の車体の画像を重畳する(S14)。例えば、自車両の車体を半透明にし、後方車両を含む後方の景色が見えるように重畳する。そして、車両周辺監視装置1は、重畳された画像をモニタ15に表示する(S15)。   Next, the vehicle periphery monitoring apparatus 1 superimposes an image of the vehicle body of the host vehicle that is reflected in the side camera image on the synthesized image (S14). For example, the vehicle body of the host vehicle is made translucent and superimposed so that the scenery behind the vehicle including the vehicle behind can be seen. And the vehicle periphery monitoring apparatus 1 displays the superimposed image on the monitor 15 (S15).

以上、第1の実施の形態の車両周辺監視装置1の構成及び動作について説明した。第1の実施の形態の車両周辺監視装置1は、後方車両までの距離の情報を用いて、リアカメラ画像をサイドカメラ10の視点E1から見た画像に変換するので、サイドカメラ画像に映る後方車両の画像と変換後のリアカメラ画像内の後方車両の画像の一致度が高くなり、両画像を合成したときに、後方車両の画像を違和感なく合成することができる。   The configuration and operation of the vehicle periphery monitoring device 1 according to the first embodiment have been described above. The vehicle periphery monitoring device 1 according to the first embodiment uses the information on the distance to the rear vehicle to convert the rear camera image into an image viewed from the viewpoint E1 of the side camera 10, so that the rear shown in the side camera image The degree of coincidence between the image of the vehicle and the image of the rear vehicle in the rear camera image after conversion is increased, and when the two images are combined, the image of the rear vehicle can be combined without a sense of incongruity.

また、第1の実施の形態の車両周辺監視装置1は、後方車両の前面を平面A、側面を平面Bと仮定して、平面A及び平面Bとの位置関係(距離および角度)の情報を用いることにより、簡単な構成で、後方車両の前面及び側面のいずれも違和感なく合成できる。   Further, the vehicle periphery monitoring device 1 according to the first embodiment assumes that the front surface of the rear vehicle is the plane A and the side surface is the plane B, and information on the positional relationship (distance and angle) with the plane A and the plane B. By using it, it is possible to synthesize both the front and side surfaces of the rear vehicle without a sense of incongruity with a simple configuration.

(第2の実施の形態)
次に、本発明の第2の実施の形態の車両周辺監視装置2について説明する。第2の実施の形態の車両周辺監視装置2の基本的な構成は第1の実施の形態と同じであるが、第1の実施の形態の車両周辺監視装置1では、後方車両の前面及び側面を平面と仮定して視点変換を行ったのに対し、第2の実施の形態の車両周辺監視装置2は、後方車両の外部形状の情報を用いて視点変換を行う点が異なる。
(Second Embodiment)
Next, the vehicle periphery monitoring apparatus 2 of the 2nd Embodiment of this invention is demonstrated. The basic configuration of the vehicle periphery monitoring device 2 of the second embodiment is the same as that of the first embodiment, but in the vehicle periphery monitoring device 1 of the first embodiment, the front and side surfaces of the rear vehicle. The vehicle periphery monitoring device 2 according to the second embodiment is different in that viewpoint conversion is performed using information on the external shape of the rear vehicle.

図8は、第2の実施の形態の背景を説明する図である。車両の前面や側面は実際には平面ではなく、例えば、図8に示すようにリアカメラ11から後方車両のフロントガラスまでの距離L5とバンパーまでの距離L6とは異なる。もちろん、サイドカメラ10についても同じことが言える。後方車両の前面及び側面を完全な平面と仮定すると、視点変換に若干影響を与える可能性があるので、第2の実施の形態では、車両のタイプごとに車両の外部形状を把握し、外部形状の情報から得られる距離の情報を用いて、視点変換を行う。   FIG. 8 is a diagram for explaining the background of the second embodiment. The front and side surfaces of the vehicle are not actually flat surfaces. For example, as shown in FIG. 8, the distance L5 from the rear camera 11 to the windshield of the rear vehicle and the distance L6 to the bumper are different. Of course, the same can be said for the side camera 10. Assuming that the front and side surfaces of the rear vehicle are completely flat, there is a possibility that the viewpoint conversion may be slightly affected. In the second embodiment, the external shape of the vehicle is grasped for each type of vehicle, and the external shape is determined. The viewpoint is converted using distance information obtained from the above information.

図9は、第2の実施の形態の車両周辺監視装置2の構成を示す図である。車両周辺監視装置2は、第1の実施の形態の車両周辺監視装置1の構成に加えて、車両形状データベース(以下、「車両形状DB」という)16を備えている。また、視点変換部13は、後方車両の車両形状を特定する車両形状特定部17を備えている。   FIG. 9 is a diagram illustrating a configuration of the vehicle periphery monitoring device 2 according to the second embodiment. The vehicle periphery monitoring device 2 includes a vehicle shape database (hereinafter referred to as “vehicle shape DB”) 16 in addition to the configuration of the vehicle periphery monitoring device 1 of the first embodiment. Moreover, the viewpoint conversion unit 13 includes a vehicle shape specifying unit 17 that specifies the vehicle shape of the rear vehicle.

図10は、車両形状DB16に記憶されたデータの例を示す図である。車両形状DB16には、車両のタイプと外部形状情報が記憶されている。視点変換部13の車両形状特定部17は、車両形状DB16から後方車両の画像に最も類似する車両タイプを検索することにより車両形状を特定する。なお、車両形状特定部17は、車車間通信により後方車両から車両のタイプの情報を受信し、当該車両タイプに対応する車両形状を特定してもよい。   FIG. 10 is a diagram illustrating an example of data stored in the vehicle shape DB 16. The vehicle shape DB 16 stores vehicle type and external shape information. The vehicle shape specifying unit 17 of the viewpoint conversion unit 13 specifies the vehicle shape by searching the vehicle shape DB 16 for the vehicle type most similar to the image of the rear vehicle. In addition, the vehicle shape specific | specification part 17 may receive the vehicle type information from a back vehicle by vehicle-to-vehicle communication, and may specify the vehicle shape corresponding to the said vehicle type.

視点変換部13は、後方車両の外部形状情報に基づいて、サイドカメラ10及びリアカメラ11から後方車両の各位置(例えば、バンパー、ボンネット、フロントガラス等)までの距離を求め、各位置までの距離の情報に基づいて視点変換を行う。サイドカメラ画像と視点変換をした後のリアカメラ画像とを合成し、合成した画像に自車両の車体の画像を重畳する処理は、第1の実施の形態と同じである。   The viewpoint conversion unit 13 obtains the distance from the side camera 10 and the rear camera 11 to each position of the rear vehicle (for example, a bumper, a hood, a windshield, etc.) based on the external shape information of the rear vehicle. Viewpoint conversion is performed based on the distance information. The process of combining the side camera image and the rear camera image after the viewpoint conversion and superimposing the image of the vehicle body of the host vehicle on the combined image is the same as in the first embodiment.

第2の実施の形態の車両周辺監視装置2は、後方車両の外部形状情報を用いて視点を変換する画像処理を行うので、後方車両の車体の外部形状に起因する距離の違いをも考慮して、サイドカメラ画像に映る後方車両の画像とリアカメラ画像に映る後方車両の画像の一致度をさらに高め、サイドカメラ画像とリアカメラ画像とを合成したときに、違和感のない後方車両の画像を生成することができる。   Since the vehicle periphery monitoring device 2 according to the second embodiment performs image processing for converting the viewpoint using the external shape information of the rear vehicle, the difference in distance caused by the external shape of the vehicle body of the rear vehicle is also taken into consideration. Thus, when the degree of coincidence between the image of the rear vehicle reflected in the side camera image and the image of the rear vehicle reflected in the rear camera image is further increased, and the side camera image and the rear camera image are combined, an image of the rear vehicle that does not feel uncomfortable is obtained. Can be generated.

(第3の実施の形態)
次に、本発明の第3の実施の形態の車両周辺監視装置について説明する。第3の実施の形態の車両周辺監視装置の基本的な構成は第1の実施の形態の車両周辺監視装置1の構成と同じであるが(図1参照)、第3の実施の形態の車両周辺監視装置は、左右のサイドカメラ画像とリアカメラ画像とを合成して、後方のパノラマ画像を合成する点が異なる。
(Third embodiment)
Next, a vehicle periphery monitoring device according to a third embodiment of the present invention will be described. The basic configuration of the vehicle periphery monitoring device according to the third embodiment is the same as that of the vehicle periphery monitoring device 1 according to the first embodiment (see FIG. 1), but the vehicle according to the third embodiment. The periphery monitoring device is different in that the left and right side camera images and the rear camera image are combined and the rear panoramic image is combined.

図11は、第3の実施の形態の車両周辺監視装置における視点変換について説明するための図である。図11に示すように、第3の実施の形態においては、左右のサイドカメラ画像及びリアカメラ画像を、車両の進行方向の中心軸18上の所定点E3を視点とした画像に変換する。この際に、最も近い後方車両までの距離を考慮して視点変換することは第1の実施の形態と同じである。   FIG. 11 is a diagram for explaining viewpoint conversion in the vehicle periphery monitoring device according to the third embodiment. As shown in FIG. 11, in the third embodiment, the left and right side camera images and the rear camera image are converted into images with a predetermined point E3 on the central axis 18 in the traveling direction of the vehicle as a viewpoint. At this time, the viewpoint conversion in consideration of the distance to the nearest rear vehicle is the same as in the first embodiment.

図12は、第3の実施の形態の車両周辺監視装置の動作を示すフローチャートである。第3の実施の形態の車両周辺監視装置は、まず、サイドカメラ10にて自車両の後方を撮影してサイドカメラ画像を取得すると共に、リアカメラ11にて自車両の後方を撮影してリアカメラ画像を取得する(S20)。続いて、車両周辺監視装置は、サイドカメラ画像及びリアカメラ画像に映る後方車両までの距離を測定する(S21)。後方車両までの距離を測定する方法については、後述する。   FIG. 12 is a flowchart illustrating the operation of the vehicle periphery monitoring device according to the third embodiment. The vehicle periphery monitoring apparatus according to the third embodiment first captures the rear of the host vehicle by capturing the rear camera 11 with the side camera 10 and acquires the rear of the host vehicle with the rear camera 11. A camera image is acquired (S20). Subsequently, the vehicle periphery monitoring device measures the distance to the rear vehicle shown in the side camera image and the rear camera image (S21). A method for measuring the distance to the vehicle behind will be described later.

次に、車両周辺監視装置は、リアカメラ画像及び左右のサイドカメラ画像を所定点E3の視点から見た画像に変換する(S22)。続いて、車両周辺監視装置は、視点変換を行った左右のサイドカメラ画像とリアカメラ画像を合成して、車両後方のパノラマ画像を生成する(S23)。ここで、パノラマ画像を合成する場合の方法は、例えば車両が映っていない場合や映っていない範囲については、文献3の方法が考えられる(目安線より遠い部分の3車線についてはリアカメラ画像を利用する)。車両が映っている範囲に関しては、リアカメラ画像を優先し、リアカメラで映ってない部分をサイドカメラ画像から補間するなどの方法が考えられる。そして、車両周辺監視装置は、重畳された画像をモニタ15に表示する(S24)。   Next, the vehicle periphery monitoring device converts the rear camera image and the left and right side camera images into an image viewed from the viewpoint of the predetermined point E3 (S22). Subsequently, the vehicle periphery monitoring device synthesizes the left and right side camera images and the rear camera image that have undergone viewpoint conversion, and generates a panoramic image behind the vehicle (S23). Here, as a method for synthesizing a panoramic image, for example, the method of Reference 3 can be considered for a case where the vehicle is not reflected or a range where the vehicle is not reflected (the rear camera image is used for the three lanes far from the reference line). Use). Regarding the range in which the vehicle is shown, a method of giving priority to the rear camera image and interpolating a portion not shown by the rear camera from the side camera image can be considered. Then, the vehicle periphery monitoring device displays the superimposed image on the monitor 15 (S24).

以上、第3の実施の形態の車両周辺監視装置の構成及び動作について説明した。第3の実施の形態の車両周辺監視装置は、左右のサイドカメラ画像及びリアカメラ画像を合成してパノラマ画像を生成して表示することにより、後方の様子をドライバに容易に把握させることができる。また、画像を合成する際に、後方車両までの距離の情報を用いているので、違和感のない後方車両の画像を含むパノラマ画像を提供できる。   The configuration and operation of the vehicle periphery monitoring device according to the third embodiment have been described above. The vehicle periphery monitoring apparatus according to the third embodiment can make the driver easily grasp the state of the rear by synthesizing the left and right side camera images and the rear camera image to generate and display a panoramic image. . In addition, since the information on the distance to the rear vehicle is used when the images are combined, a panoramic image including the rear vehicle image without any sense of incongruity can be provided.

[測距部]
図13は、測距部12の構成を示す図である。測距部12は、リアカメラ11にて取得したリアカメラ画像の歪みを補正する歪み補正部31と、画像に映る後方車両が正面向きになるようにリアカメラ画像を射影変換する射影変換部33とを有している。歪み補正部31及び射影変換部33は、広角のリアカメラ画像を用いて適切に測距を行うための前処理を行うものである。
[Rangefinder]
FIG. 13 is a diagram illustrating a configuration of the distance measuring unit 12. The distance measuring unit 12 includes a distortion correction unit 31 that corrects distortion of the rear camera image acquired by the rear camera 11, and a projection conversion unit 33 that performs projective conversion of the rear camera image so that the rear vehicle reflected in the image faces front. And have. The distortion correction unit 31 and the projective conversion unit 33 perform preprocessing for appropriately performing distance measurement using a wide-angle rear camera image.

図14(a)〜図14(c)は、歪み補正部31及び射影変換部33により、リアカメラ画像の補正について説明するための図である。図14(a)は、リアカメラ画像に映る後方車両の例を示す図である。前述のとおり、リアカメラ11は約180度の広角で撮影を行うので、画像の周縁部において大きな歪みが発生する。   FIG. 14A to FIG. 14C are diagrams for explaining the correction of the rear camera image by the distortion correction unit 31 and the projective conversion unit 33. FIG. 14A is a diagram illustrating an example of the rear vehicle reflected in the rear camera image. As described above, the rear camera 11 captures images at a wide angle of about 180 degrees, so that a large distortion occurs at the peripheral edge of the image.

歪み補正部31は、図14(a)に太線で囲って示すように、リアカメラ画像の半分を切り出して、歪みの補正を行う。図14(b)は歪み補正を行ったリアカメラ画像を示す図である。図14(a)の画像は画角が約180度の画像であるが、歪み補正後の図14(b)の画像は画角が40度の画像に相当する。なお、歪み補正部31が、リアカメラ画像の左右いずれを切り出すかについては、右側のサイドカメラ10と連携して測距を行う場合には、リアカメラ画像の右半分を切り出し、左側のサイドカメラ10と連携して測距を行う場合には、リアカメラ画像の左半分を切り出す。   The distortion correction unit 31 corrects distortion by cutting out half of the rear camera image, as shown by being surrounded by a thick line in FIG. FIG. 14B is a diagram illustrating a rear camera image subjected to distortion correction. The image in FIG. 14A is an image with an angle of view of about 180 degrees, but the image in FIG. 14B after distortion correction corresponds to an image with an angle of view of 40 degrees. Note that the right side of the rear camera image is cut out by the distortion correction unit 31 when the distance measurement is performed in cooperation with the right side camera 10, and the left side camera is cut out. When the distance measurement is performed in conjunction with 10, the left half of the rear camera image is cut out.

測距部12は、後方車両までのおよその距離(概算距離)を計算する距離概算部32を有している。距離概算部32は、公知技術にしたがって、後方車両までの概算距離を求める。例えば、サイドカメラ画像から、レーン内に存在する横方向のエッジを用いる、あるいは、車両前面の画像をあらかじめ学習しておいた識別器を用いて車両前面を検出し、その下端を利用するなどの方法によって、後方車両の下端を検出する。そして、測距部12は、検出した下端の位置に基づいて後方車両までの概算距離を求める。サイドカメラ10の設置位置、及び姿勢は事前にキャリブレーションされており、路面の位置を計算できるので、サイドカメラ画像中の下端の位置からサイドカメラ10までの距離を算出することができる。   The distance measuring unit 12 includes a distance estimating unit 32 that calculates an approximate distance (approximate distance) to the rear vehicle. The distance estimation part 32 calculates | requires the approximate distance to a back vehicle according to a well-known technique. For example, from the side camera image, the lateral edge existing in the lane is used, or the front of the vehicle is detected using a discriminator that has learned the image of the front of the vehicle in advance, and the lower end of the vehicle is used. The lower end of the rear vehicle is detected by the method. And the ranging part 12 calculates | requires the rough distance to a back vehicle based on the position of the detected lower end. Since the installation position and orientation of the side camera 10 are calibrated in advance and the road surface position can be calculated, the distance from the position of the lower end in the side camera image to the side camera 10 can be calculated.

後方車両が隣のレーンを走行している場合や追い越しをしようとしている場合のように、自車両の真後ろではない場所にいる場合には、リアカメラ画像で撮影した画像に映る後方車両は、自車両に近くなるにしたがって正面から回転した向きに映り、車両の側面が見える割合が大きくなる。例えば、図14(b)に示す画像においては、後方車両は、左側面が見える方向に回転して映っている。この場合、画像中に映る特徴点を適切にマッチングすることが困難になるので、射影変換部33は、後方車両が正面向きになるように画像を射影変換する。   When the vehicle behind you is driving in the next lane or when you are overtaking, such as when you are not behind the vehicle, the vehicle behind you appears in the image captured by the rear camera image. As it gets closer to the vehicle, it appears in a direction rotated from the front, and the ratio of the side of the vehicle being visible increases. For example, in the image shown in FIG. 14B, the rear vehicle is shown rotating in a direction in which the left side can be seen. In this case, since it becomes difficult to appropriately match the feature points appearing in the image, the projective conversion unit 33 performs projective conversion so that the rear vehicle faces front.

射影変換部33は、図14(b)に太線を囲って示すように、リアカメラ画像中から、例えば、エンブレムやナンバープレート等の特徴点を含む車両の前面の画像を切り出す。ここで、車両の前面は平面であると仮定する。図15は、後方車両が後方5mに接近した例を示す図である。図15において、直線Aは、後方車両の前面を含む平面を示す線である。リアカメラ11が撮影した画像中で、当該平面は正面から角度αだけ傾いて映っている。射影変換部33は、後方車両が正面向きの画像になるように、つまりリアカメラ11の撮影方向に対して後方車両の前面を含む平面が垂直になるように、切り出した画像を射影変換する。図15の例では、角度αだけ回転して直線Bに示すような平面に変換する。なお、測距部12によって後方車両までの距離を概算する際に、後方車両の下端、あるいは車両の正面領域が求まっている場合には、それを利用してもよい。これにより、車両前面の広い領域を用いて、以後の対応点探索を行ってもよい。   The projection conversion unit 33 cuts out an image of the front surface of the vehicle including feature points such as an emblem and a license plate from the rear camera image, as shown by surrounding the thick line in FIG. 14B. Here, it is assumed that the front surface of the vehicle is a plane. FIG. 15 is a diagram illustrating an example in which the rear vehicle approaches the rear 5 m. In FIG. 15, a straight line A is a line indicating a plane including the front surface of the rear vehicle. In the image photographed by the rear camera 11, the plane is reflected at an angle α from the front. The projective conversion unit 33 performs projective conversion on the clipped image so that the rear vehicle becomes an image facing the front, that is, the plane including the front surface of the rear vehicle is perpendicular to the shooting direction of the rear camera 11. In the example of FIG. 15, it is rotated by an angle α and converted into a plane as shown by a straight line B. When the distance measuring unit 12 estimates the distance to the rear vehicle, if the lower end of the rear vehicle or the front area of the vehicle is found, it may be used. Thereby, you may perform a corresponding point search after that using the wide area | region of the vehicle front.

射影変換部33は、リアカメラ画像に映る後方車両の前面が正面から傾いている量を求めるため、後方車両までの概算距離のデータを用いる。上述したとおり、後方車両が自車両の真後ろにいない場合には、後方車両は、隣りのレーンを走行しているか、あるいは、自車両を追い越そうとしている場合であり、自車両の走行方向の軸に垂直な方向に数m程度離れている。したがって、後方車両までの概算距離が分かれば、後方車両のおよその方向が分かり、後方車両がどの程度回転して映っているかを把握できるからである。   The projection conversion unit 33 uses data of an approximate distance to the rear vehicle in order to obtain the amount by which the front surface of the rear vehicle reflected in the rear camera image is tilted from the front. As described above, when the rear vehicle is not directly behind the host vehicle, the rear vehicle is traveling on the adjacent lane or trying to pass the host vehicle. It is about several meters away in the direction perpendicular to the axis. Therefore, if the approximate distance to the rear vehicle is known, the approximate direction of the rear vehicle can be known, and the degree of rotation of the rear vehicle can be grasped.

測距部12は、サイドカメラ画像及びリアカメラ画像に含まれる対応する特徴点を探索する特徴点探索部34と、探索された特徴点の位置に基づいて後方車両までの距離をステレオ測距するステレオ測距部35とを有している。   The distance measuring unit 12 stereo-measures the distance to the rear vehicle based on the feature point searching unit 34 that searches for the corresponding feature point included in the side camera image and the rear camera image, and based on the position of the searched feature point. And a stereo distance measuring unit 35.

特徴点探索部34は、サイドカメラ画像中から、後方車両の特徴点を検出する。特徴点としては、例えば、エンブレムやナンバープレート、ランプ等を用いることができる。夜間の場合には、ランプが有効である。続いて、特徴点探索部34は、検出された特徴点に対応する特徴点をリアカメラ画像中から探索する。この際、特徴点探索部34は、検出された特徴点がリアカメラ画像中で存在する可能性のある直線であるエピポーラ線を求め、エピポーラ線上において、対応する特徴点を探索する。また、特徴点探索部34は、距離概算部32から後方車両までの概算距離のデータを受け取り、概算距離に基づいて特徴点がどの範囲に存在するかを求め、当該範囲においてエピポーラ線上を探索する。これにより、対応する特徴点の探索の処理を著しく軽減することができる。   The feature point search unit 34 detects a feature point of the rear vehicle from the side camera image. As the feature point, for example, an emblem, a license plate, a lamp, or the like can be used. In the case of nighttime, the lamp is effective. Subsequently, the feature point search unit 34 searches for feature points corresponding to the detected feature points from the rear camera image. At this time, the feature point search unit 34 obtains an epipolar line that is a straight line in which the detected feature point may exist in the rear camera image, and searches for the corresponding feature point on the epipolar line. Further, the feature point search unit 34 receives data of the approximate distance from the distance estimation unit 32 to the vehicle behind, obtains in which range the feature point exists based on the approximate distance, and searches on the epipolar line in the range. . Thereby, the process of searching for the corresponding feature point can be remarkably reduced.

特徴点探索部34によって対応する特徴点を探索する方法は、サイドカメラ画像において特徴点を含む所定の単位領域の画像と、リアカメラ画像の所定の単位領域の画像とを比較することにより、両画像の類似度が所定の閾値よりも高い場合に、対応する特徴点(を含む単位領域)であると判断する。この際、リアカメラ画像の単位領域は、サイドカメラ画像の単位領域よりも大きくし、リアカメラ画像から切り出した単位領域の画像をサイドカメラ画像と同じ大きさに縮小してから比較することが望ましい。なぜなら、サイドカメラよりも後方に設置されたリアカメラの方が後方車両に近く、リアカメラ画像の方がサイドカメラ画像よりも後方車両が大きく映るからである。このとき、各単位領域の大きさは、後方車両までの概算距離に基づいて決定することができる。   A method of searching for a corresponding feature point by the feature point search unit 34 is performed by comparing an image of a predetermined unit region including the feature point in the side camera image with an image of the predetermined unit region of the rear camera image. When the image similarity is higher than a predetermined threshold, it is determined that the image is a corresponding feature point (including a unit region). At this time, it is preferable that the unit area of the rear camera image is larger than the unit area of the side camera image, and the image of the unit area cut out from the rear camera image is reduced to the same size as the side camera image before comparison. . This is because the rear camera installed behind the side camera is closer to the rear vehicle, and the rear camera image shows the rear vehicle larger than the side camera image. At this time, the size of each unit area can be determined based on the approximate distance to the rear vehicle.

なお、ここでの説明では、先にサイドカメラ画像の中から車両の特徴点を検出し、検出した特徴点に対応する特徴点をリアカメラ画像から探索する手順を例として説明したが、先に、リアカメラ画像から車両の特徴点を検出し、検出した特徴点に対応する特徴点をサイドカメラ画像から探索することとしてもよい。   In the description here, the procedure for detecting the feature point of the vehicle from the side camera image and searching for the feature point corresponding to the detected feature point from the rear camera image is described as an example. The feature point of the vehicle may be detected from the rear camera image, and the feature point corresponding to the detected feature point may be searched from the side camera image.

ステレオ測距部35は、対応する特徴点の位置関係に基づいて、後方車両までの距離をステレオ測距する。図16(a)はサイドカメラ画像の例を示す図であり、図16(b)は歪み補正部31によって画角40度相当の画像に補正されたリアカメラ画像を示す図である。図16(a)及び図16(b)に示すように、サイドカメラ画像及びリアカメラ画像から、エンブレムが特徴点として検出された。前述したとおり、サイドカメラ10とリアカメラ11の設置位置及び姿勢の相対的な関係は既知である。ステレオ測距部35は、画像中におけるエンブレムの位置と、サイドカメラ10及びリアカメラ11の取り付け位置及び取り付け方向とに基づいて、三角測量の原理によって、後方車両までの距離を計算する。   The stereo distance measuring unit 35 measures the distance to the rear vehicle in stereo based on the positional relationship between the corresponding feature points. FIG. 16A is a diagram illustrating an example of a side camera image, and FIG. 16B is a diagram illustrating a rear camera image corrected by the distortion correction unit 31 to an image corresponding to an angle of view of 40 degrees. As shown in FIGS. 16A and 16B, an emblem was detected as a feature point from the side camera image and the rear camera image. As described above, the relative relationship between the installation positions and orientations of the side camera 10 and the rear camera 11 is known. The stereo distance measuring unit 35 calculates the distance to the rear vehicle based on the principle of triangulation based on the position of the emblem in the image and the mounting positions and mounting directions of the side camera 10 and the rear camera 11.

図17は、測距部12の動作を示すフローチャートである。測距部12は、まず、サイドカメラ10及びリアカメラ11にて車両周辺を撮影し、撮影したサイドカメラ画像及びリアカメラ画像を測距部12に入力する(S30)。このステップは、上述した車両周辺監視装置1におけるサイドカメラ画像及びリアカメラ画像を取得するステップ(S10、図7)と同じである。   FIG. 17 is a flowchart showing the operation of the distance measuring unit 12. First, the distance measuring unit 12 captures the vehicle periphery with the side camera 10 and the rear camera 11, and inputs the captured side camera image and rear camera image to the distance measuring unit 12 (S30). This step is the same as the step (S10, FIG. 7) of acquiring the side camera image and the rear camera image in the vehicle periphery monitoring apparatus 1 described above.

測距部12は、リアカメラ画像の入力を受けると、歪み補正部31にて、リアカメラ画像の半分を切り出して、切り出した画像の歪み補正を行う(S31)。これにより、リアカメラ画像は、実質的に画角40度の画像に補正される。続いて、測距部12は、サイドカメラ画像に映る後方車両までの概算距離を計算する(S32)。   When the distance measuring unit 12 receives the input of the rear camera image, the distortion correcting unit 31 cuts out half of the rear camera image and corrects the distortion of the cut out image (S31). As a result, the rear camera image is substantially corrected to an image having an angle of view of 40 degrees. Subsequently, the distance measuring unit 12 calculates an approximate distance to the rear vehicle shown in the side camera image (S32).

次に、射影変換部33は、ステップS12で求めた概算距離のデータを用いて、後方車両が正面向きからどの程度傾いて映っているかを計算し、求めた傾き量を用いて、後方車両が正面向きになるようにリアカメラ画像を射影変換する(S33)。   Next, the projective transformation unit 33 calculates how much the rear vehicle is reflected from the front direction using the data of the approximate distance obtained in step S12, and uses the obtained amount of inclination to calculate whether the rear vehicle is The rear camera image is projectively transformed so as to face the front (S33).

続いて、特徴点探索部34は、サイドカメラ画像から後方車両の特徴点を検索し(S34)、検索された特徴点に対応する特徴点をリアカメラ画像から探索する(S35)。そして、対応する特徴点が探索されたら、サイドカメラ画像及びリアカメラ画像に映る特徴点の位置関係に基づいて、後方車両までの距離を計算する(S36)。測距部12は、求めた距離データに基づいて後方車両が所定の閾値より接近しているか否かを判定し、後方車両が所定の閾値より接近している場合に、ドライバに警告を発するなどの処理を行ってもよい。   Subsequently, the feature point search unit 34 searches for a feature point of the rear vehicle from the side camera image (S34), and searches for a feature point corresponding to the searched feature point from the rear camera image (S35). When the corresponding feature point is searched, the distance to the rear vehicle is calculated based on the positional relationship between the feature points shown in the side camera image and the rear camera image (S36). The distance measuring unit 12 determines whether or not the rear vehicle is closer than a predetermined threshold based on the obtained distance data, and issues a warning to the driver when the rear vehicle is closer than the predetermined threshold. You may perform the process of.

測距部12は、歪み補正部31にて、広角のリアカメラ11で撮影した画像の歪みを補正することにより、サイドカメラ10で撮影した画像との間で対応する特徴点を適切に探索することができる。また、測距部12は、リアカメラ画像に映る後方車両が正面を向くように射影変換を行うので、特徴点の探索の精度を高めることができる。これにより、サイドカメラ10とリアカメラ11という既存のハードウェアを用いて、後方車両までの距離をステレオ測距することができる。   The distance measuring unit 12 appropriately searches for a corresponding feature point with the image captured by the side camera 10 by correcting the distortion of the image captured by the wide-angle rear camera 11 by the distortion correcting unit 31. be able to. In addition, since the distance measuring unit 12 performs the projective transformation so that the rear vehicle reflected in the rear camera image faces the front, it is possible to improve the accuracy of the feature point search. Thereby, the distance to a back vehicle can be stereo-measured using the existing hardware called the side camera 10 and the rear camera 11. FIG.

[測距部の他の例]
図18は、測距部12の他の例を示す図である。測距部12の基本的な構成は上記した構成と同じであるが、本例では、測距部12は、距離概算部32、射影変換部33に代えて、平行化補正部36を有している。
[Another example of distance measuring unit]
FIG. 18 is a diagram illustrating another example of the distance measuring unit 12. Although the basic configuration of the distance measuring unit 12 is the same as that described above, in this example, the distance measuring unit 12 includes a parallelization correcting unit 36 instead of the distance estimating unit 32 and the projective conversion unit 33. ing.

平行化補正部36は、サイドカメラ10及びリアカメラ11が取り付けられた位置や撮影方向に基づいて、サイドカメラ画像とリアカメラ画像のエピポーラ線が平行になるように、サイドカメラ画像およびリアカメラ画像を補正する機能を有する。このように平行化補正部36によってエピポーラ線が平行な画像を求めておくことにより、一方の画像で検出された特徴点に対応する特徴点を探索する際には、他方の画像を水平方向に探索すればよいので、特徴点探索部34による特徴点の探索の処理を軽減することができる。   The parallelization correction unit 36 is configured so that the side camera image and the rear camera image are parallel to each other so that the epipolar lines of the side camera image and the rear camera image are parallel based on the position where the side camera 10 and the rear camera 11 are attached and the shooting direction. It has a function to correct. In this way, by obtaining an image in which epipolar lines are parallel by the collimation correction unit 36, when searching for a feature point corresponding to a feature point detected in one image, the other image is set in the horizontal direction. Since the search may be performed, the feature point search processing by the feature point search unit 34 can be reduced.

図19は、測距部12の他の例の動作を示すフローチャートである。測距部12は、まず、サイドカメラ10及びリアカメラ11にて車両周辺を撮影し、撮影したサイドカメラ画像及びリアカメラ画像を測距部12に入力する(S40)。このステップは、上述した車両周辺監視装置1におけるサイドカメラ画像及びリアカメラ画像を取得するステップ(S10、図7)と同じである。   FIG. 19 is a flowchart showing the operation of another example of the distance measuring unit 12. First, the distance measuring unit 12 captures the vehicle periphery with the side camera 10 and the rear camera 11, and inputs the captured side camera image and rear camera image to the distance measuring unit 12 (S40). This step is the same as the step (S10, FIG. 7) of acquiring the side camera image and the rear camera image in the vehicle periphery monitoring apparatus 1 described above.

測距部12は、リアカメラ画像の入力を受けると、歪み補正部31にて、リアカメラ画像の半分を切り出して、切り出した画像の歪み補正を行う(S41)。これにより、リアカメラ画像は、実質的に画角40度の画像に補正される。   When the distance measuring unit 12 receives the input of the rear camera image, the distortion correcting unit 31 cuts out half of the rear camera image and corrects the distortion of the cut out image (S41). As a result, the rear camera image is substantially corrected to an image having an angle of view of 40 degrees.

次に、平行化補正部36は、サイドカメラ画像と歪みが補正されたリアカメラ画像のエピポーラ線が平行になるように画像の変換する処理を行う(S42)。   Next, the parallelization correction unit 36 performs a process of converting the image so that the epipolar lines of the side camera image and the rear camera image whose distortion is corrected are parallel to each other (S42).

続いて、特徴点探索部34は、サイドカメラ画像から後方車両の特徴点を検索し(S43)、検索された特徴点に対応する特徴点をリアカメラ画像から探索する(S44)。そして、対応する特徴点が探索されたら、サイドカメラ画像及びリアカメラ画像に映る特徴点の位置関係から、後方車両までの距離を計算する(S45)。   Subsequently, the feature point search unit 34 searches for a feature point of the rear vehicle from the side camera image (S43), and searches for a feature point corresponding to the searched feature point from the rear camera image (S44). When the corresponding feature point is searched, the distance to the rear vehicle is calculated from the positional relationship between the feature points shown in the side camera image and the rear camera image (S45).

以上、測距部12の構成について説明した。上記の説明ではリアカメラ画像を射影変換する例を説明したが、サイドカメラ画像についてもリアカメラ画像と同様に射影変換を行ってもよい。   The configuration of the distance measuring unit 12 has been described above. In the above description, the example in which the rear camera image is projectively transformed has been described. However, the side camera image may be subjected to projective transformation in the same manner as the rear camera image.

また、射影変換部33は、後方車両の正面からの傾き量に基づいて、射影変換を行うか否かを判断してもよい。すなわち、傾き量が所定の閾値よりも小さい場合には、射影変換を行わないこととしてもよい。なお、射影変換部33は、必須の構成ではないので、場合によっては省略してもよい。   Further, the projective conversion unit 33 may determine whether or not to perform the projective conversion based on the amount of inclination from the front of the rear vehicle. That is, when the amount of inclination is smaller than a predetermined threshold, projective transformation may not be performed. Note that the projective transformation unit 33 is not an essential component and may be omitted depending on circumstances.

本例では、特徴点探索部34によってサイドカメラ画像10とリアカメラ画像11で対応する特徴点を探索する際に、比較単位となる単位領域の大きさを調整する例について説明したが、この調整は射影変換のときに同時に行ってもよい。また、特徴点探索部34にてブロックマッチングを行うときに、スケールパラメータを含め、スケールを変えながら類似度を計算して、一番類似度が高い結果を採用することとしてもよい。   In this example, the example in which the size of the unit area serving as a comparison unit is adjusted when the feature point search unit 34 searches for the corresponding feature point in the side camera image 10 and the rear camera image 11 has been described. May be performed simultaneously with the projective transformation. Further, when block matching is performed by the feature point search unit 34, the similarity may be calculated while changing the scale including the scale parameter, and the result having the highest similarity may be adopted.

以上、本発明の実施の形態に係る車両周辺監視装置の構成について説明したが、本発明は上記した実施の形態に限定されるものではない。上記した実施の形態では、視点変換部は、後方車両の外部形状情報に基づいて視線変換を行う例を挙げて説明したが、後方車両の車体上の複数の箇所までの距離を求め、複数の箇所までの距離の情報を用いて、サイドカメラ画像及びリアカメラ画像の視点が一致するように視点変換を行うこととしてもよい。これにより、車両の外部形状情報を有していなくても、後方車両の車体の外部形状の違いに起因する距離の違いをも考慮して、サイドカメラ画像に映る後方車両の画像とリアカメラ画像に映る後方車両の画像の一致度をさらに高めることができる。   As mentioned above, although the structure of the vehicle periphery monitoring apparatus which concerns on embodiment of this invention was demonstrated, this invention is not limited to above-described embodiment. In the above-described embodiment, the viewpoint conversion unit has been described by taking an example of performing line-of-sight conversion based on the external shape information of the rear vehicle. However, the viewpoint conversion unit obtains distances to a plurality of locations on the vehicle body of the rear vehicle, and The viewpoint conversion may be performed using the information on the distance to the location so that the viewpoints of the side camera image and the rear camera image coincide. Thus, even if the external shape information of the vehicle is not included, the rear vehicle image and the rear camera image reflected in the side camera image are also taken into account in consideration of the difference in distance caused by the difference in the external shape of the rear vehicle body. It is possible to further increase the degree of coincidence of the image of the rear vehicle reflected on the vehicle.

本発明は、カメラによって撮影した映像により車両の周辺を監視する装置として有用である。   The present invention is useful as an apparatus for monitoring the periphery of a vehicle based on an image captured by a camera.

1,2 車両周辺監視装置
10 サイドカメラ
11 リアカメラ
12 測距部
15 モニタ
16 車両形状データベース
17 車両形状特定部
18 車両の中心軸
20 CPU
21 RAM
22 ROM
23 プログラム
24 ハードディスク
31 歪み補正部
32 距離概算部
33 射影変換部
34 特徴点探索部
35 ステレオ測距部
36 平行化補正部
DESCRIPTION OF SYMBOLS 1, 2 Vehicle periphery monitoring apparatus 10 Side camera 11 Rear camera 12 Distance measuring part 15 Monitor 16 Vehicle shape database 17 Vehicle shape specific | specification part 18 Center axis 20 of CPU CPU
21 RAM
22 ROM
23 Program 24 Hard disk 31 Distortion correction unit 32 Distance estimation unit 33 Projection conversion unit 34 Feature point search unit 35 Stereo distance measurement unit 36 Parallelization correction unit

Claims (9)

車両の側部に設けられ、後方を撮影するサイドカメラと、
車両の後部に設けられ、広角で後方を撮影するリアカメラと、
前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両の前面までの距離及び角度を測定する測距部と、
前記後方車両の前面及び側面を路面に垂直な平面であるとして、前記前面までの距離及び角度に基づいて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換する視点変換部と、
前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成する画像合成部と、
合成された画像を表示する表示部と、
を備える車両周辺監視装置。
A side camera that is provided on the side of the vehicle and that captures the rear;
A rear camera which is provided at the rear of the vehicle and shoots the rear at a wide angle;
A distance measuring unit that measures a distance and an angle to the front surface of the rear vehicle based on a side camera image captured by the side camera and a rear camera image captured by the rear camera;
As a plane perpendicular to the front and side of the road surface of the rear vehicle, based on the distance and angle to the front, as the viewpoint of the side camera image and the rear camera images match, the side camera image and / Or a viewpoint conversion unit for converting the rear camera image ,
An image synthesis unit that synthesizes the side camera image and the rear camera image whose viewpoints are matched by the image conversion;
A display for displaying the synthesized image;
A vehicle periphery monitoring device.
車両の側部に設けられ、後方を撮影するサイドカメラと、A side camera that is provided on the side of the vehicle and that captures the rear;
車両の後部に設けられ、広角で後方を撮影するリアカメラと、  A rear camera which is provided at the rear of the vehicle and shoots the rear at a wide angle;
車両の外部形状情報を記憶した車両形状記憶部と、  A vehicle shape storage unit storing external shape information of the vehicle;
前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離及び角度を測定する測距部と、  A distance measuring unit that measures a distance and an angle to a rear vehicle based on a side camera image captured by the side camera and a rear camera image captured by the rear camera;
前記リアカメラ画像または前記サイドカメラ画像に映る後方車両に対応する車両の外部形状情報を前記車両形状記憶部から検索する車両形状特定部と、  A vehicle shape identifying unit for retrieving external shape information of a vehicle corresponding to a rear vehicle reflected in the rear camera image or the side camera image from the vehicle shape storage unit;
前記車両の外部形状情報から得られる後方車両の各位置までの距離及び角度の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換する視点変換部と、  Using the information on the distance and angle to each position of the rear vehicle obtained from the external shape information of the vehicle, the side camera image and / or the side camera image and / or the rear camera image so that the viewpoints of the side camera image and the rear camera image coincide with each other. A viewpoint conversion unit for converting the rear camera image;
前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成する画像合成部と、  An image synthesis unit that synthesizes the side camera image and the rear camera image whose viewpoints are matched by the image conversion;
合成された画像を表示する表示部と、  A display for displaying the synthesized image;
を備える車両周辺監視装置。  A vehicle periphery monitoring device.
前記視点変換部は、前記リアカメラ画像を前記サイドカメラの視点から見た画像に変換し、
前記画像合成部は、車体によって前記後方車両が隠れている前記サイドカメラ画像の領域に、前記画像変換された前記リアカメラ画像を合成し、さらに、前記合成された画像に前記サイドカメラ画像に映る車体の画像を重畳する請求項1または2に記載の車両周辺監視装置。
The viewpoint conversion unit converts the rear camera image into an image viewed from the viewpoint of the side camera,
The image synthesizing unit synthesizes the rear camera image that has been subjected to the image conversion into an area of the side camera image in which the rear vehicle is hidden by a vehicle body, and is further reflected in the side camera image in the synthesized image. The vehicle periphery monitoring device according to claim 1, wherein an image of the vehicle body is superimposed.
前記視点変換部は、前記リアカメラ画像及び前記サイドカメラ画像を車両の進行方向に沿った車両の中心軸上の所定位置の視点から見た画像に変換する請求項1または2に記載の車両周辺監視装置。   The vehicle periphery according to claim 1 or 2, wherein the viewpoint conversion unit converts the rear camera image and the side camera image into an image viewed from a viewpoint at a predetermined position on a central axis of the vehicle along a traveling direction of the vehicle. Monitoring device. 前記測距部は、
前記リアカメラ画像の一部を切り出して歪みを補正する歪み補正部と、
前記サイドカメラ画像または前記リアカメラ画像のいずれか一方から前記後方車両の特徴点を検出し、当該特徴点に対応する点を、前記サイドカメラ画像または前記リアカメラ画像の他方のエピポーラ線上から探索する特徴点探索部と、
前記サイドカメラ画像中の特徴点と、それに対応する前記リアカメラ画像中の特徴点との位置関係に基づいて、前記後方車両までの距離及び角度を求めるステレオ測距部と、
を備える請求項1乃至4のいずれかに記載の車両周辺監視装置。
The distance measuring unit is
A distortion correction unit that cuts out a part of the rear camera image to correct distortion;
A feature point of the rear vehicle is detected from either the side camera image or the rear camera image, and a point corresponding to the feature point is searched from the other epipolar line of the side camera image or the rear camera image. A feature point search unit;
A stereo distance measuring unit for obtaining a distance and an angle to the rear vehicle based on a positional relationship between the feature points in the side camera image and the corresponding feature points in the rear camera image,
A vehicle periphery monitoring device according to any one of claims 1 to 4.
車両後方の画像を表示する車両周辺監視方法であって、
車両周辺監視装置が、車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、
前記車両周辺監視装置が、車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、
前記車両周辺監視装置が、前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両の前面までの距離及び角度を測定するステップと、
前記車両周辺監視装置が、前記後方車両の前面及び側面を路面に垂直な平面であるとして、前記前面までの距離及び角度に基づいて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換するステップと、
前記車両周辺監視装置が、前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、
前記車両周辺監視装置が、合成された画像を表示するステップと、
を備える車両周辺監視方法。
A vehicle periphery monitoring method for displaying an image behind the vehicle,
A vehicle periphery monitoring device is provided on a side of the vehicle, and acquires a side camera image from a side camera that captures the rear; and
The vehicle periphery monitoring device is provided at the rear of the vehicle, and acquires a rear camera image from a rear camera that captures the rear at a wide angle;
The vehicle periphery monitoring device measuring a distance and an angle to the front surface of the rear vehicle based on a side camera image captured by the side camera and a rear camera image captured by the rear camera;
The vehicle periphery monitoring device assumes that the front and side surfaces of the rear vehicle are planes perpendicular to the road surface, and the viewpoints of the side camera image and the rear camera image match based on the distance and angle to the front surface. And converting the side camera image and / or the rear camera image ,
The vehicle periphery monitoring device combining the side camera image and the rear camera image whose viewpoints coincide with each other by the image conversion;
The vehicle periphery monitoring device displaying a synthesized image;
A vehicle periphery monitoring method comprising:
車両後方の画像を表示する車両周辺監視方法であって、A vehicle periphery monitoring method for displaying an image behind the vehicle,
車両周辺監視装置が、車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、  A vehicle periphery monitoring device is provided on a side of the vehicle, and acquires a side camera image from a side camera that captures the rear; and
前記車両周辺監視装置が、車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、  The vehicle periphery monitoring device is provided at the rear of the vehicle, and acquires a rear camera image from a rear camera that captures the rear at a wide angle;
前記車両周辺監視装置が、前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離及び角度を測定するステップと、  The vehicle periphery monitoring device measuring a distance and an angle to a rear vehicle based on a side camera image captured by the side camera and a rear camera image captured by the rear camera;
前記車両周辺監視装置が、前記リアカメラ画像または前記サイドカメラ画像に映る後方車両に対応する車両の外部形状情報を、車両の外部形状情報を記憶した車両形状記憶部から検索するステップと、  The vehicle periphery monitoring device retrieves external shape information of a vehicle corresponding to a rear vehicle reflected in the rear camera image or the side camera image from a vehicle shape storage unit that stores the external shape information of the vehicle;
前記車両周辺監視装置が、前記車両の外部形状情報から得られる後方車両の各位置までの距離及び角度の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換するステップと、  The vehicle periphery monitoring device uses the distance and angle information to each position of the rear vehicle obtained from the external shape information of the vehicle so that the viewpoints of the side camera image and the rear camera image coincide with each other. Converting the side camera image and / or the rear camera image;
前記車両周辺監視装置が、前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、  The vehicle periphery monitoring device combining the side camera image and the rear camera image whose viewpoints coincide with each other by the image conversion;
前記車両周辺監視装置が、合成された画像を表示するステップと、  The vehicle periphery monitoring device displaying a synthesized image;
を備える車両周辺監視方法。  A vehicle periphery monitoring method comprising:
車両後方の画像を表示するためのプログラムであって、コンピュータに、
車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、
車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、
前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両の前面までの距離及び角度を測定するステップと、
前記後方車両の前面及び側面を路面に垂直な平面であるとして、前記前面までの距離及び角度に基づいて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換するステップと、
前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、
合成された画像を表示するステップと、
を実行させるプログラム。
A program for displaying an image of the rear of the vehicle,
A step of obtaining a side camera image from a side camera that is provided on a side of the vehicle and shoots the rear;
Obtaining a rear camera image from a rear camera provided at the rear of the vehicle and photographing the rear at a wide angle;
Measuring the distance and angle to the front of the rear vehicle based on the side camera image captured by the side camera and the rear camera image captured by the rear camera;
As a plane perpendicular to the front and side of the road surface of the rear vehicle, based on the distance and angle to the front, as the viewpoint of the side camera image and the rear camera images match, the side camera image and And / or converting the rear camera image .
Combining the side camera image and the rear camera image whose viewpoints coincide with each other by the image conversion;
Displaying the synthesized image; and
A program that executes
車両後方の画像を表示するためのプログラムであって、コンピュータに、A program for displaying an image of the rear of the vehicle,
車両の側部に設けられ、後方を撮影するサイドカメラからサイドカメラ画像を取得するステップと、  A step of obtaining a side camera image from a side camera that is provided on a side of the vehicle and shoots the rear;
車両の後部に設けられ、広角で後方を撮影するリアカメラからリアカメラ画像を取得するステップと、  Obtaining a rear camera image from a rear camera provided at the rear of the vehicle and photographing the rear at a wide angle;
前記サイドカメラで撮影したサイドカメラ画像と前記リアカメラで撮影したリアカメラ画像とに基づいて後方車両までの距離及び角度を測定するステップと、  Measuring the distance and angle to the rear vehicle based on the side camera image captured by the side camera and the rear camera image captured by the rear camera;
前記リアカメラ画像または前記サイドカメラ画像に映る後方車両に対応する車両の外部形状情報を、車両の外部形状情報を記憶した車両形状記憶部から検索するステップと、  Searching external shape information of a vehicle corresponding to a rear vehicle reflected in the rear camera image or the side camera image from a vehicle shape storage unit storing external shape information of the vehicle;
前記車両の外部形状情報から得られる後方車両の各位置までの距離及び角度の情報を用いて、前記サイドカメラ画像及び前記リアカメラ画像の視点が一致するように、前記サイドカメラ画像及び/又は前記リアカメラ画像を画像変換するステップと、  Using the information on the distance and angle to each position of the rear vehicle obtained from the external shape information of the vehicle, the side camera image and / or the side camera image and / or the rear camera image so that the viewpoints of the side camera image and the rear camera image coincide with each other. Converting the rear camera image into an image;
前記画像変換により視点が一致した前記サイドカメラ画像と前記リアカメラ画像とを合成するステップと、  Combining the side camera image and the rear camera image whose viewpoints coincide with each other by the image conversion;
合成された画像を表示するステップと、  Displaying the synthesized image; and
を実行させるプログラム。  A program that executes
JP2015058475A 2015-03-20 2015-03-20 Vehicle periphery monitoring device, vehicle periphery monitoring method, and program Expired - Fee Related JP6392693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015058475A JP6392693B2 (en) 2015-03-20 2015-03-20 Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015058475A JP6392693B2 (en) 2015-03-20 2015-03-20 Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2016175586A JP2016175586A (en) 2016-10-06
JP6392693B2 true JP6392693B2 (en) 2018-09-19

Family

ID=57068948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015058475A Expired - Fee Related JP6392693B2 (en) 2015-03-20 2015-03-20 Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Country Status (1)

Country Link
JP (1) JP6392693B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018101897A (en) * 2016-12-20 2018-06-28 株式会社デンソーテン Vehicle periphery monitoring device and monitoring method
JP2018117320A (en) * 2017-01-20 2018-07-26 株式会社東芝 Video synthesizer and video synthesis method for electron mirror
JP6665819B2 (en) 2017-03-17 2020-03-13 トヨタ自動車株式会社 In-vehicle display device
KR102082254B1 (en) * 2018-03-14 2020-02-27 광주과학기술원 a vehicle recognizing system
JP6999239B2 (en) * 2018-05-28 2022-02-04 アルパイン株式会社 Image processing device and image processing method
JP2020183166A (en) 2019-05-07 2020-11-12 アルパイン株式会社 Image processing device, image processing system, image processing method and program
JP7280006B2 (en) * 2019-08-06 2023-05-23 アルパイン株式会社 Image processing device, image processing method and image processing program
JP7371549B2 (en) * 2020-03-19 2023-10-31 株式会社リコー Vehicle detection device, vehicle, vehicle detection method and program
JP7027476B2 (en) * 2020-04-06 2022-03-01 株式会社東芝 Electronic mirror video compositing device and video compositing method
US12197522B2 (en) * 2020-08-24 2025-01-14 Snap Inc. Image based browser navigation
JP7593806B2 (en) 2020-12-28 2024-12-03 株式会社ブロードリーフ Vehicle operation system, vehicle control device, vehicle operation method, and vehicle operation program
JP2024003407A (en) * 2022-06-27 2024-01-15 日立Astemo株式会社 External world recognition device and external world recognition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (en) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd Vehicle surrounding condition display device
JP2006033570A (en) * 2004-07-20 2006-02-02 Olympus Corp Image generating device
JP5057936B2 (en) * 2007-11-09 2012-10-24 アルパイン株式会社 Bird's-eye image generation apparatus and method
JP2009206747A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Ambient condition monitoring system for vehicle, and video display method
JP5799631B2 (en) * 2011-07-20 2015-10-28 日産自動車株式会社 VEHICLE IMAGE GENERATION DEVICE AND VEHICLE IMAGE GENERATION METHOD

Also Published As

Publication number Publication date
JP2016175586A (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
US8395490B2 (en) Blind spot display apparatus
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
JP4406381B2 (en) Obstacle detection apparatus and method
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP2009017462A (en) Driving support system and vehicle
JP2011182236A (en) Camera calibration apparatus
JP2008034966A (en) Image display device
JP2012247364A (en) Stereo camera apparatus, stereo camera system and program
JP2011064566A (en) Distance estimation apparatus
JP2012198077A (en) Stereo camera device and parallax image generating method
JP2007318460A (en) Vehicle upper viewpoint image displaying apparatus
JP2015179063A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP5083443B2 (en) Driving support device and method, and arithmetic device
JP6243758B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP5181602B2 (en) Object detection device
JP2006268076A (en) Driving assistance system
JP2015179499A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP2015230703A (en) Object detection device and object detection method
JP2021067977A (en) Image processing device and image processing program
JP4679293B2 (en) In-vehicle panoramic camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180823

R150 Certificate of patent or registration of utility model

Ref document number: 6392693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees