[go: up one dir, main page]

JP2012147149A - Image generating apparatus - Google Patents

Image generating apparatus Download PDF

Info

Publication number
JP2012147149A
JP2012147149A JP2011002778A JP2011002778A JP2012147149A JP 2012147149 A JP2012147149 A JP 2012147149A JP 2011002778 A JP2011002778 A JP 2011002778A JP 2011002778 A JP2011002778 A JP 2011002778A JP 2012147149 A JP2012147149 A JP 2012147149A
Authority
JP
Japan
Prior art keywords
image
dimensional object
overhead
projective transformation
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011002778A
Other languages
Japanese (ja)
Inventor
Kinji Yamamoto
欣司 山本
Seiko Takeda
聖子 武田
Takeshi Kuboyama
剛 久保山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2011002778A priority Critical patent/JP2012147149A/en
Priority to CN201180064774.5A priority patent/CN103299617B/en
Priority to PCT/JP2011/076899 priority patent/WO2012096058A1/en
Publication of JP2012147149A publication Critical patent/JP2012147149A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】路面上に存在している立体物を良好な距離感をもって認識することができる俯瞰画像を車載カメラの撮影画像から生成する。
【解決手段】第1射影変換を用いて撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、立体物情報に基づいて撮影画像から立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、周辺俯瞰画像における立体物の歪みを低減する第2射影変換を用いて立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、立体物情報に基づき周辺俯瞰画像に立体物俯瞰画像を画像合成する画像合成部を備えた画像生成装置。
【選択図】図1
An overhead view image capable of recognizing a three-dimensional object existing on a road surface with a good sense of distance is generated from a photographed image of an in-vehicle camera.
A peripheral overhead image generation unit that generates a peripheral overhead image from a photographed image using first projective transformation, and a stereoscopic object that exists in the field of view of an in-vehicle camera and includes the position of the stereoscopic object. A three-dimensional object detection unit that outputs object information, a three-dimensional object extraction unit that extracts a three-dimensional object image, which is an image region in which a three-dimensional object is captured, from a captured image based on the three-dimensional object information; A three-dimensional object overhead image generation unit that generates a three-dimensional object overhead image from a three-dimensional object image using the second projective transformation that reduces the image, and an image composition unit that synthesizes the three-dimensional object overhead image with the peripheral overhead image based on the three-dimensional object information An image generation apparatus provided.
[Selection] Figure 1

Description

本発明は、自車の周辺領域を撮影する車載カメラによって取得された撮影画像を射影変換することでカメラ視点より上方の上方仮想視点からの俯瞰画像を表示画像として生成する画像生成装置に関する。   The present invention relates to an image generation apparatus that generates, as a display image, a bird's-eye view image from an upper virtual viewpoint above a camera viewpoint by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral region of the vehicle.

従来の俯瞰画像生成装置では、車載カメラによって取得された撮影画像を路面に平行な投影面に投影することで、つまり仮想視点を鉛直上方に位置させた射影変換により真上からの俯瞰画像が生成される。従って、この俯瞰画像がモニタに表示させることで、運転者が車両周辺の路面状況を把握することを支援している。しかしながら、そのような射影変換を通じて得られた俯瞰画像では車載カメラの近傍領域に比べ遠方領域において画像の歪み方が大きくなり、運転者にとって距離感をつかみ難いという問題がある。   In a conventional overhead image generation device, a captured image acquired by an in-vehicle camera is projected onto a projection plane parallel to the road surface, that is, an overhead image from directly above is generated by projective transformation with the virtual viewpoint positioned vertically upward. Is done. Therefore, the bird's-eye view image is displayed on the monitor, thereby assisting the driver to grasp the road surface condition around the vehicle. However, the overhead image obtained through such projective transformation has a problem that the image is more distorted in a distant region than in the vicinity region of the in-vehicle camera, making it difficult for the driver to grasp the sense of distance.

このような問題を解決するため、例えば特許文献1に記載された画像処理装置では、車載カメラによって撮像された撮影画像(カメラ画像)を取得する取得部と、前記撮影画像を平面に投影して、平面投影画像に変換する第1画像変換部と、前記カメラ画像を曲面に投影して、曲面投影画像(例えば、円筒面投影画像)に変換する第2画像変換部とを備え、前記第1画像変換部は、前記撮影画像内において所定の幅を有する第1画像領域を前記平面投影画像に変換し、前記第2画像変換部は、前記撮影画像内において前記第1画像領域の幅方向外側の領域である第2画像領域(円筒面投影領域)を前記曲面投影画像に変換する。したがって、この装置によって変換された画像を表示部に与えることで、運転者が実際に目視で見える画像に近い平面投影画像と、視野の広い曲面投影画像とをあわせもつ画像が表示される。このため、運転者の視認性の低下が抑制される。しかしながら、この特許文献1による装置は、路面上に描かれた道路区画線や路肩などの表示は見やすくなるとしても、路面に配置された上方に延びた立体物(人や車だけでなく、工事用三角コーンなどの路上障害物)は撮影方向に間延びした歪な形状体となってしまう。   In order to solve such a problem, for example, in the image processing apparatus described in Patent Document 1, an acquisition unit that acquires a captured image (camera image) captured by an in-vehicle camera, and the captured image is projected onto a plane. A first image conversion unit that converts the image into a planar projection image; and a second image conversion unit that projects the camera image onto a curved surface and converts the image into a curved projection image (for example, a cylindrical projection image). The image conversion unit converts a first image region having a predetermined width in the captured image into the planar projection image, and the second image conversion unit is outside the first image region in the width direction in the captured image. Is converted into the curved projection image. Therefore, by giving an image converted by this apparatus to the display unit, an image having both a planar projection image close to an image that the driver can actually see visually and a curved projection image with a wide field of view is displayed. For this reason, a driver's visibility fall is suppressed. However, the device according to Patent Document 1 is not limited to a solid object (not just a person or a car, but a construction work) that is arranged on the road surface, even though the display of road markings and shoulders drawn on the road surface is easy to see. Road obstacles such as triangular cones for use) become distorted shapes extending in the shooting direction.

また、特許文献2に記載された画像生成装置では、仮想投影面として、路面上に設定した近景用スクリーンと、該近景用スクリーンの実カメラから遠い側に連接すると共に所定の上向き傾斜角度を持って設定した遠景用スクリーンとを有する仮想立体投影面が設定され、実撮像面に投影される画像によりカメラ映像データを取得する実カメラより高い位置に仮想カメラが設定される。そして、実カメラにより取得した単独のカメラ映像データの各画素位置と、仮想立体投影面を介した仮想カメラの仮想撮像面上の各画素位置と、の間で座標変換され、座標変換にしたがって仮想カメラの仮想撮像面上にカメラ撮影画像の各画素が移され、仮想カメラから仮想立体投影面を見たときに仮想撮像面に投影される画像がモニタに表示される。これにより、モニタ画像は、距離感を認識しやすい近景の俯瞰画像と、遠いものは小さく見え近いものは大きく見えるという遠近感を認識しやすい中景から遠景のパース画像とを合成した画像となる。しかしながら、この装置でも、路面上に配置された立体物の撮影画像が路面に水平な仮想投影面で変換された場合には、長く間延びした形状となり、立体物の視認性の低下は避けられない。   In addition, in the image generation device described in Patent Document 2, a near-view screen set on the road surface as a virtual projection plane, and the near-view screen connected to the side far from the real camera and have a predetermined upward tilt angle. The virtual stereoscopic projection plane having the far-view screen set in the above is set, and the virtual camera is set at a position higher than the real camera that acquires the camera video data from the image projected on the real imaging plane. Then, coordinate conversion is performed between each pixel position of the single camera video data acquired by the real camera and each pixel position on the virtual imaging plane of the virtual camera via the virtual stereoscopic projection plane, and the virtual position is converted according to the coordinate conversion. Each pixel of the camera-captured image is moved onto the virtual imaging plane of the camera, and an image projected on the virtual imaging plane when the virtual stereoscopic projection plane is viewed from the virtual camera is displayed on the monitor. As a result, the monitor image is a composite image of a close-up bird's-eye view image in which a sense of distance is easily recognized and a perspective image of a distant view that is easy to recognize a sense of distance, in which a distant object looks small and a close object looks large. . However, even in this apparatus, when a captured image of a three-dimensional object arranged on the road surface is converted by a virtual projection plane that is horizontal to the road surface, the shape becomes long and the visibility of the three-dimensional object is inevitably lowered. .

さらに、特許文献3による車両周囲監視システムでは、複数の車載カメラで撮影された原画像をもとに作成した俯瞰表示画像の表示中に、複数の車載カメラで重複して撮影される重複領域内に存在する障害物を障害物検知装置が検知したときに、表示装置に表示させる画像を、俯瞰表示画像から、重複領域を撮影する複数の車載カメラの原画像へと切り替えるように構成されている。この構成では、障害物の検知時に、障害物の種類などを原画像を通じて直感的且つ瞬時に特定することを図っているが、俯瞰画像を通じて障害物を良好に視認したいという要望を満たすことはできない。   Furthermore, in the vehicle surrounding monitoring system according to Patent Document 3, the overlapping area captured by the plurality of in-vehicle cameras is displayed while the overhead view display image created based on the original images captured by the plurality of in-vehicle cameras is displayed. When the obstacle detection device detects an obstacle present in the image, the image displayed on the display device is switched from the overhead view display image to the original images of a plurality of in-vehicle cameras that capture the overlapping area. . In this configuration, when an obstacle is detected, the type of the obstacle is identified intuitively and instantaneously through the original image, but it is not possible to satisfy the desire to see the obstacle well through the overhead image. .

特開2008−181330号公報(段落番号〔0010−0016〕、図5)JP 2008-181330 A (paragraph number [0010-0016], FIG. 5) 特開2008−83786号公報(段落番号〔0007−0012〕、図1,2)JP 2008-83786 A (paragraph number [0007-0012], FIGS. 1 and 2) 特開2007−235529号公報(段落番号〔0007−0008〕、図11)JP 2007-235529 A (paragraph number [0007-0008], FIG. 11)

上記実情に鑑み、本発明の目的は、路面上に存在している立体物を良好な距離感をもって認識することができる俯瞰画像を車載カメラの撮影画像から生成することにある。   In view of the above circumstances, an object of the present invention is to generate a bird's-eye view image capable of recognizing a three-dimensional object existing on a road surface with a good sense of distance from a photographed image of an in-vehicle camera.

車両の周辺領域を撮影する車載カメラによって取得された撮影画像を上方仮想視点で射影変換することで生成される俯瞰画像を表示画像として出力する、本発明に係る画像生成装置の特徴は、第1射影変換を用いて前記撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、
前記車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、前記立体物情報に基づいて前記撮影画像から前記立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、前記周辺俯瞰画像における前記立体物の歪みを低減する第2射影変換を用いて前記立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、前記立体物情報に基づき前記周辺俯瞰画像に前記立体物俯瞰画像を画像合成する画像合成部とを備えた点にある。
A feature of the image generation apparatus according to the present invention is that a bird's-eye view image generated by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral area of a vehicle is projected from an upper virtual viewpoint as a display image. A peripheral overhead image generation unit that generates a peripheral overhead image from the captured image using projective transformation;
A three-dimensional object detection unit that detects a three-dimensional object existing in the field of view of the in-vehicle camera and outputs three-dimensional object information including the position of the three-dimensional object; and the three-dimensional object is extracted from the captured image based on the three-dimensional object information. A three-dimensional object overhead image is generated from the three-dimensional object image using a three-dimensional object extraction unit that extracts a three-dimensional object image that is a captured image region and a second projective transformation that reduces distortion of the three-dimensional object in the peripheral overhead image. A three-dimensional object overhead image generation unit, and an image composition unit that synthesizes the three-dimensional object overhead image with the surrounding overhead image based on the three-dimensional object information.

この構成によると、第1射影変換を用いて車載カメラの撮影画像を上方仮想視点からの周辺俯瞰画像に変換する際に、視野内に立体物の存在が検知されると、その撮影画像から抽出された立体物画像を第1射影変換とは異なる第2射影変換を用いて立体物俯瞰画像を生成し、この立体物俯瞰画像を周辺俯瞰画像に合成する。第2射影変換は周辺俯瞰画像の生成に用いられた第1射影変換に比べて当該周辺俯瞰画像における立体物の歪みが低減するようなパラメータを備えている。従って、合成された周辺俯瞰画像における立体物は従来のように細長く間延びした形状とならず、より視認しやすい自然な形状になっている。このことから、運転者は、この周辺俯瞰画像から路面上に存在している立体物を良好な距離感をもって認識することができる。   According to this configuration, when a captured image of the in-vehicle camera is converted into a peripheral overhead view image from the upper virtual viewpoint using the first projective transformation, if the presence of a three-dimensional object is detected in the field of view, it is extracted from the captured image. A three-dimensional object overhead image is generated from the three-dimensional object image using a second projective transformation different from the first projective transformation, and the three-dimensional object overhead image is synthesized with a peripheral overhead image. The second projective transformation has parameters that reduce distortion of the three-dimensional object in the peripheral overhead image compared to the first projective transformation used for generating the peripheral overhead image. Therefore, the three-dimensional object in the synthesized peripheral bird's-eye view image has a natural shape that is easier to visually recognize, rather than having an elongated shape as in the conventional case. From this, the driver can recognize a three-dimensional object existing on the road surface with a good sense of distance from the surrounding bird's-eye view image.

上記説明から明らかなように、第1射影変換が上方仮想視点からの俯瞰画像、つまり上から撮影画像を撮影視点から路面に平行な投影面に投影するような射影変換であることから、路面に置かれた立体物の投影画像は間延びした歪みをもってしまう。このことから第2射影変換は、その投影面が路面に平行ではなく、できるだけ路面に対して傾斜させた投影面を用いることが好適である。従って、本発明の好適な実施形態の1つでは、前記第2射影変換として、前記撮影画像を撮影視点から路面に垂直な投影面に投影する射影変換を採用している。   As is clear from the above description, the first projective transformation is a bird's-eye view image from the upper virtual viewpoint, that is, a projective transformation that projects a photographed image from above onto a projection plane parallel to the road surface. The projected image of the placed three-dimensional object has an extended distortion. For this reason, it is preferable that the second projective transformation uses a projection surface that is not parallel to the road surface and is inclined with respect to the road surface as much as possible. Therefore, in one preferred embodiment of the present invention, the second projective transformation employs a projective transformation in which the photographed image is projected from a photographing viewpoint onto a projection plane perpendicular to the road surface.

撮影画像中に含まれる路面上の立体物を、その俯瞰画像における歪みできるだけ小さくする射影変換のパラメータを設定するためには、射影変換に用いる投影面に形状と当該投影面と立体物との位置関係が重要なファクタとなる。このことから、本発明の好適な実施形態では、撮影空間における立体物に位置や立体物の形状などを含む立体物情報に基づいて、投投影面の形状又は投影面と投影される立体物との相対位置あるいはその両方である前記第2射影変換の変換パラメータを設定するように構成されている。投影面の形状としては、前述した特許文献1や2に記載されているような湾曲面や屈曲面が好適である。その際、特に、立体物と路面との境界領域を境にしてその前方側を路面に平行な投影面部とし、その後方側を垂直面ないしは垂直面に近い傾斜面とすることが好ましい。これにより、俯瞰画像において立体物の頂上が間延びしてしまうという視認上の欠点を取り除くことができる。   In order to set projection transformation parameters that minimize the distortion of the three-dimensional object on the road surface included in the captured image in the overhead image, the shape and the position of the projection surface and the three-dimensional object are used for the projection transformation. Relationship is an important factor. Therefore, in a preferred embodiment of the present invention, based on the three-dimensional object information including the position and the shape of the three-dimensional object in the three-dimensional object in the shooting space, the shape of the projection surface or the three-dimensional object projected on the projection surface and The conversion parameter of the second projective transformation, which is the relative position or both, is set. The shape of the projection surface is preferably a curved surface or a bent surface as described in Patent Documents 1 and 2 described above. At that time, in particular, it is preferable that the front side of the boundary area between the three-dimensional object and the road surface is a projection plane part parallel to the road surface, and the rear side thereof is a vertical plane or an inclined plane close to the vertical plane. Thereby, the visual defect that the top of the three-dimensional object extends in the overhead image can be eliminated.

異なる射影変換、つまり異なる投影面を用いて生成された周辺俯瞰画像と立体物俯瞰画像では立体物が写る座標位置が異なるので、周辺俯瞰画像に立体物俯瞰画像を合成しても、元々周辺俯瞰画像に写っていた立体物が画像合成後の周辺俯瞰画像に残ってしまう。特に周辺俯瞰画像が複数の撮影方向の異なる車載カメラの撮影画像を組み合わせている場合には、周辺俯瞰画像に立体物俯瞰画像との間での立体物の位置の不一致は顕著となる。このため、本発明の好適な実施形態では、前記周辺俯瞰画像における前記立体物画像の領域を目立たないように抑制処理をする立体物抑制部が備えられている。そのような抑制処理としては、ぼかし処理、低彩度化処理、周辺画素群とのブレンド処理などが利用できる。   Since the coordinates of the three-dimensional object are different between the peripheral overhead image generated using different projective transformations, that is, the three-dimensional object overhead image and the three-dimensional object overhead image, even if the three-dimensional object overhead image is synthesized with the peripheral overhead image, The three-dimensional object shown in the image remains in the surrounding overhead image after the image composition. In particular, when the surrounding bird's-eye view image combines a plurality of in-vehicle camera shot images with different shooting directions, the disagreement of the position of the three-dimensional object between the peripheral bird's-eye view image and the three-dimensional object bird's-eye view image becomes significant. For this reason, in a preferred embodiment of the present invention, a three-dimensional object suppression unit is provided that performs a suppression process so that the region of the three-dimensional object image in the peripheral overhead image is not conspicuous. As such suppression processing, blurring processing, desaturation processing, blend processing with surrounding pixel groups, and the like can be used.

また、車両周辺の立体物をより明確に視認させるためには、周辺俯瞰画像に合成される立体物俯瞰画像を目立たせることが有効である。このため、本発明の好適な実施形態では、前記立体物俯瞰画像が強調表示されるように前記立体物俯瞰画像に色補正処理が施される。例えば、立体物の色を高彩度化することは好ましい実施形態である。   In order to make a three-dimensional object around the vehicle more clearly visible, it is effective to make the three-dimensional object bird's-eye image synthesized with the peripheral bird's-eye image more noticeable. For this reason, in a preferred embodiment of the present invention, color correction processing is performed on the three-dimensional object overhead image so that the three-dimensional object overhead image is highlighted. For example, increasing the color saturation of a three-dimensional object is a preferred embodiment.

周辺俯瞰画像が複数の撮影方向の異なる車載カメラの撮影画像を組み合わせている場合には、2つの撮影画像に立体物が写りこむことがある。そのようなケースにおいては、各撮影画像から立体物を抽出することができるので、そのうちの1つだけをより適切な立体物として選択することが好ましい。この目的のため、前記車載カメラが車両全周囲を撮影するために複数設置されている実施形態の好適な1つでは、前記立体物が2つ以上のカメラの撮影画像に含まれている場合には、より面積の小さい方の立体物領域を有する立体物画像が抽出されるように構成されている。その理由は立体物領域の面積が小さい方が俯瞰画像における立体物の歪、特に傾きが小さいことが実験的な結果として示されているからである。   When the surrounding bird's-eye view image combines a plurality of in-vehicle camera captured images having different capturing directions, a three-dimensional object may be reflected in the two captured images. In such a case, since a three-dimensional object can be extracted from each captured image, it is preferable to select only one of them as a more appropriate three-dimensional object. For this purpose, in a preferred embodiment in which a plurality of the in-vehicle cameras are installed to capture the entire periphery of the vehicle, the solid object is included in the captured images of two or more cameras. Is configured such that a three-dimensional object image having a smaller three-dimensional object region is extracted. The reason is that it has been experimentally shown that the smaller the area of the three-dimensional object region, the smaller the distortion of the three-dimensional object in the overhead image, in particular, the smaller the inclination.

本発明による画像生成装置で用いられている、車載カメラの撮影画像から周辺俯瞰図と立体物俯瞰図とを異なる射影変換で別個に生成して合成する基本的な画像処理過程を模式的に説明する模式図である。Schematic description of a basic image processing process used in the image generation apparatus according to the present invention to separately generate and synthesize a peripheral bird's-eye view and a three-dimensional object bird's-eye view with different projective transformations from an image captured by an in-vehicle camera. It is a schematic diagram to do. 周辺俯瞰画像に立体物俯瞰画像を合成して最終的な表示用俯瞰画像を生成する過程を図解した模式図である。It is the schematic diagram which illustrated the process which synthesize | combines a three-dimensional object bird's-eye view image with a periphery bird's-eye view image, and produces | generates the final bird's-eye view image for a display. 本は発明による画像生成装置を組み込んだ車両周辺監視システムの機能ブロック図である。The present invention is a functional block diagram of a vehicle periphery monitoring system incorporating an image generating apparatus according to the present invention. 車両周辺監視システムを構成する画像処理モジュールの機能ブロック図である。It is a functional block diagram of the image processing module which comprises a vehicle periphery monitoring system. 種々の射影変換から選択された射影変換を用いて立体物俯瞰画像を生成する過程を図解した模式図である。It is the schematic diagram which illustrated the process of producing | generating a three-dimensional object bird's-eye view image using the projective transformation selected from the various projective transformations. 俯瞰画像表示ルーチンを示すフローチャートである。It is a flowchart which shows a bird's-eye view image display routine.

まず、本発明による画像生成装置で用いられている、車載カメラの撮影画像から周辺俯瞰図と立体物俯瞰図とを異なる射影変換で別個に生成して合成する基本的な画像処理過程を説明する。図1は、2つの異なる射影変換を用いた俯瞰画像の生成を模式的に図解している基本構想図であり、ここでは説明を簡単にするため、車載カメラとしてのバックカメラによる撮影画像だけを用いた俯瞰画像の生成が示されている。   First, a basic image processing process used in the image generation apparatus according to the present invention to separately generate and synthesize a peripheral bird's-eye view and a three-dimensional object bird's-eye view using different projective transformations from an image taken by an in-vehicle camera will be described. . FIG. 1 is a basic conceptual diagram schematically illustrating generation of an overhead image using two different projective transformations. Here, for the sake of simplicity, only a photographed image by a back camera as an in-vehicle camera is shown. The generation of the overhead image used is shown.

車両周辺監視画面としての俯瞰画像をモニタ表示するためには、まず車載カメラによって自車の進行方向の周辺領域の撮影画像が取得される(#1)。同時に、車両周辺における立体物の検出処理が行われており、車載カメラの撮影視野内に立体物が検知された場合、その立体物の位置、姿勢、大きさなどのデータを記述した立体物情報が生成される(#101)。バックカメラの撮影画像から、投影面を路面に平行な面とする第1の射影変換、つまり真上に仮想視点を設定した視点変換が行われる(#2)。この第1射影変換処理を通じて、撮影画像の真上からの俯瞰画像である周辺俯瞰画像が得られる。立体物情報が生成されていると、この周辺俯瞰画像中にも立体物が写っているはずである。従って、その立体物領域を立体物情報からの位置情報やエッジ検出処理などを用いて算定し、その立体物領域が周辺部から目立たないように立体物領域に対して抑制処理を施し、立体物抑制周辺俯瞰画像を得る(#3)。なお、このように生成される周辺俯瞰画では、カメラの手前に立体物が存在する場合、立体物の頂部付近が間延びするといった歪みが発生する。この抑制処理としてぼかし、周辺画素とのブレンド(αブレンドなど)、低彩度化などの画像処理が行われる   In order to monitor and display a bird's-eye view image as a vehicle periphery monitoring screen, first, a captured image of a peripheral region in the traveling direction of the own vehicle is acquired by the in-vehicle camera (# 1). At the same time, when a three-dimensional object is detected around the vehicle and a three-dimensional object is detected within the field of view of the in-vehicle camera, three-dimensional object information describing data such as the position, orientation, and size of the three-dimensional object Is generated (# 101). From the captured image of the back camera, the first projective transformation with the projection plane parallel to the road surface, that is, the viewpoint transformation with the virtual viewpoint set directly above (# 2). Through this first projective transformation process, a peripheral overhead image that is an overhead image from directly above the captured image is obtained. If the three-dimensional object information is generated, the three-dimensional object should appear in the surrounding overhead image. Therefore, the three-dimensional object area is calculated using position information from the three-dimensional object information, edge detection processing, and the like, and the three-dimensional object area is suppressed so that the three-dimensional object area is not conspicuous from the periphery. A suppressed peripheral overhead image is obtained (# 3). In addition, in the surrounding bird's-eye view generated in this way, when a three-dimensional object is present in front of the camera, distortion occurs such that the vicinity of the top of the three-dimensional object extends. As this suppression processing, image processing such as blurring, blending with surrounding pixels (such as α blending), and desaturation is performed.

また、立体物情報が生成されていると、撮影画像から、その立体物領域を立体物情報からの位置情報やエッジ検出処理などを用いて抽出する(#102)。抽出された立体物画像に対して、少なくとも遠方側では路面に対して鉛直に近い傾斜角を有する投影面を用いた第2の射影変換が行われ、立体物俯瞰画像が得られる(#103)。図1の例では路面から鉛直方向に上向き湾曲した湾曲面が用いられている。このような投影面を用いた第2射影変換では、立体物の頂部付近は上方から路面を見る仮想視点ではなく、ほぼ水平方向から路面を見る仮想視点を用いた俯瞰となる。従って、前述した第1射影変換で生じたような立体物の頂部付近が間延びするような不都合は回避される。   If the three-dimensional object information is generated, the three-dimensional object region is extracted from the photographed image using position information from the three-dimensional object information, edge detection processing, or the like (# 102). The extracted three-dimensional object image is subjected to the second projective transformation using a projection surface having an inclination angle that is nearly perpendicular to the road surface at least on the far side, and a three-dimensional object overhead image is obtained (# 103). . In the example of FIG. 1, a curved surface curved upward in the vertical direction from the road surface is used. In the second projective transformation using such a projection surface, the vicinity of the top of the three-dimensional object is not a virtual viewpoint for viewing the road surface from above, but an overhead view using a virtual viewpoint for viewing the road surface from a substantially horizontal direction. Therefore, the inconvenience of extending the vicinity of the top of the three-dimensional object as generated by the first projective transformation described above is avoided.

ステップ#3で立体物抑制周辺俯瞰画像上の立体物が存在する位置に立体物俯瞰画像が上から重ね合わさるように合成される(#4)。合成された最終的な俯瞰画像はモニタ表示用俯瞰画像としてモニタに送られる。   In step # 3, the three-dimensional object bird's-eye view image is synthesized so as to be superimposed on the position where the three-dimensional object exists on the three-dimensional object suppression peripheral bird's-eye view image (# 4). The synthesized overhead image is sent to the monitor as a monitor display overhead image.

図1の基本構想図ではバックカメラからの唯一の撮影画像だけを用いて、モニタ表示目的の最終的な俯瞰画像を生成していたが、自車を中心とする四方の周辺状況、特に路面状況が把握できる全周囲俯瞰画像の要望が高い。図2は、バックカメラ1a、左・右サイドカメラ1b,1c、フロントカメラ1dからの4つの周辺撮影画像から全周囲俯瞰画像を作成する処理過程を示す基本構想図である。   In the basic conceptual diagram of FIG. 1, the final bird's-eye view image for the purpose of monitor display was generated using only the photographed image from the back camera. There is a high demand for an all-around overhead image that can be grasped. FIG. 2 is a basic concept diagram showing a process of creating an all-around overhead view image from four surrounding captured images from the back camera 1a, the left and right side cameras 1b and 1c, and the front camera 1d.

図2では、後進での縦列駐車における駐車支援のためにモニタに表示する全周囲俯瞰画像の生成手順が例示されている。なお、この例では、バックカメラ1aの撮影画像に注目すべき立体物として三角コーンが写り込んでいることにする。バックカメラ1aによる後方撮影画像が車両真上からの全周囲俯瞰画像の後方領域画像として射影変換される。同様に、フロントカメラによる撮影画像、左サイドカメラ1bによる左撮影画像、フロントカメラ1dによる右撮影画像がそれぞれ、全周囲俯瞰画像の左領域画像、右領域画像、前方領域画像として射影変換される。ここでは、射影変換は、マッピングテーブル63を用いて行われている。それぞれのマップデータの値は異なっているので、それぞれ適合するマップが設定されている。ただし、これらの各マップは、路面に平行な面を投影面とする射影変換をもたらすように作成されたのであり、この射影変換が本発明における第1射影変換に相当する。   FIG. 2 illustrates a procedure for generating an all-around bird's-eye view image displayed on a monitor for parking support in reverse parallel parking. In this example, it is assumed that a triangular cone is reflected as a three-dimensional object to be noted in the captured image of the back camera 1a. The rear shot image by the back camera 1a is projectively converted as a rear region image of the all-around overhead image from directly above the vehicle. Similarly, a captured image by the front camera, a left captured image by the left side camera 1b, and a right captured image by the front camera 1d are respectively projectively transformed as a left region image, a right region image, and a front region image of the all-around overhead image. Here, the projective transformation is performed using the mapping table 63. Since each map data value is different, a suitable map is set. However, each of these maps is created so as to bring about a projective transformation having a plane parallel to the road surface as a projection surface, and this projective transformation corresponds to the first projective transformation in the present invention.

4つの車載カメラのうち、バックカメラ1aからの後方撮影画像には立体物(三角コーン)が含まれているが、この立体物の存在は、この車両に搭載されている立体物検知機能によって検知され、立体物情報が出力される。従って、この立体物情報に基づいて、後方撮影画像から立体物が写されている領域が立体物画像として抽出される。カメラ側が路面に対して実質的に平行で、遠方側が路面に対してほぼ鉛直(垂直)となる湾曲面ないしは屈曲面(球面や円筒面を含む)を投影面とする射影変換が、抽出された立体物画像に行われることで、立体物俯瞰画像が生成される。この射影変換が本発明における第2射影変換に相当する。ここでも、この射影変換はマッピングテーブル63を用いて行われる。この第2射影変換では、検知された立体物の位置や姿勢や大きさによって、立体物が見やすくなる射影変換を求めることができるため、複数のマッピングテーブルを用意しておき、第2射影変換のために最適な射影変換を選択するようにすると好都合である。その際、三次元形状が異なる投影面を選択するだけでなく、投影面と立体物位置関係も適切に選択することで、より立体物が見やすい俯瞰画像が得られる。   Of the four in-vehicle cameras, the rear shot image from the back camera 1a includes a three-dimensional object (triangular cone). The presence of this three-dimensional object is detected by the three-dimensional object detection function installed in this vehicle. The three-dimensional object information is output. Therefore, based on the three-dimensional object information, a region where the three-dimensional object is copied is extracted from the rear shot image as a three-dimensional object image. Projective transformation with a curved or curved surface (including spherical and cylindrical surfaces) whose projection side is substantially parallel to the road surface on the camera side and substantially perpendicular (perpendicular) to the road surface is extracted. By being performed on the three-dimensional object image, a three-dimensional object overhead image is generated. This projective transformation corresponds to the second projective transformation in the present invention. Again, this projective transformation is performed using the mapping table 63. In this second projective transformation, a projective transformation that makes it easier to see the three-dimensional object can be obtained according to the position, posture, and size of the detected three-dimensional object. Therefore, a plurality of mapping tables are prepared and the second projective transformation is performed. Therefore, it is convenient to select an optimal projective transformation. At this time, not only selecting a projection plane having a different three-dimensional shape, but also appropriately selecting a positional relationship between the projection plane and the three-dimensional object, it is possible to obtain an overhead image that makes it easier to see the three-dimensional object.

また、生成された立体物俯瞰画像と合成される全周囲俯瞰画像の後方領域の画像(後方側俯瞰画像セグメント)において、予め立体物情報に基づいて算定された立体物領域が抑制処理を受ける。抑制処理された立体物領域を含む後方俯瞰画像セグメントに立体物俯瞰画像が合成され、全周囲俯瞰画像として合成される後方俯瞰画像セグメントが出力される。この後方俯瞰画像セグメントを含め、左俯瞰画像セグメント、右俯瞰画像セグメント、前方俯瞰画像セグメントが合成され、最終的にモニタ表示される全周囲俯瞰画像が生成される。もちろん、立体物俯瞰画像の合成を、先に生成しておいた全周囲俯瞰画像の所定の領域に行うようにしてもよい。   Further, in the image of the rear area of the all-around bird's-eye view image to be combined with the generated three-dimensional bird's-eye view image (rear side bird's-eye view image segment), the three-dimensional object region calculated based on the three-dimensional object information in advance is subjected to the suppression process. A three-dimensional bird's-eye view image is synthesized with the rear bird's-eye view image segment including the three-dimensional object region subjected to the suppression process, and a rear bird's-eye view image segment synthesized as an all-around bird's-eye view image is output. The left overhead image segment, the right overhead image segment, and the front overhead image segment, including the rear overhead image segment, are synthesized, and an all-around overhead image finally displayed on the monitor is generated. Of course, the synthesis of the three-dimensional bird's-eye view image may be performed on a predetermined region of the all-around bird's-eye view image that has been generated previously.

以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、図2で例示されているように、4つの車載カメラ、バックカメラ1a、フロントカメラ1d、左サイドカメラ1b、右サイドカメラ1cからの撮影画像と立体物検知情報とから全周囲俯瞰画像を作成する画像生成装置が車両周辺監視システムの構築のために車両に組み込まれている。以下の説明において、適宜、これらの車載カメラ1a、1b、1c、1dを単にカメラ1と総称する場合がある。車両周辺監視が動作する際には、カメラ1による撮影画像ないしは当該撮影画像を用いて生成される俯瞰画像がモニタ表示される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, as illustrated in FIG. 2, the entire periphery is obtained from captured images and three-dimensional object detection information from four in-vehicle cameras, a back camera 1a, a front camera 1d, a left side camera 1b, and a right side camera 1c. An image generation device for creating a bird's-eye view image is incorporated in a vehicle for the construction of a vehicle periphery monitoring system. In the following description, these in-vehicle cameras 1a, 1b, 1c, and 1d may be simply referred to as the camera 1 as appropriate. When the vehicle periphery monitoring is operated, an image captured by the camera 1 or an overhead image generated using the captured image is displayed on the monitor.

カメラ1はCCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を時系列に撮影し、デジタル変換してその撮影画像をリアルタイムに出力するデジタルカメラである。カメラ1は、広角レンズを備えて構成される。特に、本実施形態においては、水平方向に140〜190°の視野角が確保されているとともに、光軸に約30度程度の俯角を有して車両に設置されている。   The camera 1 uses an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) to take a two-dimensional image of 15 to 30 frames per second in time series, and digitally converts the captured image in real time. It is a digital camera that outputs. The camera 1 includes a wide angle lens. In particular, in the present embodiment, a viewing angle of 140 to 190 ° is ensured in the horizontal direction and the optical axis is installed in a vehicle having a depression angle of about 30 degrees.

車両内部には、車両周辺監視システムの中核をなすECU20が設置されている。このECU20は、図3に示すように、車両状態検出センサ群からの信号入力をそのまま、あるいは評価してECU20の内部に転送するセンサ入力インターフェース23や通信インターフェース70などを備えると共に、入力情報を処理するマイクロプロセッサや、DSP(digital signal processor)を備えている。   An ECU 20 that forms the core of the vehicle periphery monitoring system is installed inside the vehicle. As shown in FIG. 3, the ECU 20 includes a sensor input interface 23, a communication interface 70, and the like that transmit the signal input from the vehicle state detection sensor group as it is or evaluate and transfer it to the inside of the ECU 20, and process input information. A microprocessor and DSP (digital signal processor).

センサ入力インターフェース23に接続されている車両状態検出センサ群は、運転操作や車両走行の状態を検出する。車両状態検出センサ群には、図示していないが、ステアリング操作方向(操舵方向)と操作量(操舵量)とを計測するステアリングセンサ、シフトレバーのシフト位置を判別するシフト位置センサ、アクセルペダルの操作量を計測するアクセルセンサ、ブレーキペダルの操作量を検出するブレーキセンサ27、自車の走行距離を検出する距離センサなどが含まれる。   The vehicle state detection sensor group connected to the sensor input interface 23 detects a driving operation or a vehicle running state. Although not shown, the vehicle state detection sensor group includes a steering sensor that measures the steering operation direction (steering direction) and the operation amount (steering amount), a shift position sensor that determines the shift position of the shift lever, and an accelerator pedal. An accelerator sensor that measures the amount of operation, a brake sensor 27 that detects the amount of operation of the brake pedal, a distance sensor that detects the travel distance of the host vehicle, and the like are included.

また、入出力インターフェースとして用いられている通信インターフェース70は、データ伝送線として車載LANを採用しており、モニタ21、タッチパネル21T、パワーステアリングユニットPS、変速機構T、ブレーキ装置BKなどの制御ユニットがデータ伝送可能に接続されている。その他、音声情報の出力デバイスとしてスピーカ22も備えられている。   The communication interface 70 used as an input / output interface employs an in-vehicle LAN as a data transmission line, and includes control units such as a monitor 21, a touch panel 21T, a power steering unit PS, a transmission mechanism T, and a brake device BK. Connected to allow data transmission. In addition, a speaker 22 is also provided as an audio information output device.

そのほか、ECU20には、ハードウエア又はソフトウエアあるいはその両方の形態で構築される種々の機能部が備えられているが、本発明に特に関係する機能部としては、本発明の立体物検知部としての立体物検知モジュール30と、画像処理モジュール50と、表示制御部71と、音声処理モジュール72が挙げられる。画像処理モジュール50で生成されたモニタ表示画像は表示制御部71でビデオ信号に変換されてモニタ21に送られる。音声処理モジュール72で生成された音声ガイドや緊急時の警告音などはスピーカ22で鳴らされる。   In addition, the ECU 20 is provided with various functional units constructed in the form of hardware and / or software. As the functional unit particularly related to the present invention, the three-dimensional object detection unit of the present invention is provided. Three-dimensional object detection module 30, image processing module 50, display control unit 71, and sound processing module 72. The monitor display image generated by the image processing module 50 is converted into a video signal by the display control unit 71 and sent to the monitor 21. The voice guide generated by the voice processing module 72, an emergency warning sound, and the like are played by the speaker 22.

立体物検知モジュール30には、複数の超音波センサ3からの検出信号を評価して立体物検知を行う超音波評価部31と、車載カメラ1からの撮影画像を用いて立体物検知を行う画像認識部32とが含まれている。超音波センサ3は車両の前部、後部、左側部、右側部のそれぞれにおける両端箇所と中央箇所とに配置されており、車両周辺近傍に存在する物体(障害物)をそれらからの反射波を通じて検知することができる。各超音波センサ3における反射波の戻り時間や振幅を処理することで車両から物体までの距離や物体の大きさを推定できるだけでなく、全ての超音波センサ3の検出結果を経時的に処理することで、物体の動きや横方向の外形形状を推定することも可能である。画像認識部32は、それ自体は公知である物体認識アルゴリズムを実装しており、入力した撮影画像、特に経時的に連続する撮影画像から車両周辺の立体物を検知する。
立体物の検知のためには、超音波評価部31と画像認識部32のいずれか1つでもよいが、立体物の形態を検知するのに優れた画像認識部32と、立体物までの距離、つまり立体物の位置を算出するのに優れた超音波評価部31の両方を備えて協働作業させることでより正確な立体物検知が可能となる。これにより、立体物検知モジュール30は、検知した立体物の位置、姿勢、大きさ、色調などを記述した立体物情報を出力することができる。従って、超音波評価部31と画像認識部32のいずれでもあるいはその組み合わせであってもは本発明における立体物検知部として機能するものであり、さらには、レーザレーダを用いるような他の立体物検知装置も含むものである。
The three-dimensional object detection module 30 includes an ultrasonic evaluation unit 31 that performs detection of three-dimensional objects by evaluating detection signals from a plurality of ultrasonic sensors 3, and an image that performs three-dimensional object detection using captured images from the in-vehicle camera 1. A recognition unit 32 is included. The ultrasonic sensors 3 are disposed at both ends and the center of the front, rear, left side, and right side of the vehicle, and objects (obstacles) existing in the vicinity of the vehicle are reflected through the reflected waves from them. Can be detected. By processing the return time and amplitude of the reflected wave in each ultrasonic sensor 3, not only the distance from the vehicle to the object and the size of the object can be estimated, but also the detection results of all the ultrasonic sensors 3 are processed over time. Thus, it is also possible to estimate the movement of the object and the outer shape in the lateral direction. The image recognition unit 32 implements an object recognition algorithm that is known per se, and detects a three-dimensional object around the vehicle from an input captured image, particularly a captured image that is continuous over time.
For detecting a three-dimensional object, any one of the ultrasonic evaluation unit 31 and the image recognition unit 32 may be used, but the image recognition unit 32 excellent in detecting the form of the three-dimensional object and the distance to the three-dimensional object That is, more accurate three-dimensional object detection can be performed by providing both of the ultrasonic evaluation units 31 excellent in calculating the position of the three-dimensional object and performing a cooperative operation. Thereby, the three-dimensional object detection module 30 can output three-dimensional object information describing the position, posture, size, color tone, and the like of the detected three-dimensional object. Therefore, any one or a combination of the ultrasonic evaluation unit 31 and the image recognition unit 32 functions as a three-dimensional object detection unit in the present invention, and further, another three-dimensional object using a laser radar. It also includes a detection device.

図4に、ECU20の画像処理モジュール50の機能ブロック図が示されている。画像処理モジュール50は、自車周辺を撮影するカメラ1によって取得された撮影画像から射影変換によって変換された俯瞰画像等の画像を生成する機能を有している。   FIG. 4 shows a functional block diagram of the image processing module 50 of the ECU 20. The image processing module 50 has a function of generating an image such as an overhead image converted by projective transformation from a captured image acquired by the camera 1 that captures the periphery of the vehicle.

画像処理モジュール50は、撮影画像メモリ51、前処理部52、画像生成部60、立体物情報取得部53、画像合成部55、フレームメモリ56を含んでいる。カメラ1によって取得された撮影画像は撮影画像メモリ51に展開され、前処理部52はカメラ1によって個々に取得された撮影画像間の輝度バランスやカラーバランス等を調整する。立体物情報取得部53は、立体物検知モジュール30から出力された立体物情報を受け取り、当該立体物情報に記述された立体物の位置、姿勢、大きさ、色調などを読み出す。   The image processing module 50 includes a captured image memory 51, a preprocessing unit 52, an image generation unit 60, a three-dimensional object information acquisition unit 53, an image composition unit 55, and a frame memory 56. The captured image acquired by the camera 1 is developed in the captured image memory 51, and the preprocessing unit 52 adjusts the luminance balance, color balance, and the like between the captured images individually acquired by the camera 1. The three-dimensional object information acquisition unit 53 receives the three-dimensional object information output from the three-dimensional object detection module 30, and reads the position, posture, size, color tone, and the like of the three-dimensional object described in the three-dimensional object information.

画像生成部60は、通常画像生成部61、射影変換選択部62、マッピングテーブル63、周辺俯瞰画像生成部64、立体物俯瞰画像生成部65、立体物抽出部66、立体物抑制部67を含
んでいる。通常画像生成部61は、撮影画像をそのまま車両周辺画像としてモニタ表示するために適した画質に調整する。モニタ表示される車両周辺画像としては、バックカメラ1a、左・右サイドカメラ1b,1c、フロントカメラ1dによる撮影画像から運転者によって選択された1つでもよいし、複数撮影画像の組み合わせででもよい。
The image generation unit 60 includes a normal image generation unit 61, a projective transformation selection unit 62, a mapping table 63, a surrounding bird's-eye view image generation unit 64, a three-dimensional object bird's-eye view image generation unit 65, a three-dimensional object extraction unit 66, and a three-dimensional object suppression unit 67. It is out. The normal image generation unit 61 adjusts the captured image to an image quality suitable for monitor display as a vehicle peripheral image as it is. The vehicle peripheral image displayed on the monitor may be one selected by the driver from images captured by the back camera 1a, left and right side cameras 1b and 1c, and the front camera 1d, or may be a combination of a plurality of captured images. .

周辺俯瞰画像生成部64は、撮影画像メモリ51に展開されている撮影画像を用いて第1射影変換を行い、周辺俯瞰画像を生成する。この第1射影変換として、ここでは車両の上方に位置する仮想視点、及び路面に一致する面又は平行な面を投影面とした射影変換がデフォルト設定されているが、運転者の嗜好あるいは運転状況に応じて変更可能である。
立体物俯瞰画像生成部65は、撮影画像メモリ51に展開されている撮影画像をそのまま用いるのではなく、撮影画像に写っている立体物の画像領域を抽出して得られた立体物画像を用いて第2射影変換を行い、立体物俯瞰画像を生成する。撮影画像からの立体物画像の抽出は、立体物情報取得部53によって立体物情報から読み出された位置データなどに基づいて立体物抽出部66が行う。このため、立体物抽出部66には、立体物の位置データを撮影画像系の位置座標に変換し、立体物が写されている大まかな領域を算定し、その算定された領域においてエッジ検出フィルタなどを用いて推定される立体物の境界線を検知する機能を有する。立体物抽出部66は、この境界線によって囲まれた領域、ないしはこの境界線から所定長さ分だけ広げた領域を立体物画像として抽出して、立体物俯瞰画像生成部65に与える。また、立体物俯瞰画像生成部65で実行される第2射影変換として、複数の種類の射影変換が用意されている。立体物俯瞰画像生成部65で実行される射影変換の選択は、当該立体物のカメラ1に対する相対位置、その姿勢、その大きさ等に基づいて射影変換選択部62が行う。
The surrounding bird's-eye view image generation unit 64 performs the first projective transformation using the photographed image developed in the photographed image memory 51 and generates a surrounding bird's-eye view image. As the first projective transformation, a virtual viewpoint located above the vehicle and a projective transformation with a plane that coincides with or parallel to the road surface are set as default projections. It can be changed according to
The three-dimensional object overhead image generation unit 65 does not use the photographed image developed in the photographed image memory 51 as it is, but uses the three-dimensional object image obtained by extracting the image area of the three-dimensional object shown in the photographed image. The second projective transformation is performed to generate a three-dimensional object overhead image. The three-dimensional object image is extracted from the captured image by the three-dimensional object extraction unit 66 based on the position data read from the three-dimensional object information by the three-dimensional object information acquisition unit 53. For this reason, the three-dimensional object extraction unit 66 converts the position data of the three-dimensional object into the position coordinates of the captured image system, calculates a rough area where the three-dimensional object is copied, and uses the edge detection filter in the calculated area. It has a function of detecting a boundary line of a three-dimensional object estimated by using the above. The three-dimensional object extraction unit 66 extracts a region surrounded by the boundary line, or a region widened by a predetermined length from the boundary line, as a three-dimensional object image, and provides the three-dimensional object overhead image generation unit 65 with the three-dimensional object image. Further, as the second projective transformation executed by the three-dimensional object overhead image generation unit 65, a plurality of types of projective transformations are prepared. The projective transformation selection performed by the three-dimensional object overhead image generation unit 65 is performed by the projective transformation selection unit 62 based on the relative position of the three-dimensional object with respect to the camera 1, its posture, its size, and the like.

なお、この実施形態では、周辺俯瞰画像生成部64及び立体物俯瞰画像生成部65における射影変換は、マッピングテーブルを用いたマップ変換によって行われるので、ここで使用される射影変換のための種々のマッピングテーブルが選択可能に予め格納されている。このような選択可能格納された複数のマッピングテーブルからなる集合体及び個別マッピングテーブルを、ここでは、マッピングテーブル63と称し、図4においても模式的に図示されている。マッピングテーブル63を構成する各マッピングテーブル(以下点にマップと略称する)は種々の形態で構築することができるが、ここでは、撮影画像の画素データと射影変換画像(通常は俯瞰画像)の画素データとの対応関係が記述されたマップとして構築され、1フレームの撮影画像の各画素に、俯瞰画像における行き先画素座標が記述されたものである。従って、車載カメラ毎に異なるマップが適用される。   In this embodiment, the projective transformation in the peripheral bird's-eye view image generation unit 64 and the three-dimensional object bird's-eye view image generation unit 65 is performed by map transformation using a mapping table, and thus various projection transformations used here are used. A mapping table is stored in advance so as to be selectable. Such an assembly composed of a plurality of mapping tables that can be selected and the individual mapping table is referred to herein as a mapping table 63 and is also schematically shown in FIG. Each mapping table constituting the mapping table 63 (hereinafter abbreviated as a map) can be constructed in various forms. Here, the pixel data of the photographed image and the pixels of the projective transformation image (usually an overhead image) are used. It is constructed as a map in which the correspondence relationship with the data is described, and the destination pixel coordinates in the overhead image are described in each pixel of the captured image of one frame. Therefore, a different map is applied for each on-vehicle camera.

射影変換選択部62は、立体物俯瞰画像生成部65に対しては、立体物情報から読み出されたデータに基づいて、射影変換後の立体物の形状を推定し、周辺俯瞰画像とできるだけ調和するとともに間延び等の歪が低減する射影変換を選択する。さらに立体物俯瞰画像生成部65は、立体物を示す画像領域に対して強調表示されるように彩度増加などの色補正処理や輪郭強調処理を必要に応じて施すことができる。   The projective transformation selection unit 62 estimates the shape of the three-dimensional object after the projective transformation based on the data read from the three-dimensional object information, and harmonizes with the surrounding bird's-eye view image as much as possible. And projective transformation that reduces distortion such as stretching. Further, the three-dimensional object bird's-eye view image generation unit 65 can perform color correction processing such as saturation increase and contour enhancement processing as necessary so that the image region showing the three-dimensional object is highlighted.

図5には、立体物俯瞰画像生成部65に対して適切なマップが、射影変換選択部62によって選択されて、最終的な俯瞰画像が生成される様子が模式的に示されている。
立体物情報が出力されると、一方では立体物情報に記述された立体物のデータ(位置、姿勢、形状など)に基づいて、撮影画像から立体物画像が抽出される。また、他方ではそのような立体物のデータを入力パラメータとしてルール演算処理を行って、最適種類の射影変換を指示するマップ選択指令が決定される。このマップ選択指令に基づいて、適用マップが立体物俯瞰画像生成部に設定される。つまり、立体物のデータに基づいて、射影変換を規定する投影面形状や当該投影面と立体物(正確には射影変換元画像としての立体物画像)との相対位置を表す変換パラメータが設定される構成となっている。
ここでは、立体物の歪みを低減する射影変換として、図5で模式的に示すように、投影面形状と立体物との相対位置とが異なる複数の射影変換がマップの形態で準備されている。投影面形状としては、円柱状湾曲面、途中で折り曲げられた平面からなる屈曲面、球面状湾曲面などが挙げられる。もちろん、路面に垂直な垂直平面や路面に対して傾斜平面も投影面として利用可能である。また、それぞれの投影面は、立体物との異なる相対位置に配置することで異なる射影変換を実現することができる。特に好適な配置としては、立体物が投影面の路面からの立ち上がった傾斜面領域又は湾曲面領域で投影されることあり、これにより、立体物の投影画像全体にわたって、路面と平行な投影面において生じる間延びした歪が抑制される。このことから、立体物の路面側端部の投影位置が投影面の路面からの立ち上がった領域位置と一致する配置が好都合である。その際は、立体物の路面側端部の位置はエッジ検出処理で検出することができるので、この位置が投影面の路面からの立ち上がり位置に一致させるように配置した投影面を用いて立体物の俯瞰画像を生成するとよい。
準備された射影変換の種類が多くなると、その選択ルールが複雑になる。従ってそのような場合、立体物情報に記述された立体物のデータ(位置、姿勢、形状など)を入力パラメータ、マップ選択指令を出力パラメータとするニューラルネットワークを構築して射影変換選択部62に組み込むとよい。立体物画像に適した射影変換のためのマップが選択されると、当該マップを用いて、立体物画像から立体物俯瞰画像が生成される。
FIG. 5 schematically shows a state in which an appropriate map for the three-dimensional object overhead image generation unit 65 is selected by the projective transformation selection unit 62 and a final overhead image is generated.
When the three-dimensional object information is output, on the other hand, a three-dimensional object image is extracted from the photographed image based on the three-dimensional object data (position, posture, shape, etc.) described in the three-dimensional object information. On the other hand, a rule selection process is performed using such three-dimensional object data as input parameters, and a map selection command for instructing an optimal type of projective transformation is determined. Based on this map selection command, the application map is set in the three-dimensional object overhead image generation unit. That is, based on the three-dimensional object data, a projection surface shape that defines projective transformation and a conversion parameter that represents the relative position between the projection plane and the three-dimensional object (more precisely, the three-dimensional object image as the projective transformation source image) are set. It is the composition which becomes.
Here, as the projective transformation for reducing the distortion of the three-dimensional object, as schematically shown in FIG. 5, a plurality of projective transformations having different projection surface shapes and different relative positions of the three-dimensional object are prepared in the form of a map. . Examples of the shape of the projection surface include a cylindrical curved surface, a curved surface formed of a plane bent halfway, and a spherical curved surface. Of course, a vertical plane perpendicular to the road surface and an inclined plane with respect to the road surface can also be used as the projection surface. Also, different projection transformations can be realized by arranging each projection plane at a different relative position to the three-dimensional object. As a particularly suitable arrangement, the three-dimensional object is projected in an inclined surface area or a curved surface area rising from the road surface of the projection surface, so that the entire three-dimensional object projection image is projected on the projection surface parallel to the road surface. The strain that is extended during the generation is suppressed. For this reason, an arrangement in which the projection position of the road surface side end portion of the three-dimensional object coincides with the region position where the projection surface rises from the road surface is convenient. In that case, the position of the road surface side end portion of the three-dimensional object can be detected by the edge detection processing, and therefore the three-dimensional object is used by using the projection surface arranged so that this position matches the rising position of the projection surface from the road surface. It is preferable to generate a bird's-eye view image.
As the types of prepared projective transformations increase, the selection rules become complicated. Therefore, in such a case, a neural network is constructed with the three-dimensional object data (position, orientation, shape, etc.) described in the three-dimensional object information as input parameters and a map selection command as an output parameter, and is incorporated into the projective transformation selection unit 62. Good. When a map for projective transformation suitable for a three-dimensional object image is selected, a three-dimensional object overhead image is generated from the three-dimensional object image using the map.

立体物抑制部67は、周辺俯瞰画像生成部64によって生成された周辺俯瞰画像における立体物画像の領域に対して目立たないように抑制処理をするために、ブレンド機能を備えている。このブレンド機能の典型的な処理は、立体物画像の領域の周辺領域、例えば右側領域と左側領域の画素値に基づいて立体物画像の領域の画素値を置き換える処理である。また、複数カメラを使用している場合であれば、立体物が写り込んでいない側のカメラによる路面投影画像を用いる処理、例えば当該路面投影画像の画素値で立体物画像の領域の画素値を置き換える処理もブレンド処理として有効である。もちろん、その他の処理を採用してもよい。また、周辺画素とのブレンド機能に代えて、ぼかし処理や彩度低減処理を用いる構成でもよい。   The three-dimensional object suppression unit 67 has a blend function in order to perform a suppression process so as not to stand out with respect to the region of the three-dimensional object image in the peripheral overhead image generated by the peripheral overhead image generation unit 64. A typical process of this blend function is a process of replacing the pixel values of the region of the three-dimensional object image based on the pixel values of the peripheral region of the region of the three-dimensional object image, for example, the right region and the left region. If a plurality of cameras are used, a process using a road projection image by a camera on which the three-dimensional object is not reflected, for example, the pixel value of the region of the three-dimensional object image with the pixel value of the road projection image. The replacement process is also effective as a blend process. Of course, other processing may be employed. Further, instead of the blending function with surrounding pixels, a configuration using blurring processing or saturation reduction processing may be used.

画像合成部55は、必要に応じて、立体物抑制部67によって立体物の抑制処理を施した周辺俯瞰画像の当該立体物の領域に、立体物俯瞰画像生成部65によって生成された立体物俯瞰画像を重ね合わせ合成する。合成された最終的な周辺俯瞰画像は表示俯瞰画像としてフレームメモリ56に転送され、表示制御部71を介してモニタ21に表示される。   The image compositing unit 55 generates a three-dimensional object overhead image generated by the three-dimensional object bird's-eye image generation unit 65 in a region of the three-dimensional object of the peripheral bird's-eye view image subjected to the three-dimensional object suppression process by the three-dimensional object suppression unit 67 as necessary. Superimpose and combine images. The synthesized peripheral overhead view image is transferred to the frame memory 56 as a display overhead view image and displayed on the monitor 21 via the display control unit 71.

次に、上述のように構成された画像生成装置を組み込んだ車両周辺監視システムによる俯瞰画像表示の流れを図6のフローチャートを用いて説明する。
この車両周辺監視目的の俯瞰画像表示ルーチンがスタートすると、まずは、運転者の希望によってマニュアル設定されるか又はデフォルトで設定されている俯瞰画像の表示種別が読み出される(#01)。ここでの俯瞰画像の表示種別とは、周辺俯瞰画像を生成する際に用いる撮影画像や仮想視点位置、生成された表示俯瞰画像のモニタ画面上のレイアウトなどを規定するものである。読み込まれた俯瞰画像の表示種別に応じて周辺俯瞰画像生成部64で用いられる第1射影変換のためのマップが、利用される車載カメラ1の撮影画像毎に設定される(#02)。車載カメラ1の撮影画像を取得する(#03)。設定された各マップを用いて各撮影画像から俯瞰画像セグメントが生成される(#04)。生成された俯瞰画像セグメントを組み合わせるとともに、自車両位置に予め設定されている車両の俯瞰イメージ画像(イラストやシンボルでも良い)が配置され、周辺俯瞰画像が生成される(#05)。
Next, the flow of the overhead image display by the vehicle periphery monitoring system incorporating the image generating apparatus configured as described above will be described with reference to the flowchart of FIG.
When the bird's-eye view image display routine for vehicle periphery monitoring starts, first, the display type of the bird's-eye view image set manually or by default according to the driver's request is read (# 01). Here, the display type of the bird's-eye view image defines a photographed image and a virtual viewpoint position used when generating the surrounding bird's-eye view image, a layout on the monitor screen of the generated display bird's-eye view image, and the like. A map for the first projective transformation used in the peripheral bird's-eye view image generation unit 64 is set for each captured image of the in-vehicle camera 1 to be used according to the display type of the read bird's-eye view image (# 02). A captured image of the in-vehicle camera 1 is acquired (# 03). An overhead image segment is generated from each captured image using each set map (# 04). In addition to combining the generated overhead image segments, a vehicle overhead image (which may be an illustration or a symbol) set in advance at the position of the host vehicle is arranged, and a surrounding overhead image is generated (# 05).

立体物検知モジュール30から立体物情報が出力されているかどうかチェックする(#06)。立体物情報が出力されていない場合(#06No分岐)、どの撮影画像にも注目すべき立体物が写り込んでいないとみなして、ステップ#05で生成された周辺俯瞰画像をそのまま利用して表示俯瞰画像が生成される(#14)。生成された表示俯瞰画像をモニタ21に表示させ(#15)、この俯瞰画像表示ルーチンの終了指令がない限り(#16No分岐)、再びステップ#01に戻って、このルーチンを繰り返す。   It is checked whether or not the three-dimensional object information is output from the three-dimensional object detection module 30 (# 06). If the three-dimensional object information is not output (# 06 No branch), it is assumed that there is no noticeable three-dimensional object in any photographed image, and the surrounding overhead image generated in step # 05 is used as it is. An overhead image is generated (# 14). The generated display bird's-eye view image is displayed on the monitor 21 (# 15), and unless there is an instruction to end this bird's-eye view image display routine (# 16 No branch), the process returns to step # 01 again to repeat this routine.

ステップ#06のチェックで、立体物情報が出力されている場合(#06Yes分岐)、注目すべき立体物が撮影画像に写り込んでいるとみなし、まず、立体物情報から検知された立体物の位置、姿勢、大きさなどのデータを読み出す(#07)。読み出した立体物に関するデータに基づいて撮影画像における当該立体物の画像領域を算定し(#08)、立体物画像を抽出して一時的にメモリに格納する(#09)。さらに、周辺俯瞰画像における立体物の画像領域に対して、その周辺領域の画素値を用いてブレンド処理を行い、立体物の存在をなくするかもしくは弱めるような立体物抑制処理を行う(#10)。   If the three-dimensional object information is output in the check of step # 06 (# 06 Yes branch), it is considered that the three-dimensional object to be noticed is reflected in the photographed image, and first, the three-dimensional object detected from the three-dimensional object information is detected. Data such as position, orientation, and size are read (# 07). Based on the read data regarding the three-dimensional object, the image area of the three-dimensional object in the captured image is calculated (# 08), and the three-dimensional object image is extracted and temporarily stored in the memory (# 09). Further, a three-dimensional object suppression process that eliminates or weakens the presence of the three-dimensional object is performed on the image area of the three-dimensional object in the peripheral bird's-eye view image using the pixel values of the peripheral area (# 10). ).

周辺俯瞰画像では、立体物の路面からの高さやカメラ1からの距離に依存するが、上方に延びている立体物の上端は間延びして示される。このような上方の仮想視点からの俯瞰画像における立体物の歪みを低減するため、撮影画像から抽出された立体物画像だけを別な射影変換、つまり第2射影変換を用いて射影変換画像を生成する。このために、まず、図5で示されているような種々の形態から第2射影変換のために最適なマップを立体物情報に基づいて選択して設定する(#11)。次いで、立体物俯瞰画像生成部65は設定されたマップを用いて立体物画像を射影変換し、周辺俯瞰画像に比べて歪が低減されている立体物俯瞰画像を生成する(#12)。その際、必要に応じて、立体物俯瞰画像における立体物領域の彩度を上げる色補正処理や輪郭を強調したりする形状明確化処理を施してもよい。さらに、立体物俯瞰画像は周辺俯瞰画像における立体物の画像領域に重ね合わせ合成される(#13)。このようにして生成された最終的な周辺俯瞰画像は、表示俯瞰画像として生成され(#14)、モニタ21に表示される(#15)。   In the surrounding bird's-eye view image, depending on the height of the three-dimensional object from the road surface and the distance from the camera 1, the upper end of the three-dimensional object extending upward is shown extended. In order to reduce the distortion of the three-dimensional object in the overhead view image from the upper virtual viewpoint, only the three-dimensional object image extracted from the photographed image is generated using another projective transformation, that is, the second projective transformation. To do. For this purpose, first, an optimal map for the second projective transformation is selected and set from various forms as shown in FIG. 5 based on the solid object information (# 11). Next, the three-dimensional object bird's-eye view image generation unit 65 performs projective transformation of the three-dimensional object image using the set map, and generates a three-dimensional object bird's-eye image whose distortion is reduced compared to the surrounding bird's-eye image (# 12). At that time, if necessary, color correction processing for increasing the saturation of the three-dimensional object region in the three-dimensional object bird's-eye view image or shape clarification processing for enhancing the contour may be performed. Further, the three-dimensional object bird's-eye view image is superimposed and synthesized on the image area of the three-dimensional object in the peripheral bird's-eye view image (# 13). The final peripheral bird's-eye view image generated in this way is generated as a display bird's-eye view image (# 14) and displayed on the monitor 21 (# 15).

〔別実施の形態〕 [Another embodiment]

(1)上述した実施形態では、注目すべき一つの立体物が4つのカメラ1から取得した撮影画像の1つに写されている例を取り上げたが、隣り合うカメラ視野の境界領域では、注目すべき一つの立体物が複数の撮影画像に写されている場合も考えられる。従って、車載カメラが車両全周囲を撮影するために複数設置されているような実施形態において、立体物が2つ以上のカメラの撮影画像に含まれている場合、より面積の大きい方の立体物領域を有する立体物画像が立体物俯瞰画像生成のために抽出されると好都合である。
(2)注目すべき立体物として2つの異なる立体物を取り扱うようにしてもよい。さらにこの場合、立体物によって異なる射影変換を用いて立体物俯瞰画像を生成して、周辺俯瞰画像と合成してもよい。
(3)上述した実施の形態では、立体物検知方法として、超音波を用いた立体物検知と画像認識による立体物検知のいずれか又はその組み合わせが提示されていたが、もちろん、これ以外の立体物検知方法、例えば、レーザーレーダ法や赤外線法を利用することも本発明の範囲内である。
(1) In the above-described embodiment, an example in which one notable solid object is captured in one of the captured images acquired from the four cameras 1 has been described. There may be a case where a single three-dimensional object to be copied is shown in a plurality of captured images. Therefore, in an embodiment in which a plurality of in-vehicle cameras are installed to capture the entire periphery of the vehicle, when a three-dimensional object is included in the captured images of two or more cameras, the three-dimensional object having a larger area It is advantageous if a three-dimensional object image having a region is extracted for generating a three-dimensional object overhead image.
(2) Two different three-dimensional objects may be handled as three-dimensional objects to be noted. Further, in this case, a three-dimensional object overhead image may be generated using projective transformation that varies depending on the three-dimensional object, and may be combined with the peripheral overhead image.
(3) In the above-described embodiment, as the three-dimensional object detection method, one or a combination of three-dimensional object detection using ultrasonic waves and three-dimensional object detection by image recognition has been presented. It is also within the scope of the present invention to use an object detection method such as a laser radar method or an infrared method.

本発明は、俯瞰画像を用いて車両周辺の監視を行う全てのシステムに利用することができる。   The present invention can be used for all systems that monitor a vehicle periphery using an overhead image.

30:立体物検知モジュール
21:モニタ
50:画像処理モジュール
53:立体物情報取得部
54:仮想立体物選定部
55:画像合成部
60:画像生成部
61:通常画像生成部
62:射影変換選択部
63:マッピングテーブル
64:周辺俯瞰画像生成部
65:立体物俯瞰画像生成部
66:立体物抽出部
67:立体物抑制部
71:表示制御部
30: Three-dimensional object detection module 21: Monitor 50: Image processing module 53: Three-dimensional object information acquisition unit 54: Virtual three-dimensional object selection unit 55: Image composition unit 60: Image generation unit 61: Normal image generation unit 62: Projection conversion selection unit 63: Mapping table 64: Surrounding bird's-eye view image generation unit 65: Three-dimensional object overhead image generation unit 66: Three-dimensional object extraction unit 67: Three-dimensional object suppression unit 71: Display control unit

Claims (6)

車両の周辺領域を撮影する車載カメラによって取得された撮影画像を上方仮想視点で射影変換することで生成される俯瞰画像を表示画像として出力する画像生成装置であって、
第1射影変換を用いて前記撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、
前記車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、
前記立体物情報に基づいて前記撮影画像から前記立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、
前記周辺俯瞰画像における前記立体物の歪みを低減する第2射影変換を用いて前記立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、
前記立体物情報に基づき前記周辺俯瞰画像に前記立体物俯瞰画像を画像合成する画像合成部と、
を備えた画像生成装置。
An image generation device that outputs a bird's-eye view image generated by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral area of a vehicle from an upper virtual viewpoint as a display image,
A peripheral overhead image generation unit that generates a peripheral overhead image from the captured image using the first projective transformation;
A three-dimensional object detection unit that detects a three-dimensional object existing in the field of view of the in-vehicle camera and outputs three-dimensional object information including the position of the three-dimensional object;
A three-dimensional object extraction unit that extracts a three-dimensional object image that is an image region in which the three-dimensional object is captured from the captured image based on the three-dimensional object information;
A three-dimensional object overhead image generation unit that generates a three-dimensional object overhead image from the three-dimensional object image using a second projective transformation that reduces distortion of the three-dimensional object in the peripheral overhead image;
An image compositing unit that synthesizes the three-dimensional object overhead image with the peripheral overhead image based on the three-dimensional object information;
An image generation apparatus comprising:
前記第2射影変換は、前記撮影画像を撮影視点から路面に垂直な投影面に投影する射影変換である請求項1に記載の画像生成装置。   The image generation apparatus according to claim 1, wherein the second projective transformation is a projective transformation in which the photographed image is projected from a photographing viewpoint onto a projection plane perpendicular to a road surface. 投影面の形状又は投影面と投影される立体物との相対位置あるいはその両方である前記第2射影変換の変換パラメータは、前記立体物情報に基づいて設定される請求項1又は2に記載の画像生成装置。   The conversion parameter of the second projective transformation, which is the shape of the projection surface and / or the relative position between the projection surface and the projected three-dimensional object, or both, is set based on the three-dimensional object information. Image generation device. 前記周辺俯瞰画像における前記立体物画像の領域を目立たないように抑制処理をする立体物抑制部が備えられている請求項1から3のいずれか一項に記載の画像生成装置。   4. The image generation device according to claim 1, further comprising a three-dimensional object suppression unit that performs a suppression process so that a region of the three-dimensional object image in the peripheral overhead image is not conspicuous. 前記立体物俯瞰画像が強調表示されるように前記立体物俯瞰画像に色補正処理が施される請求項1から4のいずれか一項に記載の画像生成装置。   The image generation apparatus according to claim 1, wherein a color correction process is performed on the three-dimensional object overhead image so that the three-dimensional object overhead image is highlighted. 前記車載カメラは、車両全周囲を撮影するために複数設置されており、前記立体物が2つ以上のカメラの撮影画像に含まれている場合、より面積の小さい方の立体物領域を有する立体物画像が抽出される請求項1から5のいずれか一項に記載の画像生成装置。   A plurality of the in-vehicle cameras are installed for photographing the entire periphery of the vehicle, and when the three-dimensional object is included in the captured images of two or more cameras, the three-dimensional object region having a smaller area is provided. The image generation apparatus according to claim 1, wherein an object image is extracted.
JP2011002778A 2011-01-11 2011-01-11 Image generating apparatus Pending JP2012147149A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011002778A JP2012147149A (en) 2011-01-11 2011-01-11 Image generating apparatus
CN201180064774.5A CN103299617B (en) 2011-01-11 2011-11-22 Video generation device
PCT/JP2011/076899 WO2012096058A1 (en) 2011-01-11 2011-11-22 Image generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011002778A JP2012147149A (en) 2011-01-11 2011-01-11 Image generating apparatus

Publications (1)

Publication Number Publication Date
JP2012147149A true JP2012147149A (en) 2012-08-02

Family

ID=46506975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011002778A Pending JP2012147149A (en) 2011-01-11 2011-01-11 Image generating apparatus

Country Status (3)

Country Link
JP (1) JP2012147149A (en)
CN (1) CN103299617B (en)
WO (1) WO2012096058A1 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174884A1 (en) * 2013-04-24 2014-10-30 住友重機械工業株式会社 Image to be processed generating device, image to be processed generating method, and operation assistance system
WO2015029110A1 (en) * 2013-08-26 2015-03-05 日立建機株式会社 Device for monitoring area around working machine
CN105291979A (en) * 2014-06-10 2016-02-03 Lg电子株式会社 Around view provision apparatus and vehicle including the same
JP2017515727A (en) * 2014-05-08 2017-06-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for distortion-free display of the vehicle periphery of a vehicle
JP2017220760A (en) * 2016-06-06 2017-12-14 アイシン精機株式会社 Image processing apparatus for vehicle
EP2709069B1 (en) * 2012-09-15 2018-08-08 ZF Friedrichshafen AG Method and apparatus for an imaging driver assistance system with adaptive all-round view display
WO2018146997A1 (en) * 2017-02-07 2018-08-16 日本電気株式会社 Three-dimensional object detection device
WO2018220915A1 (en) * 2017-06-02 2018-12-06 アイシン精機株式会社 Periphery monitoring device
US10282915B1 (en) * 2017-12-27 2019-05-07 Industrial Technology Research Institute Superimposition device of virtual guiding indication and reality image and the superimposition method thereof
JP6513300B1 (en) * 2018-03-28 2019-05-15 三菱電機株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
US10339396B2 (en) 2015-02-10 2019-07-02 Clarion Co., Ltd. Vehicle accessibility determination device
WO2019172073A1 (en) * 2018-03-05 2019-09-12 株式会社デンソー Image creation device and image creation method
WO2019198399A1 (en) * 2018-04-13 2019-10-17 クラリオン株式会社 Image processing device and method
JPWO2018221209A1 (en) * 2017-05-30 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 Image processing apparatus, image processing method, and program
JP2020127171A (en) * 2019-02-06 2020-08-20 アイシン精機株式会社 Periphery monitoring device
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
JPWO2022254592A1 (en) * 2021-06-01 2022-12-08
US11727601B2 (en) 2019-12-31 2023-08-15 Woven Planet North America, Inc. Overhead view image generation

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5904093B2 (en) * 2012-10-30 2016-04-13 株式会社デンソー In-vehicle image generator
JP5984714B2 (en) * 2013-02-27 2016-09-06 アルパイン株式会社 Three-dimensional object detection device, driving support device, and three-dimensional object detection method
US20150077560A1 (en) * 2013-03-22 2015-03-19 GM Global Technology Operations LLC Front curb viewing system based upon dual cameras
US9886636B2 (en) * 2013-05-23 2018-02-06 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
US9834143B2 (en) * 2013-05-23 2017-12-05 GM Global Technology Operations LLC Enhanced perspective view generation in a front curb viewing system
CN103617606B (en) * 2013-11-26 2016-09-14 中科院微电子研究所昆山分所 For assisting the vehicle multi-angle panorama generation method of driving
JP6232994B2 (en) * 2013-12-16 2017-11-22 ソニー株式会社 Image processing apparatus, image processing method, and program
US10097772B2 (en) * 2014-10-31 2018-10-09 Mitsubishi Electric Corporation Image processing device and image processing method
WO2017054116A1 (en) * 2015-09-28 2017-04-06 神画科技(深圳)有限公司 Automatic three-dimensional mapping projection system and method
GB2556797B (en) * 2015-11-06 2018-10-24 Mitsubishi Electric Corp Image processing apparatus, image processing method, and image processing program
US20190156511A1 (en) * 2016-04-28 2019-05-23 Sharp Kabushiki Kaisha Region of interest image generating device
JP6962372B2 (en) * 2017-08-25 2021-11-05 株式会社ソシオネクスト Correction device, correction program and recording medium
CN109344677B (en) * 2017-11-07 2021-01-15 长城汽车股份有限公司 Method, device, vehicle and storage medium for recognizing three-dimensional object
CN108876707B (en) * 2018-05-25 2022-09-23 北京市商汤科技开发有限公司 Bird's-eye view image generation and neural network training method, device, storage medium and equipment
JP7160730B2 (en) * 2019-03-20 2022-10-25 本田技研工業株式会社 VEHICLE SYSTEM, VEHICLE SYSTEM CONTROL METHOD, AND PROGRAM
CN116324863A (en) * 2020-10-09 2023-06-23 株式会社索思未来 Image processing device, image processing method, and image processing program
WO2023243310A1 (en) * 2022-06-17 2023-12-21 株式会社デンソー Image processing system, image processing device, image processing method, and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4626400B2 (en) * 2005-05-25 2011-02-09 日産自動車株式会社 Overhead image display device and overhead image display method
JP4928956B2 (en) * 2007-01-18 2012-05-09 三洋電機株式会社 Overhead image providing device, vehicle, and overhead image providing method
JP4969269B2 (en) * 2007-02-21 2012-07-04 アルパイン株式会社 Image processing device
JP5067632B2 (en) * 2008-11-28 2012-11-07 アイシン精機株式会社 Bird's-eye image generator

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2709069B1 (en) * 2012-09-15 2018-08-08 ZF Friedrichshafen AG Method and apparatus for an imaging driver assistance system with adaptive all-round view display
WO2014174884A1 (en) * 2013-04-24 2014-10-30 住友重機械工業株式会社 Image to be processed generating device, image to be processed generating method, and operation assistance system
US10621743B2 (en) 2013-04-24 2020-04-14 Sumitomo Heavy Industries, Ltd. Processing-target image creating device, processing-target image creating method, and operation assisting system
WO2015029110A1 (en) * 2013-08-26 2015-03-05 日立建機株式会社 Device for monitoring area around working machine
JPWO2015029110A1 (en) * 2013-08-26 2017-03-02 日立建機株式会社 Work machine ambient monitoring device
JP2017515727A (en) * 2014-05-08 2017-06-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for distortion-free display of the vehicle periphery of a vehicle
CN105291979B (en) * 2014-06-10 2018-04-06 Lg电子株式会社 Vehicle of the vehicle with panoramic looking-around device and with the device
CN105291979A (en) * 2014-06-10 2016-02-03 Lg电子株式会社 Around view provision apparatus and vehicle including the same
US10339396B2 (en) 2015-02-10 2019-07-02 Clarion Co., Ltd. Vehicle accessibility determination device
JP2017220760A (en) * 2016-06-06 2017-12-14 アイシン精機株式会社 Image processing apparatus for vehicle
WO2018146997A1 (en) * 2017-02-07 2018-08-16 日本電気株式会社 Three-dimensional object detection device
US11521395B2 (en) 2017-05-30 2022-12-06 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and program
JP7150709B2 (en) 2017-05-30 2022-10-11 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program
JPWO2018221209A1 (en) * 2017-05-30 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 Image processing apparatus, image processing method, and program
US11475676B2 (en) 2017-06-02 2022-10-18 Aisin Corporation Periphery monitoring device
JP7009785B2 (en) 2017-06-02 2022-01-26 株式会社アイシン Peripheral monitoring device
WO2018220915A1 (en) * 2017-06-02 2018-12-06 アイシン精機株式会社 Periphery monitoring device
JP2018207286A (en) * 2017-06-02 2018-12-27 アイシン精機株式会社 Periphery monitoring device
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
US10282915B1 (en) * 2017-12-27 2019-05-07 Industrial Technology Research Institute Superimposition device of virtual guiding indication and reality image and the superimposition method thereof
WO2019172073A1 (en) * 2018-03-05 2019-09-12 株式会社デンソー Image creation device and image creation method
US11258963B2 (en) 2018-03-05 2022-02-22 Denso Corporation Image creation device and image creation method
JP2019153138A (en) * 2018-03-05 2019-09-12 株式会社デンソー Image creation device
US11403742B2 (en) 2018-03-28 2022-08-02 Mitsubishi Electric Corporation Image processing device, image processing method, and recording medium for generating bird's eye synthetic image
GB2586712B (en) * 2018-03-28 2021-12-22 Mitsubishi Electric Corp Image processing device, image processing method, and image processing program
GB2586712A (en) * 2018-03-28 2021-03-03 Mitsubishi Electric Corp Image processing device, image processing method, and image processing program
JP6513300B1 (en) * 2018-03-28 2019-05-15 三菱電機株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
WO2019186787A1 (en) * 2018-03-28 2019-10-03 三菱電機株式会社 Image processing device, image processing method, and image processing program
JP2019185520A (en) * 2018-04-13 2019-10-24 クラリオン株式会社 Image processor and method
JP7074546B2 (en) 2018-04-13 2022-05-24 フォルシアクラリオン・エレクトロニクス株式会社 Image processing equipment and methods
WO2019198399A1 (en) * 2018-04-13 2019-10-17 クラリオン株式会社 Image processing device and method
JP2020127171A (en) * 2019-02-06 2020-08-20 アイシン精機株式会社 Periphery monitoring device
JP7314518B2 (en) 2019-02-06 2023-07-26 株式会社アイシン Perimeter monitoring device
US11727601B2 (en) 2019-12-31 2023-08-15 Woven Planet North America, Inc. Overhead view image generation
JPWO2022254592A1 (en) * 2021-06-01 2022-12-08
WO2022254592A1 (en) * 2021-06-01 2022-12-08 株式会社ソシオネクスト Image-processing device, image-processing method, and image-processing program

Also Published As

Publication number Publication date
WO2012096058A1 (en) 2012-07-19
CN103299617B (en) 2016-07-06
CN103299617A (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP2012147149A (en) Image generating apparatus
JP5682788B2 (en) Vehicle periphery monitoring device
WO2012169355A1 (en) Image generation device
US9050931B2 (en) Vehicle periphery monitoring system
JP5516998B2 (en) Image generation device
JP4642723B2 (en) Image generating apparatus and image generating method
JP4257356B2 (en) Image generating apparatus and image generating method
JP5870608B2 (en) Image generation device
JP5884439B2 (en) Image generation device for vehicle periphery monitoring
WO2012172923A1 (en) Vehicle periphery monitoring device
US20120069153A1 (en) Device for monitoring area around vehicle
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP2007274377A (en) Periphery monitoring apparatus, and program
JP5495071B2 (en) Vehicle periphery monitoring device
JP5853457B2 (en) Vehicle perimeter monitoring system
JP5516997B2 (en) Image generation device
JP5500392B2 (en) Vehicle periphery monitoring device
JP2012105090A (en) Parking support apparatus
JP5618139B2 (en) Parking assistance device
JP2012065228A (en) Image processing apparatus, image display system, and image display method
JP2008034964A (en) Image display device
CN218877068U (en) Digital rearview mirror with image synthesis function, vehicle-mounted unit system and vehicle
JP2010130413A (en) Peripheral state display device
JP2008219716A (en) Display control device
JP2024090467A (en) Display control device and display control method