JP2012147149A - Image generating apparatus - Google Patents
Image generating apparatus Download PDFInfo
- Publication number
- JP2012147149A JP2012147149A JP2011002778A JP2011002778A JP2012147149A JP 2012147149 A JP2012147149 A JP 2012147149A JP 2011002778 A JP2011002778 A JP 2011002778A JP 2011002778 A JP2011002778 A JP 2011002778A JP 2012147149 A JP2012147149 A JP 2012147149A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- overhead
- projective transformation
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/31—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】路面上に存在している立体物を良好な距離感をもって認識することができる俯瞰画像を車載カメラの撮影画像から生成する。
【解決手段】第1射影変換を用いて撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、立体物情報に基づいて撮影画像から立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、周辺俯瞰画像における立体物の歪みを低減する第2射影変換を用いて立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、立体物情報に基づき周辺俯瞰画像に立体物俯瞰画像を画像合成する画像合成部を備えた画像生成装置。
【選択図】図1An overhead view image capable of recognizing a three-dimensional object existing on a road surface with a good sense of distance is generated from a photographed image of an in-vehicle camera.
A peripheral overhead image generation unit that generates a peripheral overhead image from a photographed image using first projective transformation, and a stereoscopic object that exists in the field of view of an in-vehicle camera and includes the position of the stereoscopic object. A three-dimensional object detection unit that outputs object information, a three-dimensional object extraction unit that extracts a three-dimensional object image, which is an image region in which a three-dimensional object is captured, from a captured image based on the three-dimensional object information; A three-dimensional object overhead image generation unit that generates a three-dimensional object overhead image from a three-dimensional object image using the second projective transformation that reduces the image, and an image composition unit that synthesizes the three-dimensional object overhead image with the peripheral overhead image based on the three-dimensional object information An image generation apparatus provided.
[Selection] Figure 1
Description
本発明は、自車の周辺領域を撮影する車載カメラによって取得された撮影画像を射影変換することでカメラ視点より上方の上方仮想視点からの俯瞰画像を表示画像として生成する画像生成装置に関する。 The present invention relates to an image generation apparatus that generates, as a display image, a bird's-eye view image from an upper virtual viewpoint above a camera viewpoint by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral region of the vehicle.
従来の俯瞰画像生成装置では、車載カメラによって取得された撮影画像を路面に平行な投影面に投影することで、つまり仮想視点を鉛直上方に位置させた射影変換により真上からの俯瞰画像が生成される。従って、この俯瞰画像がモニタに表示させることで、運転者が車両周辺の路面状況を把握することを支援している。しかしながら、そのような射影変換を通じて得られた俯瞰画像では車載カメラの近傍領域に比べ遠方領域において画像の歪み方が大きくなり、運転者にとって距離感をつかみ難いという問題がある。 In a conventional overhead image generation device, a captured image acquired by an in-vehicle camera is projected onto a projection plane parallel to the road surface, that is, an overhead image from directly above is generated by projective transformation with the virtual viewpoint positioned vertically upward. Is done. Therefore, the bird's-eye view image is displayed on the monitor, thereby assisting the driver to grasp the road surface condition around the vehicle. However, the overhead image obtained through such projective transformation has a problem that the image is more distorted in a distant region than in the vicinity region of the in-vehicle camera, making it difficult for the driver to grasp the sense of distance.
このような問題を解決するため、例えば特許文献1に記載された画像処理装置では、車載カメラによって撮像された撮影画像(カメラ画像)を取得する取得部と、前記撮影画像を平面に投影して、平面投影画像に変換する第1画像変換部と、前記カメラ画像を曲面に投影して、曲面投影画像(例えば、円筒面投影画像)に変換する第2画像変換部とを備え、前記第1画像変換部は、前記撮影画像内において所定の幅を有する第1画像領域を前記平面投影画像に変換し、前記第2画像変換部は、前記撮影画像内において前記第1画像領域の幅方向外側の領域である第2画像領域(円筒面投影領域)を前記曲面投影画像に変換する。したがって、この装置によって変換された画像を表示部に与えることで、運転者が実際に目視で見える画像に近い平面投影画像と、視野の広い曲面投影画像とをあわせもつ画像が表示される。このため、運転者の視認性の低下が抑制される。しかしながら、この特許文献1による装置は、路面上に描かれた道路区画線や路肩などの表示は見やすくなるとしても、路面に配置された上方に延びた立体物(人や車だけでなく、工事用三角コーンなどの路上障害物)は撮影方向に間延びした歪な形状体となってしまう。
In order to solve such a problem, for example, in the image processing apparatus described in
また、特許文献2に記載された画像生成装置では、仮想投影面として、路面上に設定した近景用スクリーンと、該近景用スクリーンの実カメラから遠い側に連接すると共に所定の上向き傾斜角度を持って設定した遠景用スクリーンとを有する仮想立体投影面が設定され、実撮像面に投影される画像によりカメラ映像データを取得する実カメラより高い位置に仮想カメラが設定される。そして、実カメラにより取得した単独のカメラ映像データの各画素位置と、仮想立体投影面を介した仮想カメラの仮想撮像面上の各画素位置と、の間で座標変換され、座標変換にしたがって仮想カメラの仮想撮像面上にカメラ撮影画像の各画素が移され、仮想カメラから仮想立体投影面を見たときに仮想撮像面に投影される画像がモニタに表示される。これにより、モニタ画像は、距離感を認識しやすい近景の俯瞰画像と、遠いものは小さく見え近いものは大きく見えるという遠近感を認識しやすい中景から遠景のパース画像とを合成した画像となる。しかしながら、この装置でも、路面上に配置された立体物の撮影画像が路面に水平な仮想投影面で変換された場合には、長く間延びした形状となり、立体物の視認性の低下は避けられない。 In addition, in the image generation device described in Patent Document 2, a near-view screen set on the road surface as a virtual projection plane, and the near-view screen connected to the side far from the real camera and have a predetermined upward tilt angle. The virtual stereoscopic projection plane having the far-view screen set in the above is set, and the virtual camera is set at a position higher than the real camera that acquires the camera video data from the image projected on the real imaging plane. Then, coordinate conversion is performed between each pixel position of the single camera video data acquired by the real camera and each pixel position on the virtual imaging plane of the virtual camera via the virtual stereoscopic projection plane, and the virtual position is converted according to the coordinate conversion. Each pixel of the camera-captured image is moved onto the virtual imaging plane of the camera, and an image projected on the virtual imaging plane when the virtual stereoscopic projection plane is viewed from the virtual camera is displayed on the monitor. As a result, the monitor image is a composite image of a close-up bird's-eye view image in which a sense of distance is easily recognized and a perspective image of a distant view that is easy to recognize a sense of distance, in which a distant object looks small and a close object looks large. . However, even in this apparatus, when a captured image of a three-dimensional object arranged on the road surface is converted by a virtual projection plane that is horizontal to the road surface, the shape becomes long and the visibility of the three-dimensional object is inevitably lowered. .
さらに、特許文献3による車両周囲監視システムでは、複数の車載カメラで撮影された原画像をもとに作成した俯瞰表示画像の表示中に、複数の車載カメラで重複して撮影される重複領域内に存在する障害物を障害物検知装置が検知したときに、表示装置に表示させる画像を、俯瞰表示画像から、重複領域を撮影する複数の車載カメラの原画像へと切り替えるように構成されている。この構成では、障害物の検知時に、障害物の種類などを原画像を通じて直感的且つ瞬時に特定することを図っているが、俯瞰画像を通じて障害物を良好に視認したいという要望を満たすことはできない。
Furthermore, in the vehicle surrounding monitoring system according to
上記実情に鑑み、本発明の目的は、路面上に存在している立体物を良好な距離感をもって認識することができる俯瞰画像を車載カメラの撮影画像から生成することにある。 In view of the above circumstances, an object of the present invention is to generate a bird's-eye view image capable of recognizing a three-dimensional object existing on a road surface with a good sense of distance from a photographed image of an in-vehicle camera.
車両の周辺領域を撮影する車載カメラによって取得された撮影画像を上方仮想視点で射影変換することで生成される俯瞰画像を表示画像として出力する、本発明に係る画像生成装置の特徴は、第1射影変換を用いて前記撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、
前記車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、前記立体物情報に基づいて前記撮影画像から前記立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、前記周辺俯瞰画像における前記立体物の歪みを低減する第2射影変換を用いて前記立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、前記立体物情報に基づき前記周辺俯瞰画像に前記立体物俯瞰画像を画像合成する画像合成部とを備えた点にある。
A feature of the image generation apparatus according to the present invention is that a bird's-eye view image generated by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral area of a vehicle is projected from an upper virtual viewpoint as a display image. A peripheral overhead image generation unit that generates a peripheral overhead image from the captured image using projective transformation;
A three-dimensional object detection unit that detects a three-dimensional object existing in the field of view of the in-vehicle camera and outputs three-dimensional object information including the position of the three-dimensional object; and the three-dimensional object is extracted from the captured image based on the three-dimensional object information. A three-dimensional object overhead image is generated from the three-dimensional object image using a three-dimensional object extraction unit that extracts a three-dimensional object image that is a captured image region and a second projective transformation that reduces distortion of the three-dimensional object in the peripheral overhead image. A three-dimensional object overhead image generation unit, and an image composition unit that synthesizes the three-dimensional object overhead image with the surrounding overhead image based on the three-dimensional object information.
この構成によると、第1射影変換を用いて車載カメラの撮影画像を上方仮想視点からの周辺俯瞰画像に変換する際に、視野内に立体物の存在が検知されると、その撮影画像から抽出された立体物画像を第1射影変換とは異なる第2射影変換を用いて立体物俯瞰画像を生成し、この立体物俯瞰画像を周辺俯瞰画像に合成する。第2射影変換は周辺俯瞰画像の生成に用いられた第1射影変換に比べて当該周辺俯瞰画像における立体物の歪みが低減するようなパラメータを備えている。従って、合成された周辺俯瞰画像における立体物は従来のように細長く間延びした形状とならず、より視認しやすい自然な形状になっている。このことから、運転者は、この周辺俯瞰画像から路面上に存在している立体物を良好な距離感をもって認識することができる。 According to this configuration, when a captured image of the in-vehicle camera is converted into a peripheral overhead view image from the upper virtual viewpoint using the first projective transformation, if the presence of a three-dimensional object is detected in the field of view, it is extracted from the captured image. A three-dimensional object overhead image is generated from the three-dimensional object image using a second projective transformation different from the first projective transformation, and the three-dimensional object overhead image is synthesized with a peripheral overhead image. The second projective transformation has parameters that reduce distortion of the three-dimensional object in the peripheral overhead image compared to the first projective transformation used for generating the peripheral overhead image. Therefore, the three-dimensional object in the synthesized peripheral bird's-eye view image has a natural shape that is easier to visually recognize, rather than having an elongated shape as in the conventional case. From this, the driver can recognize a three-dimensional object existing on the road surface with a good sense of distance from the surrounding bird's-eye view image.
上記説明から明らかなように、第1射影変換が上方仮想視点からの俯瞰画像、つまり上から撮影画像を撮影視点から路面に平行な投影面に投影するような射影変換であることから、路面に置かれた立体物の投影画像は間延びした歪みをもってしまう。このことから第2射影変換は、その投影面が路面に平行ではなく、できるだけ路面に対して傾斜させた投影面を用いることが好適である。従って、本発明の好適な実施形態の1つでは、前記第2射影変換として、前記撮影画像を撮影視点から路面に垂直な投影面に投影する射影変換を採用している。 As is clear from the above description, the first projective transformation is a bird's-eye view image from the upper virtual viewpoint, that is, a projective transformation that projects a photographed image from above onto a projection plane parallel to the road surface. The projected image of the placed three-dimensional object has an extended distortion. For this reason, it is preferable that the second projective transformation uses a projection surface that is not parallel to the road surface and is inclined with respect to the road surface as much as possible. Therefore, in one preferred embodiment of the present invention, the second projective transformation employs a projective transformation in which the photographed image is projected from a photographing viewpoint onto a projection plane perpendicular to the road surface.
撮影画像中に含まれる路面上の立体物を、その俯瞰画像における歪みできるだけ小さくする射影変換のパラメータを設定するためには、射影変換に用いる投影面に形状と当該投影面と立体物との位置関係が重要なファクタとなる。このことから、本発明の好適な実施形態では、撮影空間における立体物に位置や立体物の形状などを含む立体物情報に基づいて、投投影面の形状又は投影面と投影される立体物との相対位置あるいはその両方である前記第2射影変換の変換パラメータを設定するように構成されている。投影面の形状としては、前述した特許文献1や2に記載されているような湾曲面や屈曲面が好適である。その際、特に、立体物と路面との境界領域を境にしてその前方側を路面に平行な投影面部とし、その後方側を垂直面ないしは垂直面に近い傾斜面とすることが好ましい。これにより、俯瞰画像において立体物の頂上が間延びしてしまうという視認上の欠点を取り除くことができる。
In order to set projection transformation parameters that minimize the distortion of the three-dimensional object on the road surface included in the captured image in the overhead image, the shape and the position of the projection surface and the three-dimensional object are used for the projection transformation. Relationship is an important factor. Therefore, in a preferred embodiment of the present invention, based on the three-dimensional object information including the position and the shape of the three-dimensional object in the three-dimensional object in the shooting space, the shape of the projection surface or the three-dimensional object projected on the projection surface and The conversion parameter of the second projective transformation, which is the relative position or both, is set. The shape of the projection surface is preferably a curved surface or a bent surface as described in
異なる射影変換、つまり異なる投影面を用いて生成された周辺俯瞰画像と立体物俯瞰画像では立体物が写る座標位置が異なるので、周辺俯瞰画像に立体物俯瞰画像を合成しても、元々周辺俯瞰画像に写っていた立体物が画像合成後の周辺俯瞰画像に残ってしまう。特に周辺俯瞰画像が複数の撮影方向の異なる車載カメラの撮影画像を組み合わせている場合には、周辺俯瞰画像に立体物俯瞰画像との間での立体物の位置の不一致は顕著となる。このため、本発明の好適な実施形態では、前記周辺俯瞰画像における前記立体物画像の領域を目立たないように抑制処理をする立体物抑制部が備えられている。そのような抑制処理としては、ぼかし処理、低彩度化処理、周辺画素群とのブレンド処理などが利用できる。 Since the coordinates of the three-dimensional object are different between the peripheral overhead image generated using different projective transformations, that is, the three-dimensional object overhead image and the three-dimensional object overhead image, even if the three-dimensional object overhead image is synthesized with the peripheral overhead image, The three-dimensional object shown in the image remains in the surrounding overhead image after the image composition. In particular, when the surrounding bird's-eye view image combines a plurality of in-vehicle camera shot images with different shooting directions, the disagreement of the position of the three-dimensional object between the peripheral bird's-eye view image and the three-dimensional object bird's-eye view image becomes significant. For this reason, in a preferred embodiment of the present invention, a three-dimensional object suppression unit is provided that performs a suppression process so that the region of the three-dimensional object image in the peripheral overhead image is not conspicuous. As such suppression processing, blurring processing, desaturation processing, blend processing with surrounding pixel groups, and the like can be used.
また、車両周辺の立体物をより明確に視認させるためには、周辺俯瞰画像に合成される立体物俯瞰画像を目立たせることが有効である。このため、本発明の好適な実施形態では、前記立体物俯瞰画像が強調表示されるように前記立体物俯瞰画像に色補正処理が施される。例えば、立体物の色を高彩度化することは好ましい実施形態である。 In order to make a three-dimensional object around the vehicle more clearly visible, it is effective to make the three-dimensional object bird's-eye image synthesized with the peripheral bird's-eye image more noticeable. For this reason, in a preferred embodiment of the present invention, color correction processing is performed on the three-dimensional object overhead image so that the three-dimensional object overhead image is highlighted. For example, increasing the color saturation of a three-dimensional object is a preferred embodiment.
周辺俯瞰画像が複数の撮影方向の異なる車載カメラの撮影画像を組み合わせている場合には、2つの撮影画像に立体物が写りこむことがある。そのようなケースにおいては、各撮影画像から立体物を抽出することができるので、そのうちの1つだけをより適切な立体物として選択することが好ましい。この目的のため、前記車載カメラが車両全周囲を撮影するために複数設置されている実施形態の好適な1つでは、前記立体物が2つ以上のカメラの撮影画像に含まれている場合には、より面積の小さい方の立体物領域を有する立体物画像が抽出されるように構成されている。その理由は立体物領域の面積が小さい方が俯瞰画像における立体物の歪、特に傾きが小さいことが実験的な結果として示されているからである。 When the surrounding bird's-eye view image combines a plurality of in-vehicle camera captured images having different capturing directions, a three-dimensional object may be reflected in the two captured images. In such a case, since a three-dimensional object can be extracted from each captured image, it is preferable to select only one of them as a more appropriate three-dimensional object. For this purpose, in a preferred embodiment in which a plurality of the in-vehicle cameras are installed to capture the entire periphery of the vehicle, the solid object is included in the captured images of two or more cameras. Is configured such that a three-dimensional object image having a smaller three-dimensional object region is extracted. The reason is that it has been experimentally shown that the smaller the area of the three-dimensional object region, the smaller the distortion of the three-dimensional object in the overhead image, in particular, the smaller the inclination.
まず、本発明による画像生成装置で用いられている、車載カメラの撮影画像から周辺俯瞰図と立体物俯瞰図とを異なる射影変換で別個に生成して合成する基本的な画像処理過程を説明する。図1は、2つの異なる射影変換を用いた俯瞰画像の生成を模式的に図解している基本構想図であり、ここでは説明を簡単にするため、車載カメラとしてのバックカメラによる撮影画像だけを用いた俯瞰画像の生成が示されている。 First, a basic image processing process used in the image generation apparatus according to the present invention to separately generate and synthesize a peripheral bird's-eye view and a three-dimensional object bird's-eye view using different projective transformations from an image taken by an in-vehicle camera will be described. . FIG. 1 is a basic conceptual diagram schematically illustrating generation of an overhead image using two different projective transformations. Here, for the sake of simplicity, only a photographed image by a back camera as an in-vehicle camera is shown. The generation of the overhead image used is shown.
車両周辺監視画面としての俯瞰画像をモニタ表示するためには、まず車載カメラによって自車の進行方向の周辺領域の撮影画像が取得される(#1)。同時に、車両周辺における立体物の検出処理が行われており、車載カメラの撮影視野内に立体物が検知された場合、その立体物の位置、姿勢、大きさなどのデータを記述した立体物情報が生成される(#101)。バックカメラの撮影画像から、投影面を路面に平行な面とする第1の射影変換、つまり真上に仮想視点を設定した視点変換が行われる(#2)。この第1射影変換処理を通じて、撮影画像の真上からの俯瞰画像である周辺俯瞰画像が得られる。立体物情報が生成されていると、この周辺俯瞰画像中にも立体物が写っているはずである。従って、その立体物領域を立体物情報からの位置情報やエッジ検出処理などを用いて算定し、その立体物領域が周辺部から目立たないように立体物領域に対して抑制処理を施し、立体物抑制周辺俯瞰画像を得る(#3)。なお、このように生成される周辺俯瞰画では、カメラの手前に立体物が存在する場合、立体物の頂部付近が間延びするといった歪みが発生する。この抑制処理としてぼかし、周辺画素とのブレンド(αブレンドなど)、低彩度化などの画像処理が行われる In order to monitor and display a bird's-eye view image as a vehicle periphery monitoring screen, first, a captured image of a peripheral region in the traveling direction of the own vehicle is acquired by the in-vehicle camera (# 1). At the same time, when a three-dimensional object is detected around the vehicle and a three-dimensional object is detected within the field of view of the in-vehicle camera, three-dimensional object information describing data such as the position, orientation, and size of the three-dimensional object Is generated (# 101). From the captured image of the back camera, the first projective transformation with the projection plane parallel to the road surface, that is, the viewpoint transformation with the virtual viewpoint set directly above (# 2). Through this first projective transformation process, a peripheral overhead image that is an overhead image from directly above the captured image is obtained. If the three-dimensional object information is generated, the three-dimensional object should appear in the surrounding overhead image. Therefore, the three-dimensional object area is calculated using position information from the three-dimensional object information, edge detection processing, and the like, and the three-dimensional object area is suppressed so that the three-dimensional object area is not conspicuous from the periphery. A suppressed peripheral overhead image is obtained (# 3). In addition, in the surrounding bird's-eye view generated in this way, when a three-dimensional object is present in front of the camera, distortion occurs such that the vicinity of the top of the three-dimensional object extends. As this suppression processing, image processing such as blurring, blending with surrounding pixels (such as α blending), and desaturation is performed.
また、立体物情報が生成されていると、撮影画像から、その立体物領域を立体物情報からの位置情報やエッジ検出処理などを用いて抽出する(#102)。抽出された立体物画像に対して、少なくとも遠方側では路面に対して鉛直に近い傾斜角を有する投影面を用いた第2の射影変換が行われ、立体物俯瞰画像が得られる(#103)。図1の例では路面から鉛直方向に上向き湾曲した湾曲面が用いられている。このような投影面を用いた第2射影変換では、立体物の頂部付近は上方から路面を見る仮想視点ではなく、ほぼ水平方向から路面を見る仮想視点を用いた俯瞰となる。従って、前述した第1射影変換で生じたような立体物の頂部付近が間延びするような不都合は回避される。 If the three-dimensional object information is generated, the three-dimensional object region is extracted from the photographed image using position information from the three-dimensional object information, edge detection processing, or the like (# 102). The extracted three-dimensional object image is subjected to the second projective transformation using a projection surface having an inclination angle that is nearly perpendicular to the road surface at least on the far side, and a three-dimensional object overhead image is obtained (# 103). . In the example of FIG. 1, a curved surface curved upward in the vertical direction from the road surface is used. In the second projective transformation using such a projection surface, the vicinity of the top of the three-dimensional object is not a virtual viewpoint for viewing the road surface from above, but an overhead view using a virtual viewpoint for viewing the road surface from a substantially horizontal direction. Therefore, the inconvenience of extending the vicinity of the top of the three-dimensional object as generated by the first projective transformation described above is avoided.
ステップ#3で立体物抑制周辺俯瞰画像上の立体物が存在する位置に立体物俯瞰画像が上から重ね合わさるように合成される(#4)。合成された最終的な俯瞰画像はモニタ表示用俯瞰画像としてモニタに送られる。
In
図1の基本構想図ではバックカメラからの唯一の撮影画像だけを用いて、モニタ表示目的の最終的な俯瞰画像を生成していたが、自車を中心とする四方の周辺状況、特に路面状況が把握できる全周囲俯瞰画像の要望が高い。図2は、バックカメラ1a、左・右サイドカメラ1b,1c、フロントカメラ1dからの4つの周辺撮影画像から全周囲俯瞰画像を作成する処理過程を示す基本構想図である。
In the basic conceptual diagram of FIG. 1, the final bird's-eye view image for the purpose of monitor display was generated using only the photographed image from the back camera. There is a high demand for an all-around overhead image that can be grasped. FIG. 2 is a basic concept diagram showing a process of creating an all-around overhead view image from four surrounding captured images from the
図2では、後進での縦列駐車における駐車支援のためにモニタに表示する全周囲俯瞰画像の生成手順が例示されている。なお、この例では、バックカメラ1aの撮影画像に注目すべき立体物として三角コーンが写り込んでいることにする。バックカメラ1aによる後方撮影画像が車両真上からの全周囲俯瞰画像の後方領域画像として射影変換される。同様に、フロントカメラによる撮影画像、左サイドカメラ1bによる左撮影画像、フロントカメラ1dによる右撮影画像がそれぞれ、全周囲俯瞰画像の左領域画像、右領域画像、前方領域画像として射影変換される。ここでは、射影変換は、マッピングテーブル63を用いて行われている。それぞれのマップデータの値は異なっているので、それぞれ適合するマップが設定されている。ただし、これらの各マップは、路面に平行な面を投影面とする射影変換をもたらすように作成されたのであり、この射影変換が本発明における第1射影変換に相当する。
FIG. 2 illustrates a procedure for generating an all-around bird's-eye view image displayed on a monitor for parking support in reverse parallel parking. In this example, it is assumed that a triangular cone is reflected as a three-dimensional object to be noted in the captured image of the
4つの車載カメラのうち、バックカメラ1aからの後方撮影画像には立体物(三角コーン)が含まれているが、この立体物の存在は、この車両に搭載されている立体物検知機能によって検知され、立体物情報が出力される。従って、この立体物情報に基づいて、後方撮影画像から立体物が写されている領域が立体物画像として抽出される。カメラ側が路面に対して実質的に平行で、遠方側が路面に対してほぼ鉛直(垂直)となる湾曲面ないしは屈曲面(球面や円筒面を含む)を投影面とする射影変換が、抽出された立体物画像に行われることで、立体物俯瞰画像が生成される。この射影変換が本発明における第2射影変換に相当する。ここでも、この射影変換はマッピングテーブル63を用いて行われる。この第2射影変換では、検知された立体物の位置や姿勢や大きさによって、立体物が見やすくなる射影変換を求めることができるため、複数のマッピングテーブルを用意しておき、第2射影変換のために最適な射影変換を選択するようにすると好都合である。その際、三次元形状が異なる投影面を選択するだけでなく、投影面と立体物位置関係も適切に選択することで、より立体物が見やすい俯瞰画像が得られる。
Of the four in-vehicle cameras, the rear shot image from the
また、生成された立体物俯瞰画像と合成される全周囲俯瞰画像の後方領域の画像(後方側俯瞰画像セグメント)において、予め立体物情報に基づいて算定された立体物領域が抑制処理を受ける。抑制処理された立体物領域を含む後方俯瞰画像セグメントに立体物俯瞰画像が合成され、全周囲俯瞰画像として合成される後方俯瞰画像セグメントが出力される。この後方俯瞰画像セグメントを含め、左俯瞰画像セグメント、右俯瞰画像セグメント、前方俯瞰画像セグメントが合成され、最終的にモニタ表示される全周囲俯瞰画像が生成される。もちろん、立体物俯瞰画像の合成を、先に生成しておいた全周囲俯瞰画像の所定の領域に行うようにしてもよい。 Further, in the image of the rear area of the all-around bird's-eye view image to be combined with the generated three-dimensional bird's-eye view image (rear side bird's-eye view image segment), the three-dimensional object region calculated based on the three-dimensional object information in advance is subjected to the suppression process. A three-dimensional bird's-eye view image is synthesized with the rear bird's-eye view image segment including the three-dimensional object region subjected to the suppression process, and a rear bird's-eye view image segment synthesized as an all-around bird's-eye view image is output. The left overhead image segment, the right overhead image segment, and the front overhead image segment, including the rear overhead image segment, are synthesized, and an all-around overhead image finally displayed on the monitor is generated. Of course, the synthesis of the three-dimensional bird's-eye view image may be performed on a predetermined region of the all-around bird's-eye view image that has been generated previously.
以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、図2で例示されているように、4つの車載カメラ、バックカメラ1a、フロントカメラ1d、左サイドカメラ1b、右サイドカメラ1cからの撮影画像と立体物検知情報とから全周囲俯瞰画像を作成する画像生成装置が車両周辺監視システムの構築のために車両に組み込まれている。以下の説明において、適宜、これらの車載カメラ1a、1b、1c、1dを単にカメラ1と総称する場合がある。車両周辺監視が動作する際には、カメラ1による撮影画像ないしは当該撮影画像を用いて生成される俯瞰画像がモニタ表示される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, as illustrated in FIG. 2, the entire periphery is obtained from captured images and three-dimensional object detection information from four in-vehicle cameras, a
カメラ1はCCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を時系列に撮影し、デジタル変換してその撮影画像をリアルタイムに出力するデジタルカメラである。カメラ1は、広角レンズを備えて構成される。特に、本実施形態においては、水平方向に140〜190°の視野角が確保されているとともに、光軸に約30度程度の俯角を有して車両に設置されている。
The
車両内部には、車両周辺監視システムの中核をなすECU20が設置されている。このECU20は、図3に示すように、車両状態検出センサ群からの信号入力をそのまま、あるいは評価してECU20の内部に転送するセンサ入力インターフェース23や通信インターフェース70などを備えると共に、入力情報を処理するマイクロプロセッサや、DSP(digital signal processor)を備えている。
An
センサ入力インターフェース23に接続されている車両状態検出センサ群は、運転操作や車両走行の状態を検出する。車両状態検出センサ群には、図示していないが、ステアリング操作方向(操舵方向)と操作量(操舵量)とを計測するステアリングセンサ、シフトレバーのシフト位置を判別するシフト位置センサ、アクセルペダルの操作量を計測するアクセルセンサ、ブレーキペダルの操作量を検出するブレーキセンサ27、自車の走行距離を検出する距離センサなどが含まれる。
The vehicle state detection sensor group connected to the
また、入出力インターフェースとして用いられている通信インターフェース70は、データ伝送線として車載LANを採用しており、モニタ21、タッチパネル21T、パワーステアリングユニットPS、変速機構T、ブレーキ装置BKなどの制御ユニットがデータ伝送可能に接続されている。その他、音声情報の出力デバイスとしてスピーカ22も備えられている。
The
そのほか、ECU20には、ハードウエア又はソフトウエアあるいはその両方の形態で構築される種々の機能部が備えられているが、本発明に特に関係する機能部としては、本発明の立体物検知部としての立体物検知モジュール30と、画像処理モジュール50と、表示制御部71と、音声処理モジュール72が挙げられる。画像処理モジュール50で生成されたモニタ表示画像は表示制御部71でビデオ信号に変換されてモニタ21に送られる。音声処理モジュール72で生成された音声ガイドや緊急時の警告音などはスピーカ22で鳴らされる。
In addition, the
立体物検知モジュール30には、複数の超音波センサ3からの検出信号を評価して立体物検知を行う超音波評価部31と、車載カメラ1からの撮影画像を用いて立体物検知を行う画像認識部32とが含まれている。超音波センサ3は車両の前部、後部、左側部、右側部のそれぞれにおける両端箇所と中央箇所とに配置されており、車両周辺近傍に存在する物体(障害物)をそれらからの反射波を通じて検知することができる。各超音波センサ3における反射波の戻り時間や振幅を処理することで車両から物体までの距離や物体の大きさを推定できるだけでなく、全ての超音波センサ3の検出結果を経時的に処理することで、物体の動きや横方向の外形形状を推定することも可能である。画像認識部32は、それ自体は公知である物体認識アルゴリズムを実装しており、入力した撮影画像、特に経時的に連続する撮影画像から車両周辺の立体物を検知する。
立体物の検知のためには、超音波評価部31と画像認識部32のいずれか1つでもよいが、立体物の形態を検知するのに優れた画像認識部32と、立体物までの距離、つまり立体物の位置を算出するのに優れた超音波評価部31の両方を備えて協働作業させることでより正確な立体物検知が可能となる。これにより、立体物検知モジュール30は、検知した立体物の位置、姿勢、大きさ、色調などを記述した立体物情報を出力することができる。従って、超音波評価部31と画像認識部32のいずれでもあるいはその組み合わせであってもは本発明における立体物検知部として機能するものであり、さらには、レーザレーダを用いるような他の立体物検知装置も含むものである。
The three-dimensional
For detecting a three-dimensional object, any one of the
図4に、ECU20の画像処理モジュール50の機能ブロック図が示されている。画像処理モジュール50は、自車周辺を撮影するカメラ1によって取得された撮影画像から射影変換によって変換された俯瞰画像等の画像を生成する機能を有している。
FIG. 4 shows a functional block diagram of the
画像処理モジュール50は、撮影画像メモリ51、前処理部52、画像生成部60、立体物情報取得部53、画像合成部55、フレームメモリ56を含んでいる。カメラ1によって取得された撮影画像は撮影画像メモリ51に展開され、前処理部52はカメラ1によって個々に取得された撮影画像間の輝度バランスやカラーバランス等を調整する。立体物情報取得部53は、立体物検知モジュール30から出力された立体物情報を受け取り、当該立体物情報に記述された立体物の位置、姿勢、大きさ、色調などを読み出す。
The
画像生成部60は、通常画像生成部61、射影変換選択部62、マッピングテーブル63、周辺俯瞰画像生成部64、立体物俯瞰画像生成部65、立体物抽出部66、立体物抑制部67を含
んでいる。通常画像生成部61は、撮影画像をそのまま車両周辺画像としてモニタ表示するために適した画質に調整する。モニタ表示される車両周辺画像としては、バックカメラ1a、左・右サイドカメラ1b,1c、フロントカメラ1dによる撮影画像から運転者によって選択された1つでもよいし、複数撮影画像の組み合わせででもよい。
The
周辺俯瞰画像生成部64は、撮影画像メモリ51に展開されている撮影画像を用いて第1射影変換を行い、周辺俯瞰画像を生成する。この第1射影変換として、ここでは車両の上方に位置する仮想視点、及び路面に一致する面又は平行な面を投影面とした射影変換がデフォルト設定されているが、運転者の嗜好あるいは運転状況に応じて変更可能である。
立体物俯瞰画像生成部65は、撮影画像メモリ51に展開されている撮影画像をそのまま用いるのではなく、撮影画像に写っている立体物の画像領域を抽出して得られた立体物画像を用いて第2射影変換を行い、立体物俯瞰画像を生成する。撮影画像からの立体物画像の抽出は、立体物情報取得部53によって立体物情報から読み出された位置データなどに基づいて立体物抽出部66が行う。このため、立体物抽出部66には、立体物の位置データを撮影画像系の位置座標に変換し、立体物が写されている大まかな領域を算定し、その算定された領域においてエッジ検出フィルタなどを用いて推定される立体物の境界線を検知する機能を有する。立体物抽出部66は、この境界線によって囲まれた領域、ないしはこの境界線から所定長さ分だけ広げた領域を立体物画像として抽出して、立体物俯瞰画像生成部65に与える。また、立体物俯瞰画像生成部65で実行される第2射影変換として、複数の種類の射影変換が用意されている。立体物俯瞰画像生成部65で実行される射影変換の選択は、当該立体物のカメラ1に対する相対位置、その姿勢、その大きさ等に基づいて射影変換選択部62が行う。
The surrounding bird's-eye view
The three-dimensional object overhead
なお、この実施形態では、周辺俯瞰画像生成部64及び立体物俯瞰画像生成部65における射影変換は、マッピングテーブルを用いたマップ変換によって行われるので、ここで使用される射影変換のための種々のマッピングテーブルが選択可能に予め格納されている。このような選択可能格納された複数のマッピングテーブルからなる集合体及び個別マッピングテーブルを、ここでは、マッピングテーブル63と称し、図4においても模式的に図示されている。マッピングテーブル63を構成する各マッピングテーブル(以下点にマップと略称する)は種々の形態で構築することができるが、ここでは、撮影画像の画素データと射影変換画像(通常は俯瞰画像)の画素データとの対応関係が記述されたマップとして構築され、1フレームの撮影画像の各画素に、俯瞰画像における行き先画素座標が記述されたものである。従って、車載カメラ毎に異なるマップが適用される。
In this embodiment, the projective transformation in the peripheral bird's-eye view
射影変換選択部62は、立体物俯瞰画像生成部65に対しては、立体物情報から読み出されたデータに基づいて、射影変換後の立体物の形状を推定し、周辺俯瞰画像とできるだけ調和するとともに間延び等の歪が低減する射影変換を選択する。さらに立体物俯瞰画像生成部65は、立体物を示す画像領域に対して強調表示されるように彩度増加などの色補正処理や輪郭強調処理を必要に応じて施すことができる。
The projective
図5には、立体物俯瞰画像生成部65に対して適切なマップが、射影変換選択部62によって選択されて、最終的な俯瞰画像が生成される様子が模式的に示されている。
立体物情報が出力されると、一方では立体物情報に記述された立体物のデータ(位置、姿勢、形状など)に基づいて、撮影画像から立体物画像が抽出される。また、他方ではそのような立体物のデータを入力パラメータとしてルール演算処理を行って、最適種類の射影変換を指示するマップ選択指令が決定される。このマップ選択指令に基づいて、適用マップが立体物俯瞰画像生成部に設定される。つまり、立体物のデータに基づいて、射影変換を規定する投影面形状や当該投影面と立体物(正確には射影変換元画像としての立体物画像)との相対位置を表す変換パラメータが設定される構成となっている。
ここでは、立体物の歪みを低減する射影変換として、図5で模式的に示すように、投影面形状と立体物との相対位置とが異なる複数の射影変換がマップの形態で準備されている。投影面形状としては、円柱状湾曲面、途中で折り曲げられた平面からなる屈曲面、球面状湾曲面などが挙げられる。もちろん、路面に垂直な垂直平面や路面に対して傾斜平面も投影面として利用可能である。また、それぞれの投影面は、立体物との異なる相対位置に配置することで異なる射影変換を実現することができる。特に好適な配置としては、立体物が投影面の路面からの立ち上がった傾斜面領域又は湾曲面領域で投影されることあり、これにより、立体物の投影画像全体にわたって、路面と平行な投影面において生じる間延びした歪が抑制される。このことから、立体物の路面側端部の投影位置が投影面の路面からの立ち上がった領域位置と一致する配置が好都合である。その際は、立体物の路面側端部の位置はエッジ検出処理で検出することができるので、この位置が投影面の路面からの立ち上がり位置に一致させるように配置した投影面を用いて立体物の俯瞰画像を生成するとよい。
準備された射影変換の種類が多くなると、その選択ルールが複雑になる。従ってそのような場合、立体物情報に記述された立体物のデータ(位置、姿勢、形状など)を入力パラメータ、マップ選択指令を出力パラメータとするニューラルネットワークを構築して射影変換選択部62に組み込むとよい。立体物画像に適した射影変換のためのマップが選択されると、当該マップを用いて、立体物画像から立体物俯瞰画像が生成される。
FIG. 5 schematically shows a state in which an appropriate map for the three-dimensional object overhead
When the three-dimensional object information is output, on the other hand, a three-dimensional object image is extracted from the photographed image based on the three-dimensional object data (position, posture, shape, etc.) described in the three-dimensional object information. On the other hand, a rule selection process is performed using such three-dimensional object data as input parameters, and a map selection command for instructing an optimal type of projective transformation is determined. Based on this map selection command, the application map is set in the three-dimensional object overhead image generation unit. That is, based on the three-dimensional object data, a projection surface shape that defines projective transformation and a conversion parameter that represents the relative position between the projection plane and the three-dimensional object (more precisely, the three-dimensional object image as the projective transformation source image) are set. It is the composition which becomes.
Here, as the projective transformation for reducing the distortion of the three-dimensional object, as schematically shown in FIG. 5, a plurality of projective transformations having different projection surface shapes and different relative positions of the three-dimensional object are prepared in the form of a map. . Examples of the shape of the projection surface include a cylindrical curved surface, a curved surface formed of a plane bent halfway, and a spherical curved surface. Of course, a vertical plane perpendicular to the road surface and an inclined plane with respect to the road surface can also be used as the projection surface. Also, different projection transformations can be realized by arranging each projection plane at a different relative position to the three-dimensional object. As a particularly suitable arrangement, the three-dimensional object is projected in an inclined surface area or a curved surface area rising from the road surface of the projection surface, so that the entire three-dimensional object projection image is projected on the projection surface parallel to the road surface. The strain that is extended during the generation is suppressed. For this reason, an arrangement in which the projection position of the road surface side end portion of the three-dimensional object coincides with the region position where the projection surface rises from the road surface is convenient. In that case, the position of the road surface side end portion of the three-dimensional object can be detected by the edge detection processing, and therefore the three-dimensional object is used by using the projection surface arranged so that this position matches the rising position of the projection surface from the road surface. It is preferable to generate a bird's-eye view image.
As the types of prepared projective transformations increase, the selection rules become complicated. Therefore, in such a case, a neural network is constructed with the three-dimensional object data (position, orientation, shape, etc.) described in the three-dimensional object information as input parameters and a map selection command as an output parameter, and is incorporated into the projective
立体物抑制部67は、周辺俯瞰画像生成部64によって生成された周辺俯瞰画像における立体物画像の領域に対して目立たないように抑制処理をするために、ブレンド機能を備えている。このブレンド機能の典型的な処理は、立体物画像の領域の周辺領域、例えば右側領域と左側領域の画素値に基づいて立体物画像の領域の画素値を置き換える処理である。また、複数カメラを使用している場合であれば、立体物が写り込んでいない側のカメラによる路面投影画像を用いる処理、例えば当該路面投影画像の画素値で立体物画像の領域の画素値を置き換える処理もブレンド処理として有効である。もちろん、その他の処理を採用してもよい。また、周辺画素とのブレンド機能に代えて、ぼかし処理や彩度低減処理を用いる構成でもよい。
The three-dimensional
画像合成部55は、必要に応じて、立体物抑制部67によって立体物の抑制処理を施した周辺俯瞰画像の当該立体物の領域に、立体物俯瞰画像生成部65によって生成された立体物俯瞰画像を重ね合わせ合成する。合成された最終的な周辺俯瞰画像は表示俯瞰画像としてフレームメモリ56に転送され、表示制御部71を介してモニタ21に表示される。
The
次に、上述のように構成された画像生成装置を組み込んだ車両周辺監視システムによる俯瞰画像表示の流れを図6のフローチャートを用いて説明する。
この車両周辺監視目的の俯瞰画像表示ルーチンがスタートすると、まずは、運転者の希望によってマニュアル設定されるか又はデフォルトで設定されている俯瞰画像の表示種別が読み出される(#01)。ここでの俯瞰画像の表示種別とは、周辺俯瞰画像を生成する際に用いる撮影画像や仮想視点位置、生成された表示俯瞰画像のモニタ画面上のレイアウトなどを規定するものである。読み込まれた俯瞰画像の表示種別に応じて周辺俯瞰画像生成部64で用いられる第1射影変換のためのマップが、利用される車載カメラ1の撮影画像毎に設定される(#02)。車載カメラ1の撮影画像を取得する(#03)。設定された各マップを用いて各撮影画像から俯瞰画像セグメントが生成される(#04)。生成された俯瞰画像セグメントを組み合わせるとともに、自車両位置に予め設定されている車両の俯瞰イメージ画像(イラストやシンボルでも良い)が配置され、周辺俯瞰画像が生成される(#05)。
Next, the flow of the overhead image display by the vehicle periphery monitoring system incorporating the image generating apparatus configured as described above will be described with reference to the flowchart of FIG.
When the bird's-eye view image display routine for vehicle periphery monitoring starts, first, the display type of the bird's-eye view image set manually or by default according to the driver's request is read (# 01). Here, the display type of the bird's-eye view image defines a photographed image and a virtual viewpoint position used when generating the surrounding bird's-eye view image, a layout on the monitor screen of the generated display bird's-eye view image, and the like. A map for the first projective transformation used in the peripheral bird's-eye view
立体物検知モジュール30から立体物情報が出力されているかどうかチェックする(#06)。立体物情報が出力されていない場合(#06No分岐)、どの撮影画像にも注目すべき立体物が写り込んでいないとみなして、ステップ#05で生成された周辺俯瞰画像をそのまま利用して表示俯瞰画像が生成される(#14)。生成された表示俯瞰画像をモニタ21に表示させ(#15)、この俯瞰画像表示ルーチンの終了指令がない限り(#16No分岐)、再びステップ#01に戻って、このルーチンを繰り返す。
It is checked whether or not the three-dimensional object information is output from the three-dimensional object detection module 30 (# 06). If the three-dimensional object information is not output (# 06 No branch), it is assumed that there is no noticeable three-dimensional object in any photographed image, and the surrounding overhead image generated in
ステップ#06のチェックで、立体物情報が出力されている場合(#06Yes分岐)、注目すべき立体物が撮影画像に写り込んでいるとみなし、まず、立体物情報から検知された立体物の位置、姿勢、大きさなどのデータを読み出す(#07)。読み出した立体物に関するデータに基づいて撮影画像における当該立体物の画像領域を算定し(#08)、立体物画像を抽出して一時的にメモリに格納する(#09)。さらに、周辺俯瞰画像における立体物の画像領域に対して、その周辺領域の画素値を用いてブレンド処理を行い、立体物の存在をなくするかもしくは弱めるような立体物抑制処理を行う(#10)。 If the three-dimensional object information is output in the check of step # 06 (# 06 Yes branch), it is considered that the three-dimensional object to be noticed is reflected in the photographed image, and first, the three-dimensional object detected from the three-dimensional object information is detected. Data such as position, orientation, and size are read (# 07). Based on the read data regarding the three-dimensional object, the image area of the three-dimensional object in the captured image is calculated (# 08), and the three-dimensional object image is extracted and temporarily stored in the memory (# 09). Further, a three-dimensional object suppression process that eliminates or weakens the presence of the three-dimensional object is performed on the image area of the three-dimensional object in the peripheral bird's-eye view image using the pixel values of the peripheral area (# 10). ).
周辺俯瞰画像では、立体物の路面からの高さやカメラ1からの距離に依存するが、上方に延びている立体物の上端は間延びして示される。このような上方の仮想視点からの俯瞰画像における立体物の歪みを低減するため、撮影画像から抽出された立体物画像だけを別な射影変換、つまり第2射影変換を用いて射影変換画像を生成する。このために、まず、図5で示されているような種々の形態から第2射影変換のために最適なマップを立体物情報に基づいて選択して設定する(#11)。次いで、立体物俯瞰画像生成部65は設定されたマップを用いて立体物画像を射影変換し、周辺俯瞰画像に比べて歪が低減されている立体物俯瞰画像を生成する(#12)。その際、必要に応じて、立体物俯瞰画像における立体物領域の彩度を上げる色補正処理や輪郭を強調したりする形状明確化処理を施してもよい。さらに、立体物俯瞰画像は周辺俯瞰画像における立体物の画像領域に重ね合わせ合成される(#13)。このようにして生成された最終的な周辺俯瞰画像は、表示俯瞰画像として生成され(#14)、モニタ21に表示される(#15)。
In the surrounding bird's-eye view image, depending on the height of the three-dimensional object from the road surface and the distance from the
〔別実施の形態〕 [Another embodiment]
(1)上述した実施形態では、注目すべき一つの立体物が4つのカメラ1から取得した撮影画像の1つに写されている例を取り上げたが、隣り合うカメラ視野の境界領域では、注目すべき一つの立体物が複数の撮影画像に写されている場合も考えられる。従って、車載カメラが車両全周囲を撮影するために複数設置されているような実施形態において、立体物が2つ以上のカメラの撮影画像に含まれている場合、より面積の大きい方の立体物領域を有する立体物画像が立体物俯瞰画像生成のために抽出されると好都合である。
(2)注目すべき立体物として2つの異なる立体物を取り扱うようにしてもよい。さらにこの場合、立体物によって異なる射影変換を用いて立体物俯瞰画像を生成して、周辺俯瞰画像と合成してもよい。
(3)上述した実施の形態では、立体物検知方法として、超音波を用いた立体物検知と画像認識による立体物検知のいずれか又はその組み合わせが提示されていたが、もちろん、これ以外の立体物検知方法、例えば、レーザーレーダ法や赤外線法を利用することも本発明の範囲内である。
(1) In the above-described embodiment, an example in which one notable solid object is captured in one of the captured images acquired from the four
(2) Two different three-dimensional objects may be handled as three-dimensional objects to be noted. Further, in this case, a three-dimensional object overhead image may be generated using projective transformation that varies depending on the three-dimensional object, and may be combined with the peripheral overhead image.
(3) In the above-described embodiment, as the three-dimensional object detection method, one or a combination of three-dimensional object detection using ultrasonic waves and three-dimensional object detection by image recognition has been presented. It is also within the scope of the present invention to use an object detection method such as a laser radar method or an infrared method.
本発明は、俯瞰画像を用いて車両周辺の監視を行う全てのシステムに利用することができる。 The present invention can be used for all systems that monitor a vehicle periphery using an overhead image.
30:立体物検知モジュール
21:モニタ
50:画像処理モジュール
53:立体物情報取得部
54:仮想立体物選定部
55:画像合成部
60:画像生成部
61:通常画像生成部
62:射影変換選択部
63:マッピングテーブル
64:周辺俯瞰画像生成部
65:立体物俯瞰画像生成部
66:立体物抽出部
67:立体物抑制部
71:表示制御部
30: Three-dimensional object detection module 21: Monitor 50: Image processing module 53: Three-dimensional object information acquisition unit 54: Virtual three-dimensional object selection unit 55: Image composition unit 60: Image generation unit 61: Normal image generation unit 62: Projection conversion selection unit 63: Mapping table 64: Surrounding bird's-eye view image generation unit 65: Three-dimensional object overhead image generation unit 66: Three-dimensional object extraction unit 67: Three-dimensional object suppression unit 71: Display control unit
Claims (6)
第1射影変換を用いて前記撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、
前記車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、
前記立体物情報に基づいて前記撮影画像から前記立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、
前記周辺俯瞰画像における前記立体物の歪みを低減する第2射影変換を用いて前記立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、
前記立体物情報に基づき前記周辺俯瞰画像に前記立体物俯瞰画像を画像合成する画像合成部と、
を備えた画像生成装置。 An image generation device that outputs a bird's-eye view image generated by projective transformation of a captured image acquired by an in-vehicle camera that captures a peripheral area of a vehicle from an upper virtual viewpoint as a display image,
A peripheral overhead image generation unit that generates a peripheral overhead image from the captured image using the first projective transformation;
A three-dimensional object detection unit that detects a three-dimensional object existing in the field of view of the in-vehicle camera and outputs three-dimensional object information including the position of the three-dimensional object;
A three-dimensional object extraction unit that extracts a three-dimensional object image that is an image region in which the three-dimensional object is captured from the captured image based on the three-dimensional object information;
A three-dimensional object overhead image generation unit that generates a three-dimensional object overhead image from the three-dimensional object image using a second projective transformation that reduces distortion of the three-dimensional object in the peripheral overhead image;
An image compositing unit that synthesizes the three-dimensional object overhead image with the peripheral overhead image based on the three-dimensional object information;
An image generation apparatus comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011002778A JP2012147149A (en) | 2011-01-11 | 2011-01-11 | Image generating apparatus |
CN201180064774.5A CN103299617B (en) | 2011-01-11 | 2011-11-22 | Video generation device |
PCT/JP2011/076899 WO2012096058A1 (en) | 2011-01-11 | 2011-11-22 | Image generating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011002778A JP2012147149A (en) | 2011-01-11 | 2011-01-11 | Image generating apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012147149A true JP2012147149A (en) | 2012-08-02 |
Family
ID=46506975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011002778A Pending JP2012147149A (en) | 2011-01-11 | 2011-01-11 | Image generating apparatus |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2012147149A (en) |
CN (1) | CN103299617B (en) |
WO (1) | WO2012096058A1 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014174884A1 (en) * | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | Image to be processed generating device, image to be processed generating method, and operation assistance system |
WO2015029110A1 (en) * | 2013-08-26 | 2015-03-05 | 日立建機株式会社 | Device for monitoring area around working machine |
CN105291979A (en) * | 2014-06-10 | 2016-02-03 | Lg电子株式会社 | Around view provision apparatus and vehicle including the same |
JP2017515727A (en) * | 2014-05-08 | 2017-06-15 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method and apparatus for distortion-free display of the vehicle periphery of a vehicle |
JP2017220760A (en) * | 2016-06-06 | 2017-12-14 | アイシン精機株式会社 | Image processing apparatus for vehicle |
EP2709069B1 (en) * | 2012-09-15 | 2018-08-08 | ZF Friedrichshafen AG | Method and apparatus for an imaging driver assistance system with adaptive all-round view display |
WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
WO2018220915A1 (en) * | 2017-06-02 | 2018-12-06 | アイシン精機株式会社 | Periphery monitoring device |
US10282915B1 (en) * | 2017-12-27 | 2019-05-07 | Industrial Technology Research Institute | Superimposition device of virtual guiding indication and reality image and the superimposition method thereof |
JP6513300B1 (en) * | 2018-03-28 | 2019-05-15 | 三菱電機株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
US10339396B2 (en) | 2015-02-10 | 2019-07-02 | Clarion Co., Ltd. | Vehicle accessibility determination device |
WO2019172073A1 (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device and image creation method |
WO2019198399A1 (en) * | 2018-04-13 | 2019-10-17 | クラリオン株式会社 | Image processing device and method |
JPWO2018221209A1 (en) * | 2017-05-30 | 2020-04-02 | ソニーセミコンダクタソリューションズ株式会社 | Image processing apparatus, image processing method, and program |
JP2020127171A (en) * | 2019-02-06 | 2020-08-20 | アイシン精機株式会社 | Periphery monitoring device |
JP2020525945A (en) * | 2017-06-30 | 2020-08-27 | コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. | Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle |
JPWO2022254592A1 (en) * | 2021-06-01 | 2022-12-08 | ||
US11727601B2 (en) | 2019-12-31 | 2023-08-15 | Woven Planet North America, Inc. | Overhead view image generation |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5904093B2 (en) * | 2012-10-30 | 2016-04-13 | 株式会社デンソー | In-vehicle image generator |
JP5984714B2 (en) * | 2013-02-27 | 2016-09-06 | アルパイン株式会社 | Three-dimensional object detection device, driving support device, and three-dimensional object detection method |
US20150077560A1 (en) * | 2013-03-22 | 2015-03-19 | GM Global Technology Operations LLC | Front curb viewing system based upon dual cameras |
US9886636B2 (en) * | 2013-05-23 | 2018-02-06 | GM Global Technology Operations LLC | Enhanced top-down view generation in a front curb viewing system |
US9834143B2 (en) * | 2013-05-23 | 2017-12-05 | GM Global Technology Operations LLC | Enhanced perspective view generation in a front curb viewing system |
CN103617606B (en) * | 2013-11-26 | 2016-09-14 | 中科院微电子研究所昆山分所 | For assisting the vehicle multi-angle panorama generation method of driving |
JP6232994B2 (en) * | 2013-12-16 | 2017-11-22 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US10097772B2 (en) * | 2014-10-31 | 2018-10-09 | Mitsubishi Electric Corporation | Image processing device and image processing method |
WO2017054116A1 (en) * | 2015-09-28 | 2017-04-06 | 神画科技(深圳)有限公司 | Automatic three-dimensional mapping projection system and method |
GB2556797B (en) * | 2015-11-06 | 2018-10-24 | Mitsubishi Electric Corp | Image processing apparatus, image processing method, and image processing program |
US20190156511A1 (en) * | 2016-04-28 | 2019-05-23 | Sharp Kabushiki Kaisha | Region of interest image generating device |
JP6962372B2 (en) * | 2017-08-25 | 2021-11-05 | 株式会社ソシオネクスト | Correction device, correction program and recording medium |
CN109344677B (en) * | 2017-11-07 | 2021-01-15 | 长城汽车股份有限公司 | Method, device, vehicle and storage medium for recognizing three-dimensional object |
CN108876707B (en) * | 2018-05-25 | 2022-09-23 | 北京市商汤科技开发有限公司 | Bird's-eye view image generation and neural network training method, device, storage medium and equipment |
JP7160730B2 (en) * | 2019-03-20 | 2022-10-25 | 本田技研工業株式会社 | VEHICLE SYSTEM, VEHICLE SYSTEM CONTROL METHOD, AND PROGRAM |
CN116324863A (en) * | 2020-10-09 | 2023-06-23 | 株式会社索思未来 | Image processing device, image processing method, and image processing program |
WO2023243310A1 (en) * | 2022-06-17 | 2023-12-21 | 株式会社デンソー | Image processing system, image processing device, image processing method, and image processing program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4626400B2 (en) * | 2005-05-25 | 2011-02-09 | 日産自動車株式会社 | Overhead image display device and overhead image display method |
JP4928956B2 (en) * | 2007-01-18 | 2012-05-09 | 三洋電機株式会社 | Overhead image providing device, vehicle, and overhead image providing method |
JP4969269B2 (en) * | 2007-02-21 | 2012-07-04 | アルパイン株式会社 | Image processing device |
JP5067632B2 (en) * | 2008-11-28 | 2012-11-07 | アイシン精機株式会社 | Bird's-eye image generator |
-
2011
- 2011-01-11 JP JP2011002778A patent/JP2012147149A/en active Pending
- 2011-11-22 CN CN201180064774.5A patent/CN103299617B/en not_active Expired - Fee Related
- 2011-11-22 WO PCT/JP2011/076899 patent/WO2012096058A1/en active Application Filing
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2709069B1 (en) * | 2012-09-15 | 2018-08-08 | ZF Friedrichshafen AG | Method and apparatus for an imaging driver assistance system with adaptive all-round view display |
WO2014174884A1 (en) * | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | Image to be processed generating device, image to be processed generating method, and operation assistance system |
US10621743B2 (en) | 2013-04-24 | 2020-04-14 | Sumitomo Heavy Industries, Ltd. | Processing-target image creating device, processing-target image creating method, and operation assisting system |
WO2015029110A1 (en) * | 2013-08-26 | 2015-03-05 | 日立建機株式会社 | Device for monitoring area around working machine |
JPWO2015029110A1 (en) * | 2013-08-26 | 2017-03-02 | 日立建機株式会社 | Work machine ambient monitoring device |
JP2017515727A (en) * | 2014-05-08 | 2017-06-15 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method and apparatus for distortion-free display of the vehicle periphery of a vehicle |
CN105291979B (en) * | 2014-06-10 | 2018-04-06 | Lg电子株式会社 | Vehicle of the vehicle with panoramic looking-around device and with the device |
CN105291979A (en) * | 2014-06-10 | 2016-02-03 | Lg电子株式会社 | Around view provision apparatus and vehicle including the same |
US10339396B2 (en) | 2015-02-10 | 2019-07-02 | Clarion Co., Ltd. | Vehicle accessibility determination device |
JP2017220760A (en) * | 2016-06-06 | 2017-12-14 | アイシン精機株式会社 | Image processing apparatus for vehicle |
WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
US11521395B2 (en) | 2017-05-30 | 2022-12-06 | Sony Semiconductor Solutions Corporation | Image processing device, image processing method, and program |
JP7150709B2 (en) | 2017-05-30 | 2022-10-11 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and program |
JPWO2018221209A1 (en) * | 2017-05-30 | 2020-04-02 | ソニーセミコンダクタソリューションズ株式会社 | Image processing apparatus, image processing method, and program |
US11475676B2 (en) | 2017-06-02 | 2022-10-18 | Aisin Corporation | Periphery monitoring device |
JP7009785B2 (en) | 2017-06-02 | 2022-01-26 | 株式会社アイシン | Peripheral monitoring device |
WO2018220915A1 (en) * | 2017-06-02 | 2018-12-06 | アイシン精機株式会社 | Periphery monitoring device |
JP2018207286A (en) * | 2017-06-02 | 2018-12-27 | アイシン精機株式会社 | Periphery monitoring device |
JP2020525945A (en) * | 2017-06-30 | 2020-08-27 | コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. | Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle |
US10282915B1 (en) * | 2017-12-27 | 2019-05-07 | Industrial Technology Research Institute | Superimposition device of virtual guiding indication and reality image and the superimposition method thereof |
WO2019172073A1 (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device and image creation method |
US11258963B2 (en) | 2018-03-05 | 2022-02-22 | Denso Corporation | Image creation device and image creation method |
JP2019153138A (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device |
US11403742B2 (en) | 2018-03-28 | 2022-08-02 | Mitsubishi Electric Corporation | Image processing device, image processing method, and recording medium for generating bird's eye synthetic image |
GB2586712B (en) * | 2018-03-28 | 2021-12-22 | Mitsubishi Electric Corp | Image processing device, image processing method, and image processing program |
GB2586712A (en) * | 2018-03-28 | 2021-03-03 | Mitsubishi Electric Corp | Image processing device, image processing method, and image processing program |
JP6513300B1 (en) * | 2018-03-28 | 2019-05-15 | 三菱電機株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
WO2019186787A1 (en) * | 2018-03-28 | 2019-10-03 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
JP2019185520A (en) * | 2018-04-13 | 2019-10-24 | クラリオン株式会社 | Image processor and method |
JP7074546B2 (en) | 2018-04-13 | 2022-05-24 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing equipment and methods |
WO2019198399A1 (en) * | 2018-04-13 | 2019-10-17 | クラリオン株式会社 | Image processing device and method |
JP2020127171A (en) * | 2019-02-06 | 2020-08-20 | アイシン精機株式会社 | Periphery monitoring device |
JP7314518B2 (en) | 2019-02-06 | 2023-07-26 | 株式会社アイシン | Perimeter monitoring device |
US11727601B2 (en) | 2019-12-31 | 2023-08-15 | Woven Planet North America, Inc. | Overhead view image generation |
JPWO2022254592A1 (en) * | 2021-06-01 | 2022-12-08 | ||
WO2022254592A1 (en) * | 2021-06-01 | 2022-12-08 | 株式会社ソシオネクスト | Image-processing device, image-processing method, and image-processing program |
Also Published As
Publication number | Publication date |
---|---|
WO2012096058A1 (en) | 2012-07-19 |
CN103299617B (en) | 2016-07-06 |
CN103299617A (en) | 2013-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012147149A (en) | Image generating apparatus | |
JP5682788B2 (en) | Vehicle periphery monitoring device | |
WO2012169355A1 (en) | Image generation device | |
US9050931B2 (en) | Vehicle periphery monitoring system | |
JP5516998B2 (en) | Image generation device | |
JP4642723B2 (en) | Image generating apparatus and image generating method | |
JP4257356B2 (en) | Image generating apparatus and image generating method | |
JP5870608B2 (en) | Image generation device | |
JP5884439B2 (en) | Image generation device for vehicle periphery monitoring | |
WO2012172923A1 (en) | Vehicle periphery monitoring device | |
US20120069153A1 (en) | Device for monitoring area around vehicle | |
JP4248570B2 (en) | Image processing apparatus and visibility support apparatus and method | |
JP2007274377A (en) | Periphery monitoring apparatus, and program | |
JP5495071B2 (en) | Vehicle periphery monitoring device | |
JP5853457B2 (en) | Vehicle perimeter monitoring system | |
JP5516997B2 (en) | Image generation device | |
JP5500392B2 (en) | Vehicle periphery monitoring device | |
JP2012105090A (en) | Parking support apparatus | |
JP5618139B2 (en) | Parking assistance device | |
JP2012065228A (en) | Image processing apparatus, image display system, and image display method | |
JP2008034964A (en) | Image display device | |
CN218877068U (en) | Digital rearview mirror with image synthesis function, vehicle-mounted unit system and vehicle | |
JP2010130413A (en) | Peripheral state display device | |
JP2008219716A (en) | Display control device | |
JP2024090467A (en) | Display control device and display control method |