[go: up one dir, main page]

JP5299296B2 - Vehicle periphery image display device and vehicle periphery image display method - Google Patents

Vehicle periphery image display device and vehicle periphery image display method Download PDF

Info

Publication number
JP5299296B2
JP5299296B2 JP2010014664A JP2010014664A JP5299296B2 JP 5299296 B2 JP5299296 B2 JP 5299296B2 JP 2010014664 A JP2010014664 A JP 2010014664A JP 2010014664 A JP2010014664 A JP 2010014664A JP 5299296 B2 JP5299296 B2 JP 5299296B2
Authority
JP
Japan
Prior art keywords
image
dimensional structure
height
bird
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010014664A
Other languages
Japanese (ja)
Other versions
JP2011155393A (en
Inventor
英樹 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2010014664A priority Critical patent/JP5299296B2/en
Publication of JP2011155393A publication Critical patent/JP2011155393A/en
Application granted granted Critical
Publication of JP5299296B2 publication Critical patent/JP5299296B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の周囲を撮影する撮像装置からの画像を鳥瞰画像に変換して車両の乗員に表示する車両周辺画像表示装置及び車両周辺画像表示方法に関する。   The present invention relates to a vehicle periphery image display device and a vehicle periphery image display method for converting an image from an imaging device that captures the periphery of a vehicle into a bird's-eye view image and displaying the image to a vehicle occupant.

従来から、車両に搭載したカメラの映像を複数枚合成した鳥瞰画像としたり、視点変換したりした後に、車両の乗員に表示する装置が提案されている。   2. Description of the Related Art Conventionally, there has been proposed a device that displays a bird's-eye image obtained by combining a plurality of video images of a camera mounted on a vehicle or changes the viewpoint, and then displays the image on a vehicle occupant.

例えば、特許文献1に記載の装置では、車両の前方、後方、及び左右側方を撮影する各カメラからの車両周辺画像を俯瞰画像(鳥瞰画像)とするために、それぞれ座標変換する。そして、座標変換して得られた部分画像を合成して、自車両周辺を上空から眺めた俯瞰画像を生成し、ディスプレイに出力する。   For example, in the apparatus described in Patent Document 1, coordinate conversion is performed in order to make a vehicle peripheral image from each camera that captures the front, rear, and left and right sides of the vehicle an overhead image (bird's-eye image). Then, the partial images obtained by the coordinate conversion are combined to generate an overhead image in which the periphery of the host vehicle is viewed from above, and is output to the display.

また、特許文献2に記載の装置では、一台もしくは複数台のカメラによって撮影された入力画像を、3次元空間の予め決められた空間モデルにマッピングした空間データを作成し、その空間データを参照して、3次元空間における任意の仮想視点から見た画像を作成して表示する。   In the apparatus described in Patent Document 2, spatial data is created by mapping an input image captured by one or more cameras to a predetermined spatial model in a three-dimensional space, and the spatial data is referred to Then, an image viewed from an arbitrary virtual viewpoint in the three-dimensional space is created and displayed.

特開2009−101984号公報JP 2009-101984 特許第3286306号公報Japanese Patent No. 3286306

しかしながら、特許文献1の装置では、各カメラからの車両周辺画像を、車両上空の仮想視点から見た鳥瞰画像に地面を基準面として変換しているだけである。このため、カメラによって撮影された車両周辺画像に立体物が存在する場合、変換された鳥瞰画像において、立体物が歪んで(伸びて)表示されてしまう。このため、車両の乗員にとっては、不自然な、直感的に理解しにくい画像が表示されることになる。   However, the apparatus of Patent Document 1 merely converts the vehicle periphery image from each camera into a bird's-eye view image viewed from a virtual viewpoint above the vehicle using the ground as a reference plane. For this reason, when a three-dimensional object exists in the vehicle peripheral image photographed by the camera, the three-dimensional object is distorted (extended) in the converted bird's-eye view image. For this reason, an unnatural and difficult-to-understand image is displayed for the vehicle occupant.

また、特許文献2の装置の場合も、カメラからの入力画像を予め決められた空間モデル(局面や平面)へマッピングするだけであるため、特許文献2の装置においても同様の問題(立体物の歪み)が生じる。   Also, in the case of the device of Patent Document 2, since only the input image from the camera is mapped to a predetermined space model (a situation or a plane), the same problem (three-dimensional object) is found in the device of Patent Document 2. Distortion).

本願発明は、このような点に鑑みてなされたものであり、撮影した画像に3次元構造体(立体物)が存在している場合であっても、車両の乗員が直感的に理解しやすい鳥瞰画像を表示することが可能な車両周辺画像表示装置及び表示方法を提供することを目的とする。   The present invention has been made in view of such a point, and even if a three-dimensional structure (three-dimensional object) is present in a photographed image, the vehicle occupant can easily understand it intuitively. An object of the present invention is to provide a vehicle periphery image display device and a display method capable of displaying a bird's-eye view image.

上記目的を達成するために、請求項1に記載の車両周辺画像表示装置は、
車両の車室内に設けられた表示装置と、
車両に搭載され、車両周辺の画像を撮影する撮影手段と、
撮影手段によって撮影された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成手段と、
画像生成手段によって生成された提示画像を表示装置に表示する表示制御手段と、を備えたものであって、
さらに、撮影手段によって撮影された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を有し、
画像生成手段は、
3次元構造体抽出手段によって特定された3次元構造体の領域を除いて、撮影手段によって撮影された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換手段と、
第1画像変換手段による第1の画像変換とは異なるものであって、第1の画像変換にて3次元構造体を鳥瞰画像に変換した場合よりも、3次元構造体の歪みが軽減される第2の画像変換を適用して3次元構造体を画像変換する第2画像変換手段と、を含み
第1画像変換手段と、第2画像変換手段とにより変換された画像を統合して提示画像を生成するものであり、
第2画像変換手段が行なう第2の画像変換は、撮影手段によって撮影された画像を用いて3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする。
In order to achieve the above object, a vehicle periphery image display device according to claim 1 is provided.
A display device provided in the passenger compartment of the vehicle;
A photographing means mounted on the vehicle for photographing an image around the vehicle;
Image generating means for generating a presentation image for presentation to the driver of the vehicle based on the image photographed by the photographing means;
Display control means for displaying a presentation image generated by the image generation means on a display device,
Furthermore, using an image photographed by the photographing means, the image has a three-dimensional structure extraction means for specifying a region in which a three-dimensional structure extending in the height direction from the ground is projected,
The image generation means
A first image for performing a first image conversion for converting an image photographed by the photographing means into a bird's-eye view image using the ground as a reference plane, excluding the region of the three-dimensional structure specified by the three-dimensional structure extracting means. Conversion means;
This is different from the first image conversion by the first image conversion means, and the distortion of the three-dimensional structure is reduced as compared with the case where the three-dimensional structure is converted into a bird's-eye view image by the first image conversion. A second image conversion unit that converts the image of the three-dimensional structure by applying the second image conversion; and a presentation image obtained by integrating the images converted by the first image conversion unit and the second image conversion unit It is intended to generate a,
In the second image conversion performed by the second image conversion unit, the height of each part of the three-dimensional structure from the ground is calculated using the image captured by the imaging unit, and the height corresponding to the calculated height is calculated. It is converted into a bird's-eye view image as a reference plane .

上述したように、請求項1に記載の車両周辺画像表示装置は、撮影された画像において3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を備えている。そして、画像生成手段の第1画像変換手段は、撮影された画像を、3次元構造体の領域を除いて、地面を基準面とする鳥瞰画像に変換する一方、第2画像変換手段は、第1の画像変換よりも3次元構造体の歪みが軽減される第2の画像変換により3次元構造体を画像変換する。そして、これら第1及び第2画像変換手段によって変換された画像が統合され、提示画像が生成される。   As described above, the vehicle periphery image display apparatus according to the first aspect includes the three-dimensional structure extraction means for specifying the region where the three-dimensional structure is displayed in the photographed image. The first image conversion unit of the image generation unit converts the captured image into a bird's-eye image with the ground as a reference plane, excluding the region of the three-dimensional structure, while the second image conversion unit The three-dimensional structure is subjected to image conversion by the second image conversion in which distortion of the three-dimensional structure is reduced as compared with the first image conversion. Then, the images converted by the first and second image conversion means are integrated to generate a presentation image.

従って、撮影した車両周辺画像に3次元構造体(立体物)が存在していても、従来に比較して、その3次元構造体の歪みを軽減した鳥瞰画像を表示することができる。このため、車両の乗員は、表示された画像から、車両の周辺の状況を素早く容易に把握することができる。   Therefore, even if a three-dimensional structure (three-dimensional object) is present in the photographed vehicle periphery image, a bird's-eye view image with reduced distortion of the three-dimensional structure can be displayed as compared with the conventional case. For this reason, the vehicle occupant can quickly and easily grasp the situation around the vehicle from the displayed image.

なお、例えば撮影手段として1台のカメラを用いて、異なるタイミングで撮影された2画像に対してステレオ計測を行なったり、複数台のカメラを用いて、同時に撮影された複数画像に対してステレオ画像処理を行なったり、あるいは、TOF(time of flight)方式の距離画像センサを用いたりすることで、撮影対象までの距離を求めることができる。そして、撮影対象までの距離が求まれば、撮影手段の設置パラメータ(地面からの高さや俯角など)が既知であるため、その距離から、撮影対象の地面からの高さを求めることができる。このとき、地面よりも高い高さを有する撮影対象は、3次元構造体とみなすことができ、これにより、撮影された画像において、3次元構造体を抽出することが可能となる。   Note that, for example, a single camera is used as a photographing means to perform stereo measurement on two images taken at different timings, or a plurality of cameras are used to take a stereo image on a plurality of images taken simultaneously. By performing processing or using a distance image sensor of the TOF (time of flight) method, the distance to the object to be imaged can be obtained. If the distance to the object to be imaged is obtained, the installation parameters of the image taking means (height from the ground, angle of depression, etc.) are known, and the height from the ground of the object to be imaged can be obtained from the distance. At this time, the imaging target having a height higher than the ground can be regarded as a three-dimensional structure, and thus, the three-dimensional structure can be extracted from the captured image.

また、第2画像変換手段が行なう第2の画像変換は、撮影手段によって撮影された画像を用いて3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものである。 In the second image conversion performed by the second image conversion unit, the height of each part of the three-dimensional structure from the ground is calculated using the image captured by the imaging unit, and the height corresponding to the calculated height is calculated. Ru der converts the bird's-eye image as a reference plane is.

3次元構造体を含む画像を、地面を基準面とする鳥瞰画像へ変換すると、3次元構造体を地面に投射した画像となるため、3次元構造体が歪む。それに対して、請求項1に記載するように、3次元構造体の各所の高さを算出し、その高さに相当する高さを基準面とする鳥瞰画像への変換を行なうことにより、3次元構造体を地面に投射した鳥瞰画像よりも、3次元構造体の歪みを軽減することができる。 When an image including a three-dimensional structure is converted into a bird's-eye view image with the ground as a reference plane, the image is obtained by projecting the three-dimensional structure onto the ground, and the three-dimensional structure is distorted. On the other hand, as described in claim 1 , the height of each part of the three-dimensional structure is calculated and converted into a bird's-eye view image having a height corresponding to the height as a reference plane. The distortion of the three-dimensional structure can be reduced as compared with the bird's-eye view image in which the three-dimensional structure is projected on the ground.

請求項2に記載したように、第2画像変換手段は、3次元構造体を鳥瞰画像に変換する際に、地面からの高さが低い箇所から高い箇所の順に画像変換を行なうことが好ましい。請求項1に記載したように、3次元構造体の各所の高さを基準面として、3次元構造体の各所のそれぞれを鳥瞰変換することで、3次元構造体を撮影した画像(元画像)を鳥瞰画像に変換する場合、元画像の複数の画素が、鳥瞰画像の同一画素にマッピングされる可能性が生じる。このような場合に、より高さの高い箇所の画像変換ほど後に行なうことで、その高さの高い箇所の画素が鳥瞰画像において上書きされる。従って、3次元構造体の鳥瞰画像への変換を適切に行なうことができる。 According to a second aspect of the present invention, when the second image conversion means converts the three-dimensional structure into a bird's-eye view image, the second image conversion means preferably performs image conversion in the order from a place where the height from the ground is low to a place where the height is high. The image (original image) which image | photographed the three-dimensional structure by carrying out the bird's-eye-view conversion of each part of the three-dimensional structure by using the height of each part of the three-dimensional structure as a reference plane as described in Claim 1 May be mapped to the same pixel of the bird's-eye view image. In such a case, the pixel conversion at a higher height is overwritten in the bird's-eye view image by performing the image conversion at a higher height later. Therefore, it is possible to appropriately convert the three-dimensional structure into a bird's-eye view image.

請求項3に記載したように、第2画像変換手段は、3次元構造体を複数の小領域に分割し、高さ方向に隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにしても良い。単に、3次元構造体の各所までの距離を検出し、その距離に基づいて、3次元構造体の地面からの高さを算出するようにした場合、距離検出誤差などにより、算出される高さに誤差が含まれる虞がある。そのような場合、鳥瞰画像における3次元構造体の形状がギザギザになったりして、その形状を正しく鳥瞰画像に変換することができない。そのため、上述したように、隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにすれば、高さを算出する際の誤差を低減することができる。 According to a third aspect of the present invention, the second image conversion means divides the three-dimensional structure into a plurality of small areas, and adds a restriction to the height difference between the small areas adjacent in the height direction. You may make it calculate the height from the ground of each place of a structure. When the distance to each part of the three-dimensional structure is simply detected and the height of the three-dimensional structure from the ground is calculated based on the distance, the height calculated by the distance detection error or the like May contain errors. In such a case, the shape of the three-dimensional structure in the bird's-eye view image becomes jagged, and the shape cannot be correctly converted into a bird's-eye view image. Therefore, as described above, if the height from the ground of each part of the three-dimensional structure is calculated while limiting the difference in height between adjacent small regions, an error in calculating the height Can be reduced.

請求項4に記載したように、第2画像変換手段は、3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、3次元構造体の画像変換を行なっても良い。3次元構造体の場合、真上から見た鳥瞰画像に変換するよりも、多少、斜め方向から見た鳥瞰画像に変換する方が、3次元構造体を認識しやすくなるためである。 According to a fourth aspect of the present invention, when the second image conversion means converts the three-dimensional structure into a bird's-eye image, the bird's-eye image viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground, As described above, image conversion of a three-dimensional structure may be performed. This is because in the case of a three-dimensional structure, it is easier to recognize the three-dimensional structure if it is converted to a bird's-eye image viewed from an oblique direction, rather than being converted to a bird's-eye image viewed from directly above.

請求項5に記載したように、画像生成手段は、3次元構造体抽出手段によって3次元構造体が抽出される以前は、画像全体を第1画像変換手段によって地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を提示画像としても良い。 According to the fifth aspect of the present invention, before the three-dimensional structure extraction unit extracts the three-dimensional structure, the image generation unit converts the entire image into a bird's-eye view image using the ground as a reference plane by the first image conversion unit. The bird's-eye view image may be converted into a presentation image.

これにより、3次元構造体が撮影した画像に含まれていない場合、或いは含まれていても、その3次元構造体をまだ抽出できていない場合には、従来と同様の鳥瞰画像が表示され、3次元構造体が抽出されると、3次元構造体に関して歪みの軽減された鳥瞰画像が表示されるようになる。従って、車両の周囲の状況を示す画像の表示を常時行なうことができる。   Thereby, when the three-dimensional structure is not included in the photographed image, or is included, but the three-dimensional structure has not yet been extracted, a bird's-eye image similar to the conventional one is displayed, When the three-dimensional structure is extracted, a bird's-eye view image with reduced distortion is displayed for the three-dimensional structure. Therefore, it is possible to always display an image showing the situation around the vehicle.

請求項6に記載したように、地面に相当する高さから所定の高さ範囲おきに、撮影手段により撮影された画像の各画素を提示画像のいずれの画素にマッピングするかを示すマッピングテーブルを記憶した記憶手段を備え、第1画像変換手段及び第2画像変換手段は、マッピングテーブルを参照して、第1及び第2の画像変換を行なうことが好ましい。これにより、提示画像(鳥瞰画像)への変換を高速に行なうことが可能になる。 According to a sixth aspect of the present invention, there is provided a mapping table that indicates to which pixel of the presented image each pixel of the image photographed by the photographing means is mapped at predetermined height ranges from a height corresponding to the ground. Preferably, the storage means is stored, and the first image conversion means and the second image conversion means perform the first and second image conversions with reference to the mapping table. This makes it possible to convert the presentation image (bird's-eye view image) at high speed.

請求項7に記載したように、撮影手段により撮影された画像において、3次元構造体の裏側に位置していたため、提示画像において画像情報が欠損する欠損領域に対して、画像を補完する補完手段を有していても良い。3次元構造体の領域を除いて、撮影された画像を地面を基準面とする鳥瞰画像に変換することにより、撮影画像においては3次元構造体の陰に隠れていた部分が、鳥瞰画像にて表示領域となる場合がある。このような場合、この表示領域の画像情報が欠損することになる。そこで、例えば、画像情報が欠損する欠損領域について、周囲と同様の画素値で塗りつぶしたり、欠損領域を挟んで、両方向に区画線が延びている場合には、欠損領域中に区画線を描画したりして、欠損領域の画像を補完しても良い。 As described in claim 7 , in the image photographed by the photographing means, since it is located on the back side of the three-dimensional structure, the complementing means for complementing the image with respect to the defective region where the image information is missing in the presented image You may have. By converting the captured image into a bird's-eye view image using the ground as a reference plane, excluding the region of the three-dimensional structure, a portion hidden behind the three-dimensional structure in the captured image is converted into a bird's-eye view image. It may be a display area. In such a case, the image information in this display area is lost. For this reason, for example, when a defect area where image information is missing is filled with the same pixel value as the surrounding area, or when a lane line extends in both directions across the defect area, the lane line is drawn in the defect area. Alternatively, the image of the missing area may be complemented.

請求項8請求項14に記載の車両周辺画像表示方法は、請求項1〜請求項7に記載の車両周辺画像表示装置において実行される処理方法を記載したものであり、それらの作用効果は、請求項1〜請求項7と同様であるため、説明を省略する。 The vehicle periphery image display method according to claims 8 to 14 describes a processing method executed in the vehicle periphery image display device according to claims 1 to 7 , and the operation and effects thereof are as follows. Since it is the same as that of Claims 1-7, description is abbreviate | omitted.

本発明の第1実施形態による車両周辺画像表示装置の構成を示す構成図である。It is a block diagram which shows the structure of the vehicle periphery image display apparatus by 1st Embodiment of this invention. カメラから3次元構造体までの距離を検出する原理を説明するための図である。It is a figure for demonstrating the principle which detects the distance from a camera to a three-dimensional structure. 三次元構造体の地面からの高さを算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the height from the ground of a three-dimensional structure. 図1の車両周辺画像表示装置における周辺画像表示のための処理を示すフローチャートである。It is a flowchart which shows the process for the periphery image display in the vehicle periphery image display apparatus of FIG. 車両に搭載されたカメラによって撮影した画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the camera mounted in the vehicle. 図5の画像全体を、地面を基準面とする鳥瞰画像に変換した画像を示す図である。It is a figure which shows the image which converted the whole image of FIG. 5 into the bird's-eye view image which uses the ground as a reference plane. 図5における3次元構造体を、高さ情報を用いて鳥瞰画像に変換し、3次元構造体以外の領域を地面を基準面とする鳥瞰画像に変換した画像を示す図である。6 is a diagram illustrating an image obtained by converting the three-dimensional structure in FIG. 5 into a bird's-eye image using height information and converting a region other than the three-dimensional structure into a bird's-eye image with the ground as a reference plane. 図7における3次元構造体後方の欠損領域を補完した画像を示す図である。It is a figure which shows the image which complemented the defect | deletion area | region behind the three-dimensional structure in FIG.

(第1実施形態)
まず、本発明の第1実施形態について、図面に基づいて詳細に説明する。図1は、本発明の第1実施形態による車両周辺画像表示装置の構成を示す構成図である。本実施形態においては、撮影手段としてのCCDカメラが車両後部に搭載されて車両後方の様子を撮影する例について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described in detail based on the drawings. FIG. 1 is a configuration diagram showing a configuration of a vehicle peripheral image display device according to a first embodiment of the present invention. In the present embodiment, an example will be described in which a CCD camera as a photographing unit is mounted on the rear part of the vehicle and photographs the state behind the vehicle.

図1に示すように、車両周辺画像表示装置100は、2台のCCDカメラ10a、10b、画像処理ECU20、及び表示装置30から構成される。   As shown in FIG. 1, the vehicle periphery image display device 100 includes two CCD cameras 10 a and 10 b, an image processing ECU 20, and a display device 30.

2台のCCDカメラ10a,10bは、車両の後部、具体的には、車両の後部ドアやトランクに、光軸が地面と平行な方向よりも下向きとなり、その撮影領域に車両後方近傍の地面が含まれるように設置される。特に、本実施形態では、この2台のCCDカメラ10a,10bを、所定の距離だけ離間した状態で、路面から同じ高さ、かつ同じ俯角となるように、車両後部に設置する。従って、2台のCCDカメラ10a,10bによる車両後方の撮影範囲は、車幅方向にカメラ間距離分だけずれたものとなり、それぞれの撮影範囲の大部分がオーバーラップする。   The two CCD cameras 10a and 10b are arranged at the rear part of the vehicle, specifically, at the rear door or trunk of the vehicle, with the optical axis pointing downward from the direction parallel to the ground. Installed to be included. In particular, in the present embodiment, the two CCD cameras 10a and 10b are installed at the rear of the vehicle so as to have the same height and the same depression angle from the road surface in a state of being separated by a predetermined distance. Accordingly, the photographing range behind the vehicle by the two CCD cameras 10a and 10b is shifted by the distance between the cameras in the vehicle width direction, and most of the photographing ranges overlap each other.

画像処理ECU20は、CCDカメラ10a,10bから出力された画像を用いて、その一方の画像(例えばCCDカメラ10aによって撮影された画像)において、地面から高さ方向に伸びる3次元構造体(立体物)が映し出されている領域を特定する3次元構造体推定部21を有する。   The image processing ECU 20 uses the images output from the CCD cameras 10a and 10b, and in one of the images (for example, an image taken by the CCD camera 10a), a three-dimensional structure (three-dimensional object) extending in the height direction from the ground. ) Has a three-dimensional structure estimation unit 21 that identifies an area where the image is displayed.

この3次元構造体推定部21における、CCDカメラ10aによって撮影された画像において3次元構造体を推定し、特定する方法について、図2及び図3を参照して説明する。   A method of estimating and specifying the three-dimensional structure in the image taken by the CCD camera 10a in the three-dimensional structure estimation unit 21 will be described with reference to FIGS.

本実施形態では、まず、2台のCCDカメラ10a,10bによって同じ3次元構造体を撮影したときに生じる視差から、三角測量の原理で、3次元構造体の各所までの距離を測定する(ステレオ画像処理)。具体的には、図2に示すように、2台のCCDカメラ10a,10bにより撮影された画像中での3次元構造体の位置の差である視差dを求めることができれば、3次元構造体までの距離Zは、以下の数式1により求めることができる。   In the present embodiment, first, the distance to each part of the three-dimensional structure is measured based on the principle of triangulation from the parallax generated when the same three-dimensional structure is photographed by the two CCD cameras 10a and 10b (stereo). Image processing). Specifically, as shown in FIG. 2, if the parallax d, which is the difference in position of the three-dimensional structure in the images taken by the two CCD cameras 10a and 10b, can be obtained, the three-dimensional structure The distance Z to can be obtained by the following formula 1.

(数1)
Z=f・B/d
なお、数式1において、Bはカメラ間距離、fはCCDカメラ10a,10bの焦点距離である。
(Equation 1)
Z = f · B / d
In Equation 1, B is the inter-camera distance, and f is the focal length of the CCD cameras 10a and 10b.

そして、視差dは、2台のCCDカメラ10a,10bにより撮影された画像間で、どの画素がどの画素に対応するかを逐一探索することにより算出することができる。例えば、視差d(距離Z)を算出する際に基準となるCCDカメラ10aの撮影画像(第1画像)において、視差d(距離Z)の算出対象となる画素とその周囲の画素を含む小領域を設定する。そして、この小領域と同様の小領域を、CCDカメラ10bの撮影画像(第2画像)に設定し、パターンマッチングにより、最も類似する小領域の位置を定める。このような処理により、第1画像と第2画像との間で、対応する画素の位置を求めることができれば、その画素に関して視差dを算出することが可能となる。   The parallax d can be calculated by sequentially searching which pixel corresponds to which pixel between images taken by the two CCD cameras 10a and 10b. For example, in the captured image (first image) of the CCD camera 10a which is a reference when calculating the parallax d (distance Z), a small area including the pixels for which the parallax d (distance Z) is calculated and the surrounding pixels Set. Then, a small area similar to this small area is set as a captured image (second image) of the CCD camera 10b, and the position of the most similar small area is determined by pattern matching. If the position of the corresponding pixel can be obtained between the first image and the second image by such processing, the parallax d can be calculated for the pixel.

そして、このような処理を、基準となる第1画像の全画素について実行することにより、第1画像において、第2画像において対応画素が探索できた全画素について、撮影対象までの距離を求めることができる。なお、本実施形態では、2台のCCDカメラ10a,10bは、同じ高さ、かつ同じ俯角で車両に搭載されている。従って、第1画像と第2画像において、対応する画素は、縦方向にはずれておらず、横方向にのみずれた位置に存在する。このため、対応画素位置の探索は比較的容易に行なうことができる。   Then, by executing such processing for all the pixels of the first image serving as a reference, the distance to the shooting target is obtained for all the pixels for which the corresponding pixels can be searched for in the second image in the first image. Can do. In the present embodiment, the two CCD cameras 10a and 10b are mounted on the vehicle at the same height and the same depression angle. Therefore, in the first image and the second image, the corresponding pixels are not shifted in the vertical direction, but are present in positions shifted only in the horizontal direction. For this reason, the search for the corresponding pixel position can be performed relatively easily.

以上、2台のCCDカメラ10a、10bを用いて、撮影対象までの距離を求める例について説明したが、3台以上のCCDカメラを用いてもよい。逆に、1台のCCDカメラしか備えていない場合でも、いわゆるStructure from Motion(SFM)と呼ばれる技術を用いることでステレオ計測を行い、撮影対象までの距離を求めることも可能である。   The example in which the distance to the object to be photographed is obtained using the two CCD cameras 10a and 10b has been described above, but three or more CCD cameras may be used. On the other hand, even when only one CCD camera is provided, it is possible to perform stereo measurement by using a so-called structure from motion (SFM) technique and obtain the distance to the object to be photographed.

このSFM技術では、1台のCCDカメラによって異なるタイミングで撮影された、撮影位置の異なる2以上の画像において、コーナー点やエッジなどの、対応がとりやすい特徴点を抽出する。そして、抽出した特徴点が2以上の画像において対応付けられたら、その位置関係に基づいて、それぞれの撮影位置におけるCCDカメラ間の相対的な位置関係(回転及び並進位置)を示す基礎行列や3重テンソル行列などを求める。そして、それらの行列によって示される相対的な位置関係に基づいて、3角測量の原理から、各撮影対象までの距離を算出する(ステレオ計測)。   In this SFM technique, feature points such as corner points and edges that are easy to correspond are extracted from two or more images taken at different timings by one CCD camera and having different shooting positions. When the extracted feature points are associated with each other in two or more images, based on the positional relationship, a basic matrix indicating the relative positional relationship (rotation and translational position) between the CCD cameras at each photographing position or 3 Find the double tensor matrix. And based on the relative positional relationship shown by those matrices, the distance to each imaging object is calculated from the principle of triangulation (stereo measurement).

さらに、TOF(time of flight)型距離画像センサを用いることで、各画素の撮影対象までの距離を直接求めても良い。なお、TOF型距離画像センサは、例えば赤外線を変調して投光し、反射対象物からの反射光との位相差を画素毎に計測することにより、画素ごとに反射対象物との距離を計測可能としたものである。   Further, by using a TOF (time of flight) type distance image sensor, the distance of each pixel to the photographing target may be directly obtained. Note that the TOF type distance image sensor measures the distance to the reflective object for each pixel by, for example, modulating and projecting infrared light and measuring the phase difference with the reflected light from the reflective object for each pixel. It is possible.

CCDカメラ10aによって撮影された画像の各画素に関して距離が求められると、3次元構造体推定部21は、求められた距離に基づいて、各画素が撮影している対象物の地面からの高さを算出する。   When the distance is determined for each pixel of the image captured by the CCD camera 10a, the three-dimensional structure estimation unit 21 determines the height from the ground of the target object captured by each pixel based on the determined distance. Is calculated.

CCDカメラ10aの地面からの設置高さ及び俯角は予め定められているので、CCDカメラ10aの各画素が映し出すべき地面までのCCDカメラ10aからの距離は、CCDカメラ10aの画角などを考慮して予め算出することができる。3次元構造体推定部21は、この各画素の地面までの距離Zを予め記憶している。 Since the installation height and the depression angle of the CCD camera 10a from the ground are determined in advance, the distance from the CCD camera 10a to the ground on which each pixel of the CCD camera 10a is projected takes into consideration the angle of view of the CCD camera 10a and the like. Can be calculated in advance. The three-dimensional structure estimation unit 21 stores in advance a distance Z 0 to the ground of each pixel.

ここで、図3に示すように、CCDカメラ10aのある画素が、3次元構造体の先端を映し出している場合を想定する。そして、CCDカメラ10aによって撮影された画像の各画素に関して求められた距離に基づき、この3次元構造体の先端までの距離は、距離Zであるとする。このとき、距離Zと距離Zとの比は、CCDカメラ10aの地面からの高さHから3次元構造体の先端までの高さhを減じた高さと、CCDカメラ10aの地面からの高さHとの比と同じになる。このため、CCDカメラ10aのある画素が映し出している3次元構造体の先端までの高さhは、以下の数式2により算出することができる。 Here, as shown in FIG. 3, it is assumed that a pixel of the CCD camera 10a projects the tip of a three-dimensional structure. The distance to the tip of the three-dimensional structure is assumed to be a distance Z based on the distance obtained for each pixel of the image taken by the CCD camera 10a. In this case, the ratio between the distance Z and the distance Z 0 is the height obtained by subtracting the height h from the height H from the ground of the CCD camera 10a to the tip of the three-dimensional structure, high from the ground of the CCD camera 10a It becomes the same as the ratio with the height H. For this reason, the height h to the tip of the three-dimensional structure on which a certain pixel of the CCD camera 10a is projected can be calculated by the following formula 2.

(数2)
h=H×(1−Z/Z
CCDカメラ10aによって撮影された画像の各画素に関して求められた距離のそれぞれを用いて、数式2の演算を行なうことにより、各画素が映し出している撮影対象の地面からの高さhを算出することができる。そして、算出した撮影対象の高さhが、地面の高さよりも高いか否かを判定する閾値よりも高ければ、その撮影対象は、地面ではなく、地面から高さ方向に伸びる3次元構造体の一部であるとみなすことができる。すなわち、算出した撮影対象の高さhにより、撮影対象が地面であるか、3次元構造体であるかを判別することができ、これにより、撮影された画像において、3次元構造体が映し出されている領域を特定することができる。
(Equation 2)
h = H × (1−Z / Z 0 )
Using the distance obtained for each pixel of the image photographed by the CCD camera 10a, the height h from the ground of the photographing object projected by each pixel is calculated by performing the calculation of Equation 2. Can do. If the calculated height h of the imaging target is higher than a threshold for determining whether or not the height of the imaging target is higher than the height of the ground, the imaging target is not the ground but a three-dimensional structure extending in the height direction from the ground. Can be considered part of That is, it is possible to determine whether the shooting target is the ground or the three-dimensional structure based on the calculated height h of the shooting target, and thereby the three-dimensional structure is displayed in the shot image. Can be identified.

3次元構造体推定部21において、各画素毎に算出された高さは、画像処理ECU20の画像生成部22に与えられる。画像生成部22は、3次元構造体推定部21から与えられた、各画素毎に算出された高さに基づいて、マッピングテーブル23を参照しつつ、CCDカメラ10aによって撮影された画像を鳥瞰画像に変換して、車両の乗員に提示する提示画像を生成する。以下に、画像生成部22における、鳥瞰画像への変換処理について、詳しく説明する。   In the three-dimensional structure estimation unit 21, the height calculated for each pixel is given to the image generation unit 22 of the image processing ECU 20. The image generation unit 22 refers to the mapping table 23 based on the height calculated for each pixel given from the three-dimensional structure estimation unit 21, and converts the image captured by the CCD camera 10a into a bird's-eye view image. The presentation image to be presented to the vehicle occupant is generated. Below, the conversion process into the bird's-eye image in the image generation part 22 is demonstrated in detail.

まず、マッピングテーブル23について説明する。マッピングテーブル23は、CCDカメラ10aによって撮影された画像と、鳥瞰画像との画素位置の関係を示すものである。つまり、マッピングテーブル23は、撮影画像を鳥瞰画像に画像変換するために、撮影画像の各画素の画素値を、鳥瞰画像のいずれの画素位置にマッピングするかの位置関係を示している。鳥瞰画像に関して、いずれの視点からの鳥瞰画像とするかを予め決定しておくことにより、撮影画像と鳥瞰画像との画素位置の関係は一義的に決まる。この画素位置同士の関係をマッピングテーブル23に記憶しておくことにより、撮影画像から鳥瞰画像への変換を高速に実施することができる。   First, the mapping table 23 will be described. The mapping table 23 shows the relationship between the pixel positions of the image captured by the CCD camera 10a and the bird's-eye view image. That is, the mapping table 23 indicates a positional relationship in which the pixel value of each pixel of the captured image is mapped to which pixel position of the bird's-eye image in order to convert the captured image into a bird's-eye image. With respect to the bird's-eye view image, the relationship between the pixel positions of the captured image and the bird's-eye view image is uniquely determined by determining in advance from which viewpoint the bird's-eye view image is to be used. By storing the relationship between the pixel positions in the mapping table 23, conversion from the captured image to the bird's-eye view image can be performed at high speed.

特に、本実施形態では、マッピングテーブル23は、地面に相当する高さから所定の高さ範囲(例えば5〜10cm)おきに、それぞれの高さにおける撮影画像と鳥瞰画像との画素位置との関係を記憶している。なお、説明の便宜上、地面に相当する高さを除いて、画素位置同士の位置関係が記憶されている高さを高さ閾値と呼び、地面の高さよりも一段高い位置から最高位置まで順に、h、h、…、hと表すこととする。 In particular, in the present embodiment, the mapping table 23 has a relationship between pixel positions of a captured image and a bird's-eye image at each height from a height corresponding to the ground to a predetermined height range (for example, 5 to 10 cm). Is remembered. For convenience of explanation, except for the height corresponding to the ground, the height at which the positional relationship between the pixel positions is stored is referred to as a height threshold, and in order from a position one step higher than the height of the ground to the highest position, It will be expressed as h 1 , h 2 ,..., h n .

画像生成部22は、3次元構造体推定部21から各画素が映し出している撮影対象の地面からの高さhを得ると、その高さhを、画素位置同士の位置関係が記憶されている各々の高さに対応する各高さ閾値h、h、…hnと順次比較する。このとき、高さhが、高さ閾値hよりも低ければ、その高さに対応付けられた画素は、地面を映し出しているとみなすことができる。一方、高さhが、高さ閾値h以上であれば、次に高さ閾値hと比較される。以後、同様にして、高さhが越えている高さ閾値を特定すべく比較処理を繰り返す。このとき、仮に、高さhは、高さ閾値h以上であったが、高さ閾値h未満であったとすると、高さhの高さ情報を有する画素の画素位置の変換に利用すべきなのは、高さ閾値hに対応する撮影画像と鳥瞰画像との画素位置の関係であると判断する。このような処理により、高さ閾値h以上の高さ情報を有する、3次元構造体を映し出している画素領域を特定することができる。 When the image generation unit 22 obtains the height h from the ground of the object to be imaged on which each pixel is projected from the three-dimensional structure estimation unit 21, the positional relationship between the pixel positions is stored as the height h. Each of the height thresholds h 1 , h 2 ,... H n corresponding to each height is sequentially compared. In this case, the height h is lower than the height threshold h 1, the pixels associated with that height, it can be considered that reflects the ground. On the other hand, the height h is equal to or height threshold h 1 above, is then compared to the height threshold h 2. Thereafter, in the same manner, the comparison process is repeated to specify a height threshold value that exceeds the height h. At this time, if the height h is equal to or higher than the height threshold h 2 , but is less than the height threshold h 3 , the height h is used for conversion of the pixel position of the pixel having the height information of the height h. to a is given, it is determined that the relationship between pixel positions of the captured image and the bird's-eye image corresponding to the height threshold h 2. Such a process has a height threshold h 1 or more of the height, it is possible to specify the pixel area that reflects the three-dimensional structure.

そして、画像生成部22は、まず、高さhが高さ閾値h未満であり、3次元構造体ではなく、地面を映し出しているとみなされる画素に関して、マッピングテーブル23における地面の高さに対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングする。地面の高さに対応する撮影画像と鳥瞰画像との画素位置の関係は、地面を基準面として鳥瞰画像への変換が行なわれるように定められている。従って、3次元構造体を映し出している画素領域を除いて、撮影画像を、地面を基準面とする鳥瞰画像に変換することができる。 Then, the image generation unit 22 first determines the height of the ground in the mapping table 23 with respect to a pixel that is assumed that the height h is less than the height threshold value h 1 and the ground is projected instead of the three-dimensional structure. With reference to the relationship between the pixel positions of the corresponding captured image and bird's-eye view image, the pixel value is mapped on the image plane for generating the bird's-eye view image. The relationship between the pixel positions of the captured image and the bird's-eye image corresponding to the height of the ground is determined so that the conversion to the bird's-eye image is performed using the ground as a reference plane. Therefore, the captured image can be converted into a bird's-eye view image with the ground as a reference plane, except for the pixel region in which the three-dimensional structure is projected.

次に、高さ閾値h以上かつ高さ閾値h未満の高さ情報を持つ画素に関して、マッピングテーブル23における高さ閾値hに対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングする。このような処理を、以後、高さ閾値hから高さ閾値hまで繰り返す。これにより、高さ情報を考慮した、撮影画像から鳥瞰画像への画像変換を行なうことができ、提示画像としての鳥瞰画像を生成することができる。 Next, for a pixel having height information not less than the height threshold h 1 and less than the height threshold h 2 , refer to the relationship between the pixel positions of the captured image and the bird's-eye image corresponding to the height threshold h 1 in the mapping table 23. Then, the pixel value is mapped on the image plane for generating the bird's-eye view image. Such processing is repeated thereafter from the height threshold h 2 to a height threshold h n. Thereby, it is possible to perform image conversion from a captured image to a bird's-eye image in consideration of height information, and to generate a bird's-eye image as a presentation image.

表示装置30は、車両の車室内の、例えばインストルメントパネルに設置され、画像生成部22によって生成された鳥瞰画像を表示するものである。本実施形態では、表示装置30に表示される鳥瞰画像において、従来に比較して、3次元構造体の歪みが軽減されているので、車両の乗員は、表示装置30に表示された画像から、車両の周辺(後部周辺)の状況を素早く容易に把握することができる。   The display device 30 is installed on, for example, an instrument panel in a vehicle interior of the vehicle, and displays a bird's-eye view image generated by the image generation unit 22. In the present embodiment, in the bird's-eye view image displayed on the display device 30, since the distortion of the three-dimensional structure is reduced as compared with the conventional case, the vehicle occupant can calculate from the image displayed on the display device 30. The situation around the vehicle (around the rear) can be grasped quickly and easily.

次に、本実施形態の車両周辺画像表示装置100における周辺画像の表示処理について、図4のフローチャートを用いて説明する。なお、図4のフローチャートに示す処理は、車両周辺画像表示装置100において、定期的に繰り返し実行されるものである。   Next, the display process of the surrounding image in the vehicle surrounding image display apparatus 100 of this embodiment is demonstrated using the flowchart of FIG. Note that the process shown in the flowchart of FIG. 4 is periodically and repeatedly executed in the vehicle periphery image display device 100.

まず、ステップS110では、CCDカメラ10a,10bによって同時に撮影された画像をそれぞれ入力する。図5は、CCDカメラ10aによって撮影された画像の一例を示している。図5に示す画像では、車両後方の駐車領域の一部に、3角錐状の3次元構造体が存在する。   First, in step S110, images simultaneously captured by the CCD cameras 10a and 10b are input. FIG. 5 shows an example of an image taken by the CCD camera 10a. In the image shown in FIG. 5, a triangular pyramid-shaped three-dimensional structure exists in a part of the parking area behind the vehicle.

次に、ステップS120に進み、3次元構造体の抽出処理を実行する。具体的には、上述したように、CCDカメラ10a,10bによって撮影された画像間において、各画素の視差dを求めて、CCDカメラ10aの撮影画像において、各画素の撮影対象までの距離Zを算出する。さらに、算出した距離Zを用いて、各画素の撮影対象の地面からの高さhを算出する。   Next, the process proceeds to step S120, and a three-dimensional structure extraction process is executed. Specifically, as described above, the parallax d of each pixel is obtained between the images captured by the CCD cameras 10a and 10b, and the distance Z to the imaging target of each pixel in the captured image of the CCD camera 10a is obtained. calculate. Furthermore, using the calculated distance Z, the height h of each pixel from the ground to be imaged is calculated.

続くステップS130では、高さ閾値h1未満の高さの撮影対象、すなわち地面を映し出している画素に関して、地面を基準面とする鳥瞰画像への変換が行なわれるように、鳥瞰画像の生成画面に画素値をマッピングする。そして、ステップS140において、3次元構造体を映し出している画素に関して、低い箇所から高い箇所へと順に、鳥瞰画像への変換のために、鳥瞰画像の生成画面に画素値のマッピングを行なう。続くステップS150では、生成された鳥瞰画像を、表示装置30に表示する。   In the subsequent step S130, a pixel on the bird's-eye image generation screen is displayed so that a subject to be photographed having a height less than the height threshold h1, that is, a pixel displaying the ground is converted into a bird's-eye image with the ground as a reference plane. Map values. In step S140, pixel values are mapped on the bird's-eye image generation screen for conversion into a bird's-eye image in order from the lower part to the higher part with respect to the pixels displaying the three-dimensional structure. In subsequent step S150, the generated bird's-eye view image is displayed on display device 30.

このように、本実施形態では、撮影画像から鳥瞰画像へ画像変換を行なう際に、撮影画像の各画素について、各画素が撮影している撮影対象の地面からの高さhを用いて、その高さに相当する高さを基準面とする鳥瞰変換を行なっている。例えば、図5に示すように、鳥瞰画像への変換を、撮影画像における画素位置((X1,Y1)や(X2,Y2))に加え、各々の画素位置における高さ情報(H(X1,Y1)やH(X2,Y2))を用いて行なっている。   As described above, in the present embodiment, when performing image conversion from a captured image to a bird's-eye view image, for each pixel of the captured image, the height h from the ground of the imaging target captured by each pixel is used. Bird's eye view conversion is performed with a height corresponding to the height as a reference plane. For example, as shown in FIG. 5, conversion to a bird's-eye view image is performed in addition to pixel positions ((X1, Y1) and (X2, Y2)) in the captured image, and height information (H (X1, X1, Y2)) at each pixel position. Y1) and H (X2, Y2)).

このため、従来のように、撮影画像に3次元構造体が含まれているか否かに係らず、一律に、地面を基準面とする鳥瞰画像への変換を行なう場合に比較して、鳥瞰画像における3次元構造体の歪みを軽減することができる。例えば、図6は、図5に示す撮影画像全体を地面を基準面とする鳥瞰画像に変換した画像を示し、図7は、本実施形態による車両周辺画像表示装置100において、図5の撮影画像の各画素の高さ情報を考慮して、鳥瞰画像への変換を行なった画像を示している。図6及び図7の画像から明らかなように、本実施形態による車両周辺画像表示装置100によれば、従来の鳥瞰画像に比較して、3次元構造体の歪みを軽減した画像を表示することができる。なお、図7において、画素位置(X’1,Y’1)、(X’2,Y’2)は、高さ情報を考慮した場合に、撮影画像における画素位置(X1,Y1)、(X2,Y2)に対応する鳥瞰画像の画素位置を示すものである。   For this reason, as compared with the conventional case, the bird's-eye view image is uniformly compared with the case of performing the conversion to the bird's-eye view image using the ground as a reference plane regardless of whether or not the photographed image includes a three-dimensional structure. The distortion of the three-dimensional structure can be reduced. For example, FIG. 6 shows an image obtained by converting the entire photographed image shown in FIG. 5 into a bird's-eye view image with the ground as a reference plane, and FIG. 7 shows the photographed image of FIG. The image which converted into the bird's-eye view image in consideration of the height information of each pixel is shown. As is apparent from the images of FIGS. 6 and 7, the vehicle periphery image display device 100 according to the present embodiment displays an image in which the distortion of the three-dimensional structure is reduced as compared with the conventional bird's-eye view image. Can do. In FIG. 7, the pixel positions (X′1, Y′1) and (X′2, Y′2) are the pixel positions (X1, Y1), ( It shows the pixel position of the bird's-eye view image corresponding to (X2, Y2).

また、本実施形態では、画像生成部22において、3次元構造体を含む撮影画像を鳥瞰画像に変換する際に、まず、地面に相当する高さ情報を持つ画素について、鳥瞰画像での対応位置に画素値をマッピングしている。さらに、3次元構造体を映し出している画素に関しても、地面からの高さが低い箇所を映し出している画素から、高い箇所を映し出している画素の順に、鳥瞰画像での対応位置に画素値をマッピングしている。   In the present embodiment, when the image generation unit 22 converts a captured image including a three-dimensional structure into a bird's-eye image, first, the corresponding position in the bird's-eye image with respect to pixels having height information corresponding to the ground. The pixel value is mapped to. In addition, with regard to the pixels that project the three-dimensional structure, the pixel values are mapped to the corresponding positions in the bird's-eye view image in the order of the pixels that project the high part from the pixels that project the low part from the ground. doing.

この際、本実施形態では、それぞれの高さ閾値に対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングしているので、撮影画像における、特に3次元構造体を映し出している複数の画素が、鳥瞰画像の同一画素にマッピングされる可能性が生じる。しかしながら、本実施形態では、より高さの高い箇所を映し出している画素の画素値のマッピングほど後に行なうことで、複数画素の画素値が同じ位置にマッピングされる場合であっても、高さの高い箇所を映し出している画素の画素値が鳥瞰画像の生成画面において上書きされる。従って、3次元構造体の鳥瞰画像への変換を適切に行なうことができる。   At this time, in the present embodiment, the pixel values are mapped on the image plane for generating the bird's-eye image with reference to the relationship between the pixel positions of the captured image and the bird's-eye image corresponding to each height threshold. There is a possibility that a plurality of pixels, particularly a three-dimensional structure in the captured image, are mapped to the same pixel in the bird's-eye view image. However, in the present embodiment, the mapping of the pixel values of the pixels that project a higher part is performed later so that even if the pixel values of a plurality of pixels are mapped to the same position, The pixel value of the pixel showing the high part is overwritten on the bird's eye image generation screen. Therefore, it is possible to appropriately convert the three-dimensional structure into a bird's-eye view image.

なお、図7に示すように、高さ情報を考慮して、3次元構造体の鳥瞰画像への画像変換を行なった場合、3次元構造体の裏側に位置していたため、表示装置30に表示される提示画像において画像情報が欠損する欠損領域が生じる。この欠損領域は、そのまま表示しても良いが、車両の乗員がより画像を見やすくなるように、欠損領域を補完しても良い。   As shown in FIG. 7, when the image conversion of the three-dimensional structure into the bird's-eye view image is performed in consideration of the height information, the image is displayed on the display device 30 because it is located on the back side of the three-dimensional structure. In the presented image, a defective area in which image information is lost occurs. This missing area may be displayed as it is, but the missing area may be supplemented so that the vehicle occupant can more easily see the image.

欠損領域を補完する際には、例えば、欠損領域を、その周囲と同様の画素値で塗りつぶしたり、欠損領域を挟んで、両方向に区画線が延びている場合には、欠損領域中に区画線を描画したりする。図8は、図7の欠損領域を補完した画像を示すものである。   When complementing the defect area, for example, if the defect area is filled with the same pixel value as the surrounding area, or if the lane markings extend in both directions with the defect area in between, the lane markings in the defect area Or draw. FIG. 8 shows an image in which the missing area in FIG. 7 is complemented.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々の変形が可能である。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

例えば、上述した実施形態において、3次元構造体推定部21にて、撮影画像の各画素が映し出している撮影対象の地面からの高さhを算出する際に、まず、3次元構造体を映し出している画素領域を、3次元構造体ごとに抽出する。そして、画素領域から把握される3次元構造体を複数の小領域に分割し(例えばドロネー分割)、高さ方向に隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにしても良い。単に、2枚の撮影画像間の視差から3次元構造体の各所までの距離を検出し、その距離に基づいて、3次元構造体の地面からの高さを算出するようにした場合、距離検出誤差などにより、算出される高さに誤差が含まれる虞がある。そのような場合、鳥瞰画像における3次元構造体の形状がギザギザになったりして、その形状を正しく鳥瞰画像に変換することができない。   For example, in the above-described embodiment, when the three-dimensional structure estimation unit 21 calculates the height h from the ground of the photographing target on which each pixel of the photographed image is projected, first, the three-dimensional structure is projected. The pixel area is extracted for each three-dimensional structure. Then, the three-dimensional structure grasped from the pixel region is divided into a plurality of small regions (for example, Delaunay division), and the difference in height between the small regions adjacent to each other in the height direction is limited. You may make it calculate the height from the ground of each place. Simply detect the distance to each part of the 3D structure from the parallax between the two captured images, and calculate the height of the 3D structure from the ground based on the distance. There may be an error in the calculated height due to an error or the like. In such a case, the shape of the three-dimensional structure in the bird's-eye view image becomes jagged, and the shape cannot be correctly converted into a bird's-eye view image.

それに対して、上述したように、隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにすれば、高さを算出する際の誤差を低減することができる。   On the other hand, as described above, if the height from the ground of each part of the three-dimensional structure is calculated while limiting the difference in height between adjacent small regions, the height is calculated. Can be reduced.

また、上述した実施形態において、3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、マッピングテーブルにおける画素位置の関係を定めても良い。3次元構造体の場合、真上から見た鳥瞰画像に変換するよりも、多少、斜め方向から見た鳥瞰画像に変換する方が、3次元構造体を認識しやすくなるためである。   Further, in the above-described embodiment, when the three-dimensional structure is converted into a bird's-eye view image, the pixels in the mapping table so as to be a bird's-eye view image viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground. A positional relationship may be determined. This is because in the case of a three-dimensional structure, it is easier to recognize the three-dimensional structure if it is converted to a bird's-eye image viewed from an oblique direction, rather than being converted to a bird's-eye image viewed from directly above.

また、例えば、車両周辺画像表示装置100が1台のカメラを備えるものであって、SFM技術を用いて、3次元構造体の高さ情報を得る場合、その高さ情報を得るまでに、数フレームの画像を必要とする。このような場合、すなわち、3次元構造体が抽出される以前は、カメラによって撮影された画像全体を地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を提示画像としても良い。   Further, for example, when the vehicle periphery image display device 100 includes one camera and obtains height information of a three-dimensional structure using the SFM technique, several times are required before obtaining the height information. Need an image of the frame. In such a case, that is, before the three-dimensional structure is extracted, the entire image captured by the camera may be converted into a bird's-eye view image with the ground as a reference plane, and the bird's-eye view image may be used as a presentation image.

これにより、3次元構造体が撮影した画像に含まれていない場合、或いは含まれていても、その3次元構造体をまだ抽出できていない場合に、従来と同様の鳥瞰画像が表示され、3次元構造体が抽出されると、3次元構造体に関して歪みの軽減された鳥瞰画像が表示されるようになる。従って、車両の周囲の状況を示す画像の表示を常時行なうことができる。   As a result, when the three-dimensional structure is not included in the photographed image, or when the three-dimensional structure is not extracted yet, the same bird's-eye image is displayed. When the three-dimensional structure is extracted, a bird's-eye view image with reduced distortion is displayed for the three-dimensional structure. Therefore, it is possible to always display an image showing the situation around the vehicle.

さらに、上述した実施形態では、3次元構造体に関して、高さ情報を考慮した鳥瞰画像変換を行なうことで、3次元構造体の歪みを軽減した。しかしながら、3次元構造体に関しては、鳥瞰画像への変換を行なうことなく、スケール変換のみ行なって、提示画像としての鳥瞰画像を生成しても良い。   Furthermore, in the above-described embodiment, the distortion of the three-dimensional structure is reduced by performing bird's-eye view image conversion considering height information for the three-dimensional structure. However, regarding the three-dimensional structure, the bird's-eye view image as the presentation image may be generated by performing only the scale conversion without performing the conversion to the bird's-eye view image.

CCDカメラ10aは、所定の俯角で見下ろすように3次元構造体を撮影しているので、3次元構造体に関して鳥瞰変換を行なわず、そのまま表示しても、車両の乗員の違和感はほとんど生じない。逆に、鳥瞰画像への変換に伴う3次元構造体の歪みが発生しないので、車両の乗員に理解しやすい表示を行なうことができる。   Since the CCD camera 10a captures the three-dimensional structure so as to look down at a predetermined depression angle, even if the three-dimensional structure is displayed as it is without performing bird's-eye view conversion, there is almost no sense of incongruity for the vehicle occupant. Conversely, since the distortion of the three-dimensional structure associated with the conversion to the bird's-eye view image does not occur, a display that is easy for the vehicle occupant to understand can be performed.

なお、3次元構造体のスケール変換及び提示画像の生成は以下のようにして行なう。まず、撮影画像において、3次元構造体の領域を特定するとともに、3次元構造体が地面に接している接線部分を特定する。次に、3次元構造体を映し出している画素領域を除く、地面を映し出している画素に関して、地面を基準面とする鳥瞰画像への変換を行なう。その鳥瞰画像において、地面の3次元構造体との接線部分を特定する。そして、撮影画像の接線部分が、鳥瞰画像の接線部分と同じ長さとなるように3次元構造体をスケール変換して、接線部分同士が一致するように、鳥瞰画像に3次元構造体を映し出している画素の画素値を書き込んで、提示画像を生成する。   The scale conversion of the three-dimensional structure and the generation of the presentation image are performed as follows. First, in the captured image, a region of the three-dimensional structure is specified, and a tangential portion where the three-dimensional structure is in contact with the ground is specified. Next, with respect to the pixels projecting the ground, excluding the pixel region projecting the three-dimensional structure, conversion to a bird's-eye view image using the ground as a reference plane is performed. In the bird's-eye view image, a tangent portion with the ground three-dimensional structure is specified. Then, the three-dimensional structure is scaled so that the tangent portion of the captured image has the same length as the tangent portion of the bird's-eye image, and the three-dimensional structure is displayed on the bird's-eye image so that the tangent portions coincide with each other. The presentation image is generated by writing the pixel value of the existing pixel.

10a,10b CCDカメラ
20 画像処理ECU
30 表示装置
100 車両周辺画像表示装置
10a, 10b CCD camera 20 Image processing ECU
30 Display device
100 Vehicle periphery image display device

Claims (14)

車両の車室内に設けられた表示装置と、
車両に搭載され、車両周辺の画像を撮影する撮影手段と、
前記撮影手段によって撮影された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成手段と、
前記画像生成手段によって生成された提示画像を前記表示装置に表示する表示制御手段と、を備えた車両周辺画像表示装置において、
前記撮影手段によって撮影された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を有し、
前記画像生成手段は、
前記3次元構造体抽出手段によって特定された前記3次元構造体の領域を除いて、前記撮影手段によって撮影された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換手段と、
前記第1画像変換手段による第1の画像変換とは異なるものであって、前記第1の画像変換にて前記3次元構造体を鳥瞰画像に変換した場合よりも、前記3次元構造体の歪みが軽減される第2の画像変換を適用して前記3次元構造体を画像変換する第2画像変換手段と、を含み
前記第1画像変換手段と、前記第2画像変換手段とにより変換された画像を統合して前記提示画像を生成するものであり、
前記第2画像変換手段が行なう第2の画像変換は、前記撮影手段によって撮影された画像を用いて前記3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする車両周辺画像表示装置。
A display device provided in the passenger compartment of the vehicle;
A photographing means mounted on the vehicle for photographing an image around the vehicle;
Image generating means for generating a presentation image for presentation to the driver of the vehicle based on the image photographed by the photographing means;
A vehicle surrounding image display device comprising: display control means for displaying the presentation image generated by the image generation means on the display device;
Using an image photographed by the photographing means, and having a three-dimensional structure extracting means for specifying an area in which the three-dimensional structure extending in the height direction from the ground is projected in the image;
The image generating means includes
Except for the region of the three-dimensional structure specified by the three-dimensional structure extraction means, a first image conversion is performed for converting the image photographed by the photographing means into a bird's-eye image with the ground as a reference plane. First image conversion means;
This is different from the first image conversion by the first image conversion means, and is more distorted than the case where the three-dimensional structure is converted into a bird's-eye image by the first image conversion. A second image conversion unit that converts the three-dimensional structure into an image by applying a second image conversion to reduce the image, and converted by the first image conversion unit and the second image conversion unit The presenting image is generated by integrating images ,
The second image conversion performed by the second image conversion means calculates the height from the ground of each place of the three-dimensional structure using the image photographed by the photographing means, and corresponds to the calculated height. A vehicle peripheral image display device that converts a bird's-eye view image having a height as a reference plane .
前記第2画像変換手段は、前記3次元構造体を鳥瞰画像に変換する際に、地面からの高さが低い箇所から高い箇所の順に画像変換を行なうことを特徴とする請求項1に記載の車両周辺画像表示装置。 The said 2nd image conversion means performs image conversion in order of the location where the height from the ground is low, when converting the said three-dimensional structure into a bird's-eye view image . Vehicle periphery image display device. 前記第2画像変換手段は、前記3次元構造体を複数の小領域に分割し、高さ方向に隣接する小領域の高さの差に制限を加えつつ、前記3次元構造体の各所の地面からの高さを算出することを特徴とする請求項1又は請求項2に記載の車両周辺画像表示装置。 The second image conversion means divides the three-dimensional structure into a plurality of small areas, and limits the difference in height between the small areas adjacent in the height direction, while restricting the ground in various places of the three-dimensional structure. The vehicle surrounding image display device according to claim 1 , wherein a height from the vehicle is calculated . 前記第2画像変換手段は、前記3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、前記3次元構造体の画像変換を行なうことを特徴とする請求項1乃至請求項3のいずれかに記載の車両周辺画像表示装置。 The second image conversion means converts the three-dimensional structure into a bird's-eye image so that the bird's-eye image is viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground. The vehicle periphery image display device according to any one of claims 1 to 3 , wherein image conversion of a structure is performed . 前記画像生成手段は、前記3次元構造体抽出手段によって前記3次元構造体が抽出される以前は、画像全体を第1画像変換手段によって地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を前記提示画像とすることを特徴とする請求項1乃至請求項4のいずれかに記載の車両周辺画像表示装置。 The image generation means converts the entire image into a bird's-eye image with the ground as a reference plane by the first image conversion means before the three-dimensional structure is extracted by the three-dimensional structure extraction means. the vehicle periphery image display device according to any one of claims 1 to 4, characterized in that said presentation image. 地面に相当する高さから所定の高さ範囲おきに、前記撮影手段により撮影された画像の各画素を前記提示画像のいずれの画素にマッピングするかを示すマッピングテーブルを記憶した記憶手段を備え、
前記第1画像変換手段及び前記第2画像変換手段は、前記マッピングテーブルを参照して、第1及び第2の画像変換を行なうことを特徴とする請求項1乃至請求項5のいずれかに記載の車両周辺画像表示装置。
Storage means storing a mapping table indicating which pixel of the presented image each pixel of the image photographed by the photographing means is mapped every predetermined height range from the height corresponding to the ground;
Said first image converting means and said second image transformation means, by referring to the mapping table, according to any one of claims 1 to 5, characterized in that performing the first and second image conversion Vehicle periphery image display device.
前記撮影手段により撮影された画像において、前記3次元構造体の裏側に位置していたため、前記提示画像において画像情報が欠損する欠損領域に対して、画像を補完する補完手段を有することを特徴とする請求項1乃至請求項6のいずれかに記載の車両周辺画像表示装置。 Since the image photographed by the photographing means is located on the back side of the three-dimensional structure, it has a complementing means for complementing the image with respect to a defect area where image information is missing in the presented image. vehicle periphery image display device according to any one of claims 1 to 6. 車両に搭載され、車両周辺の画像を撮影する撮影手段からの画像を取得する画像取得ステップと、
前記画像取得ステップにより取得された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された提示画像を車両の乗員に対して表示する表示ステップと、を備えた車両周辺画像表示方法であって、
前記画像取得ステップにより取得された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出ステップを有し、
前記画像生成ステップは、
前記3次元構造体抽出ステップにおいて特定された前記3次元構造体の領域を除いて、前記画像取得ステップにより取得された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換ステップと、
前記第1画像変換ステップにおける第1の画像変換とは異なるものであって、前記第1の画像変換にて前記3次元構造体を鳥瞰画像に変換した場合よりも、前記3次元構造体の歪みが軽減される第2の画像変換を適用して前記3次元構造体を画像変換する第2画像変換ステップと、を含み、
前記第1画像変換ステップと、前記第2画像変換ステップとにより変換された画像を統合して前記提示画像を生成
前記第2の画像変換は、前記画像取得ステップにより取得された画像を用いて前記3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする車両周辺画像表示方法
An image acquisition step for acquiring an image from a photographing means mounted on the vehicle and capturing an image around the vehicle;
An image generation step for generating a presentation image for presentation to the driver of the vehicle based on the image acquired by the image acquisition step;
A display step for displaying the presentation image generated by the image generation step to a vehicle occupant, and a vehicle periphery image display method comprising:
Using the image acquired in the image acquisition step, and in the image, a three-dimensional structure extraction step for specifying a region in which a three-dimensional structure extending in the height direction from the ground is projected,
The image generation step includes
First image conversion for converting the image acquired by the image acquisition step into a bird's-eye image using the ground as a reference plane, excluding the region of the three-dimensional structure specified in the three-dimensional structure extraction step. Performing a first image conversion step;
The first image conversion in the first image conversion step is different from the first image conversion, and the distortion of the three-dimensional structure is higher than that in the case where the three-dimensional structure is converted into a bird's-eye image in the first image conversion. Applying a second image conversion to reduce the image, and converting the three-dimensional structure into an image,
Said first image transformation step, by integrating the converted image by the second image conversion step generates the presentation image,
The second image conversion uses the image acquired in the image acquisition step to calculate the height of each part of the three-dimensional structure from the ground, and uses the height corresponding to the calculated height as a reference plane. The vehicle periphery image display method characterized by converting into a bird's-eye view image .
前記第2画像変換ステップでは、前記3次元構造体を鳥瞰画像に変換する際に、地面からの高さが低い箇所から高い箇所の順に画像変換を行なうことを特徴とする請求項8に記載の車両周辺画像表示方法。The said 2nd image conversion step WHEREIN: When converting the said three-dimensional structure into a bird's-eye view image, image conversion is performed in order of the location where a height from a ground is low to a high location. Vehicle periphery image display method. 前記第2画像変換ステップでは、前記3次元構造体を複数の小領域に分割し、高さ方向に隣接する小領域の高さの差に制限を加えつつ、前記3次元構造体の各所の地面からの高さを算出することを特徴とする請求項8又は請求項9に記載の車両周辺画像表示方法。 In the second image conversion step, the three-dimensional structure is divided into a plurality of small areas, and a difference in height between small areas adjacent to each other in the height direction is limited, and the ground at various places of the three-dimensional structure is added. The vehicle periphery image display method according to claim 8, wherein a height from the vehicle is calculated . 前記第2画像変換ステップでは、前記3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、前記3次元構造体の画像変換を行なうことを特徴とする請求項8乃至請求項10のいずれかに記載の車両周辺画像表示方法。 In the second image conversion step, when the three-dimensional structure is converted into a bird's-eye view image, the three-dimensional structure is formed so that a bird's-eye view image viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground is obtained. 11. The vehicle periphery image display method according to claim 8 , wherein image conversion of a structure is performed . 前記画像生成ステップでは、前記3次元構造体抽出ステップによって前記3次元構造体が抽出される以前は、画像全体を第1の画像変換によって地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を前記提示画像とすることを特徴とする請求項8乃至請求項11のいずれかに記載の車両周辺画像表示方法。 In the image generation step, before the three-dimensional structure is extracted by the three-dimensional structure extraction step, the entire image is converted into a bird's-eye image using the ground as a reference plane by first image conversion. The vehicle surrounding image display method according to any one of claims 8 to 11 , wherein the presentation image is used as the presentation image . 地面に相当する高さから所定の高さ範囲おきに、前記画像取得ステップにより取得された画像の各画素を前記提示画像のいずれの画素にマッピングするかを示すマッピングテーブルを記憶した記憶手段を備え、
前記第1画像変換手段及び前記第2画像変換手段は、前記マッピングテーブルを参照して、第1及び第2の画像変換を行なうことを特徴とする請求項8乃至請求項12のいずれかに記載の車両周辺画像表示方法。
Storage means storing a mapping table indicating which pixels of the image to be mapped to each pixel of the image acquired by the image acquisition step at predetermined height ranges from a height corresponding to the ground ,
The said 1st image conversion means and the said 2nd image conversion means perform 1st and 2nd image conversion with reference to the said mapping table, The one of Claim 8 thru | or 12 characterized by the above-mentioned. Vehicle periphery image display method.
前記画像取得ステップにより取得された画像において、前記3次元構造体の裏側に位置
していたため、前記提示画像において画像情報が欠損する欠損領域に対して、画像を補完
する補完ステップを有することを特徴とする請求項8乃至請求項13のいずれかに記載の車両周辺画像表示方法。
In the image acquired by the image acquisition step, a position on the back side of the three-dimensional structure
As a result, the image is complemented for the missing area where the image information is missing in the presented image.
The vehicle surrounding image display method according to claim 8, further comprising a complementing step .
JP2010014664A 2010-01-26 2010-01-26 Vehicle periphery image display device and vehicle periphery image display method Expired - Fee Related JP5299296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010014664A JP5299296B2 (en) 2010-01-26 2010-01-26 Vehicle periphery image display device and vehicle periphery image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010014664A JP5299296B2 (en) 2010-01-26 2010-01-26 Vehicle periphery image display device and vehicle periphery image display method

Publications (2)

Publication Number Publication Date
JP2011155393A JP2011155393A (en) 2011-08-11
JP5299296B2 true JP5299296B2 (en) 2013-09-25

Family

ID=44541056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010014664A Expired - Fee Related JP5299296B2 (en) 2010-01-26 2010-01-26 Vehicle periphery image display device and vehicle periphery image display method

Country Status (1)

Country Link
JP (1) JP5299296B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799232B2 (en) * 2011-08-12 2015-10-21 パナソニックIpマネジメント株式会社 Lighting control device
CN103324977B (en) * 2012-03-21 2016-03-30 日电(中国)有限公司 A kind of destination number detection method and equipment
JP6079131B2 (en) 2012-10-25 2017-02-15 富士通株式会社 Image processing apparatus, method, and program
JP6427998B2 (en) * 2014-07-07 2018-11-28 株式会社デンソー Optical flight rangefinder
CN104554010B (en) * 2015-01-07 2016-12-07 苏州科技学院 The signal processing method of reversing visible system
EP3459047B1 (en) * 2016-05-16 2024-12-25 Angel Group Co., Ltd. System and method for automated table game activity recognition
CN108111802B (en) * 2016-11-23 2020-06-26 杭州海康威视数字技术股份有限公司 Video monitoring method and device
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5422902B2 (en) * 2008-03-27 2014-02-19 三洋電機株式会社 Image processing apparatus, image processing program, image processing system, and image processing method

Also Published As

Publication number Publication date
JP2011155393A (en) 2011-08-11

Similar Documents

Publication Publication Date Title
JP5299296B2 (en) Vehicle periphery image display device and vehicle periphery image display method
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
JP6891954B2 (en) Object detection device, object detection method, and program
KR101961001B1 (en) Single-camera distance estimation
JP5491235B2 (en) Camera calibration device
KR101339121B1 (en) An apparatus for generating around view image of vehicle using multi look-up table
US11140364B2 (en) Sensor fusion based perceptually enhanced surround view
JP6171593B2 (en) Object tracking method and system from parallax map
JP5865547B2 (en) Image display device and image display method
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP2011134207A (en) Drive recorder and map generation system
JP2015186085A (en) Travel derivation apparatus and travel derivation method
JP2019012915A (en) Image processing apparatus and image conversion method
JP5299101B2 (en) Peripheral display device
JP7074546B2 (en) Image processing equipment and methods
KR20170019793A (en) Apparatus and method for providing around view
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
WO2010113253A1 (en) Three-dimensional information display device and three-dimensional information display method
JP2021043141A (en) Object distance estimating device and object distance estimating method
JP7196920B2 (en) Driving support device, driving support method, and program
JP6734136B2 (en) Image processing device
WO2017033518A1 (en) Display device for vehicle and display method for vehicle
JP2009077022A (en) Driving support system and vehicle
JP6999239B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5299296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees