JP5299296B2 - Vehicle periphery image display device and vehicle periphery image display method - Google Patents
Vehicle periphery image display device and vehicle periphery image display method Download PDFInfo
- Publication number
- JP5299296B2 JP5299296B2 JP2010014664A JP2010014664A JP5299296B2 JP 5299296 B2 JP5299296 B2 JP 5299296B2 JP 2010014664 A JP2010014664 A JP 2010014664A JP 2010014664 A JP2010014664 A JP 2010014664A JP 5299296 B2 JP5299296 B2 JP 5299296B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional structure
- height
- bird
- ground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 25
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 113
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 111
- 238000006243 chemical reaction Methods 0.000 claims description 88
- 238000013507 mapping Methods 0.000 claims description 17
- 230000007547 defect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims 2
- 238000003384 imaging method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両の周囲を撮影する撮像装置からの画像を鳥瞰画像に変換して車両の乗員に表示する車両周辺画像表示装置及び車両周辺画像表示方法に関する。 The present invention relates to a vehicle periphery image display device and a vehicle periphery image display method for converting an image from an imaging device that captures the periphery of a vehicle into a bird's-eye view image and displaying the image to a vehicle occupant.
従来から、車両に搭載したカメラの映像を複数枚合成した鳥瞰画像としたり、視点変換したりした後に、車両の乗員に表示する装置が提案されている。 2. Description of the Related Art Conventionally, there has been proposed a device that displays a bird's-eye image obtained by combining a plurality of video images of a camera mounted on a vehicle or changes the viewpoint, and then displays the image on a vehicle occupant.
例えば、特許文献1に記載の装置では、車両の前方、後方、及び左右側方を撮影する各カメラからの車両周辺画像を俯瞰画像(鳥瞰画像)とするために、それぞれ座標変換する。そして、座標変換して得られた部分画像を合成して、自車両周辺を上空から眺めた俯瞰画像を生成し、ディスプレイに出力する。
For example, in the apparatus described in
また、特許文献2に記載の装置では、一台もしくは複数台のカメラによって撮影された入力画像を、3次元空間の予め決められた空間モデルにマッピングした空間データを作成し、その空間データを参照して、3次元空間における任意の仮想視点から見た画像を作成して表示する。
In the apparatus described in
しかしながら、特許文献1の装置では、各カメラからの車両周辺画像を、車両上空の仮想視点から見た鳥瞰画像に地面を基準面として変換しているだけである。このため、カメラによって撮影された車両周辺画像に立体物が存在する場合、変換された鳥瞰画像において、立体物が歪んで(伸びて)表示されてしまう。このため、車両の乗員にとっては、不自然な、直感的に理解しにくい画像が表示されることになる。
However, the apparatus of
また、特許文献2の装置の場合も、カメラからの入力画像を予め決められた空間モデル(局面や平面)へマッピングするだけであるため、特許文献2の装置においても同様の問題(立体物の歪み)が生じる。
Also, in the case of the device of
本願発明は、このような点に鑑みてなされたものであり、撮影した画像に3次元構造体(立体物)が存在している場合であっても、車両の乗員が直感的に理解しやすい鳥瞰画像を表示することが可能な車両周辺画像表示装置及び表示方法を提供することを目的とする。 The present invention has been made in view of such a point, and even if a three-dimensional structure (three-dimensional object) is present in a photographed image, the vehicle occupant can easily understand it intuitively. An object of the present invention is to provide a vehicle periphery image display device and a display method capable of displaying a bird's-eye view image.
上記目的を達成するために、請求項1に記載の車両周辺画像表示装置は、
車両の車室内に設けられた表示装置と、
車両に搭載され、車両周辺の画像を撮影する撮影手段と、
撮影手段によって撮影された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成手段と、
画像生成手段によって生成された提示画像を表示装置に表示する表示制御手段と、を備えたものであって、
さらに、撮影手段によって撮影された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を有し、
画像生成手段は、
3次元構造体抽出手段によって特定された3次元構造体の領域を除いて、撮影手段によって撮影された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換手段と、
第1画像変換手段による第1の画像変換とは異なるものであって、第1の画像変換にて3次元構造体を鳥瞰画像に変換した場合よりも、3次元構造体の歪みが軽減される第2の画像変換を適用して3次元構造体を画像変換する第2画像変換手段と、を含み
第1画像変換手段と、第2画像変換手段とにより変換された画像を統合して提示画像を生成するものであり、
第2画像変換手段が行なう第2の画像変換は、撮影手段によって撮影された画像を用いて3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする。
In order to achieve the above object, a vehicle periphery image display device according to
A display device provided in the passenger compartment of the vehicle;
A photographing means mounted on the vehicle for photographing an image around the vehicle;
Image generating means for generating a presentation image for presentation to the driver of the vehicle based on the image photographed by the photographing means;
Display control means for displaying a presentation image generated by the image generation means on a display device,
Furthermore, using an image photographed by the photographing means, the image has a three-dimensional structure extraction means for specifying a region in which a three-dimensional structure extending in the height direction from the ground is projected,
The image generation means
A first image for performing a first image conversion for converting an image photographed by the photographing means into a bird's-eye view image using the ground as a reference plane, excluding the region of the three-dimensional structure specified by the three-dimensional structure extracting means. Conversion means;
This is different from the first image conversion by the first image conversion means, and the distortion of the three-dimensional structure is reduced as compared with the case where the three-dimensional structure is converted into a bird's-eye view image by the first image conversion. A second image conversion unit that converts the image of the three-dimensional structure by applying the second image conversion; and a presentation image obtained by integrating the images converted by the first image conversion unit and the second image conversion unit It is intended to generate a,
In the second image conversion performed by the second image conversion unit, the height of each part of the three-dimensional structure from the ground is calculated using the image captured by the imaging unit, and the height corresponding to the calculated height is calculated. It is converted into a bird's-eye view image as a reference plane .
上述したように、請求項1に記載の車両周辺画像表示装置は、撮影された画像において3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を備えている。そして、画像生成手段の第1画像変換手段は、撮影された画像を、3次元構造体の領域を除いて、地面を基準面とする鳥瞰画像に変換する一方、第2画像変換手段は、第1の画像変換よりも3次元構造体の歪みが軽減される第2の画像変換により3次元構造体を画像変換する。そして、これら第1及び第2画像変換手段によって変換された画像が統合され、提示画像が生成される。 As described above, the vehicle periphery image display apparatus according to the first aspect includes the three-dimensional structure extraction means for specifying the region where the three-dimensional structure is displayed in the photographed image. The first image conversion unit of the image generation unit converts the captured image into a bird's-eye image with the ground as a reference plane, excluding the region of the three-dimensional structure, while the second image conversion unit The three-dimensional structure is subjected to image conversion by the second image conversion in which distortion of the three-dimensional structure is reduced as compared with the first image conversion. Then, the images converted by the first and second image conversion means are integrated to generate a presentation image.
従って、撮影した車両周辺画像に3次元構造体(立体物)が存在していても、従来に比較して、その3次元構造体の歪みを軽減した鳥瞰画像を表示することができる。このため、車両の乗員は、表示された画像から、車両の周辺の状況を素早く容易に把握することができる。 Therefore, even if a three-dimensional structure (three-dimensional object) is present in the photographed vehicle periphery image, a bird's-eye view image with reduced distortion of the three-dimensional structure can be displayed as compared with the conventional case. For this reason, the vehicle occupant can quickly and easily grasp the situation around the vehicle from the displayed image.
なお、例えば撮影手段として1台のカメラを用いて、異なるタイミングで撮影された2画像に対してステレオ計測を行なったり、複数台のカメラを用いて、同時に撮影された複数画像に対してステレオ画像処理を行なったり、あるいは、TOF(time of flight)方式の距離画像センサを用いたりすることで、撮影対象までの距離を求めることができる。そして、撮影対象までの距離が求まれば、撮影手段の設置パラメータ(地面からの高さや俯角など)が既知であるため、その距離から、撮影対象の地面からの高さを求めることができる。このとき、地面よりも高い高さを有する撮影対象は、3次元構造体とみなすことができ、これにより、撮影された画像において、3次元構造体を抽出することが可能となる。 Note that, for example, a single camera is used as a photographing means to perform stereo measurement on two images taken at different timings, or a plurality of cameras are used to take a stereo image on a plurality of images taken simultaneously. By performing processing or using a distance image sensor of the TOF (time of flight) method, the distance to the object to be imaged can be obtained. If the distance to the object to be imaged is obtained, the installation parameters of the image taking means (height from the ground, angle of depression, etc.) are known, and the height from the ground of the object to be imaged can be obtained from the distance. At this time, the imaging target having a height higher than the ground can be regarded as a three-dimensional structure, and thus, the three-dimensional structure can be extracted from the captured image.
また、第2画像変換手段が行なう第2の画像変換は、撮影手段によって撮影された画像を用いて3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものである。 In the second image conversion performed by the second image conversion unit, the height of each part of the three-dimensional structure from the ground is calculated using the image captured by the imaging unit, and the height corresponding to the calculated height is calculated. Ru der converts the bird's-eye image as a reference plane is.
3次元構造体を含む画像を、地面を基準面とする鳥瞰画像へ変換すると、3次元構造体を地面に投射した画像となるため、3次元構造体が歪む。それに対して、請求項1に記載するように、3次元構造体の各所の高さを算出し、その高さに相当する高さを基準面とする鳥瞰画像への変換を行なうことにより、3次元構造体を地面に投射した鳥瞰画像よりも、3次元構造体の歪みを軽減することができる。
When an image including a three-dimensional structure is converted into a bird's-eye view image with the ground as a reference plane, the image is obtained by projecting the three-dimensional structure onto the ground, and the three-dimensional structure is distorted. On the other hand, as described in
請求項2に記載したように、第2画像変換手段は、3次元構造体を鳥瞰画像に変換する際に、地面からの高さが低い箇所から高い箇所の順に画像変換を行なうことが好ましい。請求項1に記載したように、3次元構造体の各所の高さを基準面として、3次元構造体の各所のそれぞれを鳥瞰変換することで、3次元構造体を撮影した画像(元画像)を鳥瞰画像に変換する場合、元画像の複数の画素が、鳥瞰画像の同一画素にマッピングされる可能性が生じる。このような場合に、より高さの高い箇所の画像変換ほど後に行なうことで、その高さの高い箇所の画素が鳥瞰画像において上書きされる。従って、3次元構造体の鳥瞰画像への変換を適切に行なうことができる。
According to a second aspect of the present invention, when the second image conversion means converts the three-dimensional structure into a bird's-eye view image, the second image conversion means preferably performs image conversion in the order from a place where the height from the ground is low to a place where the height is high. The image (original image) which image | photographed the three-dimensional structure by carrying out the bird's-eye-view conversion of each part of the three-dimensional structure by using the height of each part of the three-dimensional structure as a reference plane as described in
請求項3に記載したように、第2画像変換手段は、3次元構造体を複数の小領域に分割し、高さ方向に隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにしても良い。単に、3次元構造体の各所までの距離を検出し、その距離に基づいて、3次元構造体の地面からの高さを算出するようにした場合、距離検出誤差などにより、算出される高さに誤差が含まれる虞がある。そのような場合、鳥瞰画像における3次元構造体の形状がギザギザになったりして、その形状を正しく鳥瞰画像に変換することができない。そのため、上述したように、隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにすれば、高さを算出する際の誤差を低減することができる。 According to a third aspect of the present invention, the second image conversion means divides the three-dimensional structure into a plurality of small areas, and adds a restriction to the height difference between the small areas adjacent in the height direction. You may make it calculate the height from the ground of each place of a structure. When the distance to each part of the three-dimensional structure is simply detected and the height of the three-dimensional structure from the ground is calculated based on the distance, the height calculated by the distance detection error or the like May contain errors. In such a case, the shape of the three-dimensional structure in the bird's-eye view image becomes jagged, and the shape cannot be correctly converted into a bird's-eye view image. Therefore, as described above, if the height from the ground of each part of the three-dimensional structure is calculated while limiting the difference in height between adjacent small regions, an error in calculating the height Can be reduced.
請求項4に記載したように、第2画像変換手段は、3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、3次元構造体の画像変換を行なっても良い。3次元構造体の場合、真上から見た鳥瞰画像に変換するよりも、多少、斜め方向から見た鳥瞰画像に変換する方が、3次元構造体を認識しやすくなるためである。 According to a fourth aspect of the present invention, when the second image conversion means converts the three-dimensional structure into a bird's-eye image, the bird's-eye image viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground, As described above, image conversion of a three-dimensional structure may be performed. This is because in the case of a three-dimensional structure, it is easier to recognize the three-dimensional structure if it is converted to a bird's-eye image viewed from an oblique direction, rather than being converted to a bird's-eye image viewed from directly above.
請求項5に記載したように、画像生成手段は、3次元構造体抽出手段によって3次元構造体が抽出される以前は、画像全体を第1画像変換手段によって地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を提示画像としても良い。 According to the fifth aspect of the present invention, before the three-dimensional structure extraction unit extracts the three-dimensional structure, the image generation unit converts the entire image into a bird's-eye view image using the ground as a reference plane by the first image conversion unit. The bird's-eye view image may be converted into a presentation image.
これにより、3次元構造体が撮影した画像に含まれていない場合、或いは含まれていても、その3次元構造体をまだ抽出できていない場合には、従来と同様の鳥瞰画像が表示され、3次元構造体が抽出されると、3次元構造体に関して歪みの軽減された鳥瞰画像が表示されるようになる。従って、車両の周囲の状況を示す画像の表示を常時行なうことができる。 Thereby, when the three-dimensional structure is not included in the photographed image, or is included, but the three-dimensional structure has not yet been extracted, a bird's-eye image similar to the conventional one is displayed, When the three-dimensional structure is extracted, a bird's-eye view image with reduced distortion is displayed for the three-dimensional structure. Therefore, it is possible to always display an image showing the situation around the vehicle.
請求項6に記載したように、地面に相当する高さから所定の高さ範囲おきに、撮影手段により撮影された画像の各画素を提示画像のいずれの画素にマッピングするかを示すマッピングテーブルを記憶した記憶手段を備え、第1画像変換手段及び第2画像変換手段は、マッピングテーブルを参照して、第1及び第2の画像変換を行なうことが好ましい。これにより、提示画像(鳥瞰画像)への変換を高速に行なうことが可能になる。 According to a sixth aspect of the present invention, there is provided a mapping table that indicates to which pixel of the presented image each pixel of the image photographed by the photographing means is mapped at predetermined height ranges from a height corresponding to the ground. Preferably, the storage means is stored, and the first image conversion means and the second image conversion means perform the first and second image conversions with reference to the mapping table. This makes it possible to convert the presentation image (bird's-eye view image) at high speed.
請求項7に記載したように、撮影手段により撮影された画像において、3次元構造体の裏側に位置していたため、提示画像において画像情報が欠損する欠損領域に対して、画像を補完する補完手段を有していても良い。3次元構造体の領域を除いて、撮影された画像を地面を基準面とする鳥瞰画像に変換することにより、撮影画像においては3次元構造体の陰に隠れていた部分が、鳥瞰画像にて表示領域となる場合がある。このような場合、この表示領域の画像情報が欠損することになる。そこで、例えば、画像情報が欠損する欠損領域について、周囲と同様の画素値で塗りつぶしたり、欠損領域を挟んで、両方向に区画線が延びている場合には、欠損領域中に区画線を描画したりして、欠損領域の画像を補完しても良い。 As described in claim 7 , in the image photographed by the photographing means, since it is located on the back side of the three-dimensional structure, the complementing means for complementing the image with respect to the defective region where the image information is missing in the presented image You may have. By converting the captured image into a bird's-eye view image using the ground as a reference plane, excluding the region of the three-dimensional structure, a portion hidden behind the three-dimensional structure in the captured image is converted into a bird's-eye view image. It may be a display area. In such a case, the image information in this display area is lost. For this reason, for example, when a defect area where image information is missing is filled with the same pixel value as the surrounding area, or when a lane line extends in both directions across the defect area, the lane line is drawn in the defect area. Alternatively, the image of the missing area may be complemented.
請求項8〜請求項14に記載の車両周辺画像表示方法は、請求項1〜請求項7に記載の車両周辺画像表示装置において実行される処理方法を記載したものであり、それらの作用効果は、請求項1〜請求項7と同様であるため、説明を省略する。
The vehicle periphery image display method according to claims 8 to 14 describes a processing method executed in the vehicle periphery image display device according to
(第1実施形態)
まず、本発明の第1実施形態について、図面に基づいて詳細に説明する。図1は、本発明の第1実施形態による車両周辺画像表示装置の構成を示す構成図である。本実施形態においては、撮影手段としてのCCDカメラが車両後部に搭載されて車両後方の様子を撮影する例について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described in detail based on the drawings. FIG. 1 is a configuration diagram showing a configuration of a vehicle peripheral image display device according to a first embodiment of the present invention. In the present embodiment, an example will be described in which a CCD camera as a photographing unit is mounted on the rear part of the vehicle and photographs the state behind the vehicle.
図1に示すように、車両周辺画像表示装置100は、2台のCCDカメラ10a、10b、画像処理ECU20、及び表示装置30から構成される。
As shown in FIG. 1, the vehicle periphery
2台のCCDカメラ10a,10bは、車両の後部、具体的には、車両の後部ドアやトランクに、光軸が地面と平行な方向よりも下向きとなり、その撮影領域に車両後方近傍の地面が含まれるように設置される。特に、本実施形態では、この2台のCCDカメラ10a,10bを、所定の距離だけ離間した状態で、路面から同じ高さ、かつ同じ俯角となるように、車両後部に設置する。従って、2台のCCDカメラ10a,10bによる車両後方の撮影範囲は、車幅方向にカメラ間距離分だけずれたものとなり、それぞれの撮影範囲の大部分がオーバーラップする。
The two
画像処理ECU20は、CCDカメラ10a,10bから出力された画像を用いて、その一方の画像(例えばCCDカメラ10aによって撮影された画像)において、地面から高さ方向に伸びる3次元構造体(立体物)が映し出されている領域を特定する3次元構造体推定部21を有する。
The
この3次元構造体推定部21における、CCDカメラ10aによって撮影された画像において3次元構造体を推定し、特定する方法について、図2及び図3を参照して説明する。
A method of estimating and specifying the three-dimensional structure in the image taken by the
本実施形態では、まず、2台のCCDカメラ10a,10bによって同じ3次元構造体を撮影したときに生じる視差から、三角測量の原理で、3次元構造体の各所までの距離を測定する(ステレオ画像処理)。具体的には、図2に示すように、2台のCCDカメラ10a,10bにより撮影された画像中での3次元構造体の位置の差である視差dを求めることができれば、3次元構造体までの距離Zは、以下の数式1により求めることができる。
In the present embodiment, first, the distance to each part of the three-dimensional structure is measured based on the principle of triangulation from the parallax generated when the same three-dimensional structure is photographed by the two
(数1)
Z=f・B/d
なお、数式1において、Bはカメラ間距離、fはCCDカメラ10a,10bの焦点距離である。
(Equation 1)
Z = f · B / d
In
そして、視差dは、2台のCCDカメラ10a,10bにより撮影された画像間で、どの画素がどの画素に対応するかを逐一探索することにより算出することができる。例えば、視差d(距離Z)を算出する際に基準となるCCDカメラ10aの撮影画像(第1画像)において、視差d(距離Z)の算出対象となる画素とその周囲の画素を含む小領域を設定する。そして、この小領域と同様の小領域を、CCDカメラ10bの撮影画像(第2画像)に設定し、パターンマッチングにより、最も類似する小領域の位置を定める。このような処理により、第1画像と第2画像との間で、対応する画素の位置を求めることができれば、その画素に関して視差dを算出することが可能となる。
The parallax d can be calculated by sequentially searching which pixel corresponds to which pixel between images taken by the two
そして、このような処理を、基準となる第1画像の全画素について実行することにより、第1画像において、第2画像において対応画素が探索できた全画素について、撮影対象までの距離を求めることができる。なお、本実施形態では、2台のCCDカメラ10a,10bは、同じ高さ、かつ同じ俯角で車両に搭載されている。従って、第1画像と第2画像において、対応する画素は、縦方向にはずれておらず、横方向にのみずれた位置に存在する。このため、対応画素位置の探索は比較的容易に行なうことができる。
Then, by executing such processing for all the pixels of the first image serving as a reference, the distance to the shooting target is obtained for all the pixels for which the corresponding pixels can be searched for in the second image in the first image. Can do. In the present embodiment, the two
以上、2台のCCDカメラ10a、10bを用いて、撮影対象までの距離を求める例について説明したが、3台以上のCCDカメラを用いてもよい。逆に、1台のCCDカメラしか備えていない場合でも、いわゆるStructure from Motion(SFM)と呼ばれる技術を用いることでステレオ計測を行い、撮影対象までの距離を求めることも可能である。
The example in which the distance to the object to be photographed is obtained using the two
このSFM技術では、1台のCCDカメラによって異なるタイミングで撮影された、撮影位置の異なる2以上の画像において、コーナー点やエッジなどの、対応がとりやすい特徴点を抽出する。そして、抽出した特徴点が2以上の画像において対応付けられたら、その位置関係に基づいて、それぞれの撮影位置におけるCCDカメラ間の相対的な位置関係(回転及び並進位置)を示す基礎行列や3重テンソル行列などを求める。そして、それらの行列によって示される相対的な位置関係に基づいて、3角測量の原理から、各撮影対象までの距離を算出する(ステレオ計測)。 In this SFM technique, feature points such as corner points and edges that are easy to correspond are extracted from two or more images taken at different timings by one CCD camera and having different shooting positions. When the extracted feature points are associated with each other in two or more images, based on the positional relationship, a basic matrix indicating the relative positional relationship (rotation and translational position) between the CCD cameras at each photographing position or 3 Find the double tensor matrix. And based on the relative positional relationship shown by those matrices, the distance to each imaging object is calculated from the principle of triangulation (stereo measurement).
さらに、TOF(time of flight)型距離画像センサを用いることで、各画素の撮影対象までの距離を直接求めても良い。なお、TOF型距離画像センサは、例えば赤外線を変調して投光し、反射対象物からの反射光との位相差を画素毎に計測することにより、画素ごとに反射対象物との距離を計測可能としたものである。 Further, by using a TOF (time of flight) type distance image sensor, the distance of each pixel to the photographing target may be directly obtained. Note that the TOF type distance image sensor measures the distance to the reflective object for each pixel by, for example, modulating and projecting infrared light and measuring the phase difference with the reflected light from the reflective object for each pixel. It is possible.
CCDカメラ10aによって撮影された画像の各画素に関して距離が求められると、3次元構造体推定部21は、求められた距離に基づいて、各画素が撮影している対象物の地面からの高さを算出する。
When the distance is determined for each pixel of the image captured by the
CCDカメラ10aの地面からの設置高さ及び俯角は予め定められているので、CCDカメラ10aの各画素が映し出すべき地面までのCCDカメラ10aからの距離は、CCDカメラ10aの画角などを考慮して予め算出することができる。3次元構造体推定部21は、この各画素の地面までの距離Z0を予め記憶している。
Since the installation height and the depression angle of the
ここで、図3に示すように、CCDカメラ10aのある画素が、3次元構造体の先端を映し出している場合を想定する。そして、CCDカメラ10aによって撮影された画像の各画素に関して求められた距離に基づき、この3次元構造体の先端までの距離は、距離Zであるとする。このとき、距離Zと距離Z0との比は、CCDカメラ10aの地面からの高さHから3次元構造体の先端までの高さhを減じた高さと、CCDカメラ10aの地面からの高さHとの比と同じになる。このため、CCDカメラ10aのある画素が映し出している3次元構造体の先端までの高さhは、以下の数式2により算出することができる。
Here, as shown in FIG. 3, it is assumed that a pixel of the
(数2)
h=H×(1−Z/Z0)
CCDカメラ10aによって撮影された画像の各画素に関して求められた距離のそれぞれを用いて、数式2の演算を行なうことにより、各画素が映し出している撮影対象の地面からの高さhを算出することができる。そして、算出した撮影対象の高さhが、地面の高さよりも高いか否かを判定する閾値よりも高ければ、その撮影対象は、地面ではなく、地面から高さ方向に伸びる3次元構造体の一部であるとみなすことができる。すなわち、算出した撮影対象の高さhにより、撮影対象が地面であるか、3次元構造体であるかを判別することができ、これにより、撮影された画像において、3次元構造体が映し出されている領域を特定することができる。
(Equation 2)
h = H × (1−Z / Z 0 )
Using the distance obtained for each pixel of the image photographed by the
3次元構造体推定部21において、各画素毎に算出された高さは、画像処理ECU20の画像生成部22に与えられる。画像生成部22は、3次元構造体推定部21から与えられた、各画素毎に算出された高さに基づいて、マッピングテーブル23を参照しつつ、CCDカメラ10aによって撮影された画像を鳥瞰画像に変換して、車両の乗員に提示する提示画像を生成する。以下に、画像生成部22における、鳥瞰画像への変換処理について、詳しく説明する。
In the three-dimensional
まず、マッピングテーブル23について説明する。マッピングテーブル23は、CCDカメラ10aによって撮影された画像と、鳥瞰画像との画素位置の関係を示すものである。つまり、マッピングテーブル23は、撮影画像を鳥瞰画像に画像変換するために、撮影画像の各画素の画素値を、鳥瞰画像のいずれの画素位置にマッピングするかの位置関係を示している。鳥瞰画像に関して、いずれの視点からの鳥瞰画像とするかを予め決定しておくことにより、撮影画像と鳥瞰画像との画素位置の関係は一義的に決まる。この画素位置同士の関係をマッピングテーブル23に記憶しておくことにより、撮影画像から鳥瞰画像への変換を高速に実施することができる。
First, the mapping table 23 will be described. The mapping table 23 shows the relationship between the pixel positions of the image captured by the
特に、本実施形態では、マッピングテーブル23は、地面に相当する高さから所定の高さ範囲(例えば5〜10cm)おきに、それぞれの高さにおける撮影画像と鳥瞰画像との画素位置との関係を記憶している。なお、説明の便宜上、地面に相当する高さを除いて、画素位置同士の位置関係が記憶されている高さを高さ閾値と呼び、地面の高さよりも一段高い位置から最高位置まで順に、h1、h2、…、hnと表すこととする。 In particular, in the present embodiment, the mapping table 23 has a relationship between pixel positions of a captured image and a bird's-eye image at each height from a height corresponding to the ground to a predetermined height range (for example, 5 to 10 cm). Is remembered. For convenience of explanation, except for the height corresponding to the ground, the height at which the positional relationship between the pixel positions is stored is referred to as a height threshold, and in order from a position one step higher than the height of the ground to the highest position, It will be expressed as h 1 , h 2 ,..., h n .
画像生成部22は、3次元構造体推定部21から各画素が映し出している撮影対象の地面からの高さhを得ると、その高さhを、画素位置同士の位置関係が記憶されている各々の高さに対応する各高さ閾値h1、h2、…hnと順次比較する。このとき、高さhが、高さ閾値h1よりも低ければ、その高さに対応付けられた画素は、地面を映し出しているとみなすことができる。一方、高さhが、高さ閾値h1以上であれば、次に高さ閾値h2と比較される。以後、同様にして、高さhが越えている高さ閾値を特定すべく比較処理を繰り返す。このとき、仮に、高さhは、高さ閾値h2以上であったが、高さ閾値h3未満であったとすると、高さhの高さ情報を有する画素の画素位置の変換に利用すべきなのは、高さ閾値h2に対応する撮影画像と鳥瞰画像との画素位置の関係であると判断する。このような処理により、高さ閾値h1以上の高さ情報を有する、3次元構造体を映し出している画素領域を特定することができる。
When the
そして、画像生成部22は、まず、高さhが高さ閾値h1未満であり、3次元構造体ではなく、地面を映し出しているとみなされる画素に関して、マッピングテーブル23における地面の高さに対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングする。地面の高さに対応する撮影画像と鳥瞰画像との画素位置の関係は、地面を基準面として鳥瞰画像への変換が行なわれるように定められている。従って、3次元構造体を映し出している画素領域を除いて、撮影画像を、地面を基準面とする鳥瞰画像に変換することができる。
Then, the
次に、高さ閾値h1以上かつ高さ閾値h2未満の高さ情報を持つ画素に関して、マッピングテーブル23における高さ閾値h1に対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングする。このような処理を、以後、高さ閾値h2から高さ閾値hnまで繰り返す。これにより、高さ情報を考慮した、撮影画像から鳥瞰画像への画像変換を行なうことができ、提示画像としての鳥瞰画像を生成することができる。 Next, for a pixel having height information not less than the height threshold h 1 and less than the height threshold h 2 , refer to the relationship between the pixel positions of the captured image and the bird's-eye image corresponding to the height threshold h 1 in the mapping table 23. Then, the pixel value is mapped on the image plane for generating the bird's-eye view image. Such processing is repeated thereafter from the height threshold h 2 to a height threshold h n. Thereby, it is possible to perform image conversion from a captured image to a bird's-eye image in consideration of height information, and to generate a bird's-eye image as a presentation image.
表示装置30は、車両の車室内の、例えばインストルメントパネルに設置され、画像生成部22によって生成された鳥瞰画像を表示するものである。本実施形態では、表示装置30に表示される鳥瞰画像において、従来に比較して、3次元構造体の歪みが軽減されているので、車両の乗員は、表示装置30に表示された画像から、車両の周辺(後部周辺)の状況を素早く容易に把握することができる。
The
次に、本実施形態の車両周辺画像表示装置100における周辺画像の表示処理について、図4のフローチャートを用いて説明する。なお、図4のフローチャートに示す処理は、車両周辺画像表示装置100において、定期的に繰り返し実行されるものである。
Next, the display process of the surrounding image in the vehicle surrounding
まず、ステップS110では、CCDカメラ10a,10bによって同時に撮影された画像をそれぞれ入力する。図5は、CCDカメラ10aによって撮影された画像の一例を示している。図5に示す画像では、車両後方の駐車領域の一部に、3角錐状の3次元構造体が存在する。
First, in step S110, images simultaneously captured by the
次に、ステップS120に進み、3次元構造体の抽出処理を実行する。具体的には、上述したように、CCDカメラ10a,10bによって撮影された画像間において、各画素の視差dを求めて、CCDカメラ10aの撮影画像において、各画素の撮影対象までの距離Zを算出する。さらに、算出した距離Zを用いて、各画素の撮影対象の地面からの高さhを算出する。
Next, the process proceeds to step S120, and a three-dimensional structure extraction process is executed. Specifically, as described above, the parallax d of each pixel is obtained between the images captured by the
続くステップS130では、高さ閾値h1未満の高さの撮影対象、すなわち地面を映し出している画素に関して、地面を基準面とする鳥瞰画像への変換が行なわれるように、鳥瞰画像の生成画面に画素値をマッピングする。そして、ステップS140において、3次元構造体を映し出している画素に関して、低い箇所から高い箇所へと順に、鳥瞰画像への変換のために、鳥瞰画像の生成画面に画素値のマッピングを行なう。続くステップS150では、生成された鳥瞰画像を、表示装置30に表示する。
In the subsequent step S130, a pixel on the bird's-eye image generation screen is displayed so that a subject to be photographed having a height less than the height threshold h1, that is, a pixel displaying the ground is converted into a bird's-eye image with the ground as a reference plane. Map values. In step S140, pixel values are mapped on the bird's-eye image generation screen for conversion into a bird's-eye image in order from the lower part to the higher part with respect to the pixels displaying the three-dimensional structure. In subsequent step S150, the generated bird's-eye view image is displayed on
このように、本実施形態では、撮影画像から鳥瞰画像へ画像変換を行なう際に、撮影画像の各画素について、各画素が撮影している撮影対象の地面からの高さhを用いて、その高さに相当する高さを基準面とする鳥瞰変換を行なっている。例えば、図5に示すように、鳥瞰画像への変換を、撮影画像における画素位置((X1,Y1)や(X2,Y2))に加え、各々の画素位置における高さ情報(H(X1,Y1)やH(X2,Y2))を用いて行なっている。 As described above, in the present embodiment, when performing image conversion from a captured image to a bird's-eye view image, for each pixel of the captured image, the height h from the ground of the imaging target captured by each pixel is used. Bird's eye view conversion is performed with a height corresponding to the height as a reference plane. For example, as shown in FIG. 5, conversion to a bird's-eye view image is performed in addition to pixel positions ((X1, Y1) and (X2, Y2)) in the captured image, and height information (H (X1, X1, Y2)) at each pixel position. Y1) and H (X2, Y2)).
このため、従来のように、撮影画像に3次元構造体が含まれているか否かに係らず、一律に、地面を基準面とする鳥瞰画像への変換を行なう場合に比較して、鳥瞰画像における3次元構造体の歪みを軽減することができる。例えば、図6は、図5に示す撮影画像全体を地面を基準面とする鳥瞰画像に変換した画像を示し、図7は、本実施形態による車両周辺画像表示装置100において、図5の撮影画像の各画素の高さ情報を考慮して、鳥瞰画像への変換を行なった画像を示している。図6及び図7の画像から明らかなように、本実施形態による車両周辺画像表示装置100によれば、従来の鳥瞰画像に比較して、3次元構造体の歪みを軽減した画像を表示することができる。なお、図7において、画素位置(X’1,Y’1)、(X’2,Y’2)は、高さ情報を考慮した場合に、撮影画像における画素位置(X1,Y1)、(X2,Y2)に対応する鳥瞰画像の画素位置を示すものである。
For this reason, as compared with the conventional case, the bird's-eye view image is uniformly compared with the case of performing the conversion to the bird's-eye view image using the ground as a reference plane regardless of whether or not the photographed image includes a three-dimensional structure. The distortion of the three-dimensional structure can be reduced. For example, FIG. 6 shows an image obtained by converting the entire photographed image shown in FIG. 5 into a bird's-eye view image with the ground as a reference plane, and FIG. 7 shows the photographed image of FIG. The image which converted into the bird's-eye view image in consideration of the height information of each pixel is shown. As is apparent from the images of FIGS. 6 and 7, the vehicle periphery
また、本実施形態では、画像生成部22において、3次元構造体を含む撮影画像を鳥瞰画像に変換する際に、まず、地面に相当する高さ情報を持つ画素について、鳥瞰画像での対応位置に画素値をマッピングしている。さらに、3次元構造体を映し出している画素に関しても、地面からの高さが低い箇所を映し出している画素から、高い箇所を映し出している画素の順に、鳥瞰画像での対応位置に画素値をマッピングしている。
In the present embodiment, when the
この際、本実施形態では、それぞれの高さ閾値に対応する撮影画像と鳥瞰画像との画素位置の関係を参照して、鳥瞰画像を生成するための画像面に画素値をマッピングしているので、撮影画像における、特に3次元構造体を映し出している複数の画素が、鳥瞰画像の同一画素にマッピングされる可能性が生じる。しかしながら、本実施形態では、より高さの高い箇所を映し出している画素の画素値のマッピングほど後に行なうことで、複数画素の画素値が同じ位置にマッピングされる場合であっても、高さの高い箇所を映し出している画素の画素値が鳥瞰画像の生成画面において上書きされる。従って、3次元構造体の鳥瞰画像への変換を適切に行なうことができる。 At this time, in the present embodiment, the pixel values are mapped on the image plane for generating the bird's-eye image with reference to the relationship between the pixel positions of the captured image and the bird's-eye image corresponding to each height threshold. There is a possibility that a plurality of pixels, particularly a three-dimensional structure in the captured image, are mapped to the same pixel in the bird's-eye view image. However, in the present embodiment, the mapping of the pixel values of the pixels that project a higher part is performed later so that even if the pixel values of a plurality of pixels are mapped to the same position, The pixel value of the pixel showing the high part is overwritten on the bird's eye image generation screen. Therefore, it is possible to appropriately convert the three-dimensional structure into a bird's-eye view image.
なお、図7に示すように、高さ情報を考慮して、3次元構造体の鳥瞰画像への画像変換を行なった場合、3次元構造体の裏側に位置していたため、表示装置30に表示される提示画像において画像情報が欠損する欠損領域が生じる。この欠損領域は、そのまま表示しても良いが、車両の乗員がより画像を見やすくなるように、欠損領域を補完しても良い。
As shown in FIG. 7, when the image conversion of the three-dimensional structure into the bird's-eye view image is performed in consideration of the height information, the image is displayed on the
欠損領域を補完する際には、例えば、欠損領域を、その周囲と同様の画素値で塗りつぶしたり、欠損領域を挟んで、両方向に区画線が延びている場合には、欠損領域中に区画線を描画したりする。図8は、図7の欠損領域を補完した画像を示すものである。 When complementing the defect area, for example, if the defect area is filled with the same pixel value as the surrounding area, or if the lane markings extend in both directions with the defect area in between, the lane markings in the defect area Or draw. FIG. 8 shows an image in which the missing area in FIG. 7 is complemented.
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々の変形が可能である。 The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
例えば、上述した実施形態において、3次元構造体推定部21にて、撮影画像の各画素が映し出している撮影対象の地面からの高さhを算出する際に、まず、3次元構造体を映し出している画素領域を、3次元構造体ごとに抽出する。そして、画素領域から把握される3次元構造体を複数の小領域に分割し(例えばドロネー分割)、高さ方向に隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにしても良い。単に、2枚の撮影画像間の視差から3次元構造体の各所までの距離を検出し、その距離に基づいて、3次元構造体の地面からの高さを算出するようにした場合、距離検出誤差などにより、算出される高さに誤差が含まれる虞がある。そのような場合、鳥瞰画像における3次元構造体の形状がギザギザになったりして、その形状を正しく鳥瞰画像に変換することができない。
For example, in the above-described embodiment, when the three-dimensional
それに対して、上述したように、隣接する小領域の高さの差に制限を加えつつ、3次元構造体の各所の地面からの高さを算出するようにすれば、高さを算出する際の誤差を低減することができる。 On the other hand, as described above, if the height from the ground of each part of the three-dimensional structure is calculated while limiting the difference in height between adjacent small regions, the height is calculated. Can be reduced.
また、上述した実施形態において、3次元構造体を鳥瞰画像に変換する際に、地面に対して垂直な方向から所定の角度だけ傾いた方向から見た鳥瞰画像となるように、マッピングテーブルにおける画素位置の関係を定めても良い。3次元構造体の場合、真上から見た鳥瞰画像に変換するよりも、多少、斜め方向から見た鳥瞰画像に変換する方が、3次元構造体を認識しやすくなるためである。 Further, in the above-described embodiment, when the three-dimensional structure is converted into a bird's-eye view image, the pixels in the mapping table so as to be a bird's-eye view image viewed from a direction inclined by a predetermined angle from a direction perpendicular to the ground. A positional relationship may be determined. This is because in the case of a three-dimensional structure, it is easier to recognize the three-dimensional structure if it is converted to a bird's-eye image viewed from an oblique direction, rather than being converted to a bird's-eye image viewed from directly above.
また、例えば、車両周辺画像表示装置100が1台のカメラを備えるものであって、SFM技術を用いて、3次元構造体の高さ情報を得る場合、その高さ情報を得るまでに、数フレームの画像を必要とする。このような場合、すなわち、3次元構造体が抽出される以前は、カメラによって撮影された画像全体を地面を基準面とする鳥瞰画像に変換し、この鳥瞰画像を提示画像としても良い。
Further, for example, when the vehicle periphery
これにより、3次元構造体が撮影した画像に含まれていない場合、或いは含まれていても、その3次元構造体をまだ抽出できていない場合に、従来と同様の鳥瞰画像が表示され、3次元構造体が抽出されると、3次元構造体に関して歪みの軽減された鳥瞰画像が表示されるようになる。従って、車両の周囲の状況を示す画像の表示を常時行なうことができる。 As a result, when the three-dimensional structure is not included in the photographed image, or when the three-dimensional structure is not extracted yet, the same bird's-eye image is displayed. When the three-dimensional structure is extracted, a bird's-eye view image with reduced distortion is displayed for the three-dimensional structure. Therefore, it is possible to always display an image showing the situation around the vehicle.
さらに、上述した実施形態では、3次元構造体に関して、高さ情報を考慮した鳥瞰画像変換を行なうことで、3次元構造体の歪みを軽減した。しかしながら、3次元構造体に関しては、鳥瞰画像への変換を行なうことなく、スケール変換のみ行なって、提示画像としての鳥瞰画像を生成しても良い。 Furthermore, in the above-described embodiment, the distortion of the three-dimensional structure is reduced by performing bird's-eye view image conversion considering height information for the three-dimensional structure. However, regarding the three-dimensional structure, the bird's-eye view image as the presentation image may be generated by performing only the scale conversion without performing the conversion to the bird's-eye view image.
CCDカメラ10aは、所定の俯角で見下ろすように3次元構造体を撮影しているので、3次元構造体に関して鳥瞰変換を行なわず、そのまま表示しても、車両の乗員の違和感はほとんど生じない。逆に、鳥瞰画像への変換に伴う3次元構造体の歪みが発生しないので、車両の乗員に理解しやすい表示を行なうことができる。
Since the
なお、3次元構造体のスケール変換及び提示画像の生成は以下のようにして行なう。まず、撮影画像において、3次元構造体の領域を特定するとともに、3次元構造体が地面に接している接線部分を特定する。次に、3次元構造体を映し出している画素領域を除く、地面を映し出している画素に関して、地面を基準面とする鳥瞰画像への変換を行なう。その鳥瞰画像において、地面の3次元構造体との接線部分を特定する。そして、撮影画像の接線部分が、鳥瞰画像の接線部分と同じ長さとなるように3次元構造体をスケール変換して、接線部分同士が一致するように、鳥瞰画像に3次元構造体を映し出している画素の画素値を書き込んで、提示画像を生成する。 The scale conversion of the three-dimensional structure and the generation of the presentation image are performed as follows. First, in the captured image, a region of the three-dimensional structure is specified, and a tangential portion where the three-dimensional structure is in contact with the ground is specified. Next, with respect to the pixels projecting the ground, excluding the pixel region projecting the three-dimensional structure, conversion to a bird's-eye view image using the ground as a reference plane is performed. In the bird's-eye view image, a tangent portion with the ground three-dimensional structure is specified. Then, the three-dimensional structure is scaled so that the tangent portion of the captured image has the same length as the tangent portion of the bird's-eye image, and the three-dimensional structure is displayed on the bird's-eye image so that the tangent portions coincide with each other. The presentation image is generated by writing the pixel value of the existing pixel.
10a,10b CCDカメラ
20 画像処理ECU
30 表示装置
100 車両周辺画像表示装置
10a,
30 Display device
100 Vehicle periphery image display device
Claims (14)
車両に搭載され、車両周辺の画像を撮影する撮影手段と、
前記撮影手段によって撮影された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成手段と、
前記画像生成手段によって生成された提示画像を前記表示装置に表示する表示制御手段と、を備えた車両周辺画像表示装置において、
前記撮影手段によって撮影された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出手段を有し、
前記画像生成手段は、
前記3次元構造体抽出手段によって特定された前記3次元構造体の領域を除いて、前記撮影手段によって撮影された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換手段と、
前記第1画像変換手段による第1の画像変換とは異なるものであって、前記第1の画像変換にて前記3次元構造体を鳥瞰画像に変換した場合よりも、前記3次元構造体の歪みが軽減される第2の画像変換を適用して前記3次元構造体を画像変換する第2画像変換手段と、を含み
前記第1画像変換手段と、前記第2画像変換手段とにより変換された画像を統合して前記提示画像を生成するものであり、
前記第2画像変換手段が行なう第2の画像変換は、前記撮影手段によって撮影された画像を用いて前記3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする車両周辺画像表示装置。 A display device provided in the passenger compartment of the vehicle;
A photographing means mounted on the vehicle for photographing an image around the vehicle;
Image generating means for generating a presentation image for presentation to the driver of the vehicle based on the image photographed by the photographing means;
A vehicle surrounding image display device comprising: display control means for displaying the presentation image generated by the image generation means on the display device;
Using an image photographed by the photographing means, and having a three-dimensional structure extracting means for specifying an area in which the three-dimensional structure extending in the height direction from the ground is projected in the image;
The image generating means includes
Except for the region of the three-dimensional structure specified by the three-dimensional structure extraction means, a first image conversion is performed for converting the image photographed by the photographing means into a bird's-eye image with the ground as a reference plane. First image conversion means;
This is different from the first image conversion by the first image conversion means, and is more distorted than the case where the three-dimensional structure is converted into a bird's-eye image by the first image conversion. A second image conversion unit that converts the three-dimensional structure into an image by applying a second image conversion to reduce the image, and converted by the first image conversion unit and the second image conversion unit The presenting image is generated by integrating images ,
The second image conversion performed by the second image conversion means calculates the height from the ground of each place of the three-dimensional structure using the image photographed by the photographing means, and corresponds to the calculated height. A vehicle peripheral image display device that converts a bird's-eye view image having a height as a reference plane .
前記第1画像変換手段及び前記第2画像変換手段は、前記マッピングテーブルを参照して、第1及び第2の画像変換を行なうことを特徴とする請求項1乃至請求項5のいずれかに記載の車両周辺画像表示装置。 Storage means storing a mapping table indicating which pixel of the presented image each pixel of the image photographed by the photographing means is mapped every predetermined height range from the height corresponding to the ground;
Said first image converting means and said second image transformation means, by referring to the mapping table, according to any one of claims 1 to 5, characterized in that performing the first and second image conversion Vehicle periphery image display device.
前記画像取得ステップにより取得された画像に基づいて、車両の運転者へ提示するための提示画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された提示画像を車両の乗員に対して表示する表示ステップと、を備えた車両周辺画像表示方法であって、
前記画像取得ステップにより取得された画像を用い、その画像において、地面から高さ方向に伸びる3次元構造体が映し出されている領域を特定する3次元構造体抽出ステップを有し、
前記画像生成ステップは、
前記3次元構造体抽出ステップにおいて特定された前記3次元構造体の領域を除いて、前記画像取得ステップにより取得された画像を、地面を基準面とする鳥瞰画像に変換する第1の画像変換を行なう第1画像変換ステップと、
前記第1画像変換ステップにおける第1の画像変換とは異なるものであって、前記第1の画像変換にて前記3次元構造体を鳥瞰画像に変換した場合よりも、前記3次元構造体の歪みが軽減される第2の画像変換を適用して前記3次元構造体を画像変換する第2画像変換ステップと、を含み、
前記第1画像変換ステップと、前記第2画像変換ステップとにより変換された画像を統合して前記提示画像を生成し、
前記第2の画像変換は、前記画像取得ステップにより取得された画像を用いて前記3次元構造体の各所の地面からの高さを算出し、算出した高さに相当する高さを基準面とする鳥瞰画像に変換するものであることを特徴とする車両周辺画像表示方法。 An image acquisition step for acquiring an image from a photographing means mounted on the vehicle and capturing an image around the vehicle;
An image generation step for generating a presentation image for presentation to the driver of the vehicle based on the image acquired by the image acquisition step;
A display step for displaying the presentation image generated by the image generation step to a vehicle occupant, and a vehicle periphery image display method comprising:
Using the image acquired in the image acquisition step, and in the image, a three-dimensional structure extraction step for specifying a region in which a three-dimensional structure extending in the height direction from the ground is projected,
The image generation step includes
First image conversion for converting the image acquired by the image acquisition step into a bird's-eye image using the ground as a reference plane, excluding the region of the three-dimensional structure specified in the three-dimensional structure extraction step. Performing a first image conversion step;
The first image conversion in the first image conversion step is different from the first image conversion, and the distortion of the three-dimensional structure is higher than that in the case where the three-dimensional structure is converted into a bird's-eye image in the first image conversion. Applying a second image conversion to reduce the image, and converting the three-dimensional structure into an image,
Said first image transformation step, by integrating the converted image by the second image conversion step generates the presentation image,
The second image conversion uses the image acquired in the image acquisition step to calculate the height of each part of the three-dimensional structure from the ground, and uses the height corresponding to the calculated height as a reference plane. The vehicle periphery image display method characterized by converting into a bird's-eye view image .
前記第1画像変換手段及び前記第2画像変換手段は、前記マッピングテーブルを参照して、第1及び第2の画像変換を行なうことを特徴とする請求項8乃至請求項12のいずれかに記載の車両周辺画像表示方法。 Storage means storing a mapping table indicating which pixels of the image to be mapped to each pixel of the image acquired by the image acquisition step at predetermined height ranges from a height corresponding to the ground ,
The said 1st image conversion means and the said 2nd image conversion means perform 1st and 2nd image conversion with reference to the said mapping table, The one of Claim 8 thru | or 12 characterized by the above-mentioned. Vehicle periphery image display method.
していたため、前記提示画像において画像情報が欠損する欠損領域に対して、画像を補完
する補完ステップを有することを特徴とする請求項8乃至請求項13のいずれかに記載の車両周辺画像表示方法。 In the image acquired by the image acquisition step, a position on the back side of the three-dimensional structure
As a result, the image is complemented for the missing area where the image information is missing in the presented image.
The vehicle surrounding image display method according to claim 8, further comprising a complementing step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010014664A JP5299296B2 (en) | 2010-01-26 | 2010-01-26 | Vehicle periphery image display device and vehicle periphery image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010014664A JP5299296B2 (en) | 2010-01-26 | 2010-01-26 | Vehicle periphery image display device and vehicle periphery image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011155393A JP2011155393A (en) | 2011-08-11 |
JP5299296B2 true JP5299296B2 (en) | 2013-09-25 |
Family
ID=44541056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010014664A Expired - Fee Related JP5299296B2 (en) | 2010-01-26 | 2010-01-26 | Vehicle periphery image display device and vehicle periphery image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5299296B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5799232B2 (en) * | 2011-08-12 | 2015-10-21 | パナソニックIpマネジメント株式会社 | Lighting control device |
CN103324977B (en) * | 2012-03-21 | 2016-03-30 | 日电(中国)有限公司 | A kind of destination number detection method and equipment |
JP6079131B2 (en) | 2012-10-25 | 2017-02-15 | 富士通株式会社 | Image processing apparatus, method, and program |
JP6427998B2 (en) * | 2014-07-07 | 2018-11-28 | 株式会社デンソー | Optical flight rangefinder |
CN104554010B (en) * | 2015-01-07 | 2016-12-07 | 苏州科技学院 | The signal processing method of reversing visible system |
EP3459047B1 (en) * | 2016-05-16 | 2024-12-25 | Angel Group Co., Ltd. | System and method for automated table game activity recognition |
CN108111802B (en) * | 2016-11-23 | 2020-06-26 | 杭州海康威视数字技术股份有限公司 | Video monitoring method and device |
US10430968B2 (en) * | 2017-03-14 | 2019-10-01 | Ford Global Technologies, Llc | Vehicle localization using cameras |
US11288522B2 (en) | 2019-12-31 | 2022-03-29 | Woven Planet North America, Inc. | Generating training data from overhead view images |
US11244500B2 (en) | 2019-12-31 | 2022-02-08 | Woven Planet North America, Inc. | Map feature extraction using overhead view images |
US11037328B1 (en) | 2019-12-31 | 2021-06-15 | Lyft, Inc. | Overhead view image generation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5422902B2 (en) * | 2008-03-27 | 2014-02-19 | 三洋電機株式会社 | Image processing apparatus, image processing program, image processing system, and image processing method |
-
2010
- 2010-01-26 JP JP2010014664A patent/JP5299296B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011155393A (en) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5299296B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
US9633266B2 (en) | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings | |
EP3565739B1 (en) | Rear-stitched view panorama for rear-view visualization | |
JP6891954B2 (en) | Object detection device, object detection method, and program | |
KR101961001B1 (en) | Single-camera distance estimation | |
JP5491235B2 (en) | Camera calibration device | |
KR101339121B1 (en) | An apparatus for generating around view image of vehicle using multi look-up table | |
US11140364B2 (en) | Sensor fusion based perceptually enhanced surround view | |
JP6171593B2 (en) | Object tracking method and system from parallax map | |
JP5865547B2 (en) | Image display device and image display method | |
JP6392693B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring method, and program | |
JP2011134207A (en) | Drive recorder and map generation system | |
JP2015186085A (en) | Travel derivation apparatus and travel derivation method | |
JP2019012915A (en) | Image processing apparatus and image conversion method | |
JP5299101B2 (en) | Peripheral display device | |
JP7074546B2 (en) | Image processing equipment and methods | |
KR20170019793A (en) | Apparatus and method for providing around view | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
WO2010113253A1 (en) | Three-dimensional information display device and three-dimensional information display method | |
JP2021043141A (en) | Object distance estimating device and object distance estimating method | |
JP7196920B2 (en) | Driving support device, driving support method, and program | |
JP6734136B2 (en) | Image processing device | |
WO2017033518A1 (en) | Display device for vehicle and display method for vehicle | |
JP2009077022A (en) | Driving support system and vehicle | |
JP6999239B2 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130603 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5299296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |