JP5358137B2 - Image generating apparatus, method and program - Google Patents
Image generating apparatus, method and program Download PDFInfo
- Publication number
- JP5358137B2 JP5358137B2 JP2008197697A JP2008197697A JP5358137B2 JP 5358137 B2 JP5358137 B2 JP 5358137B2 JP 2008197697 A JP2008197697 A JP 2008197697A JP 2008197697 A JP2008197697 A JP 2008197697A JP 5358137 B2 JP5358137 B2 JP 5358137B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- block
- search area
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 12
- 230000000875 corresponding effect Effects 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 21
- 238000009826 distribution Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、自由視点映像を実現する光線空間の構築技術に関する。 The present invention relates to a technology for constructing a light space for realizing a free viewpoint image.
複数のカメラで撮影した静止画像又は動画像に基づき、任意の視点位置から見た映像を再現する自由視点映像技術について、様々な提案が行われている(例えば、特許文献1、非特許文献1及び非特許文献2、参照。)。 Various proposals have been made regarding free viewpoint video technology for reproducing video viewed from an arbitrary viewpoint position based on still images or moving images taken by a plurality of cameras (for example, Patent Document 1 and Non-Patent Document 1). And Non-Patent Document 2, for example).
従来技術による方法では、複数のカメラでほぼ同時刻に撮影した画像を光線空間上に配置し、カメラが存在しない位置から見た画像については、周囲にある実際に撮影した画像から補間処理により生成し、これにより任意の視点位置から見た映像を再現している。 In the prior art method, images taken at approximately the same time by a plurality of cameras are arranged in the light space, and an image viewed from a position where no camera is present is generated by interpolation processing from images actually taken around. Thus, the video viewed from an arbitrary viewpoint position is reproduced.
実際に撮影した画像の間の位置から見た画像を補間処理により生成して密な光線空間を構築するにあたり、生成する画像内の各画素値を、実際に撮影した画像の対応画素に基づき生成することが重要となる。対応する画素判定の精度が低いと、補間処理により生成された画像の品質が劣化し、よって、自由視点映像システム全体の品質が劣化することとなる。一方、補間処理による画像の生成は、処理負荷が高く、できるだけ簡易に対応する画素を探索することが要求される。 When constructing a dense ray space by generating images viewed from positions between actually captured images by interpolation processing, each pixel value in the generated image is generated based on the corresponding pixels of the actually captured image It is important to do. If the accuracy of the corresponding pixel determination is low, the quality of the image generated by the interpolation process is degraded, and thus the quality of the entire free viewpoint video system is degraded. On the other hand, generation of an image by interpolation processing has a high processing load, and it is required to search for a corresponding pixel as easily as possible.
したがって、本発明は、光線空間を構築するために、実際に撮影された画像内の対応する画素を簡易にかつ精度良く見つけて、実際にはカメラが存在しない位置における画像を生成する画像生成装置、方法及び前記画像生成装置としてコンピュータを機能させるプログラムを提供することを目的とする。 Therefore, the present invention provides an image generation apparatus that easily and accurately finds corresponding pixels in an actually captured image and constructs an image at a position where no camera actually exists in order to construct a ray space. An object of the present invention is to provide a method and a program for causing a computer to function as the image generation apparatus.
本発明における画像生成装置によれば、
第1の画像及び第2の画像に基づき、指定された視点における第3の画像の第3の画素の画素値を決定する画像生成装置であって、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、実空間の一点からの光線を示す点の該光線空間における分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求める交点検出手段と、第1の画素を中心とした所定範囲である第1の探索領域と、第2の画素を中心とした同じ所定範囲である第2の探索領域内において、所定の画素サイズのブロックによるブロック・マッチングを適用し、最も相関の高い組合せである、第1の探索領域内の第1のブロックと第2の探索領域内の第2のブロックを求める対応点検出手段と、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定する画素値算出手段とを備え、前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにしたことを特徴とする。
According to the image generation apparatus of the present invention,
An image generation device that determines a pixel value of a third pixel of a third image at a specified viewpoint based on a first image and a second image, wherein each pixel of the first and second images A first image corresponding to the third pixel, based on position information in the light space and real space, a distribution in the light space of points representing light rays from one point in the real space, and the designated viewpoint; The first pixel, the intersection detection means for obtaining the second pixel of the second image, the first search area that is a predetermined range centered on the first pixel, and the second pixel In the second search region that is the same predetermined range, block matching by a block having a predetermined pixel size is applied, and the first block in the first search region and the second block that are the most correlated combination are applied. Corresponding point detecting means for obtaining a second block in the search area; The pixel at the center of one of the blocks, based on the pixel in the center of the second block, and a pixel value calculating means for determining a pixel value of the third pixel, the first search area and the second The range of the search area is reduced as it approaches the position of the third pixel in the light space, and increases as it moves away .
本発明の画像生成装置における他の実施形態によれば、
複数のカメラの位置及び方向と、前記複数のカメラが撮影した撮影画像に基づき、前記複数のカメラのカメラパラメータのキャリブレーションと、前記撮影画像の各画素の実空間での位置情報を求める前処理手段と、前記撮影画像と、前記撮影画像から生成した生成画像を保存する保存手段とを備えており、前記第1の画像及び前記第2の画像は、それぞれ、前記撮影画像又は前記生成画像であり、前記生成画像の各画素は、前記交点検出手段、対応点検出手段及び画素値算出手段により決定したものであることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
Based on the positions and directions of a plurality of cameras and the captured images captured by the plurality of cameras, pre-processing for calibrating camera parameters of the plurality of cameras and determining positional information of each pixel of the captured images in real space Means, a captured image, and storage means for storing a generated image generated from the captured image, wherein the first image and the second image are the captured image or the generated image, respectively. Preferably, each pixel of the generated image is determined by the intersection detection unit, the corresponding point detection unit, and the pixel value calculation unit.
本発明の画像生成装置における他の実施形態によれば、
前記第1の画像及び第2の画像の視点は、前記第3の画像の前記指定された視点において当該視点の方向に伸ばした直線の両側にあることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
It is also preferable that the viewpoints of the first image and the second image are on both sides of a straight line extending in the direction of the viewpoint at the designated viewpoint of the third image.
本発明における画像生成方法によれば、
第1の画像と、第2の画像に基づき、画像生成装置において、指定された視点における第3の画像の第3の画素の画素値を決定する方法であって、交点検出部が、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、該光線空間における実空間の各位置の分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求めるステップと、対応点検出部が、第1の画素を中心とした範囲である矩形の第1の探索領域を第1の画像に、第2の画素を中心とした範囲である矩形の第2の探索領域を第2の画像に設定するステップと、対応点検出部が、第1の探索領域内にある所定の画素サイズの各ブロックと、第2の探索領域内にある前記所定の画素サイズの各ブロックとの相関をそれぞれ求めることにより、第1の探索領域内の第1のブロックに対応する第2の探索領域内の第2のブロックを求めるステップと、画素値算出部が、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定するステップとを備え、前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにしたことを特徴とする。
According to the image generation method of the present invention,
A method for determining a pixel value of a third pixel of a third image at a designated viewpoint in an image generation device based on a first image and a second image, wherein the intersection detection unit includes: Corresponding to the third pixel based on the positional information of each pixel of the second image in the light space and the real space, the distribution of the positions of the real space in the light space, and the designated viewpoint. The step of obtaining the first pixel of the first image and the second pixel of the second image, and the corresponding point detection unit obtains a rectangular first search region that is a range centered on the first pixel. A step of setting, in the first image, a rectangular second search area that is a range centered on the second pixel in the first image, and a corresponding point detection unit within the first search area. And a block of the predetermined pixel size in the second search area. Determining the second block in the second search area corresponding to the first block in the first search area by determining the correlation of And determining the pixel value of the third pixel based on the pixel at the center of the second block, and the range of the first search area and the second search area is defined as a ray space. It is characterized in that it becomes smaller as it gets closer to the position of the third pixel in, and becomes larger as it goes away .
本発明におけるプログラムは、コンピュータを上記画像生成装置として機能させることを特徴とする。 A program according to the present invention causes a computer to function as the image generation apparatus.
実空間上のある一点からの各光線は、光線空間においては曲線又は直線状に分布し、この分布は、カメラパラメータ、カメラ位置及び方向、各画素の実空間での位置に基づき求めることができる。しかしながら、分布の算出に使用する各値には、通常、誤差が含まれており、この分布により第1及び第2の画像の対応画素を正確に求めることはできない。しかしながら、誤差が著しく大きくない限り、対応画素は、分布により求めた画素の近傍に存在するため、求めた画素を中心とする探索領域に対してブロック・マッチングを適用して対応画素を決定する。分布によりブロック・マッチングを適用する探索領域をある狭い範囲に限定することで、簡易に対応画素を見つけることが可能になる。 Each ray from a point in the real space is distributed in a curve or a straight line in the ray space, and this distribution can be obtained based on the camera parameters, the camera position and direction, and the position of each pixel in the real space. . However, each value used for calculating the distribution usually includes an error, and the corresponding pixels of the first and second images cannot be accurately obtained by this distribution. However, as long as the error is not significantly large, the corresponding pixel exists in the vicinity of the pixel obtained from the distribution. Therefore, the corresponding pixel is determined by applying block matching to the search region centered on the obtained pixel. By limiting the search area to which the block matching is applied according to the distribution to a narrow range, it is possible to easily find the corresponding pixel.
まず、本発明による画像生成装置の概略について説明する。図4に示す様に、円周上にカメラ11〜18を、その中心に向けて配置して撮影する場合を考える。なお、Z軸正方向を基準とし、方角をZ軸から反時計周り方向の角度θで表すものとする。各カメラは、そのカメラ位置及び方向並びにカメラパラメータで決まる範囲の方角で進行する光線を受けて画像情報を取得する。非特許文献1に記載の様に、例えば、ある水平平面内において、各カメラが取得する各光線を、その方角と、その方角に直交するP軸と光線との交点の位置にて表すものとする。この場合、図4(a)に示す様に、カメラ18が取得する光線の1つである光線90は、方角θ0であり、P軸と位置p0で交差するものであるため、図4(b)に示す様にP−θ平面の点(p0,θ0)で表されることになる。
First, an outline of an image generation apparatus according to the present invention will be described. As shown in FIG. 4, a case is considered where the
各カメラが撮影した画像の各画素の原因となる光線は、上述した様にカメラ位置及び方向並びにカメラパラメータから計算可能であり、よって、各光線と画素には対応関係が存在する。よって、各カメラが撮影した動画像のうち、ほぼ同じ瞬間に各カメラが撮影した画像における画素の画素値を、図4(b)に示す様に、P−θ平面の当該画素に対応する光線位置に記録することで光線空間が構築される。なお、図4(b)において、符号11−1〜18−1は、それぞれ、カメラ11〜18が撮影した画像である。
As described above, the light beam that causes each pixel of the image captured by each camera can be calculated from the camera position and direction, and the camera parameters. Therefore, there is a correspondence between each light beam and the pixel. Therefore, among the moving images captured by the cameras, the pixel values of the pixels in the images captured by the cameras at almost the same moment are represented by light rays corresponding to the pixels on the P-θ plane, as shown in FIG. A ray space is constructed by recording in the position. In FIG. 4B, reference numerals 11-1 to 18-1 are images taken by the
しかしながら、図4(b)に示す光線空間において、画像データは、実際にカメラが取得した光線に対応する位置にのみ存在し、それ以外の位置においては存在しない。本発明による画像生成装置は、他の光線に対応する画像データを、実際に撮影した画像データから補間処理により生成を行うものである。 However, in the ray space shown in FIG. 4B, the image data exists only at positions corresponding to the rays actually acquired by the camera, and does not exist at other positions. The image generation apparatus according to the present invention generates image data corresponding to other light rays by interpolation processing from actually captured image data.
図1は、本発明による画像生成装置のブロック図である。図1によると、画像生成装置は、保存部2と、前処理部3と、光線空間構築部4とを備えている。保存部2は、例えば、複数のカメラ1が撮影した静止画像又は動画像を、その画像を撮影したカメラについての情報に対応付けて保持している。なお、カメラについての情報とは、カメラの識別子と、カメラの位置と、カメラパラメータを含んでいる。なお、以下の実施形態においては、カメラ1は、図4に示す様に、円周状で、光軸が同一高さにおいてその中心を向く様に配置されているもの、つまり、各カメラの方向はカメラ位置から計算可能であるものとし、各カメラのカメラパラメータは同一であるものとする。
FIG. 1 is a block diagram of an image generation apparatus according to the present invention. As shown in FIG. 1, the image generation apparatus includes a storage unit 2, a preprocessing unit 3, and a light
前処理部3は、保存部2から、各カメラが撮影したほぼ同時刻の画像(以後、撮影画像と呼ぶ。)と、各カメラの位置と、カメラパラメータを取得し、これら情報に基づき、カメラ・キャリブレーションを行ってカメラパラメータを調整する。さらに、撮影画像の各画素について前景であるか、背景であるかの判定を行って、撮影画像に写っている各被写体、つまり、各対象物をモデル化し、視差情報等によりその位置の判定を行い、各画素の位置を特定するモデル情報を生成する。なお、これら処理には、奥行き情報取得のための公知の各方法を使用することができる。 The preprocessing unit 3 obtains from the storage unit 2 images at approximately the same time (hereinafter referred to as “captured images”) captured by the respective cameras, the positions of the respective cameras, and camera parameters. • Adjust the camera parameters by performing calibration. Further, each pixel of the photographed image is determined to be a foreground or a background, each subject in the photographed image, that is, each object is modeled, and its position is determined by parallax information or the like. To generate model information for specifying the position of each pixel. In addition, for each of these processes, known methods for obtaining depth information can be used.
光線空間構築部4は、外部から指定される又はあらかじめ画像生成装置に設定されている視点を示す情報に基づき、この視点から見た画像(以後、生成画像と呼ぶ。)を生成する。より詳しくは、この視点の位置において、視点の方向を向けたカメラを配置した場合にそのカメラが撮影するであろう各時刻の画像を、実際のカメラが撮影したほぼ同時刻の撮影画像から生成する。その後、この生成画像に対する視点を示す情報を保存部2に保存する。なお、視点の位置は、実際のカメラと同一円周上で同じ高さにあり、視点の方向は、実際のカメラと同じく中心を向き、視点から見た画像の範囲は、実際のカメラと同一、つまり、生成画像を撮影するものと想定するカメラは、実際のカメラと同一のカメラパラメータであるものとする。
The ray
上述した様に、各画素の光線空間の位置は、カメラ位置、方向及びカメラパラメータから計算可能であるため、保存部2は、各カメラが撮影した撮影画像と、補間処理により生成した生成画像それぞれについて、各画素の光線空間及び実空間での位置情報を有することになり、撮影画像及び生成画像の画素値を対応する光線空間位置に配置することで、より密な光線空間が構築できることになる。なお、補間処理により生成する生成画像数、つまり、仮想的なカメラ位置の数は、システムに要求される視点位置の解像度等により決定する。 As described above, since the position of the light space of each pixel can be calculated from the camera position, direction, and camera parameters, the storage unit 2 captures each captured image captured by each camera and each generated image generated by interpolation processing. Therefore, it is possible to construct a denser light space by arranging the pixel values of the photographed image and the generated image at the corresponding light space positions. . Note that the number of generated images generated by the interpolation process, that is, the number of virtual camera positions is determined by the resolution of the viewpoint position required for the system.
図2は、光線空間構築部4のブロック図である。図2によると、光線空構築部4は、交点検出部41と、対応点検出部42と、画素値算出部43とを備えている。図3は、光線空間構築部4における処理を説明する図である。図3において、符号50及び60は、撮影画像であり、符号70は、仮想的なカメラが撮影するであろう画像、つまり生成画像である。生成画像70内の画素71の画素値を決定するために、交点検出部42は、光線空間上において実空間の同一位置を示す曲線のうち、画素71を通る曲線80を求め、この曲線80と撮影画像50との交点の画素51と、この曲線80と撮影画像60との交点の画素61を判定する。なお、曲線80は、撮影画像50及び60のモデル情報、より詳しくは、撮影画像50及び60の各画素の実空間での位置情報に基づき計算され、よって、仮想カメラ位置を考慮することにより交点を求めることができる。
FIG. 2 is a block diagram of the light
例えば、図5に示す様に、方角φで原点からの距離rにある点94を通過する光線を考える。図5から明らかなように、点94を通過してθ方向に進行する光線とP軸との交点は、
r×sin(φ−θ) (1)
であり、点94は、光線空間において正弦波状に分布することになる。より正確には、点94を通る各光線は、光線空間において正弦波状に分布することになる。交点検出部41は、各カメラのカメラパラメータ、位置及び方向に基づき撮影画像の各画素の光線空間上での位置を求め、モデル情報から各画素の位置、つまり、式(1)におけるφ及びrを求め、これらと指定された視点の位置に設置を仮定するカメラの方向及びカメラパラメータから画素71を通過する曲線80を求めて、画素51、61を決定し、画素51、61を示す交点情報を対応点検出部42に出力する。
For example, as shown in FIG. 5, consider a ray passing through a
r × sin (φ−θ) (1)
And the
仮に、各カメラの設置位置が正確であり、各カメラが正確にその中心を向き、さらに、カメラパラメータのキャリブレーションが完全に行われ、モデル情報が正確である場合、画素51と画素61は、それぞれ、画素71に対応する画素であるが、通常、各カメラの位置及び方向を完全に調整することは難しく、キャリブレーションによりカメラパラメータの特性差を完全に補償することはできず、モデル情報にも誤差がある。したがって、通常、画素51と、画素61は対応する画素とはならない。このため、対応点検出部42は、画素51を中心とする所定範囲の探索領域52と、画素61を中心とする同じ所定範囲の探索領域62を設定し、この範囲において、ブロック・マッチングにより対応するブロックを探索する。つまり、探索領域52内の各ブロックと、探索領域62内の各ブロックのうち、一番相関が高い組合せを探索する。具体的には、例えば、探索領域52内の各ブロックと、探索領域62内の各ブロックの組合せそれぞれに対して、同じ位置にある画素の値の差の絶対値の総和又は値の差の2乗の総和が一番小さいブロックの組合せを求める。図3(b)においては、ブロック53とブロック63が対応するものと判定されている。なお、探索領域の高さ及び幅は、想定されるカメラ設置位置及び方向の誤差、キャリブレーション誤差、モデル情報における対象物位置の誤差に基づき決定する。
If the installation position of each camera is accurate, each camera is accurately directed to the center, and further, the camera parameters are completely calibrated and the model information is accurate, the
対応点検出部42は、一番相関が高いブロックの中心画素、図3(b)の場合、ブロック53の中心にある画素54と、ブロック63の中心にある画素64を、画素71に対応する画素と判定し、画素54及び画素64を示す対応点情報を画素値算出部43に出力する。画素値算出部43は、対応点情報に基づき、以下の式にて画素71の画素値を算出する。
画素71の画素値=a×画素54の画素値+(1−a)×画素64の画素値
ここで、aは、0<a<1であり、光線空間における画素54と画素71の距離と画素64と画素71の距離の和に対する、画素71と画素64の距離に依存する値である。
The corresponding
Pixel value of the
この様に、光線空間構築部4は、生成画像の各画素それぞれに対して、上述した様に、計算上対応する撮影画像内の画素を求め、この点を中心とする探索領域に対してブロック・マッチングを行い、これにより、生成画像の画素値のために使用する画素の組を決定する。図3における曲線80は、カメラパラメータや、カメラ位置の誤差等により、実空間上の同じ点を結ぶ線とはならないが、カメラパラメータ及びカメラ位置の誤差が著しく大きくなければ、曲線80の近傍に対応する画素が存在することになる。本発明は、この曲線80により決定される点を中心に探索領域を設定して、ブロック・マッチングにより対応点を探索する。この様に、計算上の位置に基づき探索範囲を制限することで、対応点を簡易に素早く見つけることが可能になる。
As described above, the ray
以上、撮影画像を撮影する実際のカメラ及び生成画像のために仮定する仮想的なカメラを円周上で、その中心を向くように配置し、総てのカメラパラメータが同一であるものとする実施形態にて説明したが、実際の及び仮想的なカメラの設置位置、方向及びカメラパラメータは、画素と光線空間の対応関係を求めるために使用するものであり、各画素と光線空間の対応関係が決定できる限り、実際の及び仮想的なカメラの設置位置、方向及びカメラパラメータに制限はない。つまり、被写体が存在する第1の空間と、被写体がなく実際のカメラを配置する第2の空間を明確に区別することを前提とする限り、第2の空間において、実際のカメラを、第1の空間の方向に向けて、例えば、直線、楕円、その他、任意の形状に配置することが可能であり、生成画像のための視点は、第1の空間及び第2の空間の任意の位置に設定することができる。 As described above, an actual camera that captures a captured image and a virtual camera that is assumed for a generated image are arranged on the circumference so as to face the center, and all camera parameters are the same. As described in the embodiment, the actual and virtual camera installation positions, directions, and camera parameters are used to determine the correspondence between the pixels and the light space. As long as it can be determined, there are no restrictions on the installation position, direction and camera parameters of the actual and virtual cameras. In other words, as long as it is premised that the first space where the subject exists and the second space where there is no subject and the actual camera is placed are clearly distinguished, the actual camera in the second space For example, a straight line, an ellipse, or any other shape can be arranged in the direction of the space, and the viewpoint for the generated image is at an arbitrary position in the first space and the second space. Can be set.
また、上述した実施形態においては、探索領域52及び62の高さ及び幅を、あらかじめ決められた固定値としたが、例えば、画素71の撮影画像50及び60に対する光線空間での距離に応じて可変とすることもできる。つまり、例えば、画素71が、撮影画像50に近くなるにつれて、探索領域52を小さくし、離れるにつれて、探索領域52を大きくする形態であっても良い。画素71との距離により誤差の範囲が変化するため、探索領域を、画素71の位置に応じて可変とすることで、より適切な探索領域とすることができる。また、各対象物の位置情報を、撮影画像に基づき判定するのではなく、例えば、非特許文献3に記載のセンサにより取得する形態であっても良い。
In the above-described embodiment, the heights and widths of the search areas 52 and 62 are fixed values determined in advance. For example, according to the distance in the light space with respect to the captured
なお、生成画像の総ての画素の画素値を同じ撮影画像の組に基づき決定する必要はない。例えば、図6に示す様に、カメラ21、22、23を設定して撮影画像を取得し、これら撮影画像からカメラ21とカメラ22の間に設定した視点に想定する仮想カメラ24が撮影するであろう生成画像を生成する場合を考える。なお、符号25及び符号26は被写体、つまり、対象物である。図6(a)に示す様に、対象物25の表面の点95からの光線は、カメラ21及びカメラ22に到達するため、生成画像の点95に対応する画素の画素値については、カメラ21及びカメラ22が撮影した撮影画像の組から生成することが可能である。しかしながら、図6(b)に示す様に、対象物25の表面の点96からの光線は、カメラ21及びカメラ23には到達するが、対象物26により遮蔽されるためカメラ22には到達しない。したがって、生成画像の点96に対応する画素の画素値については、カメラ21及びカメラ23が撮影した撮影画像の組から生成することになる。なお、図6(b)に示す、いわゆるオクルージョンの発生については、モデル情報に基づき判定を行う。
Note that it is not necessary to determine the pixel values of all the pixels of the generated image based on the same set of captured images. For example, as shown in FIG. 6,
なお、ある視点における生成画像の画素値決定のために使用する2つの撮影画像は、そのカメラ位置が、視点を挟むように選択することが好ましい。詳しくは、図6にも表わされている様に、生成画像の視点位置において、視点の方向に直線を引いたときに、この直線の両側に配置された2つのカメラが撮影した撮影画像を使用することが好ましい。なお、当然ではあるが、撮影画像は、生成画像の画素値を決定する画素に対応する画素を含むものから選択する。 It should be noted that the two captured images used for determining the pixel value of the generated image at a certain viewpoint are preferably selected so that their camera positions sandwich the viewpoint. Specifically, as shown in FIG. 6, when a straight line is drawn in the direction of the viewpoint at the viewpoint position of the generated image, the captured images taken by the two cameras arranged on both sides of the straight line are taken. It is preferable to use it. Of course, the captured image is selected from those including pixels corresponding to the pixels for determining the pixel value of the generated image.
また、上述した実施形態は、カメラが実際に撮影した撮影画像に基づき生成画像を生成するものであった。しかしがながら、画像生成装置は、撮影画像に基づき生成された生成画像についても、撮影画像と同じく、各画素の光線空間における位置と実空間における位置の情報を有することになるため、生成画像を、さらに他の生成画像の画素の画素値を決定するために使用することができる。この場合、上記実施形態における撮影画像を生成画像と、撮影画像のカメラ位置及び方向を、生成画像の視点位置及び方向と読み替えることになる。つまり、撮影画像は、そのカメラ位置及び方向を視点とする生成画像と見なすことができる。 In the above-described embodiment, the generated image is generated based on the captured image actually captured by the camera. However, the image generation device also has information on the position of each pixel in the light space and the position in the real space for the generated image generated based on the captured image, as in the captured image. And can be used to determine pixel values of pixels of yet other generated images. In this case, the captured image in the above embodiment is replaced with the generated image, and the camera position and direction of the captured image are replaced with the viewpoint position and direction of the generated image. That is, the captured image can be regarded as a generated image with the camera position and direction as the viewpoint.
なお、本発明による画像生成装置は、コンピュータを図1及び図2の各部として機能させるプログラムにより実現することができる。コンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。さらに、本発明の図1、図2に示す各部のうち一部のみをハードウェアで実現し、他の部分をコンピュータプログラムにより実現する、つまり、ハードウェア及びソフトウェアの組合せによっても実現可能である。 The image generation apparatus according to the present invention can be realized by a program that causes a computer to function as each unit in FIGS. 1 and 2. The computer program is stored in a computer-readable storage medium or can be distributed via a network. Furthermore, only a part of each part shown in FIGS. 1 and 2 of the present invention is realized by hardware, and the other part is realized by a computer program, that is, it can be realized by a combination of hardware and software.
1、11〜18、21〜23 カメラ
11−1〜18−1 撮影画像
2 保存部
24 仮想的なカメラ
25、26 対象物
3 前処理部
4 光線空間構築部
41 交点検出部
42 対応点検出部
43 画素値算出部
50、60 撮影画像
51、61、54、64 撮影画像の画素
52、62 探索領域
53、63 ブロック
70 生成画像
71 生成画像の画素
80 曲線
90 光線
94、95、96 点
DESCRIPTION OF SYMBOLS 1, 11-18, 21-23 Camera 11-1 to 18-1 Photographed image 2
Claims (5)
第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、実空間の一点からの光線を示す点の該光線空間における分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求める交点検出手段と、
第1の画素を中心とした範囲である第1の探索領域と、第2の画素を中心とした範囲である第2の探索領域内において、所定の画素サイズのブロックによるブロック・マッチングを適用し、最も相関の高い組合せである、第1の探索領域内の第1のブロックと第2の探索領域内の第2のブロックを求める対応点検出手段と、
第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定する画素値算出手段とを備え、
前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにした画像生成装置。 An image generation device that determines a pixel value of a third pixel of a third image at a specified viewpoint based on a first image and a second image,
Based on the position information of each pixel of the first and second images in the light space and real space, the distribution of points indicating light rays from one point in the real space, and the designated viewpoint, Intersection detection means for determining a first pixel of the first image and a second pixel of the second image corresponding to three pixels;
Block matching using a block of a predetermined pixel size is applied in the first search area that is a range centered on the first pixel and the second search area that is a range centered on the second pixel. Corresponding point detection means for obtaining the first block in the first search region and the second block in the second search region, which is the most highly correlated combination;
A pixel value calculating means for determining a pixel value of the third pixel based on the pixel at the center of the first block and the pixel at the center of the second block ;
An image generating apparatus configured such that ranges of the first search area and the second search area are smaller as the position of the third pixel is closer to the position of the third pixel in the light space, and are larger as the distance is increased .
前記撮影画像と、前記撮影画像から生成した生成画像を保存する保存手段と、
を備えており、
前記第1の画像及び前記第2の画像は、それぞれ、前記撮影画像又は前記生成画像であり、
前記生成画像の各画素は、前記交点検出手段、対応点検出手段及び画素値算出手段により決定したものである、
請求項1に記載の画像生成装置。 Based on the positions and directions of a plurality of cameras and the captured images captured by the plurality of cameras, pre-processing for calibrating camera parameters of the plurality of cameras and determining positional information of each pixel of the captured images in real space Means,
Storage means for storing the captured image and a generated image generated from the captured image;
With
The first image and the second image are the captured image and the generated image, respectively.
Each pixel of the generated image is determined by the intersection detection unit, the corresponding point detection unit, and the pixel value calculation unit.
The image generation apparatus according to claim 1.
請求項1または2に記載の画像生成装置。 The viewpoints of the first image and the second image are on both sides of a straight line extending in the direction of the viewpoint at the designated viewpoint of the third image.
The image generating apparatus according to claim 1 or 2.
交点検出部が、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、該光線空間における実空間の各位置の分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求めるステップと、
対応点検出部が、第1の画素を中心とした範囲である矩形の第1の探索領域を第1の画像に、第2の画素を中心とした範囲である矩形の第2の探索領域を第2の画像に設定するステップと、
対応点検出部が、第1の探索領域内にある所定の画素サイズの各ブロックと、第2の探索領域内にある前記所定の画素サイズの各ブロックとの相関をそれぞれ求めることにより、第1の探索領域内の第1のブロックに対応する第2の探索領域内の第2のブロックを求めるステップと、
画素値算出部が、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定するステップとを備え、
前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるように変化させるようにした方法。 A method of determining a pixel value of a third pixel of a third image at a specified viewpoint in an image generation device based on a first image and a second image,
The intersection detection unit, based on the position information of each pixel of the first and second images in the light space and real space, the distribution of the positions of the real space in the light space, and the designated viewpoint, Determining a first pixel of the first image and a second pixel of the second image corresponding to three pixels;
The corresponding point detection unit sets a rectangular first search region that is a range centered on the first pixel to the first image, and a rectangular second search region that is a range centered on the second pixel. Setting a second image;
The corresponding point detection unit obtains the correlation between each block having a predetermined pixel size in the first search area and each block having the predetermined pixel size in the second search area, thereby obtaining the first Determining a second block in the second search area corresponding to the first block in the search area;
A pixel value calculation unit comprising: determining a pixel value of a third pixel based on a pixel at the center of the first block and a pixel at the center of the second block ;
A method in which the range of the first search area and the second search area is changed so as to become smaller as the position of the third pixel is closer to the position of the third pixel in the ray space and to be larger as the distance is increased .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008197697A JP5358137B2 (en) | 2008-07-31 | 2008-07-31 | Image generating apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008197697A JP5358137B2 (en) | 2008-07-31 | 2008-07-31 | Image generating apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010033503A JP2010033503A (en) | 2010-02-12 |
JP5358137B2 true JP5358137B2 (en) | 2013-12-04 |
Family
ID=41737851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008197697A Expired - Fee Related JP5358137B2 (en) | 2008-07-31 | 2008-07-31 | Image generating apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5358137B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7002007B2 (en) * | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method and program |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09245195A (en) * | 1996-03-08 | 1997-09-19 | Canon Inc | Image processing method and its device |
JPH1027264A (en) * | 1996-07-09 | 1998-01-27 | Canon Inc | Image processor and image processing method |
JPH10117339A (en) * | 1996-10-11 | 1998-05-06 | Yazaki Corp | Vehicle periphery monitoring device, obstacle detection method, and medium storing obstacle detection program |
JP2000251073A (en) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Image input condition calculating method, image reproducing method, recording medium, image input condition calculating device, and image reproducing device |
JP2000285259A (en) * | 1999-03-31 | 2000-10-13 | Toshiba Corp | Method for reproducing optional viewpoint image from multiple viewpoint image |
JP2001084383A (en) * | 1999-09-09 | 2001-03-30 | Univ Tokyo | Movement detection method |
JP2004145473A (en) * | 2002-10-22 | 2004-05-20 | Hiroshima Industrial Promotion Organization | Matching arithmetic circuit |
JP2004234423A (en) * | 2003-01-31 | 2004-08-19 | Seiko Epson Corp | Stereo image processing method, stereo image processing device, and stereo image processing program |
JP2005037378A (en) * | 2003-06-30 | 2005-02-10 | Sanyo Electric Co Ltd | Depth measurement method and depth measurement device |
JP2005049999A (en) * | 2003-07-30 | 2005-02-24 | Ricoh Co Ltd | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
JP2006126965A (en) * | 2004-10-26 | 2006-05-18 | Sharp Corp | Composite video generation system, method, program and recording medium |
JP4469757B2 (en) * | 2005-05-31 | 2010-05-26 | 株式会社東芝 | Image processing device |
JP4382797B2 (en) * | 2006-11-09 | 2009-12-16 | 株式会社山武 | Corresponding point search method and three-dimensional position measurement method |
JP4998422B2 (en) * | 2008-09-25 | 2012-08-15 | Kddi株式会社 | Image generating apparatus, method, communication system, and program |
JP5249114B2 (en) * | 2009-04-03 | 2013-07-31 | Kddi株式会社 | Image generating apparatus, method and program |
-
2008
- 2008-07-31 JP JP2008197697A patent/JP5358137B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010033503A (en) | 2010-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100776649B1 (en) | A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method | |
WO2022052582A1 (en) | Image registration method and device, electronic apparatus, and storage medium | |
JP2015527764A (en) | Multi-frame image calibrator | |
JP6515650B2 (en) | Calibration apparatus, distance measuring apparatus and calibration method | |
WO2011125937A1 (en) | Calibration data selection device, method of selection, selection program, and three dimensional position measuring device | |
KR101926953B1 (en) | Matching method of feature points in planar array of four - camera group and measurement method based theron | |
CN109658497B (en) | A three-dimensional model reconstruction method and device | |
Fathi et al. | Multistep explicit stereo camera calibration approach to improve Euclidean accuracy of large-scale 3D reconstruction | |
Ahmadabadian et al. | Image selection in photogrammetric multi-view stereo methods for metric and complete 3D reconstruction | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
TWI528783B (en) | Methods and systems for generating depth images and related computer products | |
TWI571099B (en) | Device and method for depth estimation | |
KR101741501B1 (en) | Apparatus and Method for Estimation of Distance between Camera and Object | |
JP5358137B2 (en) | Image generating apparatus, method and program | |
CN112258635A (en) | 3D reconstruction method and device based on improved binocular matching SAD algorithm | |
JP6241083B2 (en) | Imaging apparatus and parallax detection method | |
JP6091092B2 (en) | Image processing apparatus and image processing method | |
JP5179784B2 (en) | Three-dimensional coordinate measuring apparatus and program executed in three-dimensional coordinate measuring apparatus | |
WO2023095375A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
KR102288237B1 (en) | Image association method, system and device | |
KR101142279B1 (en) | An apparatus for aligning images in stereo vision system and the method thereof | |
JPH10289315A (en) | Parallax calculation device and method, and distance calculation device and method | |
JPH11223516A (en) | Three dimensional image pickup device | |
JP2009186369A (en) | Depth information acquisition method, depth information acquiring device, program, and recording medium | |
JPH10289316A (en) | Parallax calculator, distance calculator and method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100823 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100730 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130315 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130425 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130902 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5358137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |