JP5311016B2 - Stereo camera unit and stereo matching method - Google Patents
Stereo camera unit and stereo matching method Download PDFInfo
- Publication number
- JP5311016B2 JP5311016B2 JP2008313873A JP2008313873A JP5311016B2 JP 5311016 B2 JP5311016 B2 JP 5311016B2 JP 2008313873 A JP2008313873 A JP 2008313873A JP 2008313873 A JP2008313873 A JP 2008313873A JP 5311016 B2 JP5311016 B2 JP 5311016B2
- Authority
- JP
- Japan
- Prior art keywords
- correlation
- reference image
- image
- camera
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000004364 calculation method Methods 0.000 claims description 62
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、ステレオカメラユニット及びステレオマッチング方法に関する。 The present invention relates to a stereo camera unit and a stereo matching method.
ステレオマッチング法は、2台のカメラを左右に配置し、2台のカメラで物体を撮影した1組の画像を用いて、一方のカメラによる画像と他方のカメラによる画像との対応関係を相関演算により求め、その対応関係から得た視差から三角測量の原理に基づいて物体の各点の位置や距離等を計測する公知の方法である。 The stereo matching method uses two sets of cameras arranged on the left and right, and uses a set of images taken with two cameras to correlate the correspondence between the image from one camera and the image from the other camera. This is a known method for measuring the position, distance, etc. of each point of an object based on the principle of triangulation from the parallax obtained from the corresponding relationship.
特許文献1は、ピラミッド画像を使った基本的なステレオマッチング法を開示し、物体までの距離分布を高速に算出する相関演算方法を提供するために、1対の撮像装置で物体を撮像し、その画像をピラミッド構造の多重解像度画像にしてから、各層間でステレオ照合を行うが、このとき、先ず低解像度画像である上層の画像間でそれを行い概略の視差を求め、その視差より次層のステレオ照合に対する照合領域と探索領域を設定することを繰り返すことにより、最終層までステレオ照合を行うものである。かかる相関演算方法は、例えば車輌に搭載され車輌周囲の物体までの距離分布を算出する距離分布検出装置に適用可能である。
しかし、上述の従来技術により、距離計測において大きな視差を要するステレオカメラシステムを構成すると、多重解像度画像からなるピラミッド構造におけるピラミッド段数を増やす必要が生じてしまう。そうすると、ピラミッド段数が増えることで演算回数が増えてしまい、高速処理の妨げとなってしまう。 However, when a stereo camera system that requires a large parallax in distance measurement is configured according to the above-described conventional technology, it is necessary to increase the number of pyramid stages in a pyramid structure including multi-resolution images. If it does so, the frequency | count of a calculation will increase by the number of pyramid steps | stages, and will interfere with a high-speed process.
本発明は、上述のような従来技術の問題に鑑み、ステレオマッチングにおける相関演算を高速処理できるステレオカメラユニット及びステレオマッチング方法を提供することを目的とする。 An object of the present invention is to provide a stereo camera unit and a stereo matching method capable of high-speed processing of correlation calculation in stereo matching in view of the above-described problems of the conventional technology.
上記目的を達成するために、本実施形態によるステレオカメラユニットは、各々の撮像素子の各中心位置が同一の基線上にある、基準画像を撮影する第1のカメラと、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第1の参照画像を撮影する第2のカメラと、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第2の参照画像を撮影する第3のカメラと、 前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出する予備相関実行部と、前記予備相関実行部からの第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行する相関実行部と、を備え、前記相関実行部の相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とする。 In order to achieve the above object, the stereo camera unit according to the present embodiment includes a first camera that captures a reference image, each center position of which is on the same base line, and the first camera. A second camera that captures a first reference image provided at a position having a predetermined reference line length L, and a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. a third camera for photographing the second reference image provided in the front Kimoto quasi image and a window to the first reference image sets respectively, performed by the phase-only correlation method correlation calculated by the two window a preliminary correlation execution unit for calculating a first parallax ds (u, v) by the first disparity ds (u, v) from the preliminary correlation performing unit to k multiplied by k × ds (u, v) setting a window of the second reference image based on the parallax , And a correlation execution unit for executing the phase-only correlation method a correlation operation with respect to the reference image and the second reference image of the same image position as the reference image and the first reference image, the correlation performed The second disparity dl (u, v) derived from the correlation calculation result of the unit is output.
このステレオカメラユニットによれば、予備相関実行部と相関実行部とで各1回ずつの相関演算で視差を算出し出力できるので、ステレオマッチングにおける相関演算を高速処理することができる。予備相関実行部で基線長の短い組の基準画像及び参照画像による相関演算により視差算出を行い、基線長が短いため、視差が少なく、基準画像と参照画像の各ウインドウを同じ座標に設定しても視差を得ることができるので、ウインドウの設定が容易である。また、相関実行部では、基線長がk(k>1)倍と長いため視差が大きいが、予備相関実行部で得た視差のk倍の視差を生じる条件で制限された範囲内で基線長の長い組の参照画像のウインドウを設定可能であるので、ウインドウの設定が容易となるとともに、基線長の長い組で相関結果を得るので分解能が高くなる。 According to this stereo camera unit, the preliminary correlation execution unit and the correlation execution unit can calculate and output the parallax by a single correlation calculation, so that the correlation calculation in stereo matching can be processed at high speed. The preliminary correlation execution unit calculates the parallax by the correlation calculation using the base image and the reference image with a short base length, and since the base length is short, the parallax is small, and each window of the base image and the reference image is set to the same coordinate. Since the parallax can be obtained, the setting of the window is easy. Further, in the correlation execution unit, the base line length is as long as k (k> 1) times, so that the parallax is large, but the base line length is within a range limited by a condition that produces parallax of k times the parallax obtained in the preliminary correlation execution unit Since it is possible to set a long reference image window, it is easy to set the window, and the correlation result is obtained from a long base length set, so that the resolution is increased.
上記ステレオカメラユニットにおいて前記相関演算は1画素毎に行われることが好ましい。 In the stereo camera unit, the correlation calculation is preferably performed for each pixel.
また、前記相関演算は、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能な相関演算方法により行われることが好ましい。かかる相関演算方法として位相限定相関法(POC)がある。 The correlation calculation is preferably performed by a correlation calculation method capable of calculating a parallax indicating the maximum correlation by performing a correlation calculation between one window of the standard image and one window of the reference image once. As such a correlation calculation method, there is a phase only correlation method (POC).
また、本実施形態によるステレオマッチング方法は、各々の撮像素子の各中心位置が同一の基線上にある、第1のカメラにより基準画像を撮影し、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第2のカメラにより第1の参照画像を撮影し、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第3のカメラにより第2の参照画像を撮影するステップと、前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出するステップと、前記第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行するステップと、を含み、前記相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とする。
Further, in the stereo matching method according to the present embodiment , a reference image is taken by a first camera in which each center position of each image sensor is on the same base line, and a predetermined reference line length is set with respect to the first camera. A first reference image is taken by a second camera provided at a position having L, and a third reference provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. a step of capturing a second reference picture by the camera, pre-set Kimoto quasi image and a window to the first reference image, respectively, the first by a correlation operation with both window run by the phase-only correlation method step a, the window of the first parallax ds (u, v) and k multiplied by k × ds (u, v) the second reference image based on the parallax calculating the parallax ds (u, v) Set the reference image and the first image Wherein executing a correlation operation by the phase-only correlation method with respect to the same image position as the reference image before Kimoto quasi image and the second reference image, a second disparity dl derived from the correlation calculation result (U, v) is output.
このステレオマッチング方法によれば、基線長の短い組と長い組の基準画像、参照画像とで各1回ずつの相関演算で視差を出力できるので、ステレオマッチングにおける相関演算を高速処理することができる。基線長の短い組の基準画像及び参照画像による相関演算により視差算出を行い、基線長が短いため、視差が少なく、基準画像と参照画像の各ウインドウを同じ座標に設定しても視差を得ることができるので、ウインドウの設定が容易である。また、基線長の長い組の基準画像及び参照画像による相関演算では、基線長がk(k>1)倍と長いため視差が大きいが、基線長の短い組で得た視差のk倍の視差を生じる条件で制限された範囲内で基線長の長い組の参照画像のウインドウを設定可能であるので、ウインドウの設定が容易となるとともに、基線長の長い組で相関結果を得るので分解能が高くなる。 According to this stereo matching method, since the parallax can be output by one correlation calculation for each of the short base length set, the long set of base images, and the reference image, the correlation calculation in stereo matching can be processed at high speed. . Parallax calculation is performed by correlation calculation using a base image and a reference image with a short base length, and since the base length is short, the parallax is small, and the parallax can be obtained even if each window of the base image and the reference image is set to the same coordinate. This makes it easy to set up the window. In addition, in the correlation calculation using the base image and the reference image having a long base length, the parallax is large because the base length is as long as k (k> 1) times. However, the parallax is k times the parallax obtained with the short base length pair. Since it is possible to set a reference image window with a long baseline length within the range limited by the conditions that cause the error, the setting of the window becomes easy and the correlation result is obtained with the long baseline length set, resulting in high resolution. Become.
上記ステレオマッチング方法において前記相関演算を1画素毎に行うことが好ましい。 In the stereo matching method, the correlation calculation is preferably performed for each pixel.
また、前記相関演算を、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能な相関演算方法により行うことが好ましい。かかる相関演算方法として位相限定相関法(POC)がある。 The correlation calculation is preferably performed by a correlation calculation method capable of calculating a parallax indicating the maximum correlation by performing a correlation calculation between one window of the standard image and one window of the reference image once. As such a correlation calculation method, there is a phase only correlation method (POC).
本発明のステレオカメラユニット及びステレオマッチング方法によれば、ステレオマッチングにおける相関演算を高速処理できる。 According to the stereo camera unit and stereo matching method of the present invention, the correlation calculation in stereo matching can be processed at high speed.
以下、本発明を実施するための最良の形態について図面を用いて説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
〈第1の実施形態〉 <First Embodiment>
図1は第1の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。図2は図1のステレオカメラユニットにおける第1のステレオカメラの概略的構成(a)、第2のステレオカメラの概略的構成(b)、及び両者の相対的位置関係を示す平面図である。 FIG. 1 is a block diagram showing a schematic configuration of a stereo camera unit according to the first embodiment. FIG. 2 is a plan view showing the schematic configuration (a) of the first stereo camera, the schematic configuration (b) of the second stereo camera, and the relative positional relationship between them in the stereo camera unit of FIG.
図1に示すように、ステレオカメラユニット10は、物体を撮像し基線長の短い組の基準画像と参照画像を得る第1のステレオカメラ1と、同じく基線長の長い組の基準画像と参照画像を得る第2のステレオカメラ2と、を備える。
As shown in FIG. 1, the
また、ステレオカメラユニット10は、第1のステレオカメラ1から基線長の短い組の基準画像と参照画像が入力する画像入力部11と、第2のステレオカメラ2から基線長の長い組の基準画像と参照画像が入力する画像入力部13と、を備える。
In addition, the
さらに、ステレオカメラユニット10は、基線長の短い組の基準画像と参照画像により予備的に相関演算処理を行う予備相関実行部12と、予備相関実行部12からの演算結果を用いて基線長の長い組の基準画像と参照画像により相関演算処理を行う相関実行部14と、相関実行部14からの視差演算結果を外部に出力する出力部15と、を備える。
Further, the
図2(a)のように、第1のステレオカメラ1は、一対のカメラ1a,1bを有し、カメラ1aの撮像素子の中心位置とカメラ1bの撮像素子の中心位置とが基線c上にあり、各中心位置の間隔である基線長gは短く設定され例えば10cgである。カメラ1aで撮像した画像を基準画像とし、カメラ1bで撮像した画像を参照画像とし、これらを基線長の短い組の基準画像、参照画像とする。
As shown in FIG. 2A, the first stereo camera 1 has a pair of
また、図2(b)のように、第2のステレオカメラ2は、一対のカメラ2a,2bを有し、カメラ2aの撮像素子の中心位置とカメラ2bの撮像素子の中心位置とが基線d上にあり、各中心位置の間隔である基線長hは上記基線長gよりも長く設定され例えば40cmである。カメラ2aで撮像した画像を基準画像とし、カメラ2bで撮像した画像を参照画像とし、これらを基線長の長い組の基準画像、参照画像とする。
2B, the
各カメラ1a,1b,2a,2bは、CCDやCMOSセンサから構成された撮像素子を備え、撮像素子は、多数の受光素子からなり光電変換機能を有し、各画素毎に画像信号を出力する。
Each
ここで、図2において基線長比kは次式(1)で表される。
k=h/g (1)
基線長h>基線長gであるから、k>1である。上述の例では、k=40/10=4である。
Here, in FIG. 2, the baseline length ratio k is expressed by the following equation (1).
k = h / g (1)
Since baseline length h> baseline length g, k> 1. In the above example, k = 40/10 = 4.
図2のステレオカメラ1,2の基線c、dは平行であり、基線c、dに直交する線p上に基準画像を得るカメラ1a,2aの各中心位置が位置する。すなわち、第1のステレオカメラ1の基線長g及び第2のステレオカメラ2の基線長hの各始点は、基線c、dに直交する同一線p上に位置する。
The base lines c and d of the
第1のステレオカメラ1は、その基線長gが第2のステレオカメラ2の基線長hよりも短いから、得られる視差も小さく、分解能が低い。一方、第2のステレオカメラ2は、第1のステレオカメラ1と比べて得られる視差がk(基線長比)倍(k>1)と大きく、分解能が高い。
Since the baseline length g of the first stereo camera 1 is shorter than the baseline length h of the
図1の予備相関実行部12,相関実行部14について図3を参照して説明する。図3は、図1,図2の第1のステレオカメラ1で得てウインドウを設定した基準画像(a)、同じく参照画像(b)、第2のステレオカメラ2で得てウインドウを設定した基準画像(c)、同じく参照画像(d)を概略的に示す図である。
The preliminary
予備相関実行部12は、ステレオカメラ1のカメラ1a、1bで得た基線長の短い組の基準画像、参照画像を用いて視差を予備的に算出する。
The preliminary
すなわち、予備相関実行部12では、図3(a)のように視差を演算させる基線長の短い組の基準画像上の点O1を設定し、その設定点O1を中心にn×nのウインドウW1を設定し、一方、図3(b)のように基線長の短い組の参照画像上に図3(a)の基準画像に設定したウインドウW1と同位置(点O2)にウインドウW1と同じサイズのn×nのウインドウW2を設定し、次に、両ウインドウW1,W2で相関演算処理を行う。その演算結果が基線長の短い組における視差ds(u,v)であり、相関実行部14に出力する。この演算結果は、例えば図3(b)のように「視差=10」である。
That is, the preliminary
上記相関演算処理には、例えば、POC(Phase Only Correlation/位相限定相関)法を用いることができ、予備相関実行部12は、かかる演算処理をハードウエア的に実行可能な集積素子を備える。位相限定相関法は、位相情報を用いた公知のステレオマッチング法で、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能である。
For example, a POC (Phase Only Correlation) method can be used for the correlation calculation process, and the preliminary
相関実行部14は、図3(a)、(b)のステレオカメラ2のカメラ2a,2bで得た基線長の長い組の基準画像、参照画像を用いて視差を算出するが、このとき、参照画像のウインドウを予備相関実行部12で得た視差演算結果に基づいて設定する。
The
すなわち、相関実行部14では、図3(c)のように基線長の長い組の基準画像上に対して図3(a)の基準画像に設定したウインドウW1と同位置(点O3)にn×nのウインドウW3を設定し、一方、予備相関実行部12で得た視差ds(u,v)をk倍し、図3(d)のように基線長の長い組の参照画像上に対して、そのk倍の視差(上述の例では、4×10=40)に対応する点O4を中心にウインドウW3と同じサイズのn×nのウインドウW4を設定し、次に、所定の視差範囲について両ウインドウW3,W4の相関演算処理を行う。その演算結果である視差dl(u,v)を出力部15に出力し、出力部15からステレオカメラユニット10の出力として外部に出力する。この演算結果は、例えば図3(d)のように「視差=41」である。
That is, in the
上記相関演算処理には、例えば、POC(Phase Only Correlation/位相限定相関)法を用いることができ、相関実行部14は、かかる演算処理をハードウエア的に実行可能な集積素子を備える。位相限定相関法は、位相情報を用いた公知のステレオマッチング法で、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能である。
For example, a POC (Phase Only Correlation) method can be used for the correlation calculation process, and the
上述のように、図1の予備相関実行部12では、図3(b)の基線長の短い組の参照画像のウインドウW2は、第1のステレオカメラ1の基線長が短く視差が小さいために、図3(a)の基線長の短い基準画像に設定したウインドウW1と同じ点を中心にして設定できる。このため、参照画像に対するウインドウW2の設定が容易である。
As described above, in the preliminary
また、図3(d)の基線長の長い組の参照画像のウインドウW4は、第2のステレオカメラ2の基線長が長く視差が大きいために、図3(c)の基線長の長い基準画像に設定したウインドウW3と同じ点を中心に設定することはできず、その点を探し難いため設定し難いのであるが、図1の相関実行部14では、予備相関実行部12で得た視差に基づいて基線長の長い組の参照画像のウインドウW4を設定するので、基線長の長い組の参照画像のウインドウW4の設定が容易である。
Further, the reference image window W4 of the set of reference images having a long base length in FIG. 3D has a long base line length of the
また、ステレオカメラ1,2で得られる視差は画素単位の「1」単位で得られるが、第2のステレオカメラ2は、基線長が長く得られる視差が大きいので、分解能が向上し、例えば、得られた視差は、4(基線長比)×10(基線長の短い組で得られた視差)=40ではなく、41であり、分解能が向上することを理解できる。
In addition, the parallax obtained by the
次に、図1〜図3のステレオカメラユニット10の動作(ステップS01〜S09)について図4のフローチャートを参照して説明する。
Next, the operation (steps S01 to S09) of the
ステレオカメラユニット10でフレーム処理が開始されると、ステレオカメラ1で取得した基線長の短い組の基準画像に対して、図3(a)のように、視差を演算させる基準画像上の点O1を設定する(S01)。そして、その設定された点O1を中心に基準画像上にn×nのウインドウW1を設定する(S02)。
When the frame processing is started in the
次に、同じくステレオカメラ1で取得した基線長の短い組の参照画像に対して、図3(b)のように、基準画像に設定したウインドウW1と同位置O2にウインドウW2を設定する(S03)。 Next, the window W2 is set at the same position O2 as the window W1 set as the standard image as shown in FIG. 3B with respect to the reference images having the short baseline length obtained by the stereo camera 1 (S03). ).
次に、図3(a)、(b)の基線長の短い組の基準画像のウインドウW1と参照画像のウインドウW2とにおいて図1の予備相関実行部12が相関演算処理を行い、その結果得られた視差ds(u,v)が相関実行部14に出力する(S04)。
Next, the preliminary
次に、ステレオカメラ2で取得した基線長の長い組の基準画像に対して、図3(c)のように、基線長の短い組の基準画像に設定したウインドウW1と同位置O3にウインドウW3を設定する(S05)。
Next, as shown in FIG. 3C, a set of reference images with a long baseline length acquired by the
また、図1の予備相関実行部12で得られた視差ds(u,v)をk(基線長比)倍し、ステレオカメラ2で取得した基線長の長い組の参照画像に対して、図3(d)のように、k倍した視差に対応する点O4を中心にウインドウW4を設定する(S06)。
Further, the parallax ds (u, v) obtained by the preliminary
次に、図3(c)、(d)の基線長の長い組の基準画像のウインドウW3と参照画像のウインドウW4とにおいて図1の相関実行部14が相関演算処理を行い、得られた視差dl(u,v)が相関実行部14から出力し(S07)、出力部15からステレオカメラユニット10の出力として出力する(S08)。
Next, the
上述のウインドウW1,W2,W3,W4における視差を演算させる画素を図3のu方向、v方向に移動させて各ステップS01〜S08を実行し、全処理点数が完了するまで上記各ステップを繰り返す(S09)。 The pixels for calculating the parallax in the windows W1, W2, W3, and W4 described above are moved in the u direction and the v direction in FIG. (S09).
図1〜図4のステレオカメラユニット10によれば、ステレオマッチングにおける基準画像と参照画像との対応関係の相関演算をピラミッド構造のピラミッド画像を用いた場合よりも高速処理することができる。
According to the
すなわち、従来、2P画素おきでSu×Svの出力の距離データを得るために、例えば、位相限定相関法(POC)を用いてピラミッド構造のピラミッド画像でステレオ演算を行う場合に算出視差範囲が0〜L画素までの場合、
L<2×2(t-1)でピラミッド段数t(t≧1)が決定され、POCの相関演算回数Nは、例えばp=3の場合(8画素に1つ出力されるような場合)、第1段の演算回数N1,第2段の演算回数N2,第3段の演算回数N3は、変わらずにSu×Sv回の相関演算を行う必要があり、以降の段でその1/4回ずつ相関演算を行う必要があり、次式(2)のようになる。
N=N1+N2+N3+・・・+Nt=3×Su×Sv+(1/4)×Su×Sv+・・・ (2)
That is, conventionally, in order to obtain the distance data of the output of Su × Sv at intervals of 2 P pixels, for example, when the stereo operation is performed on the pyramid image having the pyramid structure using the phase only correlation method (POC), the calculated parallax range is In the case of 0 to L pixels,
When L <2 × 2 (t−1) , the number of pyramid stages t (t ≧ 1) is determined, and the POC correlation calculation number N is, for example, p = 3 (when one is output to 8 pixels). The number of operations N1 in the first stage, the number of operations N2 in the second stage, and the number of operations N3 in the third stage need not be changed, and it is necessary to perform the correlation operation of Su × Sv times. It is necessary to perform the correlation operation one time, and the following equation (2) is obtained.
N = N1 + N2 + N3 +... + Nt = 3 × Su × Sv + (1/4) × Su × Sv + (2)
これに対し、本実施形態では、予備相関実行部12で基線長の短い組の基準画像・参照画像について各画素毎に1回の演算処理、及び、相関実行部14で基線長の長い組の基準画像・参照画像について各画素ごとに1回の演算処理を行うから、計2回の演算処理を行うだけでよく、相関演算回数Mは次式(3)のようになる。
M=2×Su×Sv (3)
On the other hand, in the present embodiment, the preliminary
M = 2 × Su × Sv (3)
上記式(2)と(3)から、M≪Nであり、本実施形態による相関演算回数Mは、ピラミッド画像を用いる場合の相関演算回数Nよりもかなり小さく、相関演算を高速処理できることが分かる。 From the above formulas (2) and (3), it is understood that M << N, and the number of correlation operations M according to the present embodiment is considerably smaller than the number of correlation operations N when using a pyramid image, and the correlation operations can be processed at high speed. .
〈第2の実施形態〉 <Second Embodiment>
図5は第2の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。図6は図5のステレオカメラユニットにおける各カメラの相対的位置関係を示す平面図である。 FIG. 5 is a block diagram showing a schematic configuration of a stereo camera unit according to the second embodiment. FIG. 6 is a plan view showing the relative positional relationship of each camera in the stereo camera unit of FIG.
図5に示すように、ステレオカメラユニット30は、物体を撮像し基準画像を得るカメラ1cと、同じく基線長の短い組の参照画像を得るカメラ2cと、同じく基線長の長い組の参照画像を得るカメラ3cと、を備える。
As shown in FIG. 5, the
また、ステレオカメラユニット30は、カメラ1cからの基準画像とカメラ2cからの基線長の短い組の参照画像とが入力する画像入力部21と、カメラ1cからの基準画像とカメラ3cからの基線長の長い組の参照画像とが入力する画像入力部23と、を備える。
The
さらに、ステレオカメラユニット30は、基線長の短い組の基準画像と参照画像により予備的に相関演算処理を行う予備相関実行部22と、予備相関実行部22からの演算結果を用いて基線長の長い組の基準画像と参照画像により相関演算処理を行う相関実行部24と、相関実行部24からの視差演算結果を外部に出力する出力部25と、を備える。
Further, the
図6のように、カメラ1c,2c,3cは、それぞれCCDやCMOSセンサからなる撮像素子を有し、カメラ1c,2c,3cの各撮像素子の各中心位置が同一の基線e上にあり、所定間隔で配置されている。すなわち、カメラ2cは、カメラ1cから間隔gの位置に配置され、カメラ3cは、カメラ1cから間隔hの位置に配置されている。
As shown in FIG. 6, the
カメラ1cとカメラ2cの各中心位置の間隔gは、基線長を構成し、短く設定され、例えば10cmである。同じくカメラ1cとカメラ3cの各中心位置の間隔hは、基線長を構成し、長く設定され、例えば40cmである。
The distance g between the center positions of the
カメラ1cとカメラ2cとで第1のステレオカメラを構成し、カメラ1cで撮像した画像を基準画像とし、カメラ2cで撮像した画像を参照画像とし、これらを基線長の短い組の基準画像、参照画像とする。
The
また、カメラ1cとカメラ3cとで第2のステレオカメラを構成し、カメラ1cで撮像した画像を基準画像とし、カメラ3cで撮像した画像を参照画像とし、これらを基線長の長い組の基準画像、参照画像とする。なお、図6において基線長比kは上記式(1)と同様に定義できる。
Further, the
カメラ1c、2cにより得た基線長の短い組の基準画像、参照画像によれば、その基線長gが基線長hよりも短いから、得られる視差も小さく、分解能が低い。一方、カメラ1c、3cにより得た基線長の長い組の基準画像、参照画像によれば、基線長の短い組の場合と比べて得られる視差が大きく、分解能が高い。かかる関係は図2の場合と同様である。
According to the set of base images and reference images having a short base length obtained by the
図5のステレオカメラユニット30における予備相関実行部22,相関実行部24及び出力部25は、図1,図3と同様に構成されるが、上述のように、カメラ1cで撮像した画像を基線長の短い組と基線長の長い組とにおいて共通の基準画像として用いるようにした点が図1,図3と相違する構成である。
The preliminary
次に、図5,図6のステレオカメラユニット30の動作(ステップS11〜S18)について図7のフローチャート及び図3を参照して説明する。
Next, the operation (steps S11 to S18) of the
ステレオカメラユニット30でフレーム処理が開始されると、図3(a)のように、カメラ1cで取得した、視差を演算させる基準画像上の点O1を設定する(S11)。そして、その設定された点O1を中心に基準画像上にn×nのウインドウW1を設定する(S12)。
When frame processing is started in the
次に、カメラ2cで取得した基線長の短い組の参照画像に対して、図3(b)のように、基準画像に設定したウインドウW1と同位置O2にn×nのウインドウW2を設定する(S13)。
Next, for a set of reference images with a short baseline length acquired by the
次に、図3(a)、(b)の基線長の短い組の基準画像のウインドウW1と参照画像のウインドウW2とにおいて図5の予備相関実行部22が相関演算処理を行い、その結果得られた視差ds(u,v)が相関実行部24に出力する(S14)。
Next, the preliminary
次に、図5の予備相関実行部22で得られた視差ds(u,v)をk(基線長比)倍し、カメラ3cで取得した基線長の長い組の参照画像に対して、図3(d)のように、k倍した視差に対応する点O4を中心にn×nのウインドウW4を設定する(S15)。
Next, the parallax ds (u, v) obtained by the preliminary
次に、上述のステップS11,S12における基準画像のウインドウW1と基線長の長い組の参照画像のウインドウW4とにおいて図5の相関実行部24が相関演算処理を行い、得られた視差dl(u,v)が相関実行部24から出力し(S16)、出力部25からステレオカメラユニット30の出力として出力する(S17)。
Next, the
上述のウインドウW1,W2,W4における視差を演算させる画素を図3のu方向、v方向に移動させて各ステップS11〜S17を実行し、全処理点数が完了するまで上記各ステップを繰り返す(S18)。 The pixels for calculating the parallax in the windows W1, W2, and W4 described above are moved in the u and v directions in FIG. 3 to execute steps S11 to S17, and the above steps are repeated until the total number of processing points is completed (S18). ).
図5〜図7のステレオカメラユニット30によれば、図1〜図4の場合と同様に、ステレオマッチングにおける基準画像と参照画像との対応関係の相関演算をピラミッド構造のピラミッド画像を用いた場合よりも高速処理することができる。
According to the
また、カメラ1cで撮像した基準画像を基線長の短い組と基線長の長い組とにおいて共通に用いるので、図3(c)のように基線長の長い組の基準画像にウインドウを設定する必要がない。また、カメラ1cを共用するので、図1,図2と比べてカメラの台数が少なくてすむ。
In addition, since the reference image captured by the
以上のように本発明を実施するための最良の形態について説明したが、本発明はこれらに限定されるものではなく、本発明の技術的思想の範囲内で各種の変形が可能である。例えば、図1,図5の予備相関実行部12,22及び相関実行部14,24ではPOC法の代わりに、フーリエ変換や離散コサイン変換(DCT:Discrete cosine Transform)やウェーブレット変換を用いてもよい。また、予備相関実行部12,22,相関実行部14,24における相関演算をCPU(中央演算処理装置)によりソフトウエア的に実行するようにしてもよい。
As described above, the best mode for carrying out the present invention has been described. However, the present invention is not limited to these, and various modifications are possible within the scope of the technical idea of the present invention. For example, the preliminary
また、図1,図2においてさらに基線長の異なるステレオカメラを備えてもよく、また、図5,図6において図6の基線e(その延長線も含めて)上の異なる位置にさらにカメラを配置し、さらに別のステレオカメラを構成してもよい。 1 and 2, a stereo camera having a different base length may be provided, and in FIGS. 5 and 6, a camera is further provided at a different position on the base line e (including its extension line) in FIG. Further, another stereo camera may be configured.
なお、本明細書において、基線とは、正確な座標を有する二点を結ぶ直線であり、基線長とは、具体的には、図2,図6のようにステレオカメラのカメラ間の間隔g,hであり、三角測量による距離計算に用いられる。 In this specification, the base line is a straight line connecting two points having accurate coordinates, and the base line length is specifically the distance g between the cameras of the stereo camera as shown in FIGS. , H, which are used for distance calculation by triangulation.
1,2 ステレオカメラ
1a,1b,2a,2b カメラ
1c,2c,3c カメラ
10 ステレオカメラユニット
12 予備相関実行部
14 相関実行部
30 ステレオカメラユニット
22 予備相関実行部
24 相関実行部
W1,W2,W3,W4 ウインドウ
c,d,e 基線
g,h 基線長、間隔
DESCRIPTION OF
Claims (4)
前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出する予備相関実行部と、
前記予備相関実行部からの第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行する相関実行部と、を備え、
前記相関実行部の相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とするステレオカメラユニット。 A first camera that captures a reference image in which each center position of each image sensor is on the same baseline, and a first reference provided at a position having a predetermined reference line length L with respect to the first camera A second camera for capturing an image; a third camera for capturing a second reference image provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera;
Set before Kimoto quasi image and a window to the first reference image, respectively, the preliminary correlation for calculating a first parallax ds by a correlation operation with both window run by the phase-only correlation method (u, v) The execution part;
Set the window of the first parallax ds (u, v) and k multiplied by k × ds (u, v) the second reference image based on the parallax from the preliminary correlation execution unit, the reference image and and a correlation execution unit for executing the phase-only correlation method a correlation operation with respect to the reference image and the second reference image of the same image position as the first reference image,
A stereo camera unit that outputs a second parallax dl (u, v) derived from a correlation calculation result of the correlation execution unit.
前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出するステップと、
前記第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行するステップと、を含み、
前記相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とするステレオマッチング方法。 A second camera provided at a position having a predetermined reference line length L with respect to the first camera, in which each center position of each image sensor is on the same base line and a reference image is taken by the first camera. The first reference image is taken by the step, and the second reference image is taken by a third camera provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. When,
A step of setting prior Kimoto quasi image and a window to the first reference image, respectively, to calculate the first parallax ds by a correlation operation with both window run by the phase-only correlation method (u, v) ,
A window of the second reference image is set based on a parallax of k × ds (u, v) obtained by multiplying the first parallax ds (u, v) by k, and the reference image and the first reference image are set . comprises the steps executed by the phase-only correlation method the correlation calculation for the previous Kimoto quasi image and the second reference image of the same image position as,
A stereo matching method characterized by outputting a second parallax dl (u, v) derived from the correlation calculation result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008313873A JP5311016B2 (en) | 2008-12-10 | 2008-12-10 | Stereo camera unit and stereo matching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008313873A JP5311016B2 (en) | 2008-12-10 | 2008-12-10 | Stereo camera unit and stereo matching method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010139288A JP2010139288A (en) | 2010-06-24 |
JP5311016B2 true JP5311016B2 (en) | 2013-10-09 |
Family
ID=42349554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008313873A Expired - Fee Related JP5311016B2 (en) | 2008-12-10 | 2008-12-10 | Stereo camera unit and stereo matching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5311016B2 (en) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
KR101733443B1 (en) | 2008-05-20 | 2017-05-10 | 펠리칸 이매징 코포레이션 | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP5582572B2 (en) * | 2010-11-08 | 2014-09-03 | 独立行政法人産業技術総合研究所 | Image processing method, image processing program, computer-readable storage medium storing the same, and image processing apparatus |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
KR101868017B1 (en) * | 2011-05-09 | 2018-06-18 | 한국전자통신연구원 | Method for stereo matching and apparatus thereof |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
JP5929553B2 (en) * | 2012-06-28 | 2016-06-08 | ソニー株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
EP2873028A4 (en) | 2012-06-28 | 2016-05-25 | Pelican Imaging Corp | SYSTEMS AND METHODS FOR DETECTING CAMERA NETWORKS, OPTICAL NETWORKS AND DEFECTIVE SENSORS |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
CN104685513B (en) | 2012-08-23 | 2018-04-27 | 派力肯影像公司 | According to the high-resolution estimation of the feature based of the low-resolution image caught using array source |
CN104685860A (en) | 2012-09-28 | 2015-06-03 | 派力肯影像公司 | Generating images from light fields utilizing virtual viewpoints |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
EP2973476B1 (en) * | 2013-03-15 | 2025-02-26 | Adeia Imaging LLC | Systems and methods for stereo imaging with camera arrays |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
JP2019158759A (en) * | 2018-03-15 | 2019-09-19 | 株式会社リコー | Imaging apparatus, vehicle, and imaging method |
EP3821267A4 (en) | 2019-09-17 | 2022-04-13 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
EP4042101A4 (en) | 2019-10-07 | 2023-11-22 | Boston Polarimetrics, Inc. | Systems and methods for surface normals sensing with polarization |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
CN115552486A (en) | 2020-01-29 | 2022-12-30 | 因思创新有限责任公司 | System and method for characterizing an object pose detection and measurement system |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
CN112129262B (en) * | 2020-09-01 | 2023-01-06 | 珠海一微半导体股份有限公司 | Visual ranging method and visual navigation chip of multi-camera group |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06194164A (en) * | 1991-04-10 | 1994-07-15 | Olympus Optical Co Ltd | Object position detecting device |
JPH0798429A (en) * | 1993-09-28 | 1995-04-11 | Fuji Film Micro Device Kk | Range finder |
JPH0949728A (en) * | 1995-08-04 | 1997-02-18 | Omron Corp | Distance-measuring apparatus |
JPH10253351A (en) * | 1997-03-14 | 1998-09-25 | Kyocera Corp | Distance measuring device |
JP2004093457A (en) * | 2002-09-02 | 2004-03-25 | Toyota Motor Corp | Image processing apparatus and image processing method |
JP2008216127A (en) * | 2007-03-06 | 2008-09-18 | Konica Minolta Holdings Inc | Distance image generation device, distance image generation method, and program |
-
2008
- 2008-12-10 JP JP2008313873A patent/JP5311016B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010139288A (en) | 2010-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5311016B2 (en) | Stereo camera unit and stereo matching method | |
US10825198B2 (en) | 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images | |
CN101630406B (en) | Camera calibration method and camera calibration device | |
US10638109B2 (en) | Method for the FPGA-based long range multi-view stereo with differential image rectification | |
KR101903619B1 (en) | Structured stereo | |
WO2010079685A1 (en) | Motion vector generation apparatus and motion vector generation method | |
JP4941565B2 (en) | Corresponding point search apparatus and corresponding point searching method | |
CN113538587A (en) | A camera coordinate transformation method, terminal and storage medium | |
JP5891415B2 (en) | Stereo image processing device | |
JP2013186042A (en) | Distance calculating device and distance calculating method | |
JP2008298533A (en) | Obstruction measurement method, device, and system | |
JPWO2017199696A1 (en) | Image processing apparatus and image processing method | |
CN103905746A (en) | Method and device for localization and superposition of sub-pixel-level image offset and video device | |
JP4862816B2 (en) | Image correspondence point search device, distance measuring device and image motion detection device using the same | |
JP2008216127A (en) | Distance image generation device, distance image generation method, and program | |
JP5549283B2 (en) | Distance acquisition device | |
JP5062531B2 (en) | Image processing apparatus and image processing method | |
JP2009092551A (en) | Method, apparatus and system for measuring obstacle | |
JP2015230703A (en) | Object detection device and object detection method | |
JP6494402B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4524514B2 (en) | Image processing apparatus, image processing method, and recording medium | |
WO2021114883A1 (en) | Image registration method, terminal, and storage medium | |
JP5167614B2 (en) | Distance image generating apparatus, distance image generating method and program | |
JP2020201587A (en) | Imaging apparatus, vehicle, and program | |
JP5582572B2 (en) | Image processing method, image processing program, computer-readable storage medium storing the same, and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130618 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5311016 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |