[go: up one dir, main page]

JP5311016B2 - Stereo camera unit and stereo matching method - Google Patents

Stereo camera unit and stereo matching method Download PDF

Info

Publication number
JP5311016B2
JP5311016B2 JP2008313873A JP2008313873A JP5311016B2 JP 5311016 B2 JP5311016 B2 JP 5311016B2 JP 2008313873 A JP2008313873 A JP 2008313873A JP 2008313873 A JP2008313873 A JP 2008313873A JP 5311016 B2 JP5311016 B2 JP 5311016B2
Authority
JP
Japan
Prior art keywords
correlation
reference image
image
camera
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008313873A
Other languages
Japanese (ja)
Other versions
JP2010139288A (en
Inventor
恭 河邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2008313873A priority Critical patent/JP5311016B2/en
Publication of JP2010139288A publication Critical patent/JP2010139288A/en
Application granted granted Critical
Publication of JP5311016B2 publication Critical patent/JP5311016B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ステレオカメラユニット及びステレオマッチング方法に関する。   The present invention relates to a stereo camera unit and a stereo matching method.

ステレオマッチング法は、2台のカメラを左右に配置し、2台のカメラで物体を撮影した1組の画像を用いて、一方のカメラによる画像と他方のカメラによる画像との対応関係を相関演算により求め、その対応関係から得た視差から三角測量の原理に基づいて物体の各点の位置や距離等を計測する公知の方法である。   The stereo matching method uses two sets of cameras arranged on the left and right, and uses a set of images taken with two cameras to correlate the correspondence between the image from one camera and the image from the other camera. This is a known method for measuring the position, distance, etc. of each point of an object based on the principle of triangulation from the parallax obtained from the corresponding relationship.

特許文献1は、ピラミッド画像を使った基本的なステレオマッチング法を開示し、物体までの距離分布を高速に算出する相関演算方法を提供するために、1対の撮像装置で物体を撮像し、その画像をピラミッド構造の多重解像度画像にしてから、各層間でステレオ照合を行うが、このとき、先ず低解像度画像である上層の画像間でそれを行い概略の視差を求め、その視差より次層のステレオ照合に対する照合領域と探索領域を設定することを繰り返すことにより、最終層までステレオ照合を行うものである。かかる相関演算方法は、例えば車輌に搭載され車輌周囲の物体までの距離分布を算出する距離分布検出装置に適用可能である。
特開2001−319229号公報(要約、図1,図3参照)
Patent Document 1 discloses a basic stereo matching method using a pyramid image, and in order to provide a correlation calculation method for calculating a distance distribution to an object at high speed, the object is imaged with a pair of imaging devices, After making the image into a multi-resolution image with a pyramid structure, stereo matching is performed between each layer. At this time, first, it is performed between upper-layer images that are low-resolution images, and an approximate parallax is obtained. The stereo matching is performed up to the final layer by repeating the setting of the matching region and the search region for the stereo matching. Such a correlation calculation method is applicable to a distance distribution detection device that calculates a distance distribution to an object mounted on a vehicle and surrounding the vehicle, for example.
Japanese Patent Laid-Open No. 2001-319229 (Summary, see FIGS. 1 and 3)

しかし、上述の従来技術により、距離計測において大きな視差を要するステレオカメラシステムを構成すると、多重解像度画像からなるピラミッド構造におけるピラミッド段数を増やす必要が生じてしまう。そうすると、ピラミッド段数が増えることで演算回数が増えてしまい、高速処理の妨げとなってしまう。   However, when a stereo camera system that requires a large parallax in distance measurement is configured according to the above-described conventional technology, it is necessary to increase the number of pyramid stages in a pyramid structure including multi-resolution images. If it does so, the frequency | count of a calculation will increase by the number of pyramid steps | stages, and will interfere with a high-speed process.

本発明は、上述のような従来技術の問題に鑑み、ステレオマッチングにおける相関演算を高速処理できるステレオカメラユニット及びステレオマッチング方法を提供することを目的とする。   An object of the present invention is to provide a stereo camera unit and a stereo matching method capable of high-speed processing of correlation calculation in stereo matching in view of the above-described problems of the conventional technology.

上記目的を達成するために、本実施形態によるステレオカメラユニットは、各々の撮像素子の各中心位置が同一の基線上にある、基準画像を撮影する第1のカメラと、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第1の参照画像を撮影する第2のカメラと、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第2の参照画像を撮影する第3のカメラと、 前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出する予備相関実行部と、前記予備相関実行部からの第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行する相関実行部と、を備え、前記相関実行部の相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とする。 In order to achieve the above object, the stereo camera unit according to the present embodiment includes a first camera that captures a reference image, each center position of which is on the same base line, and the first camera. A second camera that captures a first reference image provided at a position having a predetermined reference line length L, and a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. a third camera for photographing the second reference image provided in the front Kimoto quasi image and a window to the first reference image sets respectively, performed by the phase-only correlation method correlation calculated by the two window a preliminary correlation execution unit for calculating a first parallax ds (u, v) by the first disparity ds (u, v) from the preliminary correlation performing unit to k multiplied by k × ds (u, v) setting a window of the second reference image based on the parallax , And a correlation execution unit for executing the phase-only correlation method a correlation operation with respect to the reference image and the second reference image of the same image position as the reference image and the first reference image, the correlation performed The second disparity dl (u, v) derived from the correlation calculation result of the unit is output.

このステレオカメラユニットによれば、予備相関実行部と相関実行部とで各1回ずつの相関演算で視差を算出し出力できるので、ステレオマッチングにおける相関演算を高速処理することができる。予備相関実行部で基線長の短い組の基準画像及び参照画像による相関演算により視差算出を行い、基線長が短いため、視差が少なく、基準画像と参照画像の各ウインドウを同じ座標に設定しても視差を得ることができるので、ウインドウの設定が容易である。また、相関実行部では、基線長がk(k>1)倍と長いため視差が大きいが、予備相関実行部で得た視差のk倍の視差を生じる条件で制限された範囲内で基線長の長い組の参照画像のウインドウを設定可能であるので、ウインドウの設定が容易となるとともに、基線長の長い組で相関結果を得るので分解能が高くなる。   According to this stereo camera unit, the preliminary correlation execution unit and the correlation execution unit can calculate and output the parallax by a single correlation calculation, so that the correlation calculation in stereo matching can be processed at high speed. The preliminary correlation execution unit calculates the parallax by the correlation calculation using the base image and the reference image with a short base length, and since the base length is short, the parallax is small, and each window of the base image and the reference image is set to the same coordinate. Since the parallax can be obtained, the setting of the window is easy. Further, in the correlation execution unit, the base line length is as long as k (k> 1) times, so that the parallax is large, but the base line length is within a range limited by a condition that produces parallax of k times the parallax obtained in the preliminary correlation execution unit Since it is possible to set a long reference image window, it is easy to set the window, and the correlation result is obtained from a long base length set, so that the resolution is increased.

上記ステレオカメラユニットにおいて前記相関演算は1画素毎に行われることが好ましい。   In the stereo camera unit, the correlation calculation is preferably performed for each pixel.

また、前記相関演算は、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能な相関演算方法により行われることが好ましい。かかる相関演算方法として位相限定相関法(POC)がある。   The correlation calculation is preferably performed by a correlation calculation method capable of calculating a parallax indicating the maximum correlation by performing a correlation calculation between one window of the standard image and one window of the reference image once. As such a correlation calculation method, there is a phase only correlation method (POC).

また、本実施形態によるステレオマッチング方法は、各々の撮像素子の各中心位置が同一の基線上にある、第1のカメラにより基準画像を撮影し、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第2のカメラにより第1の参照画像を撮影し、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第3のカメラにより第2の参照画像を撮影するステップと、前記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出するステップと、前記第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行するステップと、を含み、前記相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とする。
Further, in the stereo matching method according to the present embodiment , a reference image is taken by a first camera in which each center position of each image sensor is on the same base line, and a predetermined reference line length is set with respect to the first camera. A first reference image is taken by a second camera provided at a position having L, and a third reference provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. a step of capturing a second reference picture by the camera, pre-set Kimoto quasi image and a window to the first reference image, respectively, the first by a correlation operation with both window run by the phase-only correlation method step a, the window of the first parallax ds (u, v) and k multiplied by k × ds (u, v) the second reference image based on the parallax calculating the parallax ds (u, v) Set the reference image and the first image Wherein executing a correlation operation by the phase-only correlation method with respect to the same image position as the reference image before Kimoto quasi image and the second reference image, a second disparity dl derived from the correlation calculation result (U, v) is output.

このステレオマッチング方法によれば、基線長の短い組と長い組の基準画像、参照画像とで各1回ずつの相関演算で視差を出力できるので、ステレオマッチングにおける相関演算を高速処理することができる。基線長の短い組の基準画像及び参照画像による相関演算により視差算出を行い、基線長が短いため、視差が少なく、基準画像と参照画像の各ウインドウを同じ座標に設定しても視差を得ることができるので、ウインドウの設定が容易である。また、基線長の長い組の基準画像及び参照画像による相関演算では、基線長がk(k>1)倍と長いため視差が大きいが、基線長の短い組で得た視差のk倍の視差を生じる条件で制限された範囲内で基線長の長い組の参照画像のウインドウを設定可能であるので、ウインドウの設定が容易となるとともに、基線長の長い組で相関結果を得るので分解能が高くなる。   According to this stereo matching method, since the parallax can be output by one correlation calculation for each of the short base length set, the long set of base images, and the reference image, the correlation calculation in stereo matching can be processed at high speed. . Parallax calculation is performed by correlation calculation using a base image and a reference image with a short base length, and since the base length is short, the parallax is small, and the parallax can be obtained even if each window of the base image and the reference image is set to the same coordinate. This makes it easy to set up the window. In addition, in the correlation calculation using the base image and the reference image having a long base length, the parallax is large because the base length is as long as k (k> 1) times. However, the parallax is k times the parallax obtained with the short base length pair. Since it is possible to set a reference image window with a long baseline length within the range limited by the conditions that cause the error, the setting of the window becomes easy and the correlation result is obtained with the long baseline length set, resulting in high resolution. Become.

上記ステレオマッチング方法において前記相関演算を1画素毎に行うことが好ましい。   In the stereo matching method, the correlation calculation is preferably performed for each pixel.

また、前記相関演算を、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能な相関演算方法により行うことが好ましい。かかる相関演算方法として位相限定相関法(POC)がある。   The correlation calculation is preferably performed by a correlation calculation method capable of calculating a parallax indicating the maximum correlation by performing a correlation calculation between one window of the standard image and one window of the reference image once. As such a correlation calculation method, there is a phase only correlation method (POC).

本発明のステレオカメラユニット及びステレオマッチング方法によれば、ステレオマッチングにおける相関演算を高速処理できる。   According to the stereo camera unit and stereo matching method of the present invention, the correlation calculation in stereo matching can be processed at high speed.

以下、本発明を実施するための最良の形態について図面を用いて説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

〈第1の実施形態〉   <First Embodiment>

図1は第1の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。図2は図1のステレオカメラユニットにおける第1のステレオカメラの概略的構成(a)、第2のステレオカメラの概略的構成(b)、及び両者の相対的位置関係を示す平面図である。   FIG. 1 is a block diagram showing a schematic configuration of a stereo camera unit according to the first embodiment. FIG. 2 is a plan view showing the schematic configuration (a) of the first stereo camera, the schematic configuration (b) of the second stereo camera, and the relative positional relationship between them in the stereo camera unit of FIG.

図1に示すように、ステレオカメラユニット10は、物体を撮像し基線長の短い組の基準画像と参照画像を得る第1のステレオカメラ1と、同じく基線長の長い組の基準画像と参照画像を得る第2のステレオカメラ2と、を備える。   As shown in FIG. 1, the stereo camera unit 10 includes a first stereo camera 1 that captures an object and obtains a base image and a reference image having a short base length, and a base image and a reference image that have a long base length. A second stereo camera 2 for obtaining

また、ステレオカメラユニット10は、第1のステレオカメラ1から基線長の短い組の基準画像と参照画像が入力する画像入力部11と、第2のステレオカメラ2から基線長の長い組の基準画像と参照画像が入力する画像入力部13と、を備える。   In addition, the stereo camera unit 10 includes an image input unit 11 for inputting a set of reference images having a short base length and a reference image from the first stereo camera 1, and a set of reference images having a long base length from the second stereo camera 2. And an image input unit 13 for inputting a reference image.

さらに、ステレオカメラユニット10は、基線長の短い組の基準画像と参照画像により予備的に相関演算処理を行う予備相関実行部12と、予備相関実行部12からの演算結果を用いて基線長の長い組の基準画像と参照画像により相関演算処理を行う相関実行部14と、相関実行部14からの視差演算結果を外部に出力する出力部15と、を備える。   Further, the stereo camera unit 10 uses a preliminary correlation execution unit 12 that performs a preliminary correlation calculation process using a base image and a reference image having a short baseline length, and uses the calculation result from the preliminary correlation execution unit 12 to calculate the baseline length. A correlation execution unit 14 that performs a correlation calculation process using a long set of standard images and reference images, and an output unit 15 that outputs a parallax calculation result from the correlation execution unit 14 to the outside.

図2(a)のように、第1のステレオカメラ1は、一対のカメラ1a,1bを有し、カメラ1aの撮像素子の中心位置とカメラ1bの撮像素子の中心位置とが基線c上にあり、各中心位置の間隔である基線長gは短く設定され例えば10cgである。カメラ1aで撮像した画像を基準画像とし、カメラ1bで撮像した画像を参照画像とし、これらを基線長の短い組の基準画像、参照画像とする。   As shown in FIG. 2A, the first stereo camera 1 has a pair of cameras 1a and 1b, and the center position of the image sensor of the camera 1a and the center position of the image sensor of the camera 1b are on the base line c. The baseline length g, which is the interval between the center positions, is set to a short value, for example, 10 cg. An image captured by the camera 1a is used as a standard image, an image captured by the camera 1b is used as a reference image, and these are used as a standard image and reference image of a set having a short baseline length.

また、図2(b)のように、第2のステレオカメラ2は、一対のカメラ2a,2bを有し、カメラ2aの撮像素子の中心位置とカメラ2bの撮像素子の中心位置とが基線d上にあり、各中心位置の間隔である基線長hは上記基線長gよりも長く設定され例えば40cmである。カメラ2aで撮像した画像を基準画像とし、カメラ2bで撮像した画像を参照画像とし、これらを基線長の長い組の基準画像、参照画像とする。   2B, the second stereo camera 2 includes a pair of cameras 2a and 2b, and the center position of the image sensor of the camera 2a and the center position of the image sensor of the camera 2b are the base line d. The base line length h, which is the distance between the center positions, is set longer than the base line length g and is, for example, 40 cm. An image captured by the camera 2a is set as a standard image, an image captured by the camera 2b is set as a reference image, and these are set as a standard image and a reference image having a long base line length.

各カメラ1a,1b,2a,2bは、CCDやCMOSセンサから構成された撮像素子を備え、撮像素子は、多数の受光素子からなり光電変換機能を有し、各画素毎に画像信号を出力する。   Each camera 1a, 1b, 2a, 2b is provided with an image sensor composed of a CCD or a CMOS sensor. The image sensor is composed of a large number of light receiving elements and has a photoelectric conversion function, and outputs an image signal for each pixel. .

ここで、図2において基線長比kは次式(1)で表される。
k=h/g (1)
基線長h>基線長gであるから、k>1である。上述の例では、k=40/10=4である。
Here, in FIG. 2, the baseline length ratio k is expressed by the following equation (1).
k = h / g (1)
Since baseline length h> baseline length g, k> 1. In the above example, k = 40/10 = 4.

図2のステレオカメラ1,2の基線c、dは平行であり、基線c、dに直交する線p上に基準画像を得るカメラ1a,2aの各中心位置が位置する。すなわち、第1のステレオカメラ1の基線長g及び第2のステレオカメラ2の基線長hの各始点は、基線c、dに直交する同一線p上に位置する。   The base lines c and d of the stereo cameras 1 and 2 in FIG. 2 are parallel, and the center positions of the cameras 1a and 2a for obtaining the reference image are located on the line p orthogonal to the base lines c and d. That is, the starting points of the base line length g of the first stereo camera 1 and the base line length h of the second stereo camera 2 are located on the same line p orthogonal to the base lines c and d.

第1のステレオカメラ1は、その基線長gが第2のステレオカメラ2の基線長hよりも短いから、得られる視差も小さく、分解能が低い。一方、第2のステレオカメラ2は、第1のステレオカメラ1と比べて得られる視差がk(基線長比)倍(k>1)と大きく、分解能が高い。   Since the baseline length g of the first stereo camera 1 is shorter than the baseline length h of the second stereo camera 2, the obtained parallax is small and the resolution is low. On the other hand, the second stereo camera 2 has a large parallax obtained as compared with the first stereo camera 1 as k (baseline length ratio) times (k> 1), and has high resolution.

図1の予備相関実行部12,相関実行部14について図3を参照して説明する。図3は、図1,図2の第1のステレオカメラ1で得てウインドウを設定した基準画像(a)、同じく参照画像(b)、第2のステレオカメラ2で得てウインドウを設定した基準画像(c)、同じく参照画像(d)を概略的に示す図である。   The preliminary correlation execution unit 12 and the correlation execution unit 14 in FIG. 1 will be described with reference to FIG. FIG. 3 shows a standard image (a) obtained by setting the window with the first stereo camera 1 of FIGS. 1 and 2, a reference image (b), a standard obtained by the second stereo camera 2 and set with a window. It is a figure which shows roughly the image (c) and the reference image (d) similarly.

予備相関実行部12は、ステレオカメラ1のカメラ1a、1bで得た基線長の短い組の基準画像、参照画像を用いて視差を予備的に算出する。   The preliminary correlation execution unit 12 preliminarily calculates the parallax using a set of base images and reference images having a short baseline length obtained by the cameras 1 a and 1 b of the stereo camera 1.

すなわち、予備相関実行部12では、図3(a)のように視差を演算させる基線長の短い組の基準画像上の点O1を設定し、その設定点O1を中心にn×nのウインドウW1を設定し、一方、図3(b)のように基線長の短い組の参照画像上に図3(a)の基準画像に設定したウインドウW1と同位置(点O2)にウインドウW1と同じサイズのn×nのウインドウW2を設定し、次に、両ウインドウW1,W2で相関演算処理を行う。その演算結果が基線長の短い組における視差ds(u,v)であり、相関実行部14に出力する。この演算結果は、例えば図3(b)のように「視差=10」である。   That is, the preliminary correlation execution unit 12 sets a point O1 on a reference image with a short base length for calculating parallax as shown in FIG. 3A, and an n × n window W1 centering on the set point O1. On the other hand, the same size as the window W1 at the same position (point O2) as the window W1 set as the standard image in FIG. 3A on the reference images having a short base line length as shown in FIG. N × n windows W2 are set, and then correlation calculation processing is performed in both windows W1 and W2. The calculation result is the parallax ds (u, v) in the set with the short baseline length, and is output to the correlation execution unit 14. The calculation result is “parallax = 10” as shown in FIG.

上記相関演算処理には、例えば、POC(Phase Only Correlation/位相限定相関)法を用いることができ、予備相関実行部12は、かかる演算処理をハードウエア的に実行可能な集積素子を備える。位相限定相関法は、位相情報を用いた公知のステレオマッチング法で、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能である。   For example, a POC (Phase Only Correlation) method can be used for the correlation calculation process, and the preliminary correlation execution unit 12 includes an integrated element that can execute the calculation process in hardware. The phase-only correlation method is a known stereo matching method using phase information, and a parallax indicating a maximum correlation can be calculated by performing a correlation operation between one window of a standard image and one window of a reference image once. is there.

相関実行部14は、図3(a)、(b)のステレオカメラ2のカメラ2a,2bで得た基線長の長い組の基準画像、参照画像を用いて視差を算出するが、このとき、参照画像のウインドウを予備相関実行部12で得た視差演算結果に基づいて設定する。   The correlation execution unit 14 calculates the parallax using the base image and the reference image having a long base line length obtained by the cameras 2a and 2b of the stereo camera 2 in FIGS. 3A and 3B. The reference image window is set based on the parallax calculation result obtained by the preliminary correlation execution unit 12.

すなわち、相関実行部14では、図3(c)のように基線長の長い組の基準画像上に対して図3(a)の基準画像に設定したウインドウW1と同位置(点O3)にn×nのウインドウW3を設定し、一方、予備相関実行部12で得た視差ds(u,v)をk倍し、図3(d)のように基線長の長い組の参照画像上に対して、そのk倍の視差(上述の例では、4×10=40)に対応する点O4を中心にウインドウW3と同じサイズのn×nのウインドウW4を設定し、次に、所定の視差範囲について両ウインドウW3,W4の相関演算処理を行う。その演算結果である視差dl(u,v)を出力部15に出力し、出力部15からステレオカメラユニット10の出力として外部に出力する。この演算結果は、例えば図3(d)のように「視差=41」である。   That is, in the correlation execution unit 14, n is set at the same position (point O3) as the window W1 set as the reference image of FIG. 3A on the reference image having a long base line length as shown in FIG. Xn window W3 is set, and on the other hand, the parallax ds (u, v) obtained by the preliminary correlation execution unit 12 is multiplied by k, and a reference image of a set having a long baseline length as shown in FIG. Then, an n × n window W4 having the same size as the window W3 is set around the point O4 corresponding to the k-times parallax (4 × 10 = 40 in the above example), and then a predetermined parallax range The correlation calculation processing of both windows W3 and W4 is performed. The parallax dl (u, v) that is the calculation result is output to the output unit 15 and output from the output unit 15 to the outside as the output of the stereo camera unit 10. The calculation result is “parallax = 41” as shown in FIG.

上記相関演算処理には、例えば、POC(Phase Only Correlation/位相限定相関)法を用いることができ、相関実行部14は、かかる演算処理をハードウエア的に実行可能な集積素子を備える。位相限定相関法は、位相情報を用いた公知のステレオマッチング法で、基準画像の1つのウインドウと参照画像の1つのウインドウとの相関演算を1度行うことで最大相関を示す視差が算出可能である。   For example, a POC (Phase Only Correlation) method can be used for the correlation calculation process, and the correlation execution unit 14 includes an integrated element that can execute the calculation process in hardware. The phase-only correlation method is a known stereo matching method using phase information, and a parallax indicating a maximum correlation can be calculated by performing a correlation operation between one window of a standard image and one window of a reference image once. is there.

上述のように、図1の予備相関実行部12では、図3(b)の基線長の短い組の参照画像のウインドウW2は、第1のステレオカメラ1の基線長が短く視差が小さいために、図3(a)の基線長の短い基準画像に設定したウインドウW1と同じ点を中心にして設定できる。このため、参照画像に対するウインドウW2の設定が容易である。   As described above, in the preliminary correlation execution unit 12 of FIG. 1, the reference image window W <b> 2 of the set with a short base length in FIG. 3B is because the base length of the first stereo camera 1 is short and the parallax is small. 3A can be set around the same point as the window W1 set in the reference image having a short base length in FIG. For this reason, it is easy to set the window W2 for the reference image.

また、図3(d)の基線長の長い組の参照画像のウインドウW4は、第2のステレオカメラ2の基線長が長く視差が大きいために、図3(c)の基線長の長い基準画像に設定したウインドウW3と同じ点を中心に設定することはできず、その点を探し難いため設定し難いのであるが、図1の相関実行部14では、予備相関実行部12で得た視差に基づいて基線長の長い組の参照画像のウインドウW4を設定するので、基線長の長い組の参照画像のウインドウW4の設定が容易である。   Further, the reference image window W4 of the set of reference images having a long base length in FIG. 3D has a long base line length of the second stereo camera 2 and has a large parallax, so that the reference image having a long base length in FIG. 1 cannot be set around the same point as the window W3 set in FIG. 1, and it is difficult to set the point because it is difficult to find the point. However, the correlation execution unit 14 in FIG. Based on this, the reference image window W4 having a long base line length is set, so that it is easy to set the reference image window W4 having a long base line length.

また、ステレオカメラ1,2で得られる視差は画素単位の「1」単位で得られるが、第2のステレオカメラ2は、基線長が長く得られる視差が大きいので、分解能が向上し、例えば、得られた視差は、4(基線長比)×10(基線長の短い組で得られた視差)=40ではなく、41であり、分解能が向上することを理解できる。   In addition, the parallax obtained by the stereo cameras 1 and 2 is obtained in units of “1” in units of pixels. However, since the second stereo camera 2 has a large base line and a large parallax, the resolution is improved. The obtained parallax is 41 instead of 4 (baseline length ratio) × 10 (parallax obtained with a short baseline length) = 40, and it can be understood that the resolution is improved.

次に、図1〜図3のステレオカメラユニット10の動作(ステップS01〜S09)について図4のフローチャートを参照して説明する。   Next, the operation (steps S01 to S09) of the stereo camera unit 10 of FIGS. 1 to 3 will be described with reference to the flowchart of FIG.

ステレオカメラユニット10でフレーム処理が開始されると、ステレオカメラ1で取得した基線長の短い組の基準画像に対して、図3(a)のように、視差を演算させる基準画像上の点O1を設定する(S01)。そして、その設定された点O1を中心に基準画像上にn×nのウインドウW1を設定する(S02)。   When the frame processing is started in the stereo camera unit 10, the point O1 on the reference image on which the parallax is calculated as shown in FIG. Is set (S01). Then, an n × n window W1 is set on the reference image around the set point O1 (S02).

次に、同じくステレオカメラ1で取得した基線長の短い組の参照画像に対して、図3(b)のように、基準画像に設定したウインドウW1と同位置O2にウインドウW2を設定する(S03)。   Next, the window W2 is set at the same position O2 as the window W1 set as the standard image as shown in FIG. 3B with respect to the reference images having the short baseline length obtained by the stereo camera 1 (S03). ).

次に、図3(a)、(b)の基線長の短い組の基準画像のウインドウW1と参照画像のウインドウW2とにおいて図1の予備相関実行部12が相関演算処理を行い、その結果得られた視差ds(u,v)が相関実行部14に出力する(S04)。   Next, the preliminary correlation execution unit 12 in FIG. 1 performs correlation calculation processing on the base image window W1 and the reference image window W2 of the set with a short base length in FIGS. 3A and 3B, and the result is obtained. The obtained parallax ds (u, v) is output to the correlation execution unit 14 (S04).

次に、ステレオカメラ2で取得した基線長の長い組の基準画像に対して、図3(c)のように、基線長の短い組の基準画像に設定したウインドウW1と同位置O3にウインドウW3を設定する(S05)。   Next, as shown in FIG. 3C, a set of reference images with a long baseline length acquired by the stereo camera 2 is set at the same position O3 as a window W3 set as a reference image with a short set of baseline lengths. Is set (S05).

また、図1の予備相関実行部12で得られた視差ds(u,v)をk(基線長比)倍し、ステレオカメラ2で取得した基線長の長い組の参照画像に対して、図3(d)のように、k倍した視差に対応する点O4を中心にウインドウW4を設定する(S06)。   Further, the parallax ds (u, v) obtained by the preliminary correlation execution unit 12 of FIG. 1 is multiplied by k (baseline length ratio), and the reference images having a long base length obtained by the stereo camera 2 are illustrated in FIG. As in 3 (d), the window W4 is set around the point O4 corresponding to the parallax multiplied by k (S06).

次に、図3(c)、(d)の基線長の長い組の基準画像のウインドウW3と参照画像のウインドウW4とにおいて図1の相関実行部14が相関演算処理を行い、得られた視差dl(u,v)が相関実行部14から出力し(S07)、出力部15からステレオカメラユニット10の出力として出力する(S08)。   Next, the correlation execution unit 14 of FIG. 1 performs correlation calculation processing in the base image window W3 and the reference image window W4 of the set having a long base length in FIGS. 3C and 3D, and the obtained disparity dl (u, v) is output from the correlation execution unit 14 (S07), and output from the output unit 15 as the output of the stereo camera unit 10 (S08).

上述のウインドウW1,W2,W3,W4における視差を演算させる画素を図3のu方向、v方向に移動させて各ステップS01〜S08を実行し、全処理点数が完了するまで上記各ステップを繰り返す(S09)。   The pixels for calculating the parallax in the windows W1, W2, W3, and W4 described above are moved in the u direction and the v direction in FIG. (S09).

図1〜図4のステレオカメラユニット10によれば、ステレオマッチングにおける基準画像と参照画像との対応関係の相関演算をピラミッド構造のピラミッド画像を用いた場合よりも高速処理することができる。   According to the stereo camera unit 10 of FIGS. 1 to 4, the correlation calculation of the correspondence relationship between the standard image and the reference image in the stereo matching can be performed at a higher speed than when the pyramid image having the pyramid structure is used.

すなわち、従来、2P画素おきでSu×Svの出力の距離データを得るために、例えば、位相限定相関法(POC)を用いてピラミッド構造のピラミッド画像でステレオ演算を行う場合に算出視差範囲が0〜L画素までの場合、
L<2×2(t-1)でピラミッド段数t(t≧1)が決定され、POCの相関演算回数Nは、例えばp=3の場合(8画素に1つ出力されるような場合)、第1段の演算回数N1,第2段の演算回数N2,第3段の演算回数N3は、変わらずにSu×Sv回の相関演算を行う必要があり、以降の段でその1/4回ずつ相関演算を行う必要があり、次式(2)のようになる。
N=N1+N2+N3+・・・+Nt=3×Su×Sv+(1/4)×Su×Sv+・・・ (2)
That is, conventionally, in order to obtain the distance data of the output of Su × Sv at intervals of 2 P pixels, for example, when the stereo operation is performed on the pyramid image having the pyramid structure using the phase only correlation method (POC), the calculated parallax range is In the case of 0 to L pixels,
When L <2 × 2 (t−1) , the number of pyramid stages t (t ≧ 1) is determined, and the POC correlation calculation number N is, for example, p = 3 (when one is output to 8 pixels). The number of operations N1 in the first stage, the number of operations N2 in the second stage, and the number of operations N3 in the third stage need not be changed, and it is necessary to perform the correlation operation of Su × Sv times. It is necessary to perform the correlation operation one time, and the following equation (2) is obtained.
N = N1 + N2 + N3 +... + Nt = 3 × Su × Sv + (1/4) × Su × Sv + (2)

これに対し、本実施形態では、予備相関実行部12で基線長の短い組の基準画像・参照画像について各画素毎に1回の演算処理、及び、相関実行部14で基線長の長い組の基準画像・参照画像について各画素ごとに1回の演算処理を行うから、計2回の演算処理を行うだけでよく、相関演算回数Mは次式(3)のようになる。
M=2×Su×Sv (3)
On the other hand, in the present embodiment, the preliminary correlation execution unit 12 performs a calculation process once for each pixel for a set of base images / reference images having a short base length, and the correlation execution unit 14 sets a set of long base lengths. Since the calculation process is performed once for each pixel for the reference image and the reference image, it is only necessary to perform a total of two calculation processes, and the number M of correlation calculations is expressed by the following equation (3).
M = 2 × Su × Sv (3)

上記式(2)と(3)から、M≪Nであり、本実施形態による相関演算回数Mは、ピラミッド画像を用いる場合の相関演算回数Nよりもかなり小さく、相関演算を高速処理できることが分かる。   From the above formulas (2) and (3), it is understood that M << N, and the number of correlation operations M according to the present embodiment is considerably smaller than the number of correlation operations N when using a pyramid image, and the correlation operations can be processed at high speed. .

〈第2の実施形態〉   <Second Embodiment>

図5は第2の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。図6は図5のステレオカメラユニットにおける各カメラの相対的位置関係を示す平面図である。   FIG. 5 is a block diagram showing a schematic configuration of a stereo camera unit according to the second embodiment. FIG. 6 is a plan view showing the relative positional relationship of each camera in the stereo camera unit of FIG.

図5に示すように、ステレオカメラユニット30は、物体を撮像し基準画像を得るカメラ1cと、同じく基線長の短い組の参照画像を得るカメラ2cと、同じく基線長の長い組の参照画像を得るカメラ3cと、を備える。   As shown in FIG. 5, the stereo camera unit 30 captures a reference image of a camera 1c that captures an object and obtains a reference image, a camera 2c that obtains a reference image having a short baseline length, and a reference image that also has a long baseline length. A camera 3c to be obtained.

また、ステレオカメラユニット30は、カメラ1cからの基準画像とカメラ2cからの基線長の短い組の参照画像とが入力する画像入力部21と、カメラ1cからの基準画像とカメラ3cからの基線長の長い組の参照画像とが入力する画像入力部23と、を備える。   The stereo camera unit 30 also includes an image input unit 21 for inputting a reference image from the camera 1c and a reference image having a short base length from the camera 2c, a base image from the camera 1c, and a base line length from the camera 3c. An image input unit 23 for inputting a long set of reference images.

さらに、ステレオカメラユニット30は、基線長の短い組の基準画像と参照画像により予備的に相関演算処理を行う予備相関実行部22と、予備相関実行部22からの演算結果を用いて基線長の長い組の基準画像と参照画像により相関演算処理を行う相関実行部24と、相関実行部24からの視差演算結果を外部に出力する出力部25と、を備える。   Further, the stereo camera unit 30 uses a preliminary correlation execution unit 22 that performs a preliminary correlation calculation process using a reference image and a reference image having a short base line length, and uses the calculation result from the preliminary correlation execution unit 22 to calculate the baseline length. A correlation execution unit 24 that performs a correlation calculation process using a long set of standard images and reference images, and an output unit 25 that outputs a parallax calculation result from the correlation execution unit 24 to the outside.

図6のように、カメラ1c,2c,3cは、それぞれCCDやCMOSセンサからなる撮像素子を有し、カメラ1c,2c,3cの各撮像素子の各中心位置が同一の基線e上にあり、所定間隔で配置されている。すなわち、カメラ2cは、カメラ1cから間隔gの位置に配置され、カメラ3cは、カメラ1cから間隔hの位置に配置されている。   As shown in FIG. 6, the cameras 1c, 2c, and 3c each have an image sensor formed of a CCD or a CMOS sensor, and the center positions of the image sensors of the cameras 1c, 2c, and 3c are on the same base line e. They are arranged at predetermined intervals. That is, the camera 2c is arranged at a position of a distance g from the camera 1c, and the camera 3c is arranged at a position of a distance h from the camera 1c.

カメラ1cとカメラ2cの各中心位置の間隔gは、基線長を構成し、短く設定され、例えば10cmである。同じくカメラ1cとカメラ3cの各中心位置の間隔hは、基線長を構成し、長く設定され、例えば40cmである。   The distance g between the center positions of the camera 1c and the camera 2c constitutes the base line length and is set to be short, for example, 10 cm. Similarly, the distance h between the central positions of the camera 1c and the camera 3c constitutes the base line length and is set to be long, for example, 40 cm.

カメラ1cとカメラ2cとで第1のステレオカメラを構成し、カメラ1cで撮像した画像を基準画像とし、カメラ2cで撮像した画像を参照画像とし、これらを基線長の短い組の基準画像、参照画像とする。   The camera 1c and the camera 2c constitute a first stereo camera, the image captured by the camera 1c is used as a reference image, the image captured by the camera 2c is used as a reference image, and these are set as a reference image with a short baseline length, a reference An image.

また、カメラ1cとカメラ3cとで第2のステレオカメラを構成し、カメラ1cで撮像した画像を基準画像とし、カメラ3cで撮像した画像を参照画像とし、これらを基線長の長い組の基準画像、参照画像とする。なお、図6において基線長比kは上記式(1)と同様に定義できる。   Further, the camera 1c and the camera 3c constitute a second stereo camera, the image captured by the camera 1c is used as a reference image, the image captured by the camera 3c is used as a reference image, and these are the reference images having a long base line length. Reference image. In FIG. 6, the baseline length ratio k can be defined in the same manner as in the above formula (1).

カメラ1c、2cにより得た基線長の短い組の基準画像、参照画像によれば、その基線長gが基線長hよりも短いから、得られる視差も小さく、分解能が低い。一方、カメラ1c、3cにより得た基線長の長い組の基準画像、参照画像によれば、基線長の短い組の場合と比べて得られる視差が大きく、分解能が高い。かかる関係は図2の場合と同様である。   According to the set of base images and reference images having a short base length obtained by the cameras 1c and 2c, the base length g is shorter than the base length h, so that the obtained parallax is small and the resolution is low. On the other hand, according to the base image and reference image of the long base length set obtained by the cameras 1c and 3c, the parallax obtained is larger than that of the short base length set and the resolution is high. This relationship is the same as in the case of FIG.

図5のステレオカメラユニット30における予備相関実行部22,相関実行部24及び出力部25は、図1,図3と同様に構成されるが、上述のように、カメラ1cで撮像した画像を基線長の短い組と基線長の長い組とにおいて共通の基準画像として用いるようにした点が図1,図3と相違する構成である。   The preliminary correlation execution unit 22, the correlation execution unit 24, and the output unit 25 in the stereo camera unit 30 of FIG. 5 are configured in the same manner as in FIGS. 1 and 3, but as described above, the baseline is the image captured by the camera 1c. 1 and 3 is different from that shown in FIGS. 1 and 3 in that it is used as a common reference image in a short set and a long base set.

次に、図5,図6のステレオカメラユニット30の動作(ステップS11〜S18)について図7のフローチャート及び図3を参照して説明する。   Next, the operation (steps S11 to S18) of the stereo camera unit 30 of FIGS. 5 and 6 will be described with reference to the flowchart of FIG. 7 and FIG.

ステレオカメラユニット30でフレーム処理が開始されると、図3(a)のように、カメラ1cで取得した、視差を演算させる基準画像上の点O1を設定する(S11)。そして、その設定された点O1を中心に基準画像上にn×nのウインドウW1を設定する(S12)。   When frame processing is started in the stereo camera unit 30, as shown in FIG. 3A, a point O1 on the reference image obtained by the camera 1c for calculating the parallax is set (S11). Then, an n × n window W1 is set on the reference image around the set point O1 (S12).

次に、カメラ2cで取得した基線長の短い組の参照画像に対して、図3(b)のように、基準画像に設定したウインドウW1と同位置O2にn×nのウインドウW2を設定する(S13)。   Next, for a set of reference images with a short baseline length acquired by the camera 2c, an n × n window W2 is set at the same position O2 as the window W1 set as the standard image, as shown in FIG. 3B. (S13).

次に、図3(a)、(b)の基線長の短い組の基準画像のウインドウW1と参照画像のウインドウW2とにおいて図5の予備相関実行部22が相関演算処理を行い、その結果得られた視差ds(u,v)が相関実行部24に出力する(S14)。   Next, the preliminary correlation execution unit 22 of FIG. 5 performs correlation calculation processing on the base image window W1 and the reference image window W2 of the set having a short base length in FIGS. 3A and 3B, and the result is obtained. The obtained parallax ds (u, v) is output to the correlation execution unit 24 (S14).

次に、図5の予備相関実行部22で得られた視差ds(u,v)をk(基線長比)倍し、カメラ3cで取得した基線長の長い組の参照画像に対して、図3(d)のように、k倍した視差に対応する点O4を中心にn×nのウインドウW4を設定する(S15)。   Next, the parallax ds (u, v) obtained by the preliminary correlation execution unit 22 in FIG. 5 is multiplied by k (baseline length ratio), and a reference image of a set having a long baseline length obtained by the camera 3c is illustrated in FIG. As shown in 3 (d), an n × n window W4 is set around the point O4 corresponding to the parallax multiplied by k (S15).

次に、上述のステップS11,S12における基準画像のウインドウW1と基線長の長い組の参照画像のウインドウW4とにおいて図5の相関実行部24が相関演算処理を行い、得られた視差dl(u,v)が相関実行部24から出力し(S16)、出力部25からステレオカメラユニット30の出力として出力する(S17)。   Next, the correlation execution unit 24 of FIG. 5 performs correlation calculation processing on the reference image window W1 and the reference image window W4 having a long base length in the above-described steps S11 and S12, and the obtained parallax dl (u , V) is output from the correlation execution unit 24 (S16), and output from the output unit 25 as the output of the stereo camera unit 30 (S17).

上述のウインドウW1,W2,W4における視差を演算させる画素を図3のu方向、v方向に移動させて各ステップS11〜S17を実行し、全処理点数が完了するまで上記各ステップを繰り返す(S18)。   The pixels for calculating the parallax in the windows W1, W2, and W4 described above are moved in the u and v directions in FIG. 3 to execute steps S11 to S17, and the above steps are repeated until the total number of processing points is completed (S18). ).

図5〜図7のステレオカメラユニット30によれば、図1〜図4の場合と同様に、ステレオマッチングにおける基準画像と参照画像との対応関係の相関演算をピラミッド構造のピラミッド画像を用いた場合よりも高速処理することができる。   According to the stereo camera unit 30 of FIGS. 5 to 7, as in the case of FIGS. 1 to 4, when the pyramid image having the pyramid structure is used for correlation calculation of the correspondence between the standard image and the reference image in stereo matching. Can be processed at a higher speed.

また、カメラ1cで撮像した基準画像を基線長の短い組と基線長の長い組とにおいて共通に用いるので、図3(c)のように基線長の長い組の基準画像にウインドウを設定する必要がない。また、カメラ1cを共用するので、図1,図2と比べてカメラの台数が少なくてすむ。   In addition, since the reference image captured by the camera 1c is used in common for the group having a short baseline length and the group having a long baseline length, it is necessary to set a window for the reference image having a long baseline length as shown in FIG. There is no. Further, since the camera 1c is shared, the number of cameras can be reduced as compared with FIGS.

以上のように本発明を実施するための最良の形態について説明したが、本発明はこれらに限定されるものではなく、本発明の技術的思想の範囲内で各種の変形が可能である。例えば、図1,図5の予備相関実行部12,22及び相関実行部14,24ではPOC法の代わりに、フーリエ変換や離散コサイン変換(DCT:Discrete cosine Transform)やウェーブレット変換を用いてもよい。また、予備相関実行部12,22,相関実行部14,24における相関演算をCPU(中央演算処理装置)によりソフトウエア的に実行するようにしてもよい。   As described above, the best mode for carrying out the present invention has been described. However, the present invention is not limited to these, and various modifications are possible within the scope of the technical idea of the present invention. For example, the preliminary correlation execution units 12 and 22 and the correlation execution units 14 and 24 shown in FIGS. 1 and 5 may use Fourier transform, discrete cosine transform (DCT) or wavelet transform instead of the POC method. . Further, the correlation calculation in the preliminary correlation execution units 12 and 22 and the correlation execution units 14 and 24 may be executed by software by a CPU (Central Processing Unit).

また、図1,図2においてさらに基線長の異なるステレオカメラを備えてもよく、また、図5,図6において図6の基線e(その延長線も含めて)上の異なる位置にさらにカメラを配置し、さらに別のステレオカメラを構成してもよい。   1 and 2, a stereo camera having a different base length may be provided, and in FIGS. 5 and 6, a camera is further provided at a different position on the base line e (including its extension line) in FIG. Further, another stereo camera may be configured.

なお、本明細書において、基線とは、正確な座標を有する二点を結ぶ直線であり、基線長とは、具体的には、図2,図6のようにステレオカメラのカメラ間の間隔g,hであり、三角測量による距離計算に用いられる。   In this specification, the base line is a straight line connecting two points having accurate coordinates, and the base line length is specifically the distance g between the cameras of the stereo camera as shown in FIGS. , H, which are used for distance calculation by triangulation.

第1の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。It is a block diagram which shows schematic structure of the stereo camera unit by 1st Embodiment. 図1のステレオカメラユニットにおける第1のステレオカメラの概略的構成(a)、第2のステレオカメラの概略的構成(b)、及び両者の相対的位置関係を示す平面図である。It is a top view which shows schematic structure (a) of the 1st stereo camera in the stereo camera unit of FIG. 1, schematic structure (b) of the 2nd stereo camera, and relative positional relationship of both. 図1,図2の第1のステレオカメラ1で得てウインドウを設定した基準画像(a)、同じく参照画像(b)、第2のステレオカメラ2で得てウインドウを設定した基準画像(c)、同じく参照画像(d)を概略的に示す図である。A standard image (a) obtained by the first stereo camera 1 shown in FIGS. 1 and 2 and set with a window, a reference image (b), and a reference image obtained by the second stereo camera 2 and set with a window (c). FIG. 6 is a diagram schematically showing a reference image (d). 図1〜図3のステレオカメラユニット10の動作(ステップS01〜S09)を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement (step S01-S09) of the stereo camera unit 10 of FIGS. 1-3. 第2の実施形態によるステレオカメラユニットの概略的構成を示すブロック図である。It is a block diagram which shows schematic structure of the stereo camera unit by 2nd Embodiment. 図5のステレオカメラユニットにおける各カメラの相対的位置関係を示す平面図である。It is a top view which shows the relative positional relationship of each camera in the stereo camera unit of FIG. 図5,図6のステレオカメラユニット30の動作(ステップS11〜S18)を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement (step S11-S18) of the stereo camera unit 30 of FIG. 5, FIG.

符号の説明Explanation of symbols

1,2 ステレオカメラ
1a,1b,2a,2b カメラ
1c,2c,3c カメラ
10 ステレオカメラユニット
12 予備相関実行部
14 相関実行部
30 ステレオカメラユニット
22 予備相関実行部
24 相関実行部
W1,W2,W3,W4 ウインドウ
c,d,e 基線
g,h 基線長、間隔
DESCRIPTION OF SYMBOLS 1, 2 Stereo camera 1a, 1b, 2a, 2b Camera 1c, 2c, 3c Camera 10 Stereo camera unit 12 Preliminary correlation execution part 14 Correlation execution part 30 Stereo camera unit 22 Preliminary correlation execution part 24 Correlation execution part W1, W2, W3 , W4 Window c, d, e Base line g, h Base line length, interval

Claims (4)

各々の撮像素子の各中心位置が同一の基線上にある、基準画像を撮影する第1のカメラと、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第1の参照画像を撮影する第2のカメラと、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第2の参照画像を撮影する第3のカメラと、
記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出する予備相関実行部と、
前記予備相関実行部からの第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行する相関実行部と、を備え、
前記相関実行部の相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とするステレオカメラユニット。
A first camera that captures a reference image in which each center position of each image sensor is on the same baseline, and a first reference provided at a position having a predetermined reference line length L with respect to the first camera A second camera for capturing an image; a third camera for capturing a second reference image provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera;
Set before Kimoto quasi image and a window to the first reference image, respectively, the preliminary correlation for calculating a first parallax ds by a correlation operation with both window run by the phase-only correlation method (u, v) The execution part;
Set the window of the first parallax ds (u, v) and k multiplied by k × ds (u, v) the second reference image based on the parallax from the preliminary correlation execution unit, the reference image and and a correlation execution unit for executing the phase-only correlation method a correlation operation with respect to the reference image and the second reference image of the same image position as the first reference image,
A stereo camera unit that outputs a second parallax dl (u, v) derived from a correlation calculation result of the correlation execution unit.
前記相関演算は1画素毎に行われることを特徴とする請求項1に記載のステレオカメラユニット。   The stereo camera unit according to claim 1, wherein the correlation calculation is performed for each pixel. 各々の撮像素子の各中心位置が同一の基線上にある、第1のカメラにより基準画像を撮影し、前記第1のカメラに対し所定の基準線長Lを有する位置に設けた第2のカメラにより第1の参照画像を撮影し、前記第1のカメラに対し所定の基準線長k×L(k>1)を有する位置に設けた第3のカメラにより第2の参照画像を撮影するステップと、
記基準画像及び前記第1の参照画像にウインドウをそれぞれ設定し、前記両ウインドウで相関演算を位相限定相関法により実行することで第1の視差ds(u,v)を算出するステップと、
前記第1の視差ds(u,v)をk倍したk×ds(u,v)の視差に基づいて前記第2の参照画像のウインドウを設定し、前記基準画像及び前記第1の参照画像と同じ画像位置の前記基準画像及び前記第2の参照画像に対して相関演算を位相限定相関法により実行するステップと、を含み、
前記相関演算結果から導き出される第2の視差dl(u,v)を出力することを特徴とするステレオマッチング方法。
A second camera provided at a position having a predetermined reference line length L with respect to the first camera, in which each center position of each image sensor is on the same base line and a reference image is taken by the first camera. The first reference image is taken by the step, and the second reference image is taken by a third camera provided at a position having a predetermined reference line length k × L (k> 1) with respect to the first camera. When,
A step of setting prior Kimoto quasi image and a window to the first reference image, respectively, to calculate the first parallax ds by a correlation operation with both window run by the phase-only correlation method (u, v) ,
A window of the second reference image is set based on a parallax of k × ds (u, v) obtained by multiplying the first parallax ds (u, v) by k, and the reference image and the first reference image are set . comprises the steps executed by the phase-only correlation method the correlation calculation for the previous Kimoto quasi image and the second reference image of the same image position as,
A stereo matching method characterized by outputting a second parallax dl (u, v) derived from the correlation calculation result.
前記相関演算を1画素毎に行うことを特徴とする請求項に記載のステレオマッチング方法。 The stereo matching method according to claim 3 , wherein the correlation calculation is performed for each pixel.
JP2008313873A 2008-12-10 2008-12-10 Stereo camera unit and stereo matching method Expired - Fee Related JP5311016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008313873A JP5311016B2 (en) 2008-12-10 2008-12-10 Stereo camera unit and stereo matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008313873A JP5311016B2 (en) 2008-12-10 2008-12-10 Stereo camera unit and stereo matching method

Publications (2)

Publication Number Publication Date
JP2010139288A JP2010139288A (en) 2010-06-24
JP5311016B2 true JP5311016B2 (en) 2013-10-09

Family

ID=42349554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008313873A Expired - Fee Related JP5311016B2 (en) 2008-12-10 2008-12-10 Stereo camera unit and stereo matching method

Country Status (1)

Country Link
JP (1) JP5311016B2 (en)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (en) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5582572B2 (en) * 2010-11-08 2014-09-03 独立行政法人産業技術総合研究所 Image processing method, image processing program, computer-readable storage medium storing the same, and image processing apparatus
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR101868017B1 (en) * 2011-05-09 2018-06-18 한국전자통신연구원 Method for stereo matching and apparatus thereof
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP5929553B2 (en) * 2012-06-28 2016-06-08 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHODS FOR DETECTING CAMERA NETWORKS, OPTICAL NETWORKS AND DEFECTIVE SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (en) 2012-08-23 2018-04-27 派力肯影像公司 According to the high-resolution estimation of the feature based of the low-resolution image caught using array source
CN104685860A (en) 2012-09-28 2015-06-03 派力肯影像公司 Generating images from light fields utilizing virtual viewpoints
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
EP2973476B1 (en) * 2013-03-15 2025-02-26 Adeia Imaging LLC Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
JP2019158759A (en) * 2018-03-15 2019-09-19 株式会社リコー Imaging apparatus, vehicle, and imaging method
EP3821267A4 (en) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
CN115552486A (en) 2020-01-29 2022-12-30 因思创新有限责任公司 System and method for characterizing an object pose detection and measurement system
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
CN112129262B (en) * 2020-09-01 2023-01-06 珠海一微半导体股份有限公司 Visual ranging method and visual navigation chip of multi-camera group
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194164A (en) * 1991-04-10 1994-07-15 Olympus Optical Co Ltd Object position detecting device
JPH0798429A (en) * 1993-09-28 1995-04-11 Fuji Film Micro Device Kk Range finder
JPH0949728A (en) * 1995-08-04 1997-02-18 Omron Corp Distance-measuring apparatus
JPH10253351A (en) * 1997-03-14 1998-09-25 Kyocera Corp Distance measuring device
JP2004093457A (en) * 2002-09-02 2004-03-25 Toyota Motor Corp Image processing apparatus and image processing method
JP2008216127A (en) * 2007-03-06 2008-09-18 Konica Minolta Holdings Inc Distance image generation device, distance image generation method, and program

Also Published As

Publication number Publication date
JP2010139288A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5311016B2 (en) Stereo camera unit and stereo matching method
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
CN101630406B (en) Camera calibration method and camera calibration device
US10638109B2 (en) Method for the FPGA-based long range multi-view stereo with differential image rectification
KR101903619B1 (en) Structured stereo
WO2010079685A1 (en) Motion vector generation apparatus and motion vector generation method
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
CN113538587A (en) A camera coordinate transformation method, terminal and storage medium
JP5891415B2 (en) Stereo image processing device
JP2013186042A (en) Distance calculating device and distance calculating method
JP2008298533A (en) Obstruction measurement method, device, and system
JPWO2017199696A1 (en) Image processing apparatus and image processing method
CN103905746A (en) Method and device for localization and superposition of sub-pixel-level image offset and video device
JP4862816B2 (en) Image correspondence point search device, distance measuring device and image motion detection device using the same
JP2008216127A (en) Distance image generation device, distance image generation method, and program
JP5549283B2 (en) Distance acquisition device
JP5062531B2 (en) Image processing apparatus and image processing method
JP2009092551A (en) Method, apparatus and system for measuring obstacle
JP2015230703A (en) Object detection device and object detection method
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4524514B2 (en) Image processing apparatus, image processing method, and recording medium
WO2021114883A1 (en) Image registration method, terminal, and storage medium
JP5167614B2 (en) Distance image generating apparatus, distance image generating method and program
JP2020201587A (en) Imaging apparatus, vehicle, and program
JP5582572B2 (en) Image processing method, image processing program, computer-readable storage medium storing the same, and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5311016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees