[go: up one dir, main page]

JP2013065179A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2013065179A
JP2013065179A JP2011203091A JP2011203091A JP2013065179A JP 2013065179 A JP2013065179 A JP 2013065179A JP 2011203091 A JP2011203091 A JP 2011203091A JP 2011203091 A JP2011203091 A JP 2011203091A JP 2013065179 A JP2013065179 A JP 2013065179A
Authority
JP
Japan
Prior art keywords
parallax
image
image processing
bias value
spot shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011203091A
Other languages
Japanese (ja)
Inventor
Shin Aoki
青木  伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011203091A priority Critical patent/JP2013065179A/en
Publication of JP2013065179A publication Critical patent/JP2013065179A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device and an image processing method which enable more accurate parallax detection, that is, more accurate distance detection by correcting parallax based on a difference in spot shape within a screen.SOLUTION: An image processing device comprising input means that inputs a plurality of images captured from a plurality of viewpoints, and parallax calculation means that calculates parallax between the plurality of images comprises parallax correction means that corrects the parallax calculated by the parallax calculation means on the basis of a spot shape depending on an image position within an image.

Description

本発明は、ステレオカメラで撮影した画像を処理する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing an image captured by a stereo camera.

理想的なカメラであれば、点光源を被写体として撮影すれば、撮像面上の点光源像は輝点となるはずだが、現実のカメラでは、結像レンズ系のMTF特性などのため、撮影された点光源像は一定の広がりを持つ。この点光源像の広がりの分布形状を、ここではスポット形状と呼ぶ。スポット形状の例を図10に示す。本図の左側は、縦横軸が画面上の縦横方向位置を表し、輝度分布を等高線で表したものである。また、本図の右側は、左側の図のX軸断面を表したものである。   With an ideal camera, if a point light source is photographed as a subject, the point light source image on the imaging surface should be a bright spot. However, with an actual camera, it is photographed due to the MTF characteristics of the imaging lens system. The point light source image has a certain spread. The distribution shape of the spread of the point light source image is called a spot shape here. An example of the spot shape is shown in FIG. On the left side of the figure, the vertical and horizontal axes represent the vertical and horizontal positions on the screen, and the luminance distribution is represented by contour lines. Moreover, the right side of this figure represents the X-axis cross section of the left figure.

一般に、スポット形状は図10(a)のような釣鐘型の形状をとる。この形状を決定する要素としては、レンズ系設計、入射光の波長およびレンズ組み付け公差による個体差などがあり、また画面上の位置によっても変化する。一般に画面中央付近では、図10(a)のような対称な形をとるが、光軸から離れるに従い、図10(b)のような非対称な形をとる場合が多い。   In general, the spot shape has a bell shape as shown in FIG. Factors that determine this shape include lens system design, the wavelength of incident light, and individual differences due to lens assembly tolerances, and also vary depending on the position on the screen. Generally, a symmetrical shape as shown in FIG. 10A is taken near the center of the screen, but in many cases, an asymmetrical shape as shown in FIG. 10B is taken as the distance from the optical axis increases.

ここで、このようなスポット形状の変化が、ステレオカメラの視差検出に与える影響を考える。例えば、光学歪みやカメラ組み付け誤差は無いもの、あるいは完全に補正されているもの、およびスポット形状の違いだけを考慮すると仮定し、ステレオカメラ70と3つの点光源被写体A、B、Cを図11のように配置して撮影した場合、被写体A、Bはどちらも左カメラ71の正面にあるが、Aは遠方(無限遠)、Bはカメラ近傍にあることがわかる。また被写体Cは、右カメラ72から見てBと同じ方向の遠方にあることがわかる。   Here, the influence of such a change in the spot shape on the parallax detection of the stereo camera will be considered. For example, assuming that there is no optical distortion or camera assembly error, or a lens that has been completely corrected, and only the difference in spot shape, the stereo camera 70 and three point light source subjects A, B, and C are shown in FIG. When the subjects A and B are photographed in such a manner, it can be seen that both the subjects A and B are in front of the left camera 71, but A is far (infinity) and B is near the camera. It can also be seen that the subject C is in the same direction as B as viewed from the right camera 72.

したがって、図12に示すように、撮影される2枚のステレオ画像では、左カメラ画像81では、A、Bともに画面中央に写り(A1、B1)、Cだけ左側に写ることとなる(C1)。一方、右カメラ画像82では、Aは画面中央に(A2)、BとCは画面左側に写ることとなる(B2、C2)。   Therefore, as shown in FIG. 12, in the two stereo images to be shot, in the left camera image 81, both A and B appear in the center of the screen (A1, B1), and only C appears on the left side (C1). . On the other hand, in the right camera image 82, A appears in the center of the screen (A2), and B and C appear in the left side of the screen (B2, C2).

図13に、2種類のスポット形状の例を示す。ここでは理解を容易にするため、横方向の1次元のみを考え、図12のような三角形型を仮定する。図13(a)は左右対称型91を示し、図13(b)は非対称型92を示す。左カメラ71、右カメラ72とも、画面中央付近では(a)の対称型、画面左端付近では(b)の非対称型のスポットを持つとする。すなわち、図12で示したA1、B1、A2は図13(a)の、図12で示したC1、B2、C2は図13(b)のスポット形状になるものとする。   FIG. 13 shows examples of two types of spot shapes. Here, for easy understanding, only one dimension in the horizontal direction is considered, and a triangular shape as shown in FIG. 12 is assumed. FIG. 13A shows a left-right symmetric type 91, and FIG. 13B shows an asymmetric type 92. Both the left camera 71 and the right camera 72 have a symmetric spot (a) near the center of the screen and an asymmetric spot (b) near the left end of the screen. That is, assume that A1, B1, and A2 shown in FIG. 12 have the spot shape of FIG. 13A, and C1, B2, and C2 of FIG. 12 have the spot shape of FIG.

次に、図14に、2種類のスポット形状の自己、および相互相関の計算結果を示す。図14に示すa−aが図13(a)で示した対称型スポットの自己相関、図14に示すb−bが図13(b)で示した非対象型スポットの自己相関、図14に示すa−bが2種類のスポットの相互相関を示す。図14から、a−a、b−bはx=0で相関値が最小になるが、a−bの最小値はx<0にあることがわかる。これは対称型スポットの相関91と非対象型スポットの相関92が最大になるのは、二つのスポットのピーク位置が一致する配置ではなく、図15のように、ピーク位置がわずかに(dだけ)ずれた配置になることを示している。このズレ量dは非対象型スポットの重心位置とも異なっていることがわかる。   Next, FIG. 14 shows calculation results of self and cross-correlation of two types of spot shapes. 14 is the autocorrelation of the symmetric spot shown in FIG. 13A, bb shown in FIG. 14 is the autocorrelation of the non-target spot shown in FIG. 13B, and FIG. The ab shown shows the cross-correlation of two types of spots. From FIG. 14, it can be seen that the correlation value of aa and bb is minimum when x = 0, but the minimum value of ab is x <0. This is because the correlation 91 between the symmetric spot and the correlation 92 between the non-target spots is maximized because the peak positions of the two spots do not coincide with each other. ) It shows that the arrangement is shifted. It can be seen that the amount of deviation d is different from the position of the center of gravity of the non-target spot.

図12のステレオ画像では、被写体Aは左右の画像とも画面中央に写っているため、スポット形状は両方とも図13(a)で示した対称型であり、視差の計測の過程では、図14で示したa−aの形の相関係数が得られる。カメラ内部外部パラメータは完全に補正されていると仮定しているので、無限遠の被写体Aの視差は0となる。同様に被写体Cは、スポット形状は両方とも図13(b)で示した非対称型であり、図14で示したb−bの形の移動相関から、視差0と求められる。   In the stereo image of FIG. 12, since the subject A is shown in the center of the screen for both the left and right images, the spot shapes are both symmetrical as shown in FIG. 13A. A correlation coefficient in the form aa shown is obtained. Since it is assumed that the camera internal and external parameters are completely corrected, the parallax of the subject A at infinity is zero. Similarly, subject C is both asymmetric in the spot shape shown in FIG. 13B, and is obtained as parallax 0 from the movement correlation in the shape of bb shown in FIG.

ところが被写体Bの場合は、左カメラ画像81ではスポット形状は図13(a)で示した対称型となり、右カメラ画像82では図13(b)で示した非対称型となるため、相関値を最小とする対応点位置は、二つのスポットのピーク位置の差から、図15で示したdの分だけずれた値が得られてしまう。   However, in the case of subject B, the spot shape in the left camera image 81 is the symmetric type shown in FIG. 13A and the right camera image 82 is the asymmetric type shown in FIG. As for the corresponding point position, a value deviated by d shown in FIG. 15 is obtained from the difference between the peak positions of the two spots.

なお、図14では相関関数を示したが、図16(a)に、ステレオ視差演算でよく利用されるSAD(差分絶対値和)により演算された値を、図16(b)に、SSD(差分二乗和)により演算された値を示す。図13(a)で示した対称型スポットと図13(b)で示した非対称スポット間の差分最小値は、図14と同様に0からずれた位置となっており、これらの評価値を利用した場合でも、計算される視差値は相関を利用した場合と同様の誤差を含むことがわかる。   14 shows a correlation function, FIG. 16A shows values calculated by SAD (sum of absolute differences) often used in stereo parallax calculation, and FIG. 16B shows SSD ( The value calculated by the sum of squared differences) is shown. The minimum difference value between the symmetric spot shown in FIG. 13A and the asymmetric spot shown in FIG. 13B is shifted from 0 as in FIG. 14, and these evaluation values are used. Even in this case, it can be seen that the calculated disparity value includes the same error as in the case of using the correlation.

そこで、上記のような対応点位置の座標の差として算出した視差をテーブル参照により補正する技術が特許文献1に開示されている。特許文献1に係る発明は、カメラの歪曲特性や、カメラ取り付け位置のばらつきを補正することを目的とし、画像位置を、歪曲や組み付け誤差の無い理想的な座標値に修正する手段を設けたものである。   Therefore, Patent Document 1 discloses a technique for correcting a parallax calculated as a difference in coordinates of corresponding point positions as described above by referring to a table. The invention according to Patent Document 1 is provided with a means for correcting the image position to an ideal coordinate value free from distortion and assembly error for the purpose of correcting the distortion characteristics of the camera and the variation of the camera mounting position. It is.

しかし、特許文献1に示されるような技術を利用して、例え歪曲特性やカメラ取り付け位置ずれなどを、スポットピーク位置やスポット重心位置を基準とした理想像位置に完全に補正したとしても、スポット形状の違いにより、視差演算の結果に誤差が生じてしまう。   However, even if the technique shown in Patent Document 1 is used to completely correct distortion characteristics, camera mounting position deviations, etc., to the ideal image position based on the spot peak position or spot centroid position, Due to the difference in shape, an error occurs in the result of the parallax calculation.

そこで、本発明はこのような画面内でのスポット形状の違いに基づく視差を補正することにより、より高精度な視差検出、すなわちより高精度な距離検出を可能とする画像処理装置を提供することを目的とする。   Therefore, the present invention provides an image processing apparatus that enables more accurate parallax detection, that is, more accurate distance detection, by correcting parallax based on the difference in spot shape in the screen. With the goal.

上記課題を解決するため、本発明の画像処理装置は、複数の視点から撮像した複数の画像を入力する入力手段と、前記複数の画像間の視差を算出する視差算出手段を備える画像処理装置であって、前記視差算出手段により算出された視差を、画像内の像位置に応じたスポット形状に基づいて補正する視差補正手段を備えることを特徴とする。   In order to solve the above problems, an image processing apparatus of the present invention is an image processing apparatus including an input unit that inputs a plurality of images captured from a plurality of viewpoints, and a parallax calculation unit that calculates a parallax between the plurality of images. The apparatus includes a parallax correcting unit that corrects the parallax calculated by the parallax calculating unit based on a spot shape corresponding to an image position in the image.

本発明によれば、スポット形状の違いを考慮して視差を補正するので、高精度な視差演算を実現することができる。   According to the present invention, since the parallax is corrected in consideration of the difference in spot shape, a highly accurate parallax calculation can be realized.

本発明の第1実施形態の画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus according to a first embodiment of the present invention. 本発明の第1実施形態に関し、スポット形状テーブルのための画像の領域分割を示す図である。It is a figure which shows the area | region division of the image for a spot shape table regarding 1st Embodiment of this invention. 本発明の第1実施形態に関し、スポット形状計測装置の構成を示す概略図である。It is the schematic which shows the structure of the spot shape measuring apparatus regarding 1st Embodiment of this invention. 本発明の第1実施形態に関し、レーザスポット撮影画像から積算した1次元輝度分布データを示す図である。It is a figure which shows the one-dimensional luminance distribution data integrated | accumulated from the laser spot picked-up image regarding 1st Embodiment of this invention. 本発明の第1実施形態に関し、1/N画素単位での輝度分布データを示す図である。It is a figure which shows the luminance distribution data in 1 / N pixel unit regarding 1st Embodiment of this invention. 本発明の第1実施形態に関し、相関バイアステーブルの例を示す図である。It is a figure which shows the example of a correlation bias table regarding 1st Embodiment of this invention. 本発明の実施形態に関し、画像処理を説明するフロー図である。It is a flowchart explaining an image process regarding embodiment of this invention. 本発明の第2実施形態の画像処理装置を示すブロック図である。It is a block diagram which shows the image processing apparatus of 2nd Embodiment of this invention. 本発明の第2実施形態に関し、標準スポット基準のバイアス値同士の差分による近似を示す図である。It is a figure which shows the approximation by the difference of the bias value of a standard spot reference | standard regarding 2nd Embodiment of this invention. 一般的なスポット形状として、(a)対称型スポット形状、(b)非対称型スポット形状を示す図である。It is a figure which shows (a) symmetrical type spot shape and (b) asymmetric type spot shape as a general spot shape. ステレオカメラと被写体の配置関係を示す図である。It is a figure which shows the arrangement | positioning relationship between a stereo camera and a to-be-photographed object. 図10において、左右カメラが撮影する被写体のステレオ画像を示す図である。In FIG. 10, it is a figure which shows the stereo image of the to-be-photographed object which a right-and-left camera image | photographs. 1次元のみで捉えた、(a)対称型スポット形状、(b)非対称型スポット形状を示す図である。It is a figure showing (a) symmetrical spot shape and (b) asymmetrical spot shape caught only in one dimension. 図13に示した(a)対称型スポット形状、(b)非対称型スポット形状の自己/相互相関の計算結果を示す図である。It is a figure which shows the calculation result of the auto / cross correlation of (a) symmetrical spot shape shown in FIG. 13, (b) asymmetrical spot shape. 図13に示した(a)対称型スポット形状、(b)非対称型スポット形状の相互相関が最大となる配置を示す図である。It is a figure which shows arrangement | positioning with which the cross correlation of (a) symmetrical spot shape shown in FIG. 13 and (b) asymmetrical spot shape becomes the maximum. 上記2種類(対称/非対称)のスポット形状の、(a)SAD(差分絶対値和)、(b)SSD(差分二乗和)により演算された値を示す図である。It is a figure which shows the value calculated by (a) SAD (difference absolute value sum) and (b) SSD (difference sum of squares) of said 2 types (symmetric / asymmetric) spot shape.

[第1実施形態]
本発明の第1実施形態の画像処理装置1について、図1〜図6を用いて説明する。図1は、本実施形態の画像処理装置1を示す概略ブロック図である。一般的な平行等位の2台1組からなるステレオカメラで撮影した二つの画像が、図の左側から図示しない入力手段を介して画像処理装置1へ入力される(入力される画像を、それぞれ基準画像、比較画像とする)。なお、ここでは各カメラでの撮影画像が持つ歪曲特性やカメラ2台の相対位置のずれ等は各カメラ内で補正されており、入力されるステレオ画像は水平なエピポーラ線を持つものとする。
[First Embodiment]
An image processing apparatus 1 according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic block diagram showing an image processing apparatus 1 of the present embodiment. Two images photographed by a stereo camera composed of a set of two general parallel equivalence units are input to the image processing apparatus 1 from the left side of the figure via input means (not shown). Reference image and comparison image). Here, it is assumed that the distortion characteristics of the images taken by each camera, the displacement of the relative positions of the two cameras, and the like are corrected in each camera, and the input stereo image has a horizontal epipolar line.

まず、図1について、視差算出手段としての対応点探索部11、視差補正手段としての相関バイアステーブル12及び視差補正部13について、以下順に説明する。なお、相関バイアステーブル12は、視差補正手段がさらに備える視差バイアス値決定手段として機能するものである。   First, with reference to FIG. 1, the corresponding point search unit 11 as the parallax calculation unit, the correlation bias table 12 and the parallax correction unit 13 as the parallax correction unit will be described in the following order. The correlation bias table 12 functions as a parallax bias value determination unit further provided in the parallax correction unit.

対応点探索部11は、一般的なステレオカメラと同様に左右のカメラ画像の対応点を探索する。つまり、基準画像を領域分割し、(1)ラスタスキャン順に基準画像中の1領域を基準領域として選択する。(2)比較画像において、(1)で選択した基準領域と同じ位置からエピポーラ線上に一画素ずつ比較領域を移動しながら、基準領域と各比較領域の画素値の正規化相関を計算する。(3)相関係数が最も大きくなる比較領域の位置を対応点位置とする。   The corresponding point search unit 11 searches for corresponding points of the left and right camera images in the same manner as a general stereo camera. That is, the reference image is divided into regions, and (1) one region in the reference image is selected as the reference region in the raster scan order. (2) In the comparison image, the normalized correlation between the pixel values of the reference area and each comparison area is calculated while moving the comparison area pixel by pixel on the epipolar line from the same position as the reference area selected in (1). (3) The position of the comparison area where the correlation coefficient is the largest is taken as the corresponding point position.

対応点探索部11による上記処理においては、基準領域の中心の位置座標(基準点位置)、対応する比較領域の中心の位置座標(対応点位置)及び視差(二つのx軸座標の差)の3つの情報を基準領域ごとに出力するものである。なお、ここでは対応点位置として画素単位の座標値を求めるが、最大相関位置の近傍位置の相関値から補間演算により画素単位以下の精度で対応点位置を求めることもできる。また、相関係数の最大値の代わりに、差分絶対値和(SAD)や差分二乗和(SSD)の最小値を利用してもよい。   In the above processing by the corresponding point search unit 11, the position coordinates of the center of the reference area (reference point position), the position coordinates of the center of the corresponding comparison area (corresponding point position), and the parallax (difference between the two x-axis coordinates). Three pieces of information are output for each reference area. Here, the coordinate value of the pixel unit is obtained as the corresponding point position, but the corresponding point position can also be obtained with the accuracy of the pixel unit or less by the interpolation calculation from the correlation value in the vicinity of the maximum correlation position. Further, instead of the maximum value of the correlation coefficient, the minimum value of the sum of absolute differences (SAD) or the sum of squared differences (SSD) may be used.

相関バイアステーブル12は、予め計測した、画像面上の各位置でのスポット形状に応じた相関ピーク位置のずれ量を記録したテーブルである。その内容と設定方法は後述する。相関バイアステーブル12は、基準点、および対応点の位置座標を入力し、その組み合わせでのずれ量(視差バイアス)を出力する。   The correlation bias table 12 is a table in which the deviation amount of the correlation peak position corresponding to the spot shape at each position on the image plane, which is measured in advance, is recorded. The contents and setting method will be described later. The correlation bias table 12 inputs the reference point and the position coordinates of the corresponding point, and outputs a deviation amount (parallax bias) in the combination.

視差補正部13は、対応点探索部11の出力する視差に、相関バイアステーブル12の出力する視差バイアスを加算し、スポット形状の違いによる視差の誤差を補正する。   The parallax correction unit 13 adds the parallax bias output from the correlation bias table 12 to the parallax output from the corresponding point search unit 11 to correct the parallax error due to the difference in spot shape.

以下に、本実施形態について、スポット形状の計測からバイアス値の決定に至るまでの処理を説明する。相関バイアステーブル12は、画像面内の位置情報から、その位置でのスポット形状に応じた視差補正値(バイアス値)を取得するために利用する。画像面を図2のように(ここでは横5×縦3に)領域分割し、領域ごとの代表スポット形状を計測し対応するバイアス値を記録しておく。   In the following, the process from spot shape measurement to bias value determination will be described for the present embodiment. The correlation bias table 12 is used to acquire a parallax correction value (bias value) corresponding to the spot shape at that position from position information in the image plane. The image plane is divided into regions as shown in FIG. 2 (here, 5 × 3 in the horizontal direction), the representative spot shape for each region is measured, and the corresponding bias value is recorded.

スポット形状の計測について、図3を用いて以下説明する。図3は、領域分割された画像面の各位置のスポット形状を計測するスポット形状計測装置20の構成を示す概略図である。垂直軸及び水平軸の2軸回りのカメラ回転台22にスポット形状計測カメラ21を設置し、図の左方から図示しない発光装置により平行なレーザー光を入射する。このように設置し回転台の角度を調整することで、画像面上の任意の位置にレーザー光のスポットを形成することができる。   The spot shape measurement will be described below with reference to FIG. FIG. 3 is a schematic diagram showing the configuration of the spot shape measuring apparatus 20 that measures the spot shape at each position on the image plane divided into regions. A spot shape measurement camera 21 is installed on a camera turntable 22 around two axes of a vertical axis and a horizontal axis, and parallel laser light is incident from the left side of the figure by a light emitting device (not shown). By installing and adjusting the angle of the turntable in this way, a laser beam spot can be formed at an arbitrary position on the image plane.

各領域の中央、例えば図2の領域:0のスポット形状を計測する場合には、図中A点にレーザスポットが写るように回転台22の角度を調整し画像を撮影する。ここでは、x軸方向の視差を問題にしているので、得られた画像をy軸方向に積算し1次元のスポット形状を表す輝度分布データを作成する。図4に、レーザスポット撮影画像から1次元輝度分布データを計算した結果を示す。   When measuring the spot shape of the center of each region, for example, region 0 in FIG. 2, the angle of the turntable 22 is adjusted so that the laser spot appears at point A in the figure, and an image is taken. Here, since parallax in the x-axis direction is a problem, the obtained images are integrated in the y-axis direction to create luminance distribution data representing a one-dimensional spot shape. FIG. 4 shows the result of calculating the one-dimensional luminance distribution data from the laser spot photographed image.

図4の上段に、レーザスポット画像の一部であるレーザスポット画像31から得られた1次元輝度分布データを示す。また、図4の中段に、この1次元輝度分布データを縦方向に積算した結果を縦方向積算結果32として示す。さらに、図4の下段には、縦方向積算結果32をグラフ33として示す。   The upper part of FIG. 4 shows one-dimensional luminance distribution data obtained from the laser spot image 31 which is a part of the laser spot image. Further, in the middle part of FIG. 4, the result of integrating the one-dimensional luminance distribution data in the vertical direction is shown as a vertical integration result 32. Furthermore, the vertical integration result 32 is shown as a graph 33 in the lower part of FIG.

なお、図5に示すように1/N画素相当カメラを利用し水平回転軸廻りに回転させるごとに、N枚の画像を撮影してデータを並べ替えれば1/N画素単位でのスポット形状データを計測ことができる。なお、図5においては、1枚目の画像41に対し、2枚目の画像42は、1/2画素をずらして撮影したことによる1/2画素単位の輝度分布データを算出した結果をグラフ43で表している。その他、多数の測定値の平均や、レンズ設計データによるスポット形状モデルフィッティングなど、一般的なデータ処理方法により計測データの精度を向上させることができる。   In addition, as shown in FIG. 5, every time the image is rotated around the horizontal rotation axis using a 1 / N pixel equivalent camera, if N pieces of images are taken and rearranged, the spot shape data in units of 1 / N pixels is obtained. Can be measured. In FIG. 5, the second image 42 is obtained by calculating the luminance distribution data in units of ½ pixels obtained by shifting the ½ pixel for the second image 42 with respect to the first image 41. 43. In addition, the accuracy of the measurement data can be improved by a general data processing method such as an average of a large number of measurement values or spot shape model fitting based on lens design data.

次に、バイアス値の決定について図6を用いて以下説明する。各領域で計測されたスポット形状同士の相互相関関数を計算し、二つの領域の組合せに対して補正量を記録しておく。図6は、その補正量を記録した相関バイアステーブル12の例を示したものである。ここでは、縦軸が基準画像の領域番号、横軸が比較画像の領域番号を表し、各欄の数字が左右画像のスポット形状の相互相関のピーク位置のずれ量(画素単位)を示す。したがって、通常のステレオ対応点探索の結果得られる視差量に、この相関バイアステーブル12の例から読み取ったバイアス値を加算することによりスポット形状の変化による視差量の誤差を補正することができる。   Next, determination of the bias value will be described below with reference to FIG. A cross-correlation function between the spot shapes measured in each region is calculated, and a correction amount is recorded for the combination of the two regions. FIG. 6 shows an example of the correlation bias table 12 in which the correction amount is recorded. Here, the vertical axis represents the region number of the reference image, the horizontal axis represents the region number of the comparison image, and the numbers in each column indicate the shift amount (pixel unit) of the cross-correlation peak position of the spot shape of the left and right images. Therefore, by adding the bias value read from the example of the correlation bias table 12 to the parallax amount obtained as a result of the normal stereo correspondence point search, an error in the parallax amount due to a change in the spot shape can be corrected.

上述した、本実施形態の画像処理の流れについて図7を用いて説明する。まず、ステレオカメラで撮影された基準画像及び比較画像を入力する(ステップS1)。基準画像及び比較画像は上述したようにスポット形状として計測されたものを使用する。次に、基準画像と比較画像の視差を算出する(ステップS2)。つまり、この視差は上述した対応点探索部11により出力される。さらに、左右画像のスポット形状の相互相関のピーク位置のずれ量であるバイアス値を相関バイアステーブル12に記録する(ステップS3)。そして、ステップS2で得た視差量に、相関バイアステーブル12から読み取ったバイアス値を加算する(ステップS4)。   The flow of the image processing of this embodiment described above will be described with reference to FIG. First, a reference image and a comparison image taken with a stereo camera are input (step S1). As the reference image and the comparison image, those measured as the spot shape as described above are used. Next, the parallax between the reference image and the comparison image is calculated (step S2). That is, this parallax is output by the corresponding point search unit 11 described above. Further, a bias value, which is a shift amount of the cross-correlation peak positions of the spot shapes of the left and right images, is recorded in the correlation bias table 12 (step S3). Then, the bias value read from the correlation bias table 12 is added to the parallax amount obtained in step S2 (step S4).

なお、レンズ組み付け公差等によるカメラ個体差も含めて補正するために、カメラ個体ごとにスポット形状、視差バイアス値を計測し記録しておくものとする。ただしスポット形状分布はレンズ設計にのみに依存して、同じモデルのカメラ個体はすべて同じ特性を持つものとみなし、各個体の計測工程を省略して、1つの相関バイアステーブルを、同じモデルのすべてのカメラで利用することもできる。   It should be noted that in order to correct for individual camera differences due to lens assembly tolerances, spot shapes and parallax bias values are measured and recorded for each individual camera. However, the spot shape distribution depends only on the lens design, and all individual cameras of the same model are considered to have the same characteristics, and the measurement process of each individual is omitted, and one correlation bias table is assigned to all of the same model. It can also be used with other cameras.

[第2実施形態]
本発明の第2実施形態について、図8及び9を用いて説明する。図8は、第2実施形態の画像処理装置50を示す概略ブロック図である。なお、第1実施形態と同様の構成については、その説明を省略する。第1実施形態と異なる点としては、第2実施形態の対応点探索部51は入力画像1及び入力画像2の内容に応じ、基準点位置・対応点位置・視差のセットを出力するものである。
[Second Embodiment]
A second embodiment of the present invention will be described with reference to FIGS. FIG. 8 is a schematic block diagram showing the image processing apparatus 50 of the second embodiment. Note that the description of the same configuration as in the first embodiment is omitted. The difference from the first embodiment is that the corresponding point search unit 51 of the second embodiment outputs a set of reference point position / corresponding point position / parallax according to the contents of the input image 1 and the input image 2. .

また、本実施形態のバイアステーブルは予め特徴点位置に応じた視差補正量を画面領域ごとに記録しておく。ここでは、第1実施形態の相関バイアステーブル12とは異なり、二つの領域の組合せではなく一つの領域情報に対してひとつのバイアス値を対応づける1次元テーブルを二つ使う(第1バイアステーブル52、第2バイアステーブル53)。入力する対応点座標を含む領域に対応づけられた視差バイアス1、視差バイアス2をそれぞれ出力する。また、視差補正部54は対応点探索部51の出力する視差に視差バイアス1及び視差バイアス2を加算し補正する。   The bias table of the present embodiment records a parallax correction amount corresponding to the feature point position for each screen area in advance. Here, unlike the correlation bias table 12 of the first embodiment, two one-dimensional tables that associate one bias value with one region information are used instead of a combination of two regions (first bias table 52). , Second bias table 53). The parallax bias 1 and the parallax bias 2 associated with the region including the corresponding corresponding point coordinates are output. Further, the parallax correction unit 54 corrects the parallax bias 1 and the parallax bias 2 added to the parallax output from the corresponding point search unit 51.

第2実施形態のバイアステーブルの設定について、図9を用いて説明する。まず、標準的なスポット形状として、例えばレンズ設計値からシミュレートされる理想的な画面中央の対称型スポット(標準スポット形状61)を用意する。その上で、第1実施形態と同様に、実際のカメラの各画像領域でのスポット形状を計測し、計測されたスポット形状(Xタイプ62、Yタイプ63)と標準スポット形状61との間の相関バイアス量を、その画像領域のバイアス値としてバイアステーブルに記録する。ただし、入力画像2用の第2バイアステーブル53では、符号を反転して記録しておく。これにより、第2実施形態の視差補正部54では、各スポット形状に対応したバイアス量の差分が視差に加算されることになる。   The setting of the bias table of the second embodiment will be described with reference to FIG. First, as a standard spot shape, for example, an ideal symmetrical spot (standard spot shape 61) at the center of the screen simulated from a lens design value is prepared. Then, as in the first embodiment, the spot shape in each image area of the actual camera is measured, and the measured spot shape (X type 62, Y type 63) and the standard spot shape 61 are measured. The correlation bias amount is recorded in the bias table as the bias value of the image area. However, in the second bias table 53 for the input image 2, the sign is reversed and recorded. Thereby, in the parallax correction part 54 of 2nd Embodiment, the difference of the bias amount corresponding to each spot shape is added to parallax.

第2実施形態の第1バイアステーブル52及び第2バイアステーブル53では、標準スポット形状61と各スポット形状(Xタイプ62、Yタイプ63)のバイアス値だけが利用され、形状の異なる非対称型スポット同士(Xタイプ62とYタイプ63同士)の相関バイアス量は直接は計算されていない。ただし、図9に示す通り、一般にスポット形状の偏りが大きくなるほど(Yタイプの方がXタイプより)バイアス値も大きくなる傾向がある(V0>V1)ため、非対称型スポット同士の相関バイアス量は、標準スポットとのバイアス値(視差バイアス65と視差バイアス64)同士の差分V0-1(視差バイアス66)として近似できる。 In the first bias table 52 and the second bias table 53 of the second embodiment, only the bias values of the standard spot shape 61 and each spot shape (X type 62, Y type 63) are used, and asymmetric spots having different shapes are used. The correlation bias amount between the X type 62 and the Y type 63 is not directly calculated. However, as shown in FIG. 9, generally, the bias value tends to increase (V 0 > V 1 ) as the spot shape bias increases (the Y type is more than the X type). The amount can be approximated as a difference V 0-1 (parallax bias 66) between bias values (parallax bias 65 and parallax bias 64) with the standard spot.

そのため第2実施形態では、第1実施形態のような2次元の相関バイアステーブルを利用しなくても、同じスポット形状同士の視差は補正量が0であり、スポット形状に違いが大きいほど補正量が大きくなるという、第1実施形態の補正に類似した効果が期待できる。なお、第2実施形態の画像処理の流れは上記の通りバイアス値の記録手法が異なるものであるが第1実施形態に準ずるものである。   Therefore, in the second embodiment, the correction amount of the parallax between the same spot shapes is 0 without using the two-dimensional correlation bias table as in the first embodiment. An effect similar to the correction of the first embodiment can be expected. The image processing flow of the second embodiment is the same as that of the first embodiment although the bias value recording method is different as described above.

本発明によれば、テーブル参照やバイアス値加算という手段を用いるので、簡単な構成で、スポット形状を考慮した視差補正を実現することができる。   According to the present invention, since means such as table reference and bias value addition are used, parallax correction considering the spot shape can be realized with a simple configuration.

なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。   Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention.

1、50 画像処理装置
11、51 対応点探索部
12 相関バイアステーブル
13、54 視差補正部
20 スポット形状計測装置
21 スポット形状計測カメラ
22 カメラ回転台
52 第1バイアステーブル
53 第2バイアステーブル
DESCRIPTION OF SYMBOLS 1, 50 Image processing apparatus 11, 51 Corresponding point search part 12 Correlation bias table 13, 54 Parallax correction part 20 Spot shape measurement apparatus 21 Spot shape measurement camera 22 Camera turntable 52 1st bias table 53 2nd bias table

特許第3261115号公報Japanese Patent No. 3261115

Claims (6)

複数の視点から撮像した複数の画像を入力する入力手段と、前記複数の画像間の視差を算出する視差算出手段を備える画像処理装置であって、
前記視差算出手段により算出された視差を、画像内の像位置に応じたスポット形状に基づいて補正する視差補正手段を備えることを特徴とする画像処理装置。
An image processing apparatus comprising: an input unit that inputs a plurality of images captured from a plurality of viewpoints; and a parallax calculation unit that calculates a parallax between the plurality of images.
An image processing apparatus comprising: a parallax correction unit that corrects the parallax calculated by the parallax calculation unit based on a spot shape corresponding to an image position in an image.
前記視差補正手段は、スポット形状に基づいて視差バイアス値を決定する視差バイアス値決定手段をさらに備え、前記視差バイアス値決定手段により決定された視差バイアス値を前記視差算出手段により算出された視差に加算することを特徴とする請求項1に記載の画像処理装置。   The parallax correction unit further includes a parallax bias value determination unit that determines a parallax bias value based on a spot shape, and the parallax bias value determined by the parallax bias value determination unit is converted into a parallax calculated by the parallax calculation unit. The image processing apparatus according to claim 1, wherein addition is performed. 前記視差バイアス値決定手段は、画像面を領域分割し、特徴点の属する領域に応じた視差バイアス値を決定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the parallax bias value determining unit divides an image plane into regions and determines a parallax bias value corresponding to a region to which a feature point belongs. 複数の視点から撮像した複数の画像を入力する入力ステップと、前記複数の画像間の視差を算出する視差算出ステップを備える画像処理方法であって、
前記視差算出ステップにより算出された視差を、画像内の像位置に応じたスポット形状に基づいて補正する視差補正ステップを備えることを特徴とする画像処理方法。
An image processing method comprising: an input step for inputting a plurality of images taken from a plurality of viewpoints; and a parallax calculation step for calculating a parallax between the plurality of images,
An image processing method, comprising: a parallax correction step of correcting the parallax calculated by the parallax calculation step based on a spot shape according to an image position in the image.
前記視差補正ステップは、スポット形状に基づいて視差バイアス値を決定する視差バイアス値決定ステップをさらに備え、前記視差バイアス値決定ステップにより決定された視差バイアス値を前記視差算出ステップにより算出された視差に加算することを特徴とする請求項4に記載の画像処理方法。   The parallax correction step further includes a parallax bias value determination step for determining a parallax bias value based on a spot shape, and the parallax bias value determined by the parallax bias value determination step is changed to the parallax calculated by the parallax calculation step. The image processing method according to claim 4, wherein addition is performed. 前記視差バイアス値決定ステップは、画像面を領域分割し、特徴点の属する領域に応じた視差バイアス値を決定することを特徴とする請求項5に記載の画像処理方法。   6. The image processing method according to claim 5, wherein the parallax bias value determining step divides the image plane into regions and determines a parallax bias value corresponding to a region to which the feature point belongs.
JP2011203091A 2011-09-16 2011-09-16 Image processing device and image processing method Withdrawn JP2013065179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011203091A JP2013065179A (en) 2011-09-16 2011-09-16 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011203091A JP2013065179A (en) 2011-09-16 2011-09-16 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2013065179A true JP2013065179A (en) 2013-04-11

Family

ID=48188617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011203091A Withdrawn JP2013065179A (en) 2011-09-16 2011-09-16 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2013065179A (en)

Similar Documents

Publication Publication Date Title
US11985293B2 (en) System and methods for calibration of an array camera
US9348111B2 (en) Automatic detection of lens deviations
CN105453136B (en) The three-dimensional system for rolling correction, method and apparatus are carried out using automatic focus feedback
JP5229541B2 (en) Distance measuring device, distance measuring method, and program
US20110064298A1 (en) Apparatus for evaluating images from a multi camera system, multi camera system and process for evaluating
JP6071257B2 (en) Image processing apparatus, control method therefor, and program
KR20140108078A (en) Method, device, and apparatus for generating stereoscopic images using a non-stereoscopic camera
JP4055998B2 (en) Distance detection device, distance detection method, and distance detection program
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
WO2021054140A1 (en) Image processing device, image processing method, imaging device, and program
CN106225676A (en) Method for three-dimensional measurement, Apparatus and system
US8817246B2 (en) Lens test device and method
JP5549283B2 (en) Distance acquisition device
JP2020174331A (en) Image capturing apparatus, image processing apparatus, control method, and program
JP6040782B2 (en) Image processing apparatus and program
JP4605582B2 (en) Stereo image recognition apparatus and method
JP2013120435A (en) Image processing apparatus and image processing method, and program
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JPH10289315A (en) Parallax calculation device and method, and distance calculation device and method
JP2013065179A (en) Image processing device and image processing method
JP5453328B2 (en) Stereo imaging system, correction device, and program thereof
CN105578169A (en) Information processing system and information processing method
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2014507907A (en) Method for calibrating a stereoscopic photographic device
JP7227454B2 (en) ranging camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202