JP2013120435A - Image processing apparatus and image processing method, and program - Google Patents
Image processing apparatus and image processing method, and program Download PDFInfo
- Publication number
- JP2013120435A JP2013120435A JP2011267032A JP2011267032A JP2013120435A JP 2013120435 A JP2013120435 A JP 2013120435A JP 2011267032 A JP2011267032 A JP 2011267032A JP 2011267032 A JP2011267032 A JP 2011267032A JP 2013120435 A JP2013120435 A JP 2013120435A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- imaging
- viewpoints
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 35
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 215
- 238000004364 calculation method Methods 0.000 claims abstract description 63
- 238000005096 rolling process Methods 0.000 claims abstract description 21
- 230000003287 optical effect Effects 0.000 claims description 21
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 238000000034 method Methods 0.000 description 51
- 230000014509 gene expression Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 22
- 238000011156 evaluation Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 239000013598 vector Substances 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 12
- 238000000605 extraction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000004075 alteration Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数の視点から撮像した画像を処理する画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for processing images captured from a plurality of viewpoints.
近年、デジタルカメラやビデオカメラの撮像素子として、CMOSイメージセンサが広く用いられている。CMOSイメージセンサは、従来、撮像素子として用いられる事の多かったCCDイメージセンサに対して、低消費電力、低コストなどといった優れた特徴を有する。 In recent years, CMOS image sensors have been widely used as image sensors for digital cameras and video cameras. The CMOS image sensor has excellent features such as low power consumption and low cost as compared with a CCD image sensor that has been conventionally used as an image sensor.
しかしながら、CMOSイメージセンサは画素値の読み出しをもって、露光が完了するため、画素毎に露光のタイミングに時間差がある。一般的なCMOSイメージセンサは、ライン毎に画素値を同時に読み出す機構を持ち、時間の経過と共に読み出しラインを走査することで像全体の画像を取得する(ローリングシャッター方式)。そのため、撮像中に手ぶれ等で被写体の像が移動すると、取得される画像が歪んだものとなってしまう。この現象をローリングシャッター歪みと呼ぶ。 However, since the CMOS image sensor completes the exposure by reading the pixel value, there is a time difference in the exposure timing for each pixel. A general CMOS image sensor has a mechanism for simultaneously reading out pixel values for each line, and acquires an image of the entire image by scanning the readout line over time (rolling shutter method). For this reason, if the image of the subject moves due to camera shake or the like during imaging, the acquired image becomes distorted. This phenomenon is called rolling shutter distortion.
このようなローリングシャッター方式のイメージセンサは、通常のデジタルカメラやビデオカメラだけでなく、複数の撮像部を用いて被写体を複数視点から撮像する多視点撮像装置にも用いられる。多視点撮像装置で撮像した画像は、仮想視点画像の合成(非特許文献1)や、被写体距離の取得(非特許文献2)などに用いられる。このとき、各視点の画像にローリングシャッター歪みが含まれていると、合成画像の画質劣化や被写体距離推定精度の低下などの問題が生じる。そのため、ローリングシャッター方式により生じる歪み(ローリングシャッター歪み)を補正する必要がある。 Such a rolling shutter type image sensor is used not only for a normal digital camera and video camera, but also for a multi-viewpoint imaging apparatus that captures a subject from a plurality of viewpoints using a plurality of imaging units. The image captured by the multi-viewpoint imaging device is used for synthesis of a virtual viewpoint image (Non-Patent Document 1), acquisition of a subject distance (Non-Patent Document 2), and the like. At this time, if a rolling shutter distortion is included in each viewpoint image, problems such as deterioration in the image quality of the synthesized image and a decrease in subject distance estimation accuracy occur. Therefore, it is necessary to correct distortion (rolling shutter distortion) caused by the rolling shutter system.
多視点撮像装置のように複数の画像を取得可能なシステムにおいて、ローリングシャッター歪みを補正する技術としては、特許文献1および非特許文献3などが知られている。特許文献1には、連続して複数枚の画像を撮像し、ブロックマッチングによって画像上の各領域の動きベクトルを求め、画像上の座標に対応する露光時刻を加味して、各領域を移動・変形することでローリングシャッター歪みを補正する技術が開示されている。
As a technique for correcting rolling shutter distortion in a system capable of acquiring a plurality of images such as a multi-viewpoint imaging apparatus,
また、非特許文献3には、多視点撮像装置において各個眼の撮像タイミングをずらすことで、ある微小時間内に各個眼が撮像する領域を異なるものとし、各個眼の画像を結合することでローリングシャッター歪みが低減された画像を得る技術が開示されている。 Further, Non-Patent Document 3 discloses that in a multi-viewpoint imaging apparatus, the imaging timing of each eye is shifted to change the area captured by each eye within a certain minute time, and rolling is performed by combining the images of each eye. A technique for obtaining an image with reduced shutter distortion is disclosed.
しかしながら、特許文献1に記載の方法では、複数の画像間の視点が同一に近い状況を仮定しているため、画像間に視点の差がある場合には精度が低下するという問題がある。また、非特許文献3に記載の方法では、被写体が同一平面上にあると仮定しているため、奥行きのある被写体に対して精度が低下するという問題がある。したがって、これらの方法は複数の視点から非平面被写体を撮像する多視点撮像装置には適していない。
However, the method described in
本発明の目的は、ローリングシャッター方式のイメージセンサを用いた多視点撮像装置において、撮像中の多視点撮像装置の動きを推定する手段を提供することにある。また、推定した動きを用いてローリングシャッター歪みの影響を補正しながら画像合成もしくは被写体距離推定を行う手段を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide means for estimating the motion of a multi-viewpoint imaging device during imaging in a multi-viewpoint imaging device using a rolling shutter type image sensor. It is another object of the present invention to provide means for performing image composition or subject distance estimation while correcting the influence of rolling shutter distortion using the estimated motion.
上記課題を解決するために、本発明に係る画像処理装置は、複数の視点より撮像された画像群を取得する多視点画像取得手段と、前記複数の視点の相対的な配置を取得する視点配置情報取得手段と、前記複数の視点間で被写体上の同一の点に対応する画像上の点の組を探索する対応点探索手段と、前記取得した画像上の点が露光された時刻を算出する露光時刻算出手段と、前記点の組の画像上の座標と、前記露光された時刻と、前記複数の視点の相対的な配置と、から前記複数の視点の撮像中の動きを表すパラメータを推定する動きパラメータ算出手段とを有する。 In order to solve the above problems, an image processing apparatus according to the present invention includes a multi-viewpoint image acquisition unit that acquires a group of images captured from a plurality of viewpoints, and a viewpoint arrangement that acquires a relative arrangement of the plurality of viewpoints. Information acquisition means; corresponding point search means for searching for a set of points on the image corresponding to the same point on the subject between the plurality of viewpoints; and time at which the points on the acquired image are exposed Estimating a parameter representing motion during imaging of the plurality of viewpoints from the exposure time calculation means, the coordinates of the set of points on the image, the exposure time, and the relative arrangement of the plurality of viewpoints Motion parameter calculating means.
本発明によれば、ローリングシャッター方式のイメージセンサを用いた多視点撮像装置において、撮像中の多視点撮像装置の動きを推定することが可能になる。また、推定した動きを用いてローリングシャッター歪みの影響を補正しながら画像合成もしくは被写体距離推定を行うことが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to estimate the motion of the multi-viewpoint imaging device during imaging in the multi-viewpoint imaging device using the rolling shutter type image sensor. Further, it is possible to perform image synthesis or subject distance estimation while correcting the influence of rolling shutter distortion using the estimated motion.
(実施形態1)
<撮像装置の全体構成>
図1は、本発明に係る多視点撮像装置の一例を示す模式的な図である。多視点撮像装置は、筺体101を有する。図1(a)は、例示の多視点撮像装置の正面図である。図1(b)は、例示の多視点撮像装置の背面図である。
(Embodiment 1)
<Overall configuration of imaging device>
FIG. 1 is a schematic diagram showing an example of a multi-viewpoint imaging apparatus according to the present invention. The multi-viewpoint imaging apparatus has a
撮像部105〜113は、多視点撮像装置の正面に複数に配置されており、これにより多視点撮像装置は複数の視点の画像を取得することができる。多視点撮像装置は、撮影ボタン102、ディスプレイ103、操作ボタン104をさらに有する。
The
操作ボタン104とディスプレイ103とを用いて設定を行い、撮影ボタン102を押下することで、撮像部105〜113による撮像が行われる。取得した画像および合成した画像をディスプレイ103に表示することができる。
Setting is performed using the
図2は、本発明の実施形態1に係る、画像処理部としての機能を備える多視点撮像装置の構成の一例を示すブロック図である。 FIG. 2 is a block diagram illustrating an example of a configuration of a multi-viewpoint imaging apparatus having a function as an image processing unit according to the first embodiment of the present invention.
多視点撮像部213は、詳細は後述するが、複数の撮像部から構成され、複数の視点より画像群を取得する。なお、複数の視点から取得される画像群を多視点画像と称することとする。なお、多視点撮像部213を構成する各撮像部は、ローリングシャッター方式のイメージセンサを持ち、これを用いて光学系によって結像した像を画像データに変換することができる。
Although the details will be described later, the
動き推定部214は、詳細は後述するが、多視点撮像部213により取得された多視点画像から、撮像中の多視点撮像装置の動きを推定する。動き推定部214は、異なる視点の画像間の対応点を探索し、この探索結果に基づいて動きの推定を行う。
As will be described in detail later, the
被写体距離推定部215は、動き推定部214が取得した撮像中の多視点撮像装置の動きについての情報と、異なる視点の画像間の対応点を用いて、被写体上の点までの距離を推定する。
The subject
なお、動き推定部214及び被写体距離推定部215は、多視点撮像部を構成する複数の視点の配置、特性の情報や、各撮像部を構成する撮像素子の露光・読み出し制御についての情報を必要とする。これらの情報はあらかじめ算出されており、ROM202ないしはRAM203に格納されているものとする。
Note that the
CPU201は、各構成の処理全てに関わり、 ROM202やRAM203に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM202とRAM203は、その処理に必要なプログラム、データ、作業領域などをCPU201に提供する。
The
バス210は各構成間で、データや処理の指示をやり取りするための経路として機能する。
The
操作部204は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザー指示を受け取る。
The
キャラクタージェネレーション209は、文字やグラフィックなどを生成する。
表示部206は、一般的には液晶ディスプレイが広く用いられており、キャラクタージェネレーション209や表示制御部205から受け取った撮影画像や文字の表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、ユーザー指示を操作部204の入力として扱うことも可能である。
In general, a liquid crystal display is widely used as the
デジタル信号処理部212は多視点撮像部213により取得された多視点画像のγ調整や欠陥画素の補間、デモザイクなどを行う。これらの処理は動き推定部214による処理の前に行われる。また、出力、表示される多視点画像のγ調整やホワイトバランスの調整なども行う。
The digital
エンコーダ部211は出力される多視点画像のエンコード処理を行う。
The
メディアインターフェース207は、PC・その他メディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)208につなぐためのインターフェースである。メディアインターフェース207を介して被写体距離の推定結果及び多視点画像の出力が行われる。
The
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.
<多視点撮像部の構成>
図3は、多視点撮像部213の構成例を示す図である。
<Configuration of multi-viewpoint imaging unit>
FIG. 3 is a diagram illustrating a configuration example of the
撮像部301〜309は、それぞれ単一の視点から画像を取得する。これらを空間的に異なる位置に配置することにより、多視点画像を取得する。なお、撮像制御部310が、CPU201からの指示に基づいて撮像部301〜309の動作を制御する。
The
次に、図4に示すブロック図を用いて撮像部301〜309の構成例を説明する。
Next, a configuration example of the
レンズ401及びレンズ402は、結像光学系を構成する。被写体から発せられた光線は該結像光学系により、絞り403、IRカットフィルタ404、ローパスフィルタ405、カラーフィルタ406を通過した後に、撮像素子407上に結像される。
The
光学系制御部410は、レンズ401及びレンズ402を制御して、結像光学系における合焦距離や焦点距離を変化させる。また、絞り403を開閉させることにより、F値を調整することができる。
The optical
撮像部301〜309それぞれが備える光学系制御部410に対し、撮像制御部310により一括して制御値が設定される。設定される合焦距離や焦点距離、F値は、操作部204を介してユーザーにより入力された設定値か、又は別途設けられた自動露出装置、オートフォーカス装置などにより算出された値に基づいて決められる。
Control values are collectively set by the
なお、ここで示した光学系の構成は、説明のために単純化したものであり、撮像素子上に被写体の像を結像させる構成を備えていれば、任意の構成にすることができる。また、カラー画像を取得する構成について説明したが、取得する画像は白黒やマルチバンド、画素毎に露出の異なる画像でもよい。 Note that the configuration of the optical system shown here is simplified for the sake of explanation, and any configuration can be used as long as it has a configuration for forming an image of a subject on the image sensor. Further, the configuration for acquiring a color image has been described, but the acquired image may be black and white, multiband, or an image with different exposure for each pixel.
撮像素子407及びA/D変換部408は、CMOSイメージセンサなどのイメージセンサに相当する。撮像素子407は2次元の格子状に配列され、結像された像を電気信号に変換する。A/D変換部408は電気信号に変換された像の情報をデジタル信号に変換する。デジタル信号に変換された像の情報は、画像データとしてバッファ409に格納される。
The
撮像素子制御部411は、撮像素子407及びA/D変換部408に対して、露光の開始と信号の読み出しの制御を行う。露光・読み出しは、撮像素子がなす格子上のライン毎に行われる。このラインを以降、同時露光ラインと呼ぶ。同時露光ラインは時間が進むごとに走査され、一定時間かけて像全体の画像データが取得される。露光・読み出しを開始するタイミングは、撮像素子制御部411によって指示される。同時露光ラインの走査の順序や速度は、設計によってあらかじめ決めることができ、または撮像制御部310によって撮像素子制御部411に対して指示されるようにしてもよい。
The image
なお、イメージセンサはCMOSイメージセンサでなくてもよく、結像された像をライン毎にデジタル信号に変換し、ラインを走査することで像全体の画像データを得ることが可能な構成であれば、どのような構成でもよい。 Note that the image sensor may not be a CMOS image sensor, as long as the image can be obtained by converting the formed image into a digital signal for each line and scanning the line. Any configuration may be used.
同時露光ラインの走査の順序は連続的である方が望ましいが、いくつかの不連続点があってもかまわない。また、同時露光ラインは厳密に1ラインである必要は無く、隣接もしくは離間された複数のラインでもかまわない。また、同時露光ラインは線状とみなせるならば厳密に直線でなくてもよい。また、同時露光ライン上での露光・読み出しは厳密に同時である必要は無く、次ラインとの露光・読み出しの時間差相当のずれが、同時露光ライン上の撮像素子間で存在してもかまわない。 The scanning order of the simultaneous exposure lines is preferably continuous, but there may be several discontinuities. In addition, the simultaneous exposure line need not be exactly one line, and may be a plurality of adjacent or separated lines. The simultaneous exposure line may not be strictly a straight line as long as it can be regarded as a linear shape. In addition, exposure and readout on the simultaneous exposure line do not have to be exactly the same, and a deviation corresponding to the time difference between exposure and readout with the next line may exist between image sensors on the simultaneous exposure line. .
以上、撮像部301〜309を図4のみで説明したが、撮像部301〜309の詳細な設計や構成は同一でなくてもよく、それぞれが被写体の像を結像し、画像データを取得する機能を有すれば、どのような構成でもかまわない。
As described above, the
次に、図5を用いて撮像部301〜309の配置例について説明する。
Next, an arrangement example of the
各撮像部301〜309は、その結像光学系の光軸方向を軸に持つ円筒形の筺体に格納され、多視点撮像装置の筺体501上に格子状に配置される。また、各撮像部の結像光学系の光軸は同じ向きになるよう配置されている。図5(a)は多視点撮像装置を正面から見た模式的な図である。図5(b)は、図5(a)における左方から多視点撮像装置を見た模式的な図である。図5(c)は、図5(a)における上方から多視点撮像装置を見た模式的な図である。ここで、各図の関係を明らかにするため、図の中に右手系の座標軸を記した。
Each of the
なお、本実施形態では撮像部の数を9個としているが、複数視点からの撮像が可能であれば、撮像部の数はいくつであっても構わない。また、図5に示す配置は一例に過ぎず、各視点の配置が設計ないしは計測結果から知ることができるならば、どのような配置でもかまわない。 In the present embodiment, the number of image pickup units is nine. However, any number of image pickup units may be used as long as image pickup from a plurality of viewpoints is possible. The arrangement shown in FIG. 5 is merely an example, and any arrangement may be used as long as the arrangement of each viewpoint can be known from the design or measurement result.
次に、図6を用いて、以降の説明で用いる視点の配置情報の記述方法について説明する。ここでは各視点の画像を取得する撮像部を、単純な透視投影カメラとして考える。座標系として、撮像部座標系、多視点撮像部座標系、世界座標系を用いて、それらの関係に基づいて視点の配置を表現する。各座標軸の関係は右手系とする。図6において、n番目の撮像部座標系の原点をOn、多視点撮像部座標系の原点をOM、世界座標系の原点をOWとして表している。 Next, a description method of viewpoint arrangement information used in the following description will be described with reference to FIG. Here, an imaging unit that acquires an image of each viewpoint is considered as a simple perspective projection camera. As the coordinate system, an imaging unit coordinate system, a multi-viewpoint imaging unit coordinate system, and a world coordinate system are used, and the arrangement of viewpoints is expressed based on these relationships. The relationship between the coordinate axes is a right-handed system. 6 depicts the origin of the n-th image pickup section coordinate system O n, origin O M multi-view image capturing unit coordinate system, the origin of the world coordinate system as O W.
多視点撮像部座標系から見たn番目の撮像部座標系の原点の位置を3行1列の行列TMnで表す。また、原点を重ねた状態で3行3列の回転行列RMnにより多視点撮像部座標系の座標軸を回転すると、n番目の撮像部座標系の座標軸に重なるものとする。このとき、ある点のn番目の撮像部座標系で表された位置Xnから、多視点撮像系で表された位置XMへの変換は式1のようになる。XnおよびXMは3行1列の行列であり、1行目がx成分、行目がy成分、3行目がz成分を表す。
The position of the origin of the n-th imaging unit coordinate system viewed from the multi-view imaging unit coordinate system is represented by a matrix T Mn of 3 rows and 1 column. Further, when the coordinate axes of the multi-viewpoint imaging unit coordinate system are rotated by the 3 × 3 rotation matrix R Mn with the origins overlapped, the coordinate axes of the nth imaging unit coordinate system overlap. At this time, the conversion from the position X n represented by the n-th imaging unit coordinate system of a certain point to the position X M represented by the multi-view imaging system is expressed by
世界座標系から多視点撮像部座標系の原点の位置を3行1列の行列TWMで表す。また、原点を重ねた状態で3行3列の回転行列RWMにより世界座標系の座標軸を回転すると、多視点撮像部座標系の座標軸に重なるものとする。このとき、ある点の多視点撮像部座標系で表された位置XMから、世界撮像系で表された位置XWへの変換は式2のようになる。XMおよびXWは3行1列の行列であり、1行目がx成分、行目がy成分、3行目がz成分を表す。 The position of the origin of the multi-viewpoint imaging unit coordinate system from the world coordinate system is represented by a 3 × 1 matrix T WM . Further, when the coordinate axes of the world coordinate system are rotated by the 3 × 3 rotation matrix R WM with the origins overlapped, the coordinate axes of the multi-view imaging unit coordinate system are overlapped. In this case, the represented by multi-view imaging unit coordinate system of a point position X M, conversion to a position X W expressed in the world imaging system is as shown in Equation 2. X M and X W are 3 × 1 matrices, where the first row represents the x component, the row represents the y component, and the third row represents the z component.
各撮像部は多視点撮像装置に対して固定されており、RMn及びTMnは撮像中に変わらないものとする。また、RMn及びTMnは設計ないしは計測結果から既知であるものとする。 Each imaging unit is fixed to the multi-viewpoint imaging apparatus, and R Mn and T Mn are not changed during imaging. Also, R Mn and T Mn are known from the design or measurement results.
一方、RWM及びTWMは手ぶれなどによって撮像中に変化するものとする。本発明ではRWM及びTWMの撮像中の変化を、動き推定部によって推定する。 On the other hand, R WM and T WM change during imaging due to camera shake or the like. In the present invention, changes during imaging of R WM and T WM are estimated by the motion estimation unit.
なお、ここで示した表現は一例であり、各撮像部と多視点撮像装置の配置についての情報を与えるならば、どのような表現でも構わない。 The expression shown here is an example, and any expression may be used as long as information about the arrangement of each imaging unit and the multi-view imaging apparatus is given.
<動き推定部の構成>
次に、図7のブロック図を用いて動き推定部214の構成例を説明する。
<Configuration of motion estimation unit>
Next, a configuration example of the
多視点画像取得部701は、多視点撮像部213によって撮像された多視点画像を、バス210を介して取得する。
The multi-view
視点配置情報取得部703は、あらかじめ設定されている情報であって、多視点撮像部213を構成する各視点の配置や特性を示す視点配置情報を、バス210を介して取得する。
The viewpoint arrangement
露光制御情報取得部702は、あらかじめ設定されている情報であって、各撮像部の同時露光ラインの向きや走査順序、走査速度などの露光制御情報を、バス210を介して取得する。
The exposure control
露光時刻算出部705は、詳細は後述するが、画像上の位置を入力として、その位置の画素が露光された時刻を、露光制御情報を用いて算出する。
Although the details will be described later, the exposure
対応点探索部704は、詳細は後述するが、多視点画像を構成する複数の視点の画像間の対応する点を求める。対応点探索部704は、対応点探索の精度向上と効率化のため、視点配置情報取得部703が取得した視点配置情報と、露光時刻算出部705が算出する露光時刻についての情報を利用する。
As will be described in detail later, the corresponding
なお、これら2つの情報を利用せずに対応点探索を行う構成でも構わない。対応点探索部704は、1組の対応点として、複数の視点の画像上の点を結び付ける。結び付ける点の数は2つ以上、撮像部の数以下ならいくらでも良い。対応点探索部704は、このような対応点を複数組生成して動きパラメータ算出部706に出力する。また、対応点探索部704は対応点を構成する点の座標を露光時刻算出部705に渡し、対応点を構成する点の露光時刻を取得する。露光時刻の情報も対応点情報と結び付けられて、動きパラメータ算出部706に出力される。
Note that the corresponding point search may be performed without using these two pieces of information. Corresponding
動きパラメータ算出部706は、詳細は後述するが、対応点探索部704で生成された対応点情報、視点配置情報取得部703が取得した視点配置情報から、多視点撮像装置の動きを表すパラメータを算出する。算出したパラメータと、算出に用いた対応点情報は、バス210に出力される。
Although the details will be described later, the motion
次に、図8を用いて、動き推定処理のフローを説明する。 Next, the flow of motion estimation processing will be described with reference to FIG.
ステップS801では、多視点画像取得部701が多視点画像として複数の画像を取得する。
In step S801, the multi-view
次に、ステップS802では、視点配置情報取得部703が、多視点画像それぞれに対応する各視点の配置についての情報を取得する。
Next, in step S802, the viewpoint arrangement
ステップS803では、露光制御情報取得部702が、多視点画像を取得した各撮像時の露光制御情報を取得する。
In step S803, the exposure control
ステップS804では、詳細は後述するが、対応点探索部704と露光時刻算出部705が連携して、ステップS801で取得した複数の画像間における対応点を探索する。
In step S804, although the details will be described later, the corresponding
ステップS805では、詳細は後述するが、露光時刻算出部705がステップS804で探索した対応点を構成する各画像上の点の位置が露光された時刻を算出する。
In step S805, although details will be described later, the exposure
ステップS806では、動きパラメータ算出部706が、ステップS804で取得した対応点情報とステップS806で取得した露光時刻から、多視点画像を取得した多視点撮像装置の撮像中の動きを表すパラメータを推定する。
In step S806, the motion
ステップS807では、動きパラメータ算出部706により算出された動きパラメータが出力される。
In step S807, the motion parameter calculated by the motion
<露光時刻算出方法>
図9を用いて露光時刻の算出方法について説明する。
<Exposure time calculation method>
A method for calculating the exposure time will be described with reference to FIG.
図9は、露光時刻の算出の対象となる画像を示す。図9に示す画像上には、時刻算出点pがある。なお、撮像素子の設計と、露光時の撮像素子の制御情報とから、同時露光ラインの法線ベクトルn、同時露光ラインの走査速度ベクトルv、走査開始位置sが設定されており、これらの情報を利用する。ここで、同時露光ラインと走査方向が直交する場合、nとvとの間には式3に示す関係がある。 FIG. 9 shows an image for which the exposure time is calculated. On the image shown in FIG. 9, there is a time calculation point p. Note that the normal vector n of the simultaneous exposure line, the scanning speed vector v of the simultaneous exposure line, and the scanning start position s are set based on the design of the image sensor and the control information of the image sensor at the time of exposure. Is used. Here, when the simultaneous exposure line and the scanning direction are orthogonal to each other, there is a relationship represented by Expression 3 between n and v.
また、時刻算出点pが露光された時刻をtとすると、図9から明らかなように式4の関係が成り立つ。 Further, when the time at which the time calculation point p is exposed is t, the relationship of Equation 4 is established as is apparent from FIG.
ここでp、n、s、vは2次元のベクトルである。 Here, p, n, s, and v are two-dimensional vectors.
式4をtについて解くことで、時刻算出点pの露光時刻が算出できる。 By solving Equation 4 for t, the exposure time of the time calculation point p can be calculated.
なお、露光制御情報を用いて計算を行わずに、あらかじめ計算しておいた画素位置と露光時刻の対応を用いて、露光時刻を求めても良い。 Note that the exposure time may be obtained using the correspondence between the pixel position and the exposure time calculated in advance without performing the calculation using the exposure control information.
<対応点探索部の構成>
図10のブロック図を用いて対応点探索部704の構成例を説明する。
<Configuration of corresponding point search unit>
A configuration example of the corresponding
特徴点抽出部1001は、多視点画像取得部701より入力された各視点の画像に対して、第1の視点における特徴点抽出を行う。特徴点抽出の代表的な手法としてはHarrisコーナー検出などがあげられるが、どのような手法を用いてもかまわない。例えば、特徴点抽出の方法については非特許文献4のChapter 4で詳しく解説されている。対応点探索部704では、1組の対応点として各視点の画像上の点を結び付けるが、特徴点抽出部1001で抽出した特徴点がその候補となる。
The feature
エピポーラ線算出部1002は、視点配置情報取得部703より入力された視点の配置情報を用いて、第2の視点に対応する画像上でエピポーラ線を算出する。対応点探索部704は、2視点ごとに点の結び付けを行う。このとき、片方の視点の画像を基準画像とし、もう片方の視点の画像を対応点探索対象画像とする。エピポーラ線算出部1002は、基準画像上のある特徴点の対応点探索画像上でのエピポーラ線を算出する。なお、基準画像上の特徴点の露光時刻と、対応するエピポーラ線上の各点の露光時刻とは、露光時刻算出部705によって算出されている。
The epipolar
許容ずれ量算出部1003は、露光時刻算出部705が算出した露光時刻を用いて、基準画像上の特徴点に対応する対応点探索画像上の点が、どの程度エピポーラ線からずれてもかまわないかという指標となる許容ずれ量を算出する。撮像中に多視点撮像装置が静止していれば、基準画像上の特徴点に対応する対応点探索画像上の点はエピポーラ線上にあるはずだが、多視点撮像装置が動くとずれが生じる。基準画像上の特徴点と対応点探索対象画像上の点とで、露光の時間差が大きければ生じるずれも大きくなるはずであるので、許容ずれ量はこの露光時間差に単調増加な関数として設定する。また、画像上の位置や視点によってもずれやすさは異なるので、対応点探索画像上の点の座標や視点の情報を考慮して算出しても良い。
The allowable deviation
一例として係数dを用いて式5により算出する例を示す。 As an example, an example in which the coefficient d is used to calculate using Equation 5 is shown.
ここでxnは基準画像上の特徴点の座標であり、x’は対応点探索対象画像上のエピポーラ線上のある点の座標である。t(xn)とt(x’)とはそれぞれの露光時刻である。dは対応点探索対象画像上の点が、手ぶれによって単位時間あたりにどの程度動くかという定数である。 Here, x n is the coordinate of the feature point on the reference image, and x ′ is the coordinate of a certain point on the epipolar line on the corresponding point search target image. t (x n ) and t (x ′) are respective exposure times. d is a constant indicating how much the point on the corresponding point search target image moves per unit time due to camera shake.
探索範囲算出部1004は、許容ずれ量算出部1003が算出した許容ずれ量を用いて、基準画像上の特徴点に対応する点を、対応点探索対象画像上で探索する範囲を算出する。
The search
ここで、探索範囲の設定の概念について、図11を用いて説明する。図11は許容ずれ量が式5を用いて算出され、同時露光ラインとその走査方向が直交する場合の例である。ここで、基準画像上での特徴点の走査方向の座標がxn、 露光時刻がt(xn)であるときに、同じ露光時刻を持つ対応点探索画像上の走査方向の座標がx’nであるとする。走査方向の座標がx’nであるときには、許容ずれ量が0であるのでエピポーラ線からずれは生じない。走査方向の座標がx’ であるエピポーラ線上の点の許容ずれ量は、d|t(xn)-t(x’)|となるので、図11に示す円のような探索範囲の広がりを持つことになる。この円をエピポーラ線上に走査し、円内に含まれる領域を探索範囲として設定していくことで、探索範囲を決定することができる。 Here, the concept of setting the search range will be described with reference to FIG. FIG. 11 shows an example in which the allowable deviation amount is calculated using Expression 5, and the simultaneous exposure line and the scanning direction are orthogonal to each other. Here, when the coordinate in the scanning direction of the feature point on the reference image is x n and the exposure time is t (x n ), the coordinate in the scanning direction on the corresponding point search image having the same exposure time is x ′. Let n be. When the coordinate in the scanning direction is x ′ n , since the allowable deviation amount is 0, no deviation occurs from the epipolar line. Since the allowable deviation amount of the point on the epipolar line whose coordinate in the scanning direction is x ′ is d | t (x n ) −t (x ′) |, the search range such as a circle shown in FIG. Will have. The search range can be determined by scanning the circle on the epipolar line and setting the region included in the circle as the search range.
もし、走査速度が一定であり、許容ずれ量が露光時間差に比例するならば、探索範囲の境界は直線になるので、エピポーラ線上の2点についてのみ露光時刻がわかれば十分である。なお、実際には製造や計測の誤差等によってもエピポーラ線からのずれは生じるので、探索範囲に一定のマージンを設けておく。 If the scanning speed is constant and the allowable deviation is proportional to the exposure time difference, the boundary of the search range is a straight line, so it is sufficient to know the exposure time for only two points on the epipolar line. In practice, a deviation from the epipolar line also occurs due to manufacturing or measurement errors, and therefore a certain margin is provided in the search range.
対応点候補選択部1005は、基準画像上の特徴点に対応する点の候補として、対応点探索対象画像上の特徴点のうち、探索範囲算出部1004で算出した探索範囲に含まれるものを選択する。
Corresponding point
特徴点対応付け部1006は、基準画像上の特徴点と、対応点候補選択部1005が選択した対応点探索対象画像上の対応点候補となる特徴点とを対応付ける。ここでは、対応点候補の特徴点のうち、基準画像上の特徴点と最も一致度の高いものを対応付ける。ここで一致度とは、特徴点近傍の画素を用いて算出した特徴量の距離の事をさす。一致度の算出方法の代表的な例としては、特徴点近傍の画像と対応点候補の特徴点近傍の画像との差分絶対値和などがあげられるが、どのような手法を用いても構わない。特徴量の算出とその距離の算出の方法については非特許文献4のChapter 4で詳しく解説されている。
The feature
対応付けされた各特徴点は、露光時刻算出部705にて算出した露光時刻とも対応付けられ、これらは、対応点情報として出力される。
Each associated feature point is also associated with the exposure time calculated by the exposure
次に、図12を用いて対応点探索処理のフローを説明する。 Next, the corresponding point search process flow will be described with reference to FIG.
ステップS1201では対応点探索部704が、多視点画像取得部701から、多視点画像として複数の画像を取得する。
In step S1201, the corresponding
ステップS1202では対応点探索部704が、視点配置情報取得部703より、画像の撮像に用いた複数の視点における配置情報を取得する。
In step S1202, the corresponding
ステップS1203では特徴点抽出部1001が、ステップS1201で取得した画像に対して特徴点抽出を行う。
In step S1203, the feature
ステップS1204では特徴点抽出部1001が、ステップS1201で取得した画像から、基準画像を1つ選択する。
In step S1204, the feature
ステップS1205では特徴点抽出部1001が、ステップS1201で取得した画像のうちの基準画像以外の画像から、対応点探索対象画像として未処理の画像を1つ選択する。
In step S1205, the feature
ステップS1206ではステップS1203で抽出した基準画像上の特徴点から、未処理の特徴点を1つ選択する。 In step S1206, one unprocessed feature point is selected from the feature points on the reference image extracted in step S1203.
ステップS1207ではエピポーラ線算出部1002が、ステップS1202で取得した視点配置情報を用いて、ステップS1206で選択した特徴点を基準にして、ステップS1205で選択した対応点探索対象画像上でのエピポーラ線を算出する。
In step S1207, the epipolar
ステップS1208では露光時刻算出部が、ステップS1206で選択した特徴点とステップS1007で算出したエピポーラ線上の各点の露光時刻を算出する。 In step S1208, the exposure time calculation unit calculates the exposure time of the feature point selected in step S1206 and each point on the epipolar line calculated in step S1007.
ステップS1209では許容ずれ量算出部1003が、ステップS1208で算出した露光時刻から、ステップS1007で算出したエピポーラ線上の各点の許容ずれ量を算出する。
In step S1209, the allowable deviation
ステップS1210では探索範囲算出部1004が、ステップS1209で算出した許容ずれ量とステップS1207で算出したエピポーラ線から、探索範囲を算出する。
In step S1210, the search
ステップS1211では対応点候補選択部1005が、ステップS1210で算出した探索範囲を用いて、ステップS1203で抽出した対応点探索対象画像の特徴点から対応点候補を選択する。
In step S1211, the corresponding point
ステップS1212では特徴点対応付け部1006が、ステップS1211で選択した対応点候補のうち、ステップS1206で選択した特徴点と最も一致度の高い特徴点を選択して、これら特徴点を対応付ける。
In step S1212, the feature
ステップS1213では露光時刻算出部705がステップS1212で対応付けた2つの特徴点の露光時刻を算出し、特徴点対応付け部1006にて特徴点に対応付けられる。
In step S1213, the exposure
ステップS1214では基準画像上の全特徴点を処理したか判定し、未処理の特徴点があるならば、ステップS1206に戻る。 In step S1214, it is determined whether all feature points on the reference image have been processed. If there are unprocessed feature points, the process returns to step S1206.
ステップS1215では基準画像以外の全ての画像を対応点探索対象画像として処理したか判定し、未処理の画像があるならば、ステップS1205に戻る。 In step S1215, it is determined whether all images other than the reference image have been processed as corresponding point search target images. If there is an unprocessed image, the process returns to step S1205.
ステップS1216では対応付けた特徴点対応付け部1006が、対応付けた全ての点の座標と露光時刻の組を、対応点情報として出力する。
In step S1216, the associated feature
なお、本実施形態では点の結び付けを行う2画像の双方に対して特徴点を抽出するものとしたが、片方の画像に対してのみ特徴点を抽出し、ブロックマッチングなど変形・移動のパラメータを最適化するような手法で点の結び付けを行っても良い。また、探索範囲を限定する方法は精度と効率の向上に有効であるが、必ずしも探索範囲を限定する必要はない。また、本実施形態では、複数の視点の画像のうち1つを基準画像とし、基準画像上の特徴点に対して他の視点の画像における対応する点を求めているが、基準画像を変えながら対応付けを行ってもかまわない。また、基準画像と対応点探索対象画像を相互に入れ換えて点の結び付けを行い、整合性を調べる事で精度を上げるような処理を行ってもかまわない。 In this embodiment, feature points are extracted for both of the two images that connect the points. However, feature points are extracted only for one of the images, and deformation / movement parameters such as block matching are extracted. The points may be connected by an optimization method. Further, although the method for limiting the search range is effective for improving accuracy and efficiency, it is not always necessary to limit the search range. In this embodiment, one of a plurality of viewpoint images is used as a reference image, and a corresponding point in another viewpoint image is obtained for a feature point on the reference image. Correspondence may be performed. Alternatively, the reference image and the corresponding point search target image may be interchanged to connect the points, and processing for improving accuracy may be performed by checking consistency.
<動きパラメータ算出部の構成>
次に、動きパラメータ算出の原理について説明する。
<Configuration of motion parameter calculation unit>
Next, the principle of motion parameter calculation will be described.
本発明では、異なる2視点の画像間の対応点を複数用いることにより、撮像中の多視点撮像装置の動きを推定する。ここで対応点とは、2つの異なる視点における点の座標であり、露光時刻の情報がそれぞれ対応付けられている。点の座標だけでなく露光時刻も利用する事で、撮像中の動きによる歪みの入った画像からでも動きの推定を可能としたところが、本発明の特徴である。また、本発明では撮像中の多視点撮像装置の動きを時刻の関数として少数のパラメータで表現したことで、有限な数の対応点から、連続的な動きの推定を可能とした。 In the present invention, by using a plurality of corresponding points between images of two different viewpoints, the motion of the multi-viewpoint imaging apparatus during imaging is estimated. Here, the corresponding points are the coordinates of points at two different viewpoints, and the information on the exposure time is associated with each other. The feature of the present invention is that the motion can be estimated even from an image that is distorted by the motion during imaging by using not only the coordinates of the point but also the exposure time. Further, in the present invention, the motion of the multi-viewpoint imaging device during imaging is expressed by a small number of parameters as a function of time, thereby enabling continuous motion estimation from a finite number of corresponding points.
k番目の対応点に関連付けられた2つの視点のうち、1つがNk番目の撮像部、もう1つをN’k番目の撮像部に対応するものとする。また、対応点に関連付けられた2つの座標のうち、Nk番目の撮像部で撮像した点の斉次座標をmk、N’k番目の撮像部で撮像した点の斉次座標をm’kとする。また、mkに対応する画素の露光時刻をtk、m’kに対応する画素の露光時刻をt’kとする。mk、m’kに対応する空間上の点を世界座標で表したものをXkw、Nk番目の撮像部座標系で表したものをXkNk、N’k番目の撮像部座標系で表したものをXkN' kとすると、図6に示す要素を用いて、以下の式6、式7の関係が得られる。 Of the two viewpoints associated with the k-th corresponding point, one corresponds to the Nk- th imaging unit and the other corresponds to the N′k- th imaging unit. Also, of the two coordinates associated with the corresponding point, N k-th m k the homogeneous coordinates of points captured by the imaging unit, N 'a k-th homogeneous coordinates of points captured by the imaging unit m' k . Further, the exposure time of the pixel corresponding to m k is t k , and the exposure time of the pixel corresponding to m ′ k is t ′ k . X kw represents a point in space corresponding to m k and m ′ k in world coordinates, X kNk represents in the N k th imaging unit coordinate system, and N ′ k th imaging unit coordinate system Assuming that the expressed value is X kN ′ k , the following equations 6 and 7 are obtained using the elements shown in FIG.
RWN'k、RWN'k、TWN'k、TWN'kは多視点撮像装置に対して固定されているので不変である。RWM、TWMは撮像中の多視点撮像装置の動きにより変化するため、時間の関数となっている。 Since R WN′k , R WN′k , T WN′k , and T WN′k are fixed with respect to the multi-viewpoint imaging apparatus, they are unchanged. Since R WM and T WM change depending on the movement of the multi-viewpoint imaging apparatus during imaging, they are functions of time.
式6、式7は式8、式9、式10、式11に示すRWNk、RWN'k、TWNk、TWN'kを用いるとで、式12、式13のように表現できる。 Expression 6 and Expression 7 can be expressed as Expression 12 and Expression 13 by using R WNk , R WN′k , T WNk , and T WN′k shown in Expression 8, Expression 9, Expression 10, and Expression 11, respectively .
さらに式15、式16に示すRN'kNk、TN'kNk を用いて式14を表現すると式17のようになる。 Further, when Expression 14 is expressed using R N′kNk and T N′kNk shown in Expressions 15 and 16, Expression 17 is obtained.
ここで、Nk番目の撮像部の光学中心であるONk、N’k番目の撮像部の光学中心であるON'k、空間上の点Xkについて考える。N’k番目の撮像部座標系にて、ONkからXkの方向へのベクトル、ON'kからXkの方向へのベクトル、ON'k からONkの方向へのベクトルを表すと、それぞれ、λRN'kNkXkNk、ξXkN'k、ηTN'kNkと書ける。ここで、λ、ξ、ηは適当な係数を表す。3つのベクトルは、同一平面上のベクトルであるので、式18が成り立つ。 Here, O Nk is an optical center of the N k-th image pickup unit, O N'k is an optical center of the N 'k-th image pickup section, consider the point X k in space. At N 'k-th image pickup unit coordinate system, represents the vector from O Nk vector in the direction of X k, the vector from O N'k in the direction of X k, from O N'k in the direction of O Nk ΛR N′kNk X kNk , ξX kN′k , and ηT N′kNk , respectively. Here, λ, ξ, and η represent appropriate coefficients. Since the three vectors are vectors on the same plane, Expression 18 is established.
ここで、×はベクトルの外積、・はベクトルの内積を表す。 Here, x represents an outer product of vectors, and · represents an inner product of vectors.
Nk番目の撮像部の内部パラメータ行列をANk、N’k番目の撮像部の内部パラメータ行列をAN'kと置くと、XkNkとXkN'kはそれぞれ式19、式20のように表すことができる。 If the internal parameter matrix of the N k- th imaging unit is A Nk and the internal parameter matrix of the N ' k- th imaging unit is A N'k , X kNk and X kN'k are as shown in Equation 19 and Equation 20, respectively. Can be expressed as
ここで、λ’、ξ’は適当な係数を表す。式(18) 、式(19) 、式(20)から式(21)が得られる。 Here, λ ′ and ξ ′ represent appropriate coefficients. Expression (21) is obtained from Expression (18), Expression (19), and Expression (20).
ここで、[ ]×は外積の演算を3×3の歪対称行列で表したものである。式21は一般にエピポーラ拘束と呼ばれるものであり、この式によって時刻tkにおけるNk番目の撮像部と時刻t’kにおけるN’k番目の撮像部の関係についての拘束を得る事ができる。 Here, [] × represents the calculation of the outer product as a 3 × 3 distortion symmetric matrix. Equation 21 is generally intended called epipolar constraint, it is possible to obtain a constraint on the relationship of the k-th image pickup unit 'N in k' N k-th image pickup unit and the time t at time t k by this equation.
撮像部の動きをパラメータで表す方法について説明する。RMNk、RMN'k、TMNk、TMN'k、ANk、AN'kは撮像中も固定されており不変であり、これらは設計値もしくは計測値からあらかじめ算出されているものとする。 A method for representing the movement of the imaging unit with parameters will be described. R MNk , R MN'k , T MNk , T MN'k , A Nk , and A N'k are fixed and unchanged during imaging, and these are calculated in advance from design values or measured values. To do.
R WM (t)、T WM (t)はそれぞれ3自由度を持つ。1自由度をM個のパラメータで表すならば、R WM (t,p11, p12,…,p1M, p21, p22,…,p2M, p31, p32,…,p3M)、
T WM (t,p41, p42,…,p4M, p51, p52,…,p5M, p61, p62,…,p6M)という表現になる。
R WM (t) and T WM (t) each have three degrees of freedom. If one degree of freedom is expressed by M parameters, R WM (t, p 11 , p 12 , ..., p 1M , p 21 , p 22 , ..., p 2M , p 31 , p 32 , ..., p 3M ),
T WM (t, p 41 , p 42 ,..., P 4M , p 51 , p 52 ,..., P 5M , p 61 , p 62 ,..., P 6M ).
M個のパラメータと時間tを用いてRWM、TWMを表現する例としては、式22、式23、式24のようにRWMを3つの回転角度で表し、TWMの3つの成分とともに、それぞれpnmを係数とするtの多項式で表す方法などがある。なお、時刻t=0のRWM、TWMはどのように置いても良いので、多項式で表す場合は0次の係数は適当な定数にしてしまって良い。 Using the M parameters and time t R WM, as an example of expressing the T WM has the formula 22, wherein 23 represents the three rotation angle R WM as in equation 24, with the three components of T WM There is a method of expressing by a polynomial of t each having a coefficient of p nm . Since R WM and T WM at time t = 0 may be set in any way, the 0th-order coefficient may be set to an appropriate constant when expressed by a polynomial expression.
パラメータの数が6M個ならば、式21のような拘束が6M個以上、つまり対応点が6M組以上あれば、パラメータの算出が可能である。 If the number of parameters is 6M, parameters can be calculated if there are 6M or more constraints as shown in Equation 21, that is, if there are 6M or more corresponding points.
式25のように式21からの逸脱を表す誤差関数Ukを定義し、これを全対応点について足し合わせたUを式26のようにおく。Uを最小化するパラメータpestを式27のように求めることで、動きを表すパラメータを算出する。 An error function U k representing a deviation from the equation 21 is defined as in the equation 25, and U obtained by adding these to all corresponding points is set as in the equation 26. A parameter representing motion is calculated by obtaining a parameter p est that minimizes U as shown in Equation 27.
式25 、式26、 式27では、全パラメータをベクトルpによって表現している。最小化の方法の例としてはNewton法やLevenburg-Muarqardt法などがあるが、どのような方法を使ってもかまわない。 In Equation 25, Equation 26, and Equation 27, all parameters are represented by a vector p. Examples of minimization methods include Newton method and Levenburg-Muarqardt method, but any method can be used.
対応点探索によって得た対応点には誤対応が含まれる事も多いので、前述の動きパラメータ算出方法に、誤対応を除去する手法を組み合わせることで、精度をより向上させることも可能である。誤対応を除去する手法の例としては、RANSACや最小メディアン法などのロバスト推定があげられるが、どのような方法でもかまわない。 Since the corresponding points obtained by the corresponding point search often include erroneous correspondences, it is possible to further improve the accuracy by combining the above-described motion parameter calculation method with a technique for removing the erroneous correspondences. Examples of methods for eliminating the false correspondence include robust estimation such as RANSAC and the minimum median method, but any method may be used.
なお、本実施形態で示した動きの表現方法や誤差の定義は一例に過ぎない。多視点撮像装置の動きを時刻tと有限個のパラメータで表現し、対応点の座標と露光時刻、視点の配置と内部パラメータ、視点間の関係幾何学的拘束を用いてパラメータを算出するならばどのような形態でもかまわない。例えば、回転行列の9成分全てを独立に扱い、別途回転行列が正規直交になるような拘束を加えてもかまわない。 Note that the motion expression method and the error definition shown in this embodiment are merely examples. If the motion of the multi-viewpoint imaging device is expressed by a time t and a finite number of parameters, and the parameters are calculated using the coordinates of the corresponding points and the exposure time, the arrangement and internal parameters of the viewpoint, and the relational geometric constraints between viewpoint Any form is acceptable. For example, all nine components of the rotation matrix may be handled independently, and a constraint may be added so that the rotation matrix becomes orthonormal.
また、本実施形態では撮像部の光学系の収差を考慮しなかったが、撮像後の画像処理でこれを補正し、露光時刻の算出時に収差の影響を考慮してもよい。また、動きパラメータの算出時に収差の影響を考慮してもよい。 In this embodiment, the aberration of the optical system of the imaging unit is not taken into account, but this may be corrected by image processing after imaging, and the influence of the aberration may be taken into account when calculating the exposure time. Further, the influence of aberration may be taken into account when calculating the motion parameter.
次に、図13を用いて、動きパラメータ算出部706の構成例を説明する。
Next, a configuration example of the motion
対応点選択部1301は、対応点探索部704によって求められた対応点のうち、動きパラメータの算出に用いるものを選択する。例えば、対応点探索部704の出力が、視点A上の点mAと視点B上の点mBの対応と、視点A上の点mAと視点C上の点mCの対応を含む場合、新たに視点B上の点mBと視点C上の点mCの対応を生成することができる。対応点探索部704はどのような組み合わせをとるか判断しながら、推定に用いる2視点間の点の対応を複数選択する。
Corresponding
ここで、精度を重視する場合には、対応点の全ての組み合わせを選択の候補とする。一方、処理速度を重視するならば1つの点が少なくとも1組の対応に含まれるような最小数の組み合わせを選択の候補とする。しかしながら、どのような基準で選択の候補を生成してもかまわない。本実施形態ではロバスト推定を行うので、取得・生成した選択の候補となる対応から一定数をランダムに選択する。 Here, when importance is attached to accuracy, all combinations of corresponding points are set as selection candidates. On the other hand, if importance is attached to the processing speed, the minimum number of combinations in which one point is included in at least one set of correspondences is selected. However, selection criteria may be generated based on any criteria. In this embodiment, since robust estimation is performed, a certain number is selected at random from correspondences that are candidates for selections acquired and generated.
評価式生成部1302は、対応点選択部1301で選択された対応点と、視点配置情報取得部703から得た視点の配置と内部パラメータから、式26に相当する評価式を生成する。
The evaluation
初期パラメータ生成部1304は、最適化によって動きパラメータを求めるにあたってのパラメータの初期値を生成する。式22、式23、式24のように回転行列の回転角と並進ベクトルの3成分を時刻tの多項式展開で記述するならば、全パラメータの初期値を0にするなどする。
The initial
最適化演算部1303は評価式生成部1302が生成した評価式と、初期パラメータ生成部1304が生成した初期パラメータをもとに式26に相当する最適化を行い、動きパラメータを算出する。
The
推定精度評価値算出部1305は、対応点選択部1301で選択した対応点の組に対する推定精度評価値を算出する。用いるロバスト推定がRANSACならば、選択した対応点のうち式25で表される誤差が閾値以下の対応点数を推定精度評価値として算出する。最小メディアン法ならば、対応点の選択候補の誤差を式20により算出し、その中央値を算出する。
The estimated accuracy evaluation
最適パラメータ選択部1306は最適化演算部1303で算出された動きパラメータと推定精度評価値算出部1305で算出された推定精度評価値を保持し、繰り返し推定が行われた後に、推定精度評価値が最良であったときの動きパラメータを出力する。
The optimal
次に、図14を用いて動きパラメータ算出処理の流れを説明する。 Next, the flow of motion parameter calculation processing will be described using FIG.
ステップS1401では動きパラメータ算出部706が、視点配置情報取得部703より、多視点画像の撮像に用いた複数の視点の配置情報を取得する。
In step S1401, the motion
ステップS1402では動きパラメータ算出部706が、対応点探索部704から対応点情報として、対応点に係る座標と、対応点の露光時刻とを取得する。
In step S1402, the motion
ステップS1403では対応点選択部1301が、ステップS1402で取得した対応点情報に基づいて異なる2視点上における対応点を生成し、そのうちのN組をランダムに選択する。
In step S1403, the corresponding
ステップS1404では評価式生成部1302が、ステップS1401で取得した視点配置情報と、ステップS1403で選択した対応点から、多視点撮像部の動きを表すパラメータの幾何学的な整合性に対する誤差を求める評価式(式26に相当)を生成する。
In step S1404, the evaluation
ステップS1405では初期パラメータ生成部1304が、多視点撮像部の動きを表すパラメータに対して式27に相当する最適化を行うにあたっての初期値を生成する。
In step S1405, the initial
ステップS1406では最適化演算部1303が、ステップS1405で生成した初期値を用いて、ステップS1404で生成した評価式を最小化し、そのときの動きパラメータを求める。
In step S1406, the
ステップS1407では推定精度評価値算出1305が、ステップS1406で求めた動きパラメータを用いて、ステップS1403で選択したN組の対応点に対する推定精度評価値を算出する。
In step S1407, the estimated accuracy
ステップS1408では最適パラメータ選択部1306が、ステップS1407で算出した推定精度評価値と、ステップS1406で算出した動きパラメータを保存する。
In step S1408, the optimum
ステップS1409ではステップS1403からステップS1408までの処理をM回繰り返したか判定し、繰り返してなければステップS1403に戻る。 In step S1409, it is determined whether the processing from step S1403 to step S1408 has been repeated M times. If not repeated, the process returns to step S1403.
ステップS1410は最適パラメータ選択部1306が、ステップS1408で保存した推定精度評価値を最小とする動きパラメータを選択する。
In step S1410, the optimum
ステップS1411では動きパラメータ算出部706が算出した動きパラメータを出力する。
In step S1411, the motion parameter calculated by the motion
なお、本実施形態では繰り返しによるロバスト推定を使用するものとしたが、ロバスト推定を行わず1度だけ動きパラメータの算出を行い、これをそのまま出力するような構成、及び処理としてもかまわない。 In the present embodiment, robust estimation by repetition is used. However, a configuration and processing may be used in which the motion parameter is calculated only once without performing robust estimation and is output as it is.
<被写体距離推定部の構成>
次に、図15のブロック図を用いて被写体距離推定部の構成例を説明する。
<Configuration of subject distance estimation unit>
Next, a configuration example of the subject distance estimation unit will be described using the block diagram of FIG.
特徴点情報取得部1501は、バス210を介して対応点探索部704により算出された対応点情報を取得する。対応点情報は異なる視点上の点の対応関係とその点の座標、露光時刻の情報を持つ。特徴点情報取得部1501は空間上の同一の点を対応する点を1つのグループにまとめる。例えば、視点A上の点mAと視点B上の点mBの対応、視点A上の点mAと視点C上の点mCの対応が入力された場合、mA、mB、mC、を関連付ける。
The feature point
動き情報取得部1502は、バス210を介して、動き推定部214により算出された多視点撮像装置の動きを表す動きパラメータを取得する。
The motion
視点配置情報取得部1503は、バス210を介してROM202もしくはRAM203から、あらかじめ既知となっている多視点撮像装置を構成する各視点の配置と内部パラメータの情報を取得する。
A viewpoint arrangement
撮像部配置補正部1505は、特徴点情報取得部1501が取得した対応点を構成する各点について、その点を撮像した撮像部がその点が露光された時刻にどのような配置であったかを、動きパラメータと視点配置情報を用いて算出する。
The imaging unit
距離算出部1504は、特徴点情報取得部1501が関連付けた点の組について、その組を構成する点の座標、撮像部配置補正部1505が算出した視点の配置から、関連付けられた点の組に対応する空間上の点の位置を算出する。配置と内部パラメータが既知である2つ以上の撮像部で撮像された点の空間上の位置は、本技術分野において一般的に知られている方法で算出できる(非特許文献4 Chapter7)。算出された点の位置は被写体距離の情報として出力される。
The
次に、図16を用いて被写体距離推定処理の流れを説明する。 Next, the flow of subject distance estimation processing will be described using FIG.
ステップS1601では被写体距離推定部215が、対応点情報を取得する。
In step S1601, the subject
ステップS1602では被写体距離推定部215が、視点の配置情報を取得する。
In step S1602, the subject
ステップS1603では被写体距離推定部215が、多視点撮像装置の動きを表すパラメータを取得する。
In step S1603, the subject
ステップS1604では特徴点情報取得部1501が、未処理の対応点を1組選択する。
In step S1604, the feature point
ステップS1605では撮像部配置補正部1505が、ステップS1602で取得した視点配置情報とステップS1601で取得した対応点情報に含まれる露光時刻の情報から、対応点を構成する各点が撮像された時点での、視点の配置をそれぞれ算出する。
In step S1605, when the imaging unit
ステップS1606では距離算出部1504がステップS1601で取得した対応点情報に含まれる画像上の座標の情報と、ステップS1605で算出した露光時の配置情報から、被写体上の点の位置を推定する。
In step S1606, the
ステップS1607では全ての対応点が処理されたか判定し、未処理の対応点が残っていればS1604に戻る。 In step S1607, it is determined whether all corresponding points have been processed. If there are any unprocessed corresponding points, the process returns to S1604.
ステップS1608では被写体距離推定部215が推定した被写体距離情報を出力する。
In step S1608, the subject distance information estimated by the subject
なお、本実施形態では撮像中の多視点撮像装置の動きパラメータを算出する際に求めた対応点情報を用いて、被写体距離情報を算出するものとしたが、算出した動きパラメータと視点配置情報から定まる拘束を用いて、別途対応点探索を行ってもよい。また、動きパラメータと被写体距離情報は別々に推定するものとしたが、被写体上の点の3次元位置をパラメータとし、動きパラメータと合わせてバンドル調整法(非特許文献5)などにより、同時推定してもよい。 In the present embodiment, the subject distance information is calculated using the corresponding point information obtained when calculating the motion parameters of the multi-viewpoint imaging apparatus that is capturing images. However, from the calculated motion parameters and the viewpoint arrangement information, A corresponding point search may be separately performed using a fixed constraint. In addition, although the motion parameter and subject distance information are estimated separately, the three-dimensional position of the point on the subject is used as a parameter, and it is estimated simultaneously by the bundle adjustment method (Non-Patent Document 5) together with the motion parameter. May be.
以上、本実施形態によれば、撮像中の多視点撮像装置の動きにより、ローリングシャッター歪みが生じた多視点画像から、撮像中の多視点撮像装置の動きを推定することができる。また、推定した動きを用いて補正を行うことで、高精度に被写体の距離情報を推定することができる。 As described above, according to the present embodiment, it is possible to estimate the movement of the multi-viewpoint imaging device being imaged from the multi-viewpoint image in which rolling shutter distortion has occurred due to the movement of the multi-viewpoint imaging device being imaged. Further, by performing correction using the estimated motion, it is possible to estimate the subject distance information with high accuracy.
(実施形態2)
実施形態1では、ローリングシャッター歪みの影響を補正して、被写体の距離を高精度に推定する。実施形態2では、ローリングシャッター歪みの影響を補正して、画像合成を行う。なお、実施形態1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
(Embodiment 2)
In the first embodiment, the influence of the rolling shutter distortion is corrected, and the distance of the subject is estimated with high accuracy. In the second embodiment, the effect of rolling shutter distortion is corrected and image composition is performed. Note that description of parts common to the first embodiment is simplified or omitted, and here, differences will be mainly described.
図17は、本実施形態における画像処理装置の構成を示す図である。実施形態1における画像処理装置との相違点は、被写体距離推定部の代わりに画像合成部1701を設けていることである。画像合成部1701は、多視点撮像部213が取得した多視点画像、動き推定部214が算出した動きパラメータ、あらかじめ既知である視点の配置情報、露光制御情報を用いて、仮想視点画像の合成を行うものである。
FIG. 17 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment. The difference from the image processing apparatus according to the first embodiment is that an
次に、図18を用いて仮想視点画像合成の原理について説明する。動き推定部214が算出した動きパラメータ、あらかじめ既知である視点の配置情報と、露光情報制御情報から定まる画素毎の露光時刻から、ある画素が露光された時点での視点の配置TMn、RMnを求めることができる。画像合成部1701は画素毎に視点の配置を求め、これを空間上に定義された合焦面に投影し、これを補完する事で仮想視点画像の合成を行う。
Next, the principle of virtual viewpoint image composition will be described with reference to FIG. From the motion parameters calculated by the
次に、図19を用いて画像合成部1701の構成例を説明する。
Next, a configuration example of the
合焦距離取得部1901はユーザーが入力した合焦面の位置を取得する。
A focusing
多視点画像取得部1902は多視点撮像部213が取得した多視点画像を取得する。
The multi-view
露光制御情報取得部1903はあらかじめ既知である露光制御情報を取得する。
The exposure control
動き情報取得部1502 、視点配置情報取得部1503、撮像部配置補正部1505は実施形態1の被写体距離推定部215と同様である。
The motion
露光時刻算出部1904は多視点撮像部213の各画素毎の露光時刻を算出する。
The exposure
座標変換部1905は撮像部配置補正部1505が算出した画素毎の撮像部配置と、合焦距離取得部が取得した合焦面の情報から、合焦面上に投影を行う。投影された画素の合焦面上の座標と多視点画像取得部1902から取得した該画素の画素値は画素補間部1906に渡され保存される。投影の方法はどのような方法でもかまわない。
The coordinate
画素補間部1906は、全画素の投影が終わった段階で、投影された画素群の補間を行い画像を生成する。補間の方法はどのような方法を用いてもかまわない。補間において用いるフィルタの半径が大きければノイズ低減を行うことができ、小さければ解像度を向上させることができる。
The
次に、図20を用いて画像合成処理の流れを説明する。 Next, the flow of image composition processing will be described with reference to FIG.
ステップS2001では多視点画像取得部1902が多視点画像として複数の画像を取得する。
In step S2001, the multi-view
ステップS2002では視点配置情報取得部1503が、多視点画像の撮像に用いられた多視点撮像装置を構成する複数の視点の配置情報を取得する。
In step S2002, the viewpoint arrangement
ステップS2003では動き情報取得部1502が、多視点撮像装置の動きを表すパラメータを取得する。
In step S2003, the motion
ステップS2004では露光制御情報取得部1903が、画像の撮像に用いられた多視点撮像装置を構成する複数の撮像部の露光制御情報を取得する。
In step S2004, the exposure control
ステップS2005では合焦距離取得部1901が、合焦面を表す合焦距離を画像合成のパラメータとして取得する。
In step S2005, the focus
ステップS2006では露光時刻算出部1904がステップS2004で取得した露光制御情報から、多視点画像の画素毎の露光時刻を算出する。
In step S2006, the exposure
ステップS2007ではステップS2004で取得した動き情報とステップS2006で算出した露光時刻から、画素毎に撮像された時点での撮像部配置を算出する。 In step S2007, from the motion information acquired in step S2004 and the exposure time calculated in step S2006, the imaging unit arrangement at the time when each pixel is imaged is calculated.
ステップS2008では座標変換部1905が、ステップS2007で算出された画素毎の視点配置情報と、ステップS2005で取得した合焦距離から、合焦面上に投影を行う座標変換を行う。
In step S2008, the coordinate
ステップS2009では画素補間部S2006が、投影された画素群の補間を行い画像を生成する。 In step S2009, the pixel interpolation unit S2006 interpolates the projected pixel group to generate an image.
ステップS2010では画像合成部1701が画像の出力を行う。
In step S2010, the
なお、本実施形態では合焦面上に投影を行い画像を生成するものとしたが、各画素を光線とみなし仮想的な光学系を用いて画像の合成を行ってもよい。 In this embodiment, the image is generated by projecting onto the in-focus plane, but each pixel may be regarded as a light beam and the image may be synthesized using a virtual optical system.
また、被写体の配置が平面に近い場合(無限遠平面含む)、投影を行う面を被写体が配置されている面とすることで、ノイズ低減や高解像度を行うことができる。画像合成部でそのような処理をおこなってもよい。この場合、動き推定において、多視点撮像装置の三次元的な動きの代わりに、射影変換行列、アフィン変換行列など画像座標の線形変換の時間変化を推定してもよい。 In addition, when the subject is arranged close to a plane (including a plane at infinity), noise reduction and high resolution can be performed by setting the projection surface as the surface on which the subject is arranged. Such processing may be performed by the image composition unit. In this case, in motion estimation, instead of the three-dimensional motion of the multi-viewpoint imaging apparatus, a time change of linear transformation of image coordinates such as a projective transformation matrix and an affine transformation matrix may be estimated.
以上、本実施形態によれば、撮像中の多視点撮像装置の動きにより、ローリングシャッター歪みが生じた多視点画像から、撮像中の多視点撮像装置の動きを推定し、補正を行うことで、高精度に画像合成を行うことができる。 As described above, according to the present embodiment, by estimating and correcting the movement of the multi-viewpoint imaging device being imaged from the multi-viewpoint image in which rolling shutter distortion has occurred due to the movement of the multi-viewpoint imaging device being imaged, Image synthesis can be performed with high accuracy.
(実施形態3)
実施形態1乃至実施形態2では、多視点撮像部を構成する各撮像部の光軸が平行であるものとした。しかしながら、同一の構成を持つ撮像部を平行に配置した場合、遠方にある被写体上の点の像は同時刻に露光されることになる。空間上の同一の点の像を同時刻に露光した場合、式21においてt’k=tkとおくと明らかであるように、該空間上の点に対応する対応点から多視点撮像装置の動きに対する拘束を得る事ができない。従って多視点撮像装置の動きの推定精度が低下したり、推定が不可能になったりする問題が生じる。
(Embodiment 3)
In
そこで、本実施形態では以上の問題を解決するための、多視点撮像部を構成する視点の配置と制御方法について説明する。なお、その他の部分は実施形態1或いは実施形態2と共通するため説明を省略する。 Therefore, in this embodiment, an arrangement and control method of viewpoints constituting the multi-viewpoint imaging unit for solving the above problem will be described. Other parts are the same as those in the first embodiment or the second embodiment, and thus description thereof is omitted.
図21(a)は同一の構成を持つ撮像部を平行に配置した場合に生じる問題を説明する図である。縦軸は遠方にある被写体上の位置であり、横軸は時刻である。細い破線は多視点撮像装置が静止していた場合に、被写体上のある位置に存在する点の像が、いつ露光されるかという関係を表している。 FIG. 21 (a) is a diagram for explaining a problem that occurs when imaging units having the same configuration are arranged in parallel. The vertical axis is the position on the far away subject, and the horizontal axis is the time. A thin broken line represents a relationship when an image of a point existing at a certain position on the subject is exposed when the multi-viewpoint imaging apparatus is stationary.
多視点撮像装置が撮像中に動いた場合、ある時刻に露光される点の位置は、太い破線や二重線のように細い破線からずれる。太い破線と二重線はそれぞれ別の撮像部を表している。太い破線と二重線は常に重なるので、どのように対応点を取得しても多視点撮像装置の動きに関する情報は得ることができない。 When the multi-viewpoint imaging apparatus moves during imaging, the position of a point exposed at a certain time deviates from a thin broken line such as a thick broken line or a double line. A thick broken line and a double line represent different imaging units. Since the thick broken line and the double line always overlap, information on the movement of the multi-view imaging device cannot be obtained no matter how the corresponding points are acquired.
図22(a)は撮像部毎に同時露光ラインとその走査方向を異ならせるという配置方法である。この場合、露光位置と時刻の関係は、図21(b)のように撮像部によって異なるものとなるので、多視点撮像装置の動きに関する情報を得ることができる。なお、同時露光ラインとその走査方向を異ならせるかわりに、撮像部を光軸を軸として回転させてもよい。 FIG. 22A shows an arrangement method in which the simultaneous exposure line and its scanning direction are made different for each imaging unit. In this case, since the relationship between the exposure position and time differs depending on the imaging unit as shown in FIG. 21B, information regarding the movement of the multi-viewpoint imaging apparatus can be obtained. Note that, instead of changing the simultaneous exposure line and its scanning direction, the imaging unit may be rotated about the optical axis.
図22(b)は撮像部毎に撮像する向きを異ならせるというものである。この場合、露光位置と時刻の関係は、図21(c)のように撮像部によって異なるものとなるので、多視点撮像装置の動きに関する情報を得ることができる。撮像する向きを異ならせる方法は、撮像部の設置方向を変えても、光学系の光軸に対する撮像素子の位置を撮像素子毎にずらしても良い。 FIG. 22B shows that the imaging direction is different for each imaging unit. In this case, since the relationship between the exposure position and the time varies depending on the imaging unit as shown in FIG. 21 (c), information regarding the movement of the multi-viewpoint imaging apparatus can be obtained. As a method of changing the imaging direction, the position of the imaging device relative to the optical axis of the optical system may be shifted for each imaging device, even if the installation direction of the imaging unit is changed.
図22(c)は撮像部毎に画角を異ならせるというものである。この場合、露光位置と時刻の関係は、図21(d)のように撮像部によって視点毎に異なるものとなるので、多視点撮像装置の動きに関する情報を得ることができる。 FIG. 22 (c) shows that the angle of view is different for each imaging unit. In this case, since the relationship between the exposure position and the time differs for each viewpoint depending on the imaging unit as shown in FIG. 21 (d), information regarding the movement of the multi-view imaging apparatus can be obtained.
また、撮像制御部310が撮像素子制御部411に対して指示する露光開始時刻を、撮像部毎に異ならせても良い。この場合、露光位置と時刻の関係は、図21(e)のように撮像部によって異なるものとなるので、多視点撮像装置の動きに関する情報を得ることができる。
Further, the exposure start time that the
撮像制御部310が撮像素子制御部411に対して指示する露光順序を、撮像部毎に異ならせても良い。この場合、露光位置と時刻の関係は、図21(f)のように撮像部によって異なるものとなるので、多視点撮像装置の動きに関する情報を得ることができる。
The exposure order instructed by the
以上、本実施形態によれば、撮像部毎に配置、構成、制御を異ならせることで、遠方にある被写体からでも、多視点撮像装置の動きについての情報を取得することができる。 As described above, according to the present embodiment, it is possible to acquire information on the movement of the multi-viewpoint imaging apparatus even from a distant subject by changing the arrangement, configuration, and control for each imaging unit.
(その他の実施形態)
なお、以上の各実施形態においては、単一の視点を持つ撮像部を複数用いて多視点撮像部を構成する場合について説明した。しかしながら、撮像部が図4に示す単一の撮像素子407を複数の領域に分割し、その分割した領域に対応する光学系を設ける構成を採用してもよい。また、そのような撮像部を複数用いてもよい。
(Other embodiments)
In each of the above embodiments, the case where a multi-viewpoint imaging unit is configured using a plurality of imaging units having a single viewpoint has been described. However, a configuration may be adopted in which the imaging unit divides the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (15)
前記複数の視点の相対的な配置を取得する視点配置情報取得手段と、
前記複数の視点間で被写体上の同一の点に対応する画像上の点の組を探索する対応点探索手段と、
前記取得した画像上の点が露光された時刻を算出する露光時刻算出手段と、
前記点の組の画像上の座標と、前記露光された時刻と、前記複数の視点の相対的な配置と、から前記複数の視点の撮像中の動きを表すパラメータを推定する動きパラメータ算出手段と
を有する画像処理装置。 Multi-viewpoint image acquisition means for acquiring an image group captured from a plurality of viewpoints;
Viewpoint arrangement information acquisition means for acquiring a relative arrangement of the plurality of viewpoints;
Corresponding point search means for searching for a set of points on the image corresponding to the same point on the subject between the plurality of viewpoints;
Exposure time calculating means for calculating a time at which a point on the acquired image was exposed;
A motion parameter calculating means for estimating a parameter representing motion during imaging of the plurality of viewpoints from the coordinates of the set of points on the image, the exposure time, and the relative arrangement of the plurality of viewpoints; An image processing apparatus.
前記複数の視点のうちの第1の視点に対応する画像上の特徴点を抽出する特徴点抽出手段と、
前記抽出した特徴点のエピポーラ線を前記複数の視点のうちの第2の視点に対応する画像上で算出するエピポーラ線算出手段と、
前記エピポーラ線と、前記露光時刻算出手段が算出した画像上の点における露光された時刻とから、前記抽出した特徴点と被写体上で同一の点に対応する点が存在する第2の視点に対応する画像上の領域を算出する探索範囲算出手段と
を有することを特徴とする請求項1記載の画像処理装置。 The corresponding point search means
Feature point extracting means for extracting feature points on an image corresponding to a first viewpoint among the plurality of viewpoints;
Epipolar line calculation means for calculating an epipolar line of the extracted feature point on an image corresponding to a second viewpoint of the plurality of viewpoints;
Corresponding to the second viewpoint in which the extracted feature point and the point corresponding to the same point on the subject exist from the epipolar line and the exposure time at the point on the image calculated by the exposure time calculation means The image processing apparatus according to claim 1, further comprising: a search range calculation unit that calculates a region on the image to be processed.
複数の視点より画像を撮像する多視点撮像部と、
前記撮像した画像から画像処理を行う画像処理部とを有し、
前記画像処理部は請求項1から4のいずれか一項に記載の画像処理装置であり、
前記画像処理部を構成する多視点画像取得手段は、前記多視点撮像部が撮像した画像を取得する
ことを特徴とする撮像装置。 Using multiple imaging optics and one or more rolling shutter imaging devices,
A multi-viewpoint imaging unit that captures images from a plurality of viewpoints;
An image processing unit that performs image processing from the captured image;
The image processing unit is the image processing apparatus according to any one of claims 1 to 4,
The multi-viewpoint image acquisition unit constituting the image processing unit acquires an image captured by the multi-viewpoint image capturing unit.
前記複数の視点の相対的な配置を取得する視点配置情報取得ステップと、
前記複数の視点間で被写体上の同一の点に対応する画像上の点の組を探索する対応点探索ステップと、
前記取得した画像上の点が露光された時刻を算出する露光時刻算出ステップと、
前記点の組の画像上の座標と、前記露光された時刻と、前記複数の視点の相対的な配置とから、前記複数の視点の撮像中の動きを表すパラメータを推定する動きパラメータ算出ステップと、
を有する画像処理方法。 A multi-viewpoint image acquisition step of acquiring a group of images captured from a plurality of viewpoints;
A viewpoint arrangement information acquisition step of acquiring a relative arrangement of the plurality of viewpoints;
A corresponding point search step of searching for a set of points on the image corresponding to the same point on the subject between the plurality of viewpoints;
An exposure time calculating step for calculating a time at which a point on the acquired image is exposed;
A motion parameter calculating step of estimating a parameter representing a motion during imaging of the plurality of viewpoints from the coordinates of the set of points on the image, the exposure time, and the relative arrangement of the plurality of viewpoints; ,
An image processing method.
前記複数の視点のうちの第1の視点に対応する画像上の特徴点を抽出する特徴点抽出ステップと、
前記抽出した特徴点のエピポーラ線を前記複数の視点のうちの第2の視点に対応する画像上で算出するエピポーラ線算出ステップと、
前記エピポーラ線と、前記露光時刻算出ステップが算出した画像上の点における露光された時刻とから、前記抽出した特徴点と被写体上で同一の点に対応する点が存在する第2の視点に対応する画像上の領域を算出する探索範囲算出ステップと
を有することを特徴とする請求項11記載の画像処理方法。 The corresponding point search step includes:
A feature point extracting step of extracting a feature point on the image corresponding to a first viewpoint among the plurality of viewpoints;
An epipolar line calculating step of calculating an epipolar line of the extracted feature point on an image corresponding to a second viewpoint of the plurality of viewpoints;
Corresponding to the second viewpoint in which the extracted feature point and the point corresponding to the same point on the subject exist from the epipolar line and the exposure time at the point on the image calculated by the exposure time calculation step The image processing method according to claim 11, further comprising: a search range calculation step of calculating a region on the image to be performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011267032A JP2013120435A (en) | 2011-12-06 | 2011-12-06 | Image processing apparatus and image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011267032A JP2013120435A (en) | 2011-12-06 | 2011-12-06 | Image processing apparatus and image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013120435A true JP2013120435A (en) | 2013-06-17 |
Family
ID=48773061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011267032A Pending JP2013120435A (en) | 2011-12-06 | 2011-12-06 | Image processing apparatus and image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013120435A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2524795A (en) * | 2014-04-03 | 2015-10-07 | Nokia Technologies Oy | Apparatus, method and computer program for obtaining images |
US9727967B2 (en) | 2014-06-23 | 2017-08-08 | Samsung Electronics Co., Ltd. | Methods for determining estimated depth in an image and systems thereof |
US10044963B2 (en) | 2016-03-30 | 2018-08-07 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
KR20190014959A (en) * | 2017-08-04 | 2019-02-13 | 삼성전자주식회사 | Electronic device for playing movie based on movment information and operating mehtod thereof |
-
2011
- 2011-12-06 JP JP2011267032A patent/JP2013120435A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2524795A (en) * | 2014-04-03 | 2015-10-07 | Nokia Technologies Oy | Apparatus, method and computer program for obtaining images |
US9727967B2 (en) | 2014-06-23 | 2017-08-08 | Samsung Electronics Co., Ltd. | Methods for determining estimated depth in an image and systems thereof |
US10044963B2 (en) | 2016-03-30 | 2018-08-07 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
KR20190014959A (en) * | 2017-08-04 | 2019-02-13 | 삼성전자주식회사 | Electronic device for playing movie based on movment information and operating mehtod thereof |
KR102330264B1 (en) * | 2017-08-04 | 2021-11-23 | 삼성전자주식회사 | Electronic device for playing movie based on movment information and operating mehtod thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4942221B2 (en) | High resolution virtual focal plane image generation method | |
JP6112824B2 (en) | Image processing method and apparatus, and program. | |
JP5635218B1 (en) | Pattern alignment method and system for spatially encoded slide images | |
JP4843750B2 (en) | Imaging apparatus, method and program | |
EP0684585B1 (en) | Image forming method and apparatus | |
JP4886716B2 (en) | Image processing apparatus and method, and program | |
JP6223169B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019532451A (en) | Apparatus and method for obtaining distance information from viewpoint | |
JP5633181B2 (en) | Depth map output device | |
JP2017531976A (en) | System and method for dynamically calibrating an array camera | |
US8810672B2 (en) | Image processing method, image processing device, and recording medium for synthesizing image data with different focus positions | |
JP2009300268A (en) | Three-dimensional information detection device | |
EP2504992A2 (en) | Image processing apparatus and method | |
JP6071257B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2009288042A (en) | Distance measuring device | |
JP2014010783A (en) | Image processing apparatus, image processing method, and program | |
EP3832600A1 (en) | Image processing device and three-dimensional measuring system | |
JP2013120435A (en) | Image processing apparatus and image processing method, and program | |
WO2015159791A1 (en) | Distance measuring device and distance measuring method | |
KR101857977B1 (en) | Image apparatus for combining plenoptic camera and depth camera, and image processing method | |
JP6732440B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP2020028114A (en) | Stereoscopic image generating device and program thereof | |
JP5088973B2 (en) | Stereo imaging device and imaging method thereof | |
JP6648916B2 (en) | Imaging device | |
JP6292785B2 (en) | Image processing apparatus, image processing method, and program |