[go: up one dir, main page]

JP4852591B2 - 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 - Google Patents

立体画像処理装置、方法及び記録媒体並びに立体撮像装置 Download PDF

Info

Publication number
JP4852591B2
JP4852591B2 JP2008303227A JP2008303227A JP4852591B2 JP 4852591 B2 JP4852591 B2 JP 4852591B2 JP 2008303227 A JP2008303227 A JP 2008303227A JP 2008303227 A JP2008303227 A JP 2008303227A JP 4852591 B2 JP4852591 B2 JP 4852591B2
Authority
JP
Japan
Prior art keywords
parameter
image
sets
parameters
corresponding points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008303227A
Other languages
English (en)
Other versions
JP2010128820A5 (ja
JP2010128820A (ja
Inventor
康一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2008303227A priority Critical patent/JP4852591B2/ja
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to EP09829194A priority patent/EP2350973A4/en
Priority to BRPI0922834A priority patent/BRPI0922834A2/pt
Priority to US13/131,496 priority patent/US8111910B2/en
Priority to PCT/JP2009/070207 priority patent/WO2010061956A1/en
Priority to CN200980147730.1A priority patent/CN102227746B/zh
Priority to KR1020117012071A priority patent/KR20110102313A/ko
Publication of JP2010128820A publication Critical patent/JP2010128820A/ja
Publication of JP2010128820A5 publication Critical patent/JP2010128820A5/ja
Application granted granted Critical
Publication of JP4852591B2 publication Critical patent/JP4852591B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は立体画像処理装置、方法及びプログラム並びに立体撮像装置に係り、特に複数の撮像ユニットの設置姿勢、ズーム率等のばらつきに起因する複数の画像間の画角のばらつきを幾何学的に補正する技術に関する。
1台のカメラに複数の撮像ユニットを備えた、いわゆる複眼カメラは、同一被写体を複数の視点から撮像することができるため、被写体の3次元情報の取得などに用いられる。映像観賞の分野においては、各撮像ユニットから得られた視差のある画像を用い、レンチキュラーレンズシートを利用したプリントなどの3次元映像の観賞媒体が存在し、それら媒体向けの画像入力手段として複眼カメラが用いられている。
前述の通り複眼カメラは、複数の撮像ユニットから構成されているため、各撮像ユニットのレンズ、撮像素子などの特性のばらつき、あるいは撮像ユニットをマウントする際に撮像ユニットごとに設置姿勢にばらつきがあると、良好な視差画像が得られない。特に、後者のばらつきは、正確な視差情報の取得には大きな影響を与えるため、3次元映像の立体感、見やすさなどが損なわれないためにも、撮像ユニットの設置姿勢のばらつきを抑制することが重要である。
図11(A)に示すように被写体(人物)を2つの撮像ユニットにより撮像した場合、図11(B)に示すような理想的な視差画像(視差に起因して被写体が水平方向にずれ、カメラの姿勢ばらつきがない視差画像)を得ることは難しく、実際に得られる視差画像は視差だけでなく、撮像ユニットの姿勢に起因する画像のずれが生じる(図11(C))。
複眼カメラ製造の過程において、上記ばらつきが発生しないよう撮像ユニットを高精度にマウントすることが望ましいが、精度を求めるがゆえに生産性の低下、作業工数の増加などといった問題が発生する。
このような課題に対して、従来、複眼カメラにて撮影された画像を幾何学的に変形させることで、撮像ユニット間の幾何学的な特性差を吸収する方法が提案されている(特許文献1、2)。
特許文献1に記載の方法は、複数台のカメラの位置や向きのずれから生じる射影歪みを補正するために、各カメラで撮影された画像をそれぞれ同一平面上に投影し、各カメラの画像を同一平面上の画像に補正するようにしている。
また、特許文献2に記載の方法は、2つの撮像部により被写体を同時に撮影した際に生じる画角のずれのうち、撮像部の姿勢・ズーム率の差に起因するものを補正することを目的とし、各撮像部から得られた画像間で対応点検出を行い、各画像の対応点が一致するような幾何補正パラメータを算出し、それを用いて画像を変形するようにしている。
特開平7−294215号公報 特開2006−157432号公報
しかしながら、特許文献1に記載の方法は、各画像を強制的に同一平面上に投影する画像処理を行うため、投影後の画像間に生じる視差は、意図しない不適切なものとなる問題がある。
一方、特許文献2に記載の方法は、2つの画像間の対応点が一致するように画像を変形させるため、本来残したい視差に起因する画角ずれも補正されてしまい、視差の情報が失われるという問題がある。
本発明はこのような事情に鑑みてなされたもので、複数の撮像ユニットの設置姿勢、ズーム率等のばらつきに起因する複数の画像間の画角のばらつきを幾何変形により吸収する際に、本来画像間に生じるべき視差による画角ずれを残すように幾何変形することができ、これにより理想的な視差画像を得ることができる立体画像処理装置、方法及びプログラム並びに立体撮像装置を提供することを目的とする。
前記目的を達成するために、本発明の第1の態様に係る立体画像処理装置は、複数の視点から同一被写体を撮影した複数の画像を取得する画像取得手段と、前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像と対象画像との間で特徴が略一致する複数の組の対応点を検出する対応点検出手段と、前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と、他方の対応点のxy座標値とのうち、前記複数の視点の視差方向と直交する方向のy座標値のみが略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定するパラメータ推定手段と、前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する画像変形手段と、を備えたことを特徴としている。
上記第1の態様に係る発明によれば、複数の視点から同一被写体を撮影した複数の画像のうちの所定の画像(基準画像)と前記基準画像以外の画像(対象画像)のそれぞれの対応点間の変位のうち、前記複数の視点の視差方向と直交する方向の成分を略ゼロにするという拘束条件を設けた上で、対象画像を幾何変形するための幾何変形パラメータを推定するようにしている。即ち、前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と、他方の対応点のxy座標値とのうち、前記複数の視点の視差方向と直交する方向のy座標値のみが略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定する。このようにして推定した幾何変形パラメータに基づいて対象画像を幾何変形することで、本来、基準画像と対象画像間に生じるべき視差による画角ずれを残しつつ、視差方向と直交する方向の画角ずれを補正することができ、理想的な視差画像を得ることができる。
本発明の第2の態様は、上記第1の態様に係る立体画像処理装置において、前記幾何変形パラメータは、複数のパラメータからなり、前記パラメータ推定手段は、少なくとも前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と他方の対応点のy座標値とを用いて、前記複数のパラメータの少なくとも一部を推定することを特徴としている。
本発明の第3の態様は、上記第2の態様に係る立体画像処理装置において、前記パラメータ推定手段は、前記推定した複数のパラメータの一部を用いて、前記複数のパラメータの残りのパラメータを算出することを特徴としている。
即ち、幾何変形を行うための変換式の種類によっては、前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と他方の対応点のy座標値とを用いて、複数のパラメータのうちの全てのパラメータを推定することができる場合と、一部のパラメータしか推定できない場合があるが、後者の場合であっても、推定した一部のパラメータから残りのパラメータを算出することができる。
本発明の第4の態様は、上記第2の態様に係る立体画像処理装置において、前記幾何変形パラメータは射影変換パラメータであり、前記パラメータ推定手段は、前記検出した複数の組の対応点のうちの5組以上を選択し、前記選択した各組の対応点の座標値に基づいて、少なくとも射影変換先のy座標値を決定するためのパラメータを推定することを特徴としている。
本発明の第5の態様は、上記第4の態様に係る立体画像処理装置において、前記パラメータ推定手段は、前記推定した少なくとも射影変換先のy座標値を決定するためのパラメータに基づいて、射影変換先のx座標値を決定するために必要な残りのパラメータを算出することを特徴としている。
即ち、画像の幾何変形を射影変換により行う場合には、5組以上の一方の対応点のxy座標値と他方の対応点のy座標値に基づいて射影変換パラメータのうち、一部のパラメータ(少なくとも射影変換先のy座標値を決定するためのパラメータ)しか推定することができないが、残りのパラメータ(射影変換先のx座標値を決定するために必要なパラメータ)は、前記推定したパラメータに基づいて算出することができる。
本発明の第6の態様は、上記第2の態様に係る立体画像処理装置において、前記幾何変形パラメータはヘルマート変換パラメータであり、前記パラメータ推定手段は、前記検出した複数の組の対応点のうちの3組以上を選択し、前記選択した各組の対応点の座標値に基づいて前記ヘルマート変換パラメータを推定することを特徴としている。
即ち、画像の幾何変形をヘルマート変換により行う場合には、3組以上の一方の対応点のxy座標値と他方の対応点のy座標値に基づいてヘルマート変換パラメータの全てを推定することができる。
本発明の第7の態様に係る立体画像処理方法は、複数の視点から同一被写体を撮影した複数の画像を取得する画像取得工程と、前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像と対象画像との間で特徴が略一致する複数の組の対応点を検出する対応点検出工程と、前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と、他方の対応点のxy座標値とのうち、前記複数の視点の視差方向と直交する方向のy座標値のみが略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定するパラメータ推定工程と、前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する画像変形工程と、を含むことを特徴としている。
本発明の第8の態様は、上記第7の態様に係る立体画像処理方法において、前記幾何変形パラメータは、複数のパラメータからなり、前記パラメータ推定工程は、少なくとも前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と他方の対応点のy座標値とを用いて、前記複数のパラメータの少なくとも一部を推定することを特徴としている。
本発明の第9の態様は、上記第8の態様に係る立体画像処理方法において、前記パラメータ推定工程は、前記複数の組の総数をN個とすると、前記N個の組から前記幾何変形パラメータのうちの少なくとも変換先のy座標値を決定するためのパラメータの推定に必要な数の組をランダムに選択する第1の工程と、前記第1の工程によりランダムに選択された各対応点の座標値に基づいて推定したパラメータを用いて、前記N個の組についてそれぞれ一方の対応点の変換先のy座標値を算出する第2の工程と、前記第2の工程により算出された一方の対応点の変換先のy座標値と他方の対応点のy座標値との差分を前記N個の組についてそれぞれ算出する第3の工程と、前記第3の工程により算出された差分が予め設定した第1の閾値未満となる対応点の組の個数を計数する第4の工程と、前記計数した組の個数と前記N個との割合に基づいて前記推定したパラメータの信頼度を判定する第5の工程と、を含み、前記判定された信頼度が予め設定した信頼度に達するまで、又は予め設定した反復回数に達するまで前記第1の工程から第5の工程の処理を繰り返すことを特徴としている。
上記第9の態様に係る発明によれば、前記検出された複数の対応点の組の総数がN個ある場合に、N個の組の中から、幾何変形パラメータのうちの少なくとも変換先のy座標値を決定するためのパラメータの推定に必要な数の組(射影変換の場合は5組、ヘルマート変換の場合は3組)として、適切な組み合わせのものを決定できるようにしている。即ち、N個の組からパラメータの推定に必要な数の組をランダムに選択し、その選択した組の各対応点の座標値に基づいて推定したパラメータを用いて、N個の組についてそれぞれ一方の対応点の変換先のy座標値を算出する。この算出された変換先のy座標値と、他方の対応点のy座標値との差分をN個の組についてそれぞれ算出し、この算出した差分が予め設定した第1の閾値未満となる対応点の組の個数を計数する。この計数した組の個数と前記N個との割合に基づいて、前記推定したパラメータの信頼度を判定している。そして、前記推定したパラメータの信頼度の判定結果が予め設定した信頼度に達するまで、又は予め設定した反復回数に達するまで前記ランダムな組の選択等の処理を繰り返し、これにより、少なくとも変換先のy座標値を決定するためのパラメータの推定に必要な数の組として、適切な組み合わせのものを決定できるようにしている。
本発明の第10の態様は、上記第9の態様に係る立体画像処理方法において、前記パラメータ推定工程は、前記判定された信頼度が予め設定した信頼度に達したときの前記推定したパラメータ、又は前記反復回数中で最も信頼度が高いときの前記推定したパラメータを用いて、前記N個の組についてそれぞれ一方の対応点の変換先のy座標値を算出する第6の工程と、前記第6の工程により算出された一方の対応点の変換先のy座標値と他方の対応点のy座標値との差分をN個の組についてそれぞれ算出する第7の工程と、前記第7の工程により算出された差分が予め設定した第2の閾値未満となる対応点の組のみを前記N個の組から選択する第8の工程と、前記第8の工程で選択された対応点の組のみを用いて前記複数のパラメータを算出する第9の工程と、を含むことを特徴としている。
即ち、前記推定したパラメータは所望の信頼度を有するものであり、このパラメータにより変換された一方の対応点の変換先のy座標値と他方の対応点のy座標値とは本来ならば略一致し、その差分は予め設定した第2の閾値未満となる。一方、前記差分が前記第2の閾値未満にならない対応点の組は不適切な組とみなして排除し、前記差分が前記第2の閾値未満になる対応点の組のみを抽出する。そして、このようにして抽出した組のみを用いて複数のパラメータを再度算出し、更にパラメータの信頼度を向上させるようにしている。
本発明の第11の態様は、上記第10の態様に係る立体画像処理方法において、前記第9の工程は、前記第8の工程で選択された複数の組の一方の対応点の変換先のy座標値と他方の対応点のy座標値との差の自乗和を最小にする前記複数のパラメータを算出することを特徴としている。即ち、最小自乗法により最終の複数のパラメータの推定を行っている。
本発明の第12の態様に係る立体画像処理プログラムは、複数の視点から同一被写体を撮影した複数の画像を取得する画像取得機能と、前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像と対象画像との間で特徴が略一致する複数の組の対応点を検出する対応点検出機能と、前記検出した複数の組の対応点のうちの一方の対応点のxy座標値と、他方の対応点のxy座標値とのうち、前記複数の視点の視差方向と直交する方向のy座標値のみが略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定するパラメータ推定機能と、前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する画像変形機能と、をコンピュータに実現させることを特徴としている。
本発明の第13の態様に係る立体撮像装置は、上記第1から6のいずれかの態様に係る立体画像処理装置と、複数の視点位置にそれぞれ配置され、該視点位置から同一被写体をそれぞれ撮像する複数の撮像ユニットと、を備え、前記画像取得手段は、前記複数の撮像ユニットによってそれぞれ撮像された複数の画像を取得することを特徴としている。
本発明によれば、複数の視点から同一被写体を撮影した複数の画像のうちの所定の画像(基準画像)と前記基準画像以外の画像(対象画像)のそれぞれの対応点間の変位のうち、前記複数の視点の視差方向と直交する方向の成分を略ゼロにするという拘束条件を設けた上で、対象画像を幾何変形するための幾何変形パラメータを推定するようにしたため、本来画像間に生じるべき視差による画角ずれを残しつつ、視差方向と直交する方向の画角ずれを補正することができ、理想的な視差画像を得ることができる。
以下、添付図面に従って本発明に係る立体画像処理装置、方法及びプログラム並びに立体撮像装置の好ましい実施の形態について説明する。
[立体撮像装置の全体構成]
図1は本発明に係る立体撮像装置の全体構成を示すブロック図である。
同図に示すように立体撮像装置10は、6台の撮像ユニット1〜6を備えており、同一の被写体を6視点から撮影した6枚の画像(視差画像)を取得し、所定の形式の記録用画像データとして記録する装置である。
中央処理装置(CPU12)には、制御バス16を介して撮像ユニット1〜6及び発光部18が接続されるとともに、メインメモリ20、デジタル信号処理部22、積算部24、圧縮伸張処理部26、外部記録部28、表示部30、対応点検出部32、幾何変形部34、及び幾何変形パラメータ推定部36が接続されており、CPU12は、操作部14からの操作入力に基づき所定の制御プログラムに従って立体撮像装置10全体の動作を統括制御する制御手段として機能する。
また、撮像ユニット1〜6、メインメモリ20、デジタル信号処理部22、積算部24、圧縮伸張処理部26、外部記録部28、表示部30、対応点検出部32、幾何変形部34、及び幾何変形パラメータ推定部36は、それぞれデータバス38を介して接続されている。
撮像ユニット1〜6は、それぞれ図2に示すように同一の構成を有するものであり、撮影レンズ40、絞り41、IRカットフィルタ42、光学ローパスフィルタ43、撮像素子(CCD)44、A/D変換器45、レンズ駆動部46、絞り駆動部47、及びCCD駆動部48から構成されている。
撮影レンズ40は、フォーカスレンズ、ズームレンズ等を含み、レンズ駆動部46に駆動されて光軸に沿って前後に移動する。CPU12は、レンズ駆動部46の駆動を制御することにより、フォーカスレンズの位置を制御して被写体に焦点が合うように焦点調節を行うとともに、操作部14からのズーム指令に応じてズームレンズの位置を制御してズーミングを行う。
絞り41は、例えば、アイリス絞りで構成されており、絞り駆動部47に駆動されて動作する。CPU12は、絞り駆動部47を介して絞り41の開口量(絞り値)を制御し、CCD44への入射光量を制御する。
CCD44は、2次元のカラーCCD固体撮像素子により構成されている。CCD44の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードには所定の配列でカラーフィルタが配置されている。撮影レンズ40、絞り41、IRカットフィルタ42、及び光学ローパスフィルタ43を介してCCD受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU12の指令に従ってCCD駆動部48から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)としてCCD44から順次読み出される。CCD44は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。尚、本実施形態では、撮像素子としてCCD44を用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
CCD44から読み出された画像信号は、A/D変換器45によりデジタル信号に変換された後、データバス38を介して一旦、メインメモリ20に格納される。
上記構成の撮像ユニット1〜6は、図3に示すように立体撮像装置10の装置本体に対して水平方向に、かつ所定の間隔(所定の基線長)で配置されており、更に各撮像ユニット1〜6の撮影レンズの光軸が一点で交差するように輻輳角(各光軸のなす角度)が調整されて配置されている。
CPU12は、各撮像ユニット1〜6を同期させて駆動する。即ち、各撮影レンズ40は、常に同じ被写体にピントが合うように焦点調整が行われ、常に同じ焦点距離(ズーム倍率)に設定される。また、常に同じ入射光量(絞り値)となるように絞り41が調整される。
操作部14は、シャッタボタン、電源スイッチ、モードダイヤル、十字ボタン、ズームボタン等の公知の操作入力手段を含んでいる。シャッタボタンは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。撮影モード時には、シャッタボタンが半押しされると、撮影準備処理(即ち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス))が行われ、シャッタボタンが全押しされると、画像の撮影・記録処理が行われる。
発光部18は、例えば、放電管(キセノン管)により構成され、暗い被写体を撮影する場合や逆光時等に必要に応じて発光される。
メインメモリ20は、CPU12によるプログラムの実行時におけるワークエリアとして、また、撮像ユニット1〜6により撮像され取得されたデジタル画像信号を一時保持する記憶手段として使用される。
デジタル信号処理部22は、ホワイトバランス調整回路、階調変換処理回路(例えば、ガンマ補正回路)、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、輪郭補正回路、輝度・色差信号生成回路等を含む画像処理手段として機能し、メインメモリ20に格納されたR、G、Bの画像データに対して所定の信号処理を行う。即ち、R、G、Bの画像信号は、デジタル信号処理部22において輝度信号(Y信号)及び色差信号(Cr、Cb信号)からなるYUV信号に変換されるとともに、階調変換処理(例えば、ガンマ補正)等の所定の処理が施される。デジタル信号処理部22により処理された画像信号はメインメモリ20に格納される。
積算部24は、シャッタボタンの半押し時に取り込まれる画像信号に基づいてAF制御に必要な焦点評価値を算出したり、AE制御に必要な被写体輝度を算出する。CPU12は、AF制御時には積算部24により算出される焦点評価値が極大となる位置をサーチし、その位置にフォーカスレンズを移動させることにより、被写体(主要被写体)への焦点合わせを行い、AE制御時には積算部24により算出された被写体輝度に基づいて適正な露光量を得るための露出設定を行う。即ち、撮影感度、絞り値、シャッタ速度、フラッシュ発光の要否を設定する。
圧縮伸張処理部26は、CPU12からの指令に従い、入力された画像データに圧縮処理を施し、所定形式の圧縮画像データを生成する。例えば、静止画に対してはJPEG規格に準拠した圧縮処理が施され、動画に対してはMPEG2やMPEG4、H.264規格に準拠した圧縮処理が施される。また、圧縮伸張処理部26は、CPU12からの指令に従い、入力された圧縮画像データに伸張処理を施し、非圧縮の画像データを生成する。
外部記録部28は、上記圧縮伸張処理部26により生成されたJPEG形式等の画像データを格納した画像ファイル、メモリカード等の着脱自在な外部記録媒体に記録し、又は外部記録媒体から画像ファイルの読み出しを行う。
表示部30は、例えば、カラー液晶パネルを備えた表示装置により構成され、撮影済み画像を表示するための画像表示部として使用されるとともに、各種設定時にGUIとして使用される。また、表示部30は、撮影モード時に画角を確認するための電子ファインダとして利用される。表示部30の表面には、かまぼこ状のレンズ群を有したいわゆるレンチキュラレンズが配置されており、複数の視点の画像(視差画像)による3次元画像(3D画像)の再生モード時には、外部記録部28から読み出された視差画像が表示され、ユーザは立体視が可能となる。
図4(A)に示すように撮像ユニット1〜6から得られる6枚の画像は、理想的には各画像間には視差のみによる被写体のずれが生じるが、実際は、図4(B)に示すように視差に加えて撮像ユニット1〜6の姿勢やズーム倍率のばらつきに因って被写体のずれが生じる。
対応点検出部32、幾何変形部34、及び幾何変形パラメータ推定部36は、画像を幾何変形させて上記被写体のずれを補正する本発明の特徴部分であり、以下、図5に示すフローチャートを参照しながら説明する。
<立体画像処理の全体的な流れ>
図5は本発明に係る立体画像処理の全体の流れを示すフローチャートである。
[ステップS10]
視差画像の撮像時には、6台の撮像ユニット1〜6により同一被写体が撮像され、得られた6枚の画像が記録される。この際、各画像はデジタル信号処理部22により前述した各種の信号処理が施された後、メインメモリ20に一時的に格納される。尚、外部記録部28により外部記録媒体に記録するようにしてもよい。
[ステップS12]
メインメモリ20に格納された6枚の画像のうち、所定の1枚の画像(この実施の形態では、撮像ユニット3から得られた画像)が基準画像として設定され、その設定された基準画像がメインメモリ20から読み出される。尚、この実施の形態では、撮像ユニット3から得られた画像を基準画像として設定するようにしたが、これに限らず、6枚の画像のうち、いずれの画像を基準画像に設定してもよい。
[ステップS14]
前記設定された基準画像以外の5画像のうち所定の1画像が対象画像として選択され、その選択された対象画像がメインメモリ20から読み出される。
[ステップS16]
対応点検出部32は、前記設定された基準画像と前記選択された対象画像との間で特徴が略一致する複数の組の対応点を検出する。
対応点検出部32による対応点検出については、従来から様々な手法が提案されている。本発明はその手法には限定されないが、例えば、ブロックマッチング法、KLT法(Tomasi & Kanade,1991,Detection and Tracking of Point Features)、SIFT(Scale Invariant Feature Transform)などの従来技術を用いることができる。
尚、この実施の形態では、便宜上、対応点検出部32により検出された各組(ペア)の対応点のうち、基準画像から検出された対応点を特徴点と称す。
[ステップS18]
幾何変形パラメータ推定部36は、前記特徴点と対応点の複数の組の座標値に基づいて射影変換パラメータを推定・算出する。尚、このステップS18の詳細については後述する。
[ステップS20]
前記射影変換パラメータが正常なものとして推定されたかを判別し、正常の場合(「yes」の場合)には、ステップS22に遷移し、正常でない場合(「no」の場合)には、ステップS22を飛ばしてステップS24に遷移する。
[ステップS22]
幾何変形部34は、正常に推定された射影変換パラメータに基づいて対象画像を射影変換する。射影変換後の画像は、外部記録部28にて外部記録媒体に記録される。
[ステップS24]
前記基準画像と5枚の対象画像の全ての画像間において、上記ステップS14〜S22の処理が終了したか否かが判別される。終了していない場合にはステップS14に遷移し、ここで他の対象画像の選択が行われ、終了した場合には、本立体画像処理を終了させる。
<射影変換パラメータ推定の流れ>
次に、複数の特徴点と対応点の組に基づいて射影変換パラメータを推定する手順について説明する。
ここで、射影変換式は、次式の通りである。
Figure 0004852591
射影変換パラメータは、[数1]式中のa、b、s、c、d、t、p、qの8個のパラメータを指す。また、(x,y)、(X,Y)は、それぞれ射影変換前後の座標値を示す。
図6(A)は基準画像から抽出された特徴点(●)を基準画像上に重畳した図であり、図6(B)は対象画像から検出された対応点(○)を対象画像上に重畳した図である。
また、図6(C)には、それぞれ対応する特徴点と対応点とを結ぶベクトルが示されている。尚、図6において、特徴点A(x1,y1)と対応点A’(x2,y2)とは、ある1組の特徴点と対応点を示している。
本来、特徴点と対応点は、同じ高さ(=y座標値が略同じ)になるはずであるが、撮像ユニット1〜6の姿勢、ズーム率のばらつきに起因して被写体のずれが生じているため、特徴点Aと対応点A’の高さ(y座標値)は一致していない。
そこで、本発明は射影変換パラメータを推定するに当たっては、特徴点と対応点を結ぶ線分(以下、「ベクトル」という)が略水平になる(つまり、特徴点と対応点のy座標値が略一致する)ことを1つの拘束条件とする。この拘束条件は、6つの撮像ユニット1〜6が装置本体に水平に設置されていることに基づく。もし、複数の撮像ユニットが垂直に設置されている場合には、ベクトルが垂直になるという仮定を置く必要がある。要は、複数の視点の視差方向と直交する方向の座標値が略一致するという拘束条件を設ける。
図7は本発明に係るパラメータ推定の概念を示す図である。
図7に示すように、特徴点と対応点のずれ(同図の複合ベクトル)を生じさせる要因を分離して考えると、「視差」と「撮像ユニットの姿勢等のばらつき」とがある。同図からも分かるように、複合ベクトルのy成分には、視差の影響はなく、撮像ユニットの姿勢等のばらつきによる成分のみが現れる。
そこで、本発明はベクトルのy成分からカメラ姿勢等に関連する射影変換パラメータを推定・算出する。
<射影変換パラメータ推定の処理フロー>
図8及び図9は本発明に係る射影変換パラメータの推定手順の一例を示すフローチャートである。
[ステップS100]
基準画像から抽出した特徴点と対象画像から検出した各特徴点に対応する対応点のペア(組)の全ての組数をN組とした場合、このN組の特徴点の座標(x,y)と対応点の座標(X,Y)を読み込む。i番目(1≦i≦N)の組の特徴点の座標を(xi,yi)、対応点の座標を(Xi,Yi)とする。
[ステップS102]
対応点検出部32によって得られた特徴点と対応点の組の数が少ない場合は、射影変換パラメータの推定ができないため、ペア数Nに対する閾値処理を行う。
即ち、特徴点と対応点の組の数Nに対する閾値TH1を設け、以下の条件分岐を行う。
IF N<TH1 →パラメータの推定に失敗したというフラグを立て推定を終了する(図9のステップS124)。
ELSE →パラメータの推定を続行する。
尚、射影変換パラメータを推定するためには、最低5つの組の座標値が必要であるため、前記閾値TH1は、5以上の所定の値とする。
[ステップS104]
反復回数irandとパラメータ信頼度の最大値n_vote_maxを初期化する(両者ともに0にする)。
[ステップS106]
特徴点と対応点のN組のうち、5つの組をランダムに選択する。5組のランダムな選択は、乱数を使用して行うことができる。
[ステップS108]
ステップS106で選択された5組の特徴点と対応点の座標値(5つの特徴点のxy座標値と、5つの対応点のy座標値)に基づいて、5組の特徴点と対応点のy座標値を一致させるための射影変換パラメータを算出する。
前述の[数1]式に示したように、y方向に関する射影変換パラメータは、c、d、t、p、qの5つであるため、5つの点の座標値を[数1]式に代入して得られる5つ式による連立方程式を解けば、一意にパラメータ(c、d、t、p、q)を算出することができる。
[ステップS110]
前記算出されたパラメータ(c、d、t、p、q)を代入した射影変換式に、全ての点の組(N組)を当てはめ、以下の条件式1を満たす点の数n_voteを計数する。
Figure 0004852591
この条件式1の意図するところは、5つの点の組から定めた射影変換パラメータにより、その他の点の組のy座標値が一致したかどうかを判断することにある。つまり、N本あるベクトルのうち、いくつのベクトルが水平になったかを表すのが、n_voteの値である。このn_voteが大きければ大きいほど、該射影変換パラメータの信頼度が高いと判断できる。
[ステップS112]
ステップS110で算出した数n_voteと、信頼度最大値n_vote_maxとを比較し、n_voteがn_vote_maxよりも大きい場合(n_vote>n_vote_max)には、ステップS114に遷移し、小さい場合(n_vote≦n_vote_max)には、ステップS118に遷移する。
[ステップS114]
前記算出されたパラメータ(c、d、t、p、q)を、中間パラメータ(c_tmp、d_tmp、t_tmp、p_tmp、q_tmp)として一時記憶するとともに、n_voteを最大値n_vote_maxとして一時記憶する。
射影変換パラメータを推定する際は、以下に説明するようにステップS106からステップS118の処理を既定回数nrand繰り返し行うが、そのうち最もn_voteが大きくなったときのパラメータが、最も信頼度が高いと考えられる。そのため、前回の信頼度n_voteをn_vote_maxとして保持しておき、今回の信頼度が前回の信頼度よりも大きくなる場合に、各パラメータを更新していく。
[ステップS116]
信頼度最大値n_vote_maxの全ての組の数Nに対する比率(n_vote_max/N)を求め、この比率に対する閾値処理を行う。
即ち、予め設定した閾値TH2により、以下の条件分岐を行う。
IF n_vote_max/N<TH2 →パラメータの推定を続行する。
ELSE →パラメータの反復推定を終了し、最終の射影変換パラメータの算出に遷移する(図9のステップS126)。
尚、前記閾値TH2は、1よりも小さい1近傍の値として設定することができる。
信頼度最大値n_vote_maxは、N個の点の組のうち、推定されたパラメータによる射影変換によりy座標値が略一致する点の組の数であるから、n_vote_max/Nは、全ての点の組の数Nに対する適正に補正される点の数の割合を示す。従って、n_vote_max/NがTH2以上の場合は、推定されたパラメータは十分信頼できるとして、パラメータの反復推定を終了し、最終の射影変換パラメータの算出に移行する。一方、n_vote_max/NがTH2未満の場合は、パラメータの反復推定を続行する。
[ステップS118]
パラメータを反復推定した反復回数irandが、既定回数nrandより大きいか否かを判別する。反復回数irandが既定回数nrand以下の場合(「no」の場合)には、ステップS120に遷移し、既定回数nrandよりも大きい場合((「yes」の場合)には、ステップS122に遷移する。既定回数nrandとしては、画像中の特徴点と対応点の組の数Nにもよるが、1000から10000回程度が考えられる。
[ステップS120]
反復回数irandを1だけインクリメントし、ステップS106に遷移する。
[ステップS122]
反復回数irandが既定回数nrandよりも大きくなった場合には、ステップS114にて保持されている現在の信頼度最大値n_vote_maxの全ての組の数Nに対する比率(n_vote_max/N)を求め、この比率に対する閾値処理を行う。
即ち、予め設定した閾値TH3により、以下の条件分岐を行う。
IF n_vote_max/N<TH3 →パラメータの推定に失敗したというフラグを立て推定を終了する(図9のステップS124)。
ELSE →パラメータの反復推定を終了し、最終の射影変換パラメータを算出するためのステップ(図9のステップS126)に遷移する。
尚、前記閾値TH3は、ステップS114の閾値TH2よりも小さい値であることは言うまでもない。
[ステップS124(図9)]
前述したように、特徴点と対応点の組の数Nが閾値TH1未満の場合(ステップS102)、又は推定したパラメータの信頼度が低い場合(n_vote_max/N<TH3)に、射影変換パラメータの推定に失敗したという推定失敗フラグを立て、射影変換パラメータの推定を終了させる。
[ステップS126]
ステップS114で保持した中間パラメータ(c_tmp、d_tmp、t_tmp、p_tmp、q_tmp)を代入した射影変換式に、全ての点の組(N組)を当てはめ、N組から以下の条件式2を満たす組のみを残す(条件式2を満たさない組を排除する)。
Figure 0004852591
これにより、信頼度の高い特徴点と対応点の組のみを残すことができる。
[ステップS128]
上記条件式2を満たした点の組のみを用い、最小自乗法による最終的なパラメータの推定を行う。ここで、条件式2を満たした点の組の数をnとすると、最小自乗法によるパラメータ推定は、次式の評価関数J2が最小となるようにパラメータを推定する。
Figure 0004852591
尚、評価関数J2は、評価関数J1と等価なものである。
具体的には、次式に示すように、評価関数J2を各パラメータ(c、d、t、p、q)で偏微分して得られる5つの式それぞれを0とおき、これら5つの式により連立方程式を解けば、パラメータ(c、d、t、p、q)が求められる。
Figure 0004852591
以上の連立方程式を解くことで、最終のパラメータ(c、d、t、p、q)が得られる。
[ステップS130]
次に、8個の射影変換パラメータ(a、b、s、c、d、t、p、q)のうち、前記推定したパラメータ(c、d、t、p、q)以外の射影変換先のx座標値を決定するために必要な残りのパラメータ(a,b,s)を決定する。
ここで、パラメータsは、x方向(視差の生じる方向)の平行移動量に相当するパラメータである。視差量が未知で、sを一意に定めることはできないため、s=0とする。
一方、パラメータa,bの算出は、例えば、次のようにする。
今、図10に示すような座標系を考える。原点Oから距離1のところに画像面があるとし、画像面上の各点を、射影面上に射影する、つまり、P1の点をP2に写すことを考える。
ここで、画像面と射影面のなす角度をθ、射影面をx’軸上にとる。また、射影面とz軸(画像の奥行き方向)の交点をO’とし、x’軸上の原点とする。
P1のx座標値をx、x’軸で考えたときのP2のx座標値をx’とすると、以下の式が成り立つ。
Figure 0004852591
これを一般化し、射影面がx軸とな角度をθx,y軸(図10上で紙面と直交する方向の軸)となす角度をθyとすれば、以下の式が得られる。
Figure 0004852591
上記[数7]式上で、(x,y)は画像面上の座標値、(x',y')は射影面上での座標値である。また、wとhはそれぞれ画像の幅と高さを表しており、画像の幅と高さについて規格化している。この操作は、撮像ユニットの光軸の方向を調整していることに該当する。
続いて、射影面上に射影された画像に対して、回転とスケール変化、平行移動を行う。この操作は、撮像ユニットのズーム率や、光軸の回転を調整していることに該当する。ここで、回転角度をθ、ズームに起因するスケール変化率をk、平行移動量を(s',t')とすると、以下の式が成り立つ。
Figure 0004852591
上記[数8]式に[数7]式を代入すると、以下の式が得られる。
Figure 0004852591
これを射影変換式([数1]式)と比較すると、以下の関係が導かれる。
Figure 0004852591
上記[数10]式において、既にc、d、t、p、qは既知であるため、これらの式からθx、θy、θ、kを求めることができ、これらのθx、θy、θ、kからa,bを算出することができる。ただし、上述したようにs=s’=0としてa、bを算出する。
[ステップS132]
以上の手順により、8個の射影変換パラメータ(a、b、s、c、d、t、p、q)の推定・算出が終了すると、推定成功フラグを立て、射影変換パラメータの推定を終了させる。
尚、この実施の形態では、[数3]式に示した条件を満たした点の組のみを用い、最小自乗法により最終的なパラメータの推定を行うようにしたが、これに限らず、前記中間パラメータをそのまま使用するようにしてもよい。
<その他>
以上の推定手法によれば、特徴点を射影変換するための射影変換パラメータが算出される。つまり、得られた射影変換パラメータは、基準画像を変形させるためのものと言える。本来、算出すべきパラメータは、対象画像を変形させるためのパラメータであるが、そうしていないことには以下の理由がある。
通常、入力された画像を変形して出力する際には、出力画像の各画素位置が入力画像上でどこに位置するかを計算する。これは、入力画像の各画素が出力画像上でどこに位置するかを計算していくと、データのない領域が発生してしまうことを回避するための一般的な手法である。つまり、対象画像を変形するために必要となるパラメータは、実際のところ、特徴点を変換するためのパラメータで良い。
また、この実施の形態では、画像の幾何変形の手法として、射影変換を用いたが、ヘルマート変換や、アフィン変換などの幾何変形を用いることも当然可能である。その場合、パラメータの推定方法が射影変換の場合と比較して若干異なる。例えば、ヘルマート変換式は、次式のように表される。
Figure 0004852591
射影変換パラメータの推定方法と同様の考え方をするならば、Yを求める5つのパラメータ(c、d、t、p、q)を5組の特徴点と対応点を用いて算出していたところを、3組の特徴点と対応点を用いて、[数11]式のYを求めるためのパラメータ(a、b、t)を推定するように変更すればよい。また、最小自乗法による最終的なパラメータの推定を行う場合には、評価関数Jを次式のようにすればよい。
Figure 0004852591
尚、ヘルマート変換式では、[数11]式に示したように、Xを求めるパラメータにもa、bが含まれているため、Yを定めるパラメータを推定しさえすれば、Xを定めるパラメータも必然と得られることになる。また、射影変換の場合と同様、Xに対する平行移動成分であるパラメータsについては、s=0として考えればよい。その他の幾何変形を行う場合も同様の考え方でその幾何変形用のパラメータを推定することが可能である。
また、この実施の形態の立体撮像装置は、6つの撮像ユニットを有する複眼カメラであるが、撮像ユニットの数は2以上あればよく、この実施の形態のものに限定されず、更に撮像ユニットが複数備わった複眼カメラに限らず、単眼のカメラが複数台備わったカメラシステムにおいても本発明を適用することができる。
更に、本発明に係る立体画像処理は、立体撮像装置によって行う場合に限らず、視差画像の撮影機能を持たないパーソナルコンピュータ等で行うようにしてもよい。この場合、従来の複眼カメラ等によって撮影された複数の画像(視差画像)をパーソナルコンピュータ等に取り込むようにすればよい。また、本発明は、理想的な視差画像を得るための幾何変形処理を行う機能を、パーソナルコンピュータに実現させるプログラムとして提供することも可能である。
また、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
図1は本発明に係る立体撮像装置の全体構成を示すブロック図である。 図2は図1に示した撮像ユニットの構成を示すブロック図である。 図3は複数の撮像ユニットの装置本体への配置と被写体との関係を説明するために用いた図である。 図4は6台の撮像ユニットにより撮像される理想的な視差画像と実際の視差画像との対応関係を示す図である。 図5は本発明に係る立体画像処理の全体の流れを示すフローチャートである。 図6は基準画像及び対象画像における特徴点と対応点との関係を示す図である。 図7は本発明に係る幾何変形のパラメータ推定の概念を説明するために用いた図である。 図8は射影変換パラメータの推定手順の一例を示すフローチャートの一部を示す図である。 図9は射影変換パラメータの推定手順の一例を示すフローチャートの残り部分を示す図である。 図10は射影変換パラメータのうちの射影変換先のx座標値を決定するために必要な残りのパラメータの決定方法を説明するために用いた図である。 図11は複数の撮像ユニットのカメラ姿勢に起因する画像のずれを説明するための図である。
符号の説明
1〜6…撮像ユニット、10…立体撮像装置、12…中央処理装置(CPU)、20…メインメモリ、22…デジタル信号処理部、28…外部記録部、30…表示部、32…対応点検出部、34…幾何変形部、36…幾何変形パラメータ推定部

Claims (13)

  1. 複数の視点から同一被写体を撮影した複数の画像を取得する画像取得手段と、
    前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像から複数の特徴点を、前記対象画像から対応点を検出して、同じ組に含まれる特徴点と対応点の特徴が略一致するような特徴点と対応点の組を生成する対応点検出手段と、
    前記同じ組に含まれる特徴点と対応点について、前記複数の視点の視差方向と直交する方向のy座標値が略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定するパラメータ推定手段と、
    前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する画像変形手段
    と、
    を備える立体画像処理装置。
  2. 前記幾何変形パラメータは、複数のパラメータからなり、
    前記パラメータ推定手段は、前記特徴点のxy座標値と前記対応点のy座標値とに基づいて、前記複数のパラメータの少なくとも一部を推定する、請求項1に記載の立体画像処理装置。
  3. 前記パラメータ推定手段は、前記推定した一部のパラメータに基づいて、前記一部のパラメータ以外のパラメータを算出する、請求項2に記載の立体画像処理装置。
  4. 前記幾何変形パラメータは射影変換パラメータであり、
    前記パラメータ推定手段は、前記検出した特徴点と対応点の複数の組のうちの5組以上を選択し、前記選択した各組の特徴点と対応点の座標値に基づいて、少なくとも射影変換先のy座標値を決定するための射影変換パラメータを推定する、請求項2に記載の立体画像処理装置。
  5. 前記パラメータ推定手段は、前記推定した少なくとも射影変換先のy座標値を決定するためのパラメータに基づいて、射影変換先の対応点のx座標値を決定するために必要な残りのパラメータを算出する、請求項4に記載の立体画像処理装置。
  6. 前記幾何変形パラメータはヘルマート変換パラメータであり、
    前記パラメータ推定手段は、前記検出した特徴点と対応点の複数の組のうちの3組以上を選択し、前記選択した各組の特徴点と対応点の座標値に基づいて前記ヘルマート変換パラメータを推定する、請求項2に記載の立体画像処理装置。
  7. 複数の視点から同一被写体を撮影した複数の画像を取得する画像取得工程と、
    前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像から複数の特徴点を、前記対象画像から対応点を検出して、同じ組に含まれる特徴点と対応点の特徴が略一致するような特徴点と対応点の組を生成する対応点検出工程と、
    前記同じ組に含まれる特徴点と対応点について、前記複数の視点の視差方向と直交する方向のy座標値が略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定するパラメータ推定工程と、
    前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する画像変形工程と、
    を備える立体画像処理方法。
  8. 前記幾何変形パラメータは、複数のパラメータからなり、
    前記パラメータ推定工程においては、前記特徴点のxy座標値と前記対応点のy座標値とに基づいて、前記複数のパラメータの少なくとも一部を推定する、請求項7に記載の立体画像処理方法。
  9. 前記パラメータ推定工程は、
    前記複数の組の総数をN個とすると、前記N個の組から少なくとも変換先のy座標値を決定するための幾何変形パラメータの推定に必要な数の組をランダムに選択する第1の工程と、
    前記第1の工程によりランダムに選択された各対応点の座標値に基づいて推定したパラメータに基づいて、前記N個の組について変換後の対応点のy座標値を算出する第2の工程と、
    前記第2の工程により算出された前記変換後の対応点のy座標値と、前記特徴点のy座標値との差分を、前記N個の組についてそれぞれ算出する第3の工程と、
    前記第3の工程により算出された差分が予め設定した第1の閾値未満となる特徴点と対応点の組の個数を計数する第4の工程と、
    前記計数した組の個数と前記Nとの割合に基づいて前記推定したパラメータの信頼度を判定する第5の工程と、
    前記判定された信頼度が予め設定した信頼度に達するまで、又は予め設定した反復回数に達するまで前記第1の工程から第5の工程の処理を繰り返す工程と、
    を備える請求項8に記載の立体画像処理方法。
  10. 前記パラメータ推定工程は、
    前記判定された信頼度が予め設定した信頼度に達したときの前記推定したパラメータ、又は前記反復回数中で最も信頼度が高いときの前記推定したパラメータを用いて、前記N個の組について変換後の対応点のy座標値を算出する第6の工程と、
    前記第6の工程により算出された変換後の対応点のy座標値と前記特徴点のy座標値との差分をN個の組についてそれぞれ算出する第7の工程と、
    前記第7の工程により算出された差分が予め設定した第2の閾値未満となる特徴点と対応点の組のみを前記N個の組から選択する第8の工程と、
    前記第8の工程で選択された特徴点と対応点の組のみを用いて前記複数のパラメータを算出する第9の工程と、
    を含む、請求項9に記載の立体画像処理方法。
  11. 前記第9の工程において、前記第8の工程で選択された複数の組の変換後の対応点のy座標値と特徴点のy座標値との差の自乗和を最小にする前記複数のパラメータを算出する、請求項10に記載の立体画像処理方法。
  12. 複数の視点から同一被写体を撮影した複数の画像を取得し、
    前記取得した複数の画像のうちの所定の画像を基準画像として選択し、前記基準画像以外の画像を対象画像として選択し、前記基準画像から複数の特徴点を、前記対象画像から対応点を検出して、同じ組に含まれる特徴点と対応点の特徴が略一致するような特徴点と対応点の組を生成し、
    前記同じ組に含まれる特徴点と対応点について、前記複数の視点の視差方向と直交する方向のy座標値が略一致するように前記対象画像を幾何変形するための幾何変形パラメータを推定し、
    前記推定した幾何変形パラメータに基づいて前記対象画像を幾何変形する、
    立体画像処理プロセスをコンピュータに実行させるためのコンピュータプログラムを備えるコンピュータ読み取り可能な記録媒体。
  13. 請求項1から6のいずれかに記載の立体画像処理装置と、
    複数の視点位置にそれぞれ配置され、前記視差方向に沿う視点位置から同一被写体をそれぞれ撮像する複数の撮像ユニットとを備え、
    前記画像取得手段は、前記複数の撮像ユニットによってそれぞれ撮像された複数の画像を取得する、立体撮像装置。
JP2008303227A 2008-11-27 2008-11-27 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 Expired - Fee Related JP4852591B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2008303227A JP4852591B2 (ja) 2008-11-27 2008-11-27 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
BRPI0922834A BRPI0922834A2 (pt) 2008-11-27 2009-11-25 dispositivo de processamento de imagem estereoscópica, método, meio de gravação e aparelho de geração de imagem estereoscópica
US13/131,496 US8111910B2 (en) 2008-11-27 2009-11-25 Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
PCT/JP2009/070207 WO2010061956A1 (en) 2008-11-27 2009-11-25 Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
EP09829194A EP2350973A4 (en) 2008-11-27 2009-11-25 STEREOSCOPIC IMAGE PROCESSING DEVICE, METHOD, RECORDING MEDIUM, AND STEREOSCOPIC IMAGING APPARATUS
CN200980147730.1A CN102227746B (zh) 2008-11-27 2009-11-25 立体图像处理装置、方法和立体成像设备
KR1020117012071A KR20110102313A (ko) 2008-11-27 2009-11-25 입체 화상 처리 디바이스, 방법, 기록 매체 및 입체 촬상 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008303227A JP4852591B2 (ja) 2008-11-27 2008-11-27 立体画像処理装置、方法及び記録媒体並びに立体撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011232129A Division JP2012022716A (ja) 2011-10-21 2011-10-21 立体画像処理装置、方法及びプログラム並びに立体撮像装置

Publications (3)

Publication Number Publication Date
JP2010128820A JP2010128820A (ja) 2010-06-10
JP2010128820A5 JP2010128820A5 (ja) 2011-08-04
JP4852591B2 true JP4852591B2 (ja) 2012-01-11

Family

ID=42225818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303227A Expired - Fee Related JP4852591B2 (ja) 2008-11-27 2008-11-27 立体画像処理装置、方法及び記録媒体並びに立体撮像装置

Country Status (7)

Country Link
US (1) US8111910B2 (ja)
EP (1) EP2350973A4 (ja)
JP (1) JP4852591B2 (ja)
KR (1) KR20110102313A (ja)
CN (1) CN102227746B (ja)
BR (1) BRPI0922834A2 (ja)
WO (1) WO2010061956A1 (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4915859B2 (ja) * 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
WO2009037817A1 (ja) * 2007-09-19 2009-03-26 Panasonic Corporation 輪郭補正装置、輪郭補正方法、映像表示装置
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US9485495B2 (en) * 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP5742179B2 (ja) * 2010-11-05 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、および画像処理方法、並びにプログラム
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5682291B2 (ja) * 2010-12-20 2015-03-11 ソニー株式会社 補正値演算装置、複眼撮像装置、および、補正値演算装置の制御方法
CN102859555B (zh) * 2011-01-13 2016-04-20 松下知识产权经营株式会社 图像处理装置及图像处理方法
JP5625976B2 (ja) 2011-02-09 2014-11-19 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにプログラム
JP2012234258A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
WO2012176526A1 (ja) * 2011-06-21 2012-12-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP5954668B2 (ja) * 2011-10-11 2016-07-20 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
CN104685860A (zh) 2012-09-28 2015-06-03 派力肯影像公司 利用虚拟视点从光场生成图像
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
EP2757524B1 (en) * 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476B1 (en) 2013-03-15 2025-02-26 Adeia Imaging LLC Systems and methods for stereo imaging with camera arrays
US9955142B2 (en) * 2013-07-05 2018-04-24 Mediatek Inc. On-line stereo camera calibration device and method for generating stereo camera parameters
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
JP6097951B2 (ja) 2013-08-22 2017-03-22 富士フイルム株式会社 幹細胞分化判定装置および方法並びにプログラム
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
JP6349817B2 (ja) * 2014-03-19 2018-07-04 富士通株式会社 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
JP6602743B2 (ja) * 2016-12-08 2019-11-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US10403010B2 (en) * 2017-09-19 2019-09-03 General Electric Company Methods and systems for reconstructing images
KR102055777B1 (ko) * 2018-02-27 2019-12-13 포디리플레이코리아 주식회사 다채널 영상을 위한 전송 시스템 및 이의 제어 방법, 다채널 영상 처리 방법
JP7493302B2 (ja) * 2018-10-02 2024-05-31 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN109671291B (zh) * 2018-11-21 2021-06-04 山东远瞻信息科技有限公司 一种基于智能传感器的全景监控方法
EP3821267A4 (en) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR SURFACE MODELING USING POLARIZATION TRIGGERS
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
CN115552486A (zh) 2020-01-29 2022-12-30 因思创新有限责任公司 用于表征物体姿态检测和测量系统的系统和方法
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294215A (ja) 1994-04-25 1995-11-10 Canon Inc 画像処理方法及び装置
EP1097432A1 (en) * 1998-07-20 2001-05-09 Geometrix, Inc. Automated 3d scene scanning from motion images
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
JP4065488B2 (ja) * 2001-12-14 2008-03-26 キヤノン株式会社 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP4004899B2 (ja) * 2002-09-02 2007-11-07 ファナック株式会社 物品の位置姿勢検出装置及び物品取出し装置
JP2006157432A (ja) 2004-11-29 2006-06-15 Fuji Photo Film Co Ltd 立体画像撮影装置及び立体画像の撮影方法
TWI277912B (en) * 2005-01-11 2007-04-01 Huper Lab Co Ltd Method for calculating a transform coordinate on a second video of an object having an object coordinate on a first video and related operation process and video surveillance system
JP4617965B2 (ja) * 2005-03-31 2011-01-26 ソニー株式会社 画像処理方法、その装置およびプログラム
EP1736928A1 (en) * 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Robust image registration
US20070165942A1 (en) * 2006-01-18 2007-07-19 Eastman Kodak Company Method for rectifying stereoscopic display systems

Also Published As

Publication number Publication date
CN102227746A (zh) 2011-10-26
US8111910B2 (en) 2012-02-07
BRPI0922834A2 (pt) 2015-12-29
EP2350973A1 (en) 2011-08-03
EP2350973A4 (en) 2012-04-04
KR20110102313A (ko) 2011-09-16
US20110235899A1 (en) 2011-09-29
CN102227746B (zh) 2014-08-06
JP2010128820A (ja) 2010-06-10
WO2010061956A1 (en) 2010-06-03

Similar Documents

Publication Publication Date Title
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
JP6405243B2 (ja) 焦点検出装置及びその制御方法
JP6585006B2 (ja) 撮影装置および車両
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
US20130101177A1 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
US8593531B2 (en) Imaging device, image processing method, and computer program
US8648961B2 (en) Image capturing apparatus and image capturing method
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
JP6289017B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US8749652B2 (en) Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP7121269B2 (ja) 測距カメラ
JP2012022716A (ja) 立体画像処理装置、方法及びプログラム並びに立体撮像装置
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体
JP6648916B2 (ja) 撮像装置
CN115314697B (zh) 图像处理设备和方法、摄像设备及其控制方法和存储介质
JP2016099432A (ja) 焦点検出装置及び方法、プログラム、記憶媒体
JP2016066015A (ja) 焦点検出装置及びその制御方法、プログラム、記憶媒体
JP2011182325A (ja) 撮像装置
CN113424020B (zh) 测距摄像机
JP6608238B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP6900228B2 (ja) 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP2023004680A (ja) 画像処理装置及び画像処理装置の制御方法
JP6255753B2 (ja) 画像処理装置および撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110621

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110926

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees