[go: up one dir, main page]

JP6011862B2 - 3次元画像撮影装置及び3次元画像撮影方法 - Google Patents

3次元画像撮影装置及び3次元画像撮影方法 Download PDF

Info

Publication number
JP6011862B2
JP6011862B2 JP2012517972A JP2012517972A JP6011862B2 JP 6011862 B2 JP6011862 B2 JP 6011862B2 JP 2012517972 A JP2012517972 A JP 2012517972A JP 2012517972 A JP2012517972 A JP 2012517972A JP 6011862 B2 JP6011862 B2 JP 6011862B2
Authority
JP
Japan
Prior art keywords
depth
input image
subject
unit
cost function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012517972A
Other languages
English (en)
Other versions
JPWO2012101719A1 (ja
Inventor
カン グエン
カン グエン
河村 岳
岳 河村
俊介 安木
俊介 安木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2012101719A1 publication Critical patent/JPWO2012101719A1/ja
Application granted granted Critical
Publication of JP6011862B2 publication Critical patent/JP6011862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、3次元画像撮影装置及び3次元画像撮影方法に関し、特に、入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置及び3次元画像撮影方法に関する。
従来、奥行き値を画像の領域毎に示す奥行き情報(デプスマップ:Depth Map)を用いて、2次元画像から3次元画像を生成する技術が開発されている。奥行き値(デプス値:Depth Value)は、画像の深さ方向を示す値であり、例えば、カメラから被写体までの距離に相当する値である。カメラを用いて撮影した画像から奥行き情報を生成する場合、画像の領域毎に、予め定められた複数の奥行き値から1つの奥行き値を決定することで、奥行き情報を生成することができる。
例えば、特許文献1には、焦点距離の異なる複数の画像から全焦点画像を作成する技術が開示されている。この技術を利用することで、画素毎の奥行き値を示すデプスマップを生成することができる。
特開2001−333324号公報
しかしながら、上記従来技術では、演算コストの増加の抑制と、立体感の向上とを両立することができないという課題がある。
従来は、予め定められた複数の奥行き値を用いている。すなわち、奥行き分解能が固定である。奥行き分解能とは、複数の奥行き値のばらつき具合を示す値であり、複数の奥行き値が密である程、奥行き分解能は高く、複数の奥行き値が疎である程、奥行き分解能は低くなる。
図1は、従来の奥行き分解能を示す図である。
図1(a)では、カメラから遠い側(テレ端)から近い側(ワイド端)までの間に、10個の奥行き値d〜d10が予め定められている。奥行き情報に含まれる奥行き値は、予め定められた10個の奥行き値d〜d10から選択されるので、注目被写体の奥行き値としては、d又はdが選択される。つまり、注目被写体の奥行き値は、d及びdの2つの値でしか表現されない。このため、入力画像を3次元画像に変換した場合、注目被写体の立体感はほとんど表現されず、書割的な3次元画像が生成される。
一方、図1(b)では、カメラから遠い側から近い側までの間に、19個の奥行き値d〜d19が予め定められている。この場合、注目被写体の奥行き値は、d11、d12及びd13の3つの値で表現されるので、図1(a)の場合に比べて、立体感を向上させることができる。
しかしながら、注目被写体の奥行き値を決定する際に、19個の奥行き値d〜d19のそれぞれに対して奥行き値を決定するための演算を行う必要がある。このため、図1(a)の場合に比べて、演算コスト(処理量)が増大してしまう。また、奥行き値d〜d19のそれぞれに対する演算結果を保持しておくために使用するメモリ量が大きくなる。
そこで、本発明は、上記従来の課題を解決するためになされたものであり、演算コストの増加を抑制しつつ、書割感を減少させ、立体感を向上させることができる3次元画像撮影装置及び3次元画像撮影方法を提供することを目的とする。
上記課題を解決するため、本発明の一態様に係る3次元画像撮影装置は、入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、撮影により前記入力画像を取得する撮影部と、前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備える。
これにより、指定した被写体近傍の奥行き分解能を高めることで、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができる。したがって、指定した被写体の書割感を低減し、立体感を向上させることができる。また、このとき、被写体近傍の奥行き分解能が他の領域の分解能より高めればよいので、例えば、全体の奥行き値の候補を増やす必要はなく、演算コストの増加を抑制することができる。
また、前記分解能設定部は、互いに異なる予め定められた複数の奥行き位置の少なくとも1つを、前記指定部によって指定された第1被写体の奥行き位置に近づけることで、前記複数の初期奥行き値を設定してもよい。
これにより、予め定められた奥行き位置を被写体の奥行き位置に近づけるようにすることで、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができ、立体感を向上させることができる。また、予め定められた奥行き位置を移動させるだけで、奥行き値の数を増やさないので、演算コストの増加を抑制することができる。
また、前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、前記奥行き情報生成部は、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定してもよい。
これにより、被写体近傍に追加奥行き値を設定することで、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができるので、さらに立体感を向上させることができる。
また、前記3次元画像撮影装置は、さらに、前記入力画像と前記奥行き情報とを用いて前記3次元画像を生成した場合の立体効果を示す立体効果画像を表示する表示部と、ユーザからの指示に基づいて前記立体効果の強弱を調整する立体効果調整部とを備え、前記分解能設定部は、前記立体効果調整部によって前記立体効果を強める設定がされた場合に、前記追加奥行き値を設定してもよい。
これにより、ユーザからの指示があった場合に追加奥行き値を設定するので、ユーザの意図する立体感を表現することができる。よって、ユーザの意図しない立体感の表現を行うことによる演算コストの増加を抑制することができる。
また、前記3次元画像撮影装置は、さらに、前記入力画像と前記奥行き情報とを用いて、前記入力画像から前記3次元画像を生成する3次元画像生成部を備え、前記表示部は、前記立体効果画像として前記3次元画像を表示してもよい。
これにより、3次元画像を表示するので、ユーザが立体効果を直接的に判断することができる。よって、ユーザは立体効果の調整を容易に行うことができるので、ユーザの意図する立体感を表現することができる。したがって、ユーザの意図しない立体感の表現を行うことによる演算コストの増加を抑制することができる。
また、前記指定部は、さらに、前記撮影部によって取得された入力画像内の、前記第1被写体とは異なる第2被写体を追加指定し、前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第2被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、前記奥行き情報生成部は、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定してもよい。
これにより、被写体を追加指定し、追加指定した被写体近傍の奥行き分解能を高めることで、複数の被写体の立体感を向上させることができる。例えば、1回目に設定した第1被写体の立体感を確かめた後に、他の被写体の立体感を向上させたい場合などに、第2被写体を追加指定することで、第1被写体だけでなく第2被写体の立体感も向上させることができる。
また、前記指定部は、さらに、前記撮影部によって取得された入力画像内の、前記第1被写体とは異なる第2被写体を追加指定し、前記分解能設定部は、さらに、前記複数の初期奥行き値が示す複数の奥行き位置の少なくとも1つを、前記指定部によって追加指定された第2被写体の奥行き位置に近づけることで、前記複数の初期奥行き値を更新してもよい。
これにより、被写体を追加指定し、追加指定した被写体近傍の奥行き分解能を高めることで、複数の被写体の立体感を向上させることができる。例えば、1回目に設定した第1被写体の立体感を確かめた後に、他の被写体の立体感を向上させたい場合などに、第2被写体を追加指定することで、第1被写体だけでなく第2被写体の立体感も向上させることができる。このとき、1回目に設定された奥行き位置を移動させるだけで、奥行き値の数を増やさないので、演算コストの増加を抑制することができる。
また、前記奥行き情報生成部は、前記入力画像の2次元の領域毎に、(a)前記分解能設定部によって設定された複数の奥行き値のそれぞれに対応し、対応する奥行き値の妥当性を表すコスト関数を算出し、(b)奥行き値が最も妥当であることを示すコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定してもよい。
これにより、奥行き値毎のコスト関数を用いて、最も妥当な奥行き位置を決定するので、奥行き値の候補の中から最適な奥行き値を決定することができ、立体感を向上させることができる。
また、前記3次元画像撮影装置は、さらに、前記奥行き情報生成部によって算出されたコスト関数を保持するコスト関数保持部を備えてもよい。
これにより、算出したコスト関数を保持するので、再び演算する必要がなくなり、演算コストの増加を抑制することができる。
また、前記コスト関数保持部は、前記奥行き情報生成部によって算出されたコスト関数を、前記入力画像の2次元の領域毎に、前記複数の奥行き値に対応付けて保持してもよい。
これにより、算出したコスト関数を、領域毎に、かつ、奥行き位置毎に保持するので、例えば、追加奥行き値が設定された場合は、追加奥行き値に対応するコスト関数のみの演算を行い、保持されているコスト関数との比較を行えばよく、演算コストの増加を抑制することができる。
また、前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、前記奥行き情報生成部は、さらに、前記入力画像の2次元の領域毎に、(a)前記追加奥行き値に対応するコスト関数を算出し、(b)算出したコスト関数を前記追加奥行き値に対応付けて前記コスト関数保持部に格納してもよい。
これにより、追加奥行き値が設定された場合は、追加奥行き値に対応するコスト関数のみの演算を行い、保持されているコスト関数との比較を行えばよく、演算コストの増加を抑制することができる。
また、前記コスト関数保持部は、前記入力画像の2次元の領域毎に、奥行き値が最も妥当であることを示すコスト関数のみを、対応する奥行き値に対応付けて保持してもよい。
これにより、算出したコスト関数のうち奥行き値が最も妥当なコスト関数のみを保持することで、メモリ資源を有効に利用することができる。
また、前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、前記奥行き情報生成部は、さらに、前記入力画像の2次元の領域毎に、(a)前記追加奥行き値に対応するコスト関数を算出し、(b)算出したコスト関数と前記コスト関数保持部に格納されているコスト関数とを比較し、(c)(i)算出したコスト関数が、前記コスト関数保持部に格納されているコスト関数より妥当であることを示している場合に、前記追加奥行き値を、対応する領域の奥行き値として決定するとともに、前記コスト関数保持部に格納されているコスト関数を当該算出したコスト関数に置き換え、(ii)前記コスト関数保持部に格納されているコスト関数が、算出したコスト関数より妥当であることを示している場合に、前記コスト関数保持部に格納されているコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定してもよい。
これにより、追加奥行き値が設定された場合、追加奥行き値に対応するコスト関数のみの演算を行い、保持されている最も妥当なコスト関数との比較を行えばよく、演算コストの増加を抑制することができる。
また、前記3次元画像撮影装置は、さらに、前記指定部によって指定された第1被写体を強調して前記入力画像を表示する表示部を備えてもよい。
これにより、ユーザに指定された被写体を提示することができる。
なお、本発明は、3次元画像撮影装置として実現できるだけではなく、当該3次元画像撮影装置を構成する処理部をステップとする方法として実現することもできる。また、これらステップをコンピュータに実行させるプログラムとして実現してもよい。さらに、当該プログラムを記録したコンピュータ読み取り可能なCD−ROM(Compact Disc−Read Only Memory)などの記録媒体、並びに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、それらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信してもよい。
また、上記の各3次元画像撮影装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されていてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。
本発明によれば、演算コストの増加を抑制しつつ、書割感を減少させ、立体感を向上させることができる。
図1は、従来の奥行き分解能を示す図である。 図2は、本発明の実施の形態に係る3次元画像撮影装置の構成の一例を示すブロック図である。 図3は、本発明の実施の形態に係る奥行き分解能の一例を示す図である。 図4は、本発明の実施の形態に係る奥行き分解能の別の一例を示す図である。 図5は、本発明の実施の形態に係る奥行き分解能の別の一例を示す図である。 図6Aは、本発明の実施の形態に係る1つの被写体を指定するためのユーザインタフェースの一例を示す図である。 図6Bは、本発明の実施の形態に係る複数の被写体を指定するためのユーザインタフェースの一例を示す図である。 図7Aは、本発明の実施の形態に係る立体効果を調整するためのユーザインタフェースの一例を示す図である。 図7Bは、本発明の実施の形態に係る立体効果を調整するためのユーザインタフェースの一例を示す図である。 図8は、本発明の実施の形態に係る入力画像とデプスマップとの関係の一例を示す図である。 図9は、本発明の実施の形態に係る複数の奥行き値と識別子との関係の一例を示す図である。 図10は、本発明の実施の形態に係るコスト関数保持部に保持されるデータの一例を示す図である。 図11は、本発明の実施の形態に係るコスト関数保持部に保持されるデータの別の一例を示す図である。 図12は、本発明の実施の形態に係る3次元画像撮影装置の動作の一例を示すフローチャートである。 図13は、本発明の実施の形態に係る奥行き分解能の設定処理の一例を示すフローチャートである。 図14は、本発明の実施の形態に係る3次元画像撮影装置の動作の別の一例を示すフローチャートである。 図15は、本発明の実施の形態に係る3次元画像撮影装置の動作の別の一例を示すフローチャートである。 図16は、本発明の実施の形態の変形例に係る3次元画像撮影装置の構成の一例を示すブロック図である。
以下、本発明の実施の形態に係る3次元画像撮影装置及び3次元画像撮影方法について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
本発明の実施の形態に係る3次元画像撮影装置は、撮影により入力画像を取得する撮影部と、入力画像内の被写体を指定する指定部と、指定された被写体近傍の奥行き分解能が高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を設定する分解能設定部と、入力画像の領域毎に、対応する領域の奥行き位置を示す奥行き値を、設定された複数の奥行き値の中から決定することで、入力画像に対応する奥行き情報を生成する奥行き情報生成部とを備えることを特徴とする。
図2は、本発明の実施の形態に係る3次元画像撮影装置100の構成の一例を示すブロック図である。3次元画像撮影装置100は、2次元の入力画像から3次元画像を生成するための奥行き情報(デプスマップ)を生成する。
図2に示すように、3次元画像撮影装置100は、被写体指定部110と、分解能設定部120と、撮影部130と、デプスマップ生成部140と、コスト関数保持部150と、3次元画像生成部160と、表示部170と、立体効果調整部180と、記録部190とを備える。
被写体指定部110は、撮影部130によって取得された入力画像内の被写体(注目被写体)を指定する。このとき、被写体指定部110は、複数の被写体を指定してもよい。被写体指定部110は、例えば、ユーザインタフェースを介して、ユーザによって指定された被写体を指定する。具体的には、被写体指定部110は、表示部170に表示されるユーザから被写体の指定を受け付けるためのユーザインタフェースを介して、ユーザが指示した被写体を指定する。
あるいは、被写体指定部110は、入力画像に画像認識処理を行うことで、指定領域を特定し、特定した指定領域を注目被写体として指定してもよい。画像認識処理は、例えば、顔認識処理及びエッジ検出処理などである。被写体指定部110は、入力画像に顔認識処理を行うことで、人物の顔領域を特定し、特定した顔領域を注目被写体として指定してもよい。
また、被写体指定部110は、1回目に指定した被写体(第1被写体)とは異なる第2被写体を追加指定してもよい。このとき、被写体指定部110は、複数の第2被写体を追加指定してもよい。
なお、ここでは、第1被写体は、第2被写体を指定する際に、既に奥行き分解能を高める処理の対象となっている被写体であり、第2被写体は、奥行き分解能を高める処理の対象にまだなっていない被写体である。具体的には、被写体指定部110は、ユーザが第1被写体に対する奥行き分解能を高める処理が行われた後の立体効果を確認した後、つまり、デプスマップが1回生成された後、新たに指定した被写体を第2被写体として追加指定する。
分解能設定部120は、被写体指定部110によって指定された被写体の奥行き分解能を高める処理を行う。すなわち、分解能設定部120は、入力画像の奥行き方向に平行な方向において、被写体指定部110によって指定された被写体近傍の奥行き分解能が、当該被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を設定する。
なお、奥行き方向とは、2次元の入力画像に対して直交する方向である。言い換えると、奥行き方向は、2次元の入力画像の前後方向、すなわち、画面からユーザに向かう方向(又は、ユーザから画面に向かう方向)である。また、奥行き方向における被写体近傍の領域は、被写体と、奥行き方向において被写体の周囲(前後)の領域とを含む。
また、奥行き分解能は、互いに異なる複数の奥行き位置のばらつき具合を示す値である。具体的には、複数の奥行き位置が密である程、奥行き分解能は高く、複数の奥行き値が疎である程、奥行き分解能は低くなる。言い換えると、奥行き方向における所定の領域内に含まれる奥行き位置の数が多い程、奥行き分解能は高く、当該領域内に含まれる奥行き位置の数が少ない程、奥行き分解能は低くなる。
なお、分解能設定部120の詳細な動作については、図3〜図5を用いて後で説明する。
撮影部130は、撮影により入力画像を取得する。撮影部130は、例えば、レンズなどの光学系と、入射光を電気信号(入力画像)に変換する撮像素子とを備える。レンズ及び撮像素子の少なくとも一方を動かすことで、レンズと撮像素子との間の距離を変更し、フォーカス(合焦位置)を変更することができる。
なお、デプスマップ生成部140が行う奥行き値の決定方法には、DFD(Depth from Defocus)方式やDFF(Depth from Focus)方式などがある。この方式に併せて、撮影部130は、入力画像の取得方法を変更する。
DFD方式では、例えば、撮影部130は、フォーカス(合焦位置)を変えながら複数回の撮影を行うことで、合焦位置毎に入力画像を取得する。例えば、テレ端(最遠端)での画像である最遠端画像とワイド端(最近端)での画像である最近端画像との2枚の画像を入力画像として取得する。
DFF方式(フォーカルスタック方式)では、例えば、撮影部130は、合焦位置を変えながら複数回の撮影を行うことで、合焦位置毎に入力画像を取得する。このとき、撮影部130は、奥行き値の個数の入力画像を取得する。つまり、撮影部130は、複数の奥行き値が示す複数の奥行き位置のそれぞれを合焦位置として撮影することで、複数の奥行き位置のそれぞれに対応する入力画像を取得する。
なお、デプスマップ生成部140行う奥行き値の決定方法は、DFD方式又はDFF方式に限定せず、他のデプス決定方法を利用してもよい。
デプスマップ生成部140は、奥行き情報生成部の一例であり、入力画像の2次元の領域毎に、対応する領域の奥行き位置を、分解能設定部120によって設定された複数の奥行き値の中から決定することで、入力画像に対応する2次元の奥行き情報(デプスマップ)を生成する。ここで、入力画像の2次元の領域は、例えば、1画素、又は、複数の画素からなる領域である。
例えば、デプスマップ生成部140は、入力画像の2次元の領域毎に、分解能設定部120によって設定された複数の奥行き値のそれぞれに対応し、対応する奥行き値の妥当性を表すコスト関数を算出する。そして、デプスマップ生成部140は、最も妥当であることを表すコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定する。デプスマップ生成部140の詳細な動作については、後で説明する。
コスト関数保持部150は、デプスマップ生成部140によって算出されたコスト関数を保持するためのメモリである。コスト関数保持部150に保持されるデータの詳細については、後で説明する。
3次元画像生成部160は、入力画像とデプスマップとを用いて、入力画像から3次元画像を生成する。なお、このとき用いる入力画像は、デプスマップの生成に用いた画像と全く同一でなくてもよい。3次元画像は、例えば、視差を有する左眼用画像と右眼用画像とから構成される。視聴者(ユーザ)は、左眼用画像を左眼で、右眼用画像を右眼で見ることで、3次元画像を立体的に感じることができる。
3次元画像生成部160は、具体的には、入力画像の2次元の領域毎に、対応する奥行き値を用いて視差情報を生成する。視差情報は、左眼用画像と右眼用画像との視差を示す情報である。例えば、視差情報は、対応する領域を左右方向にシフトさせる量(画素数)を示しており、3次元画像生成部160は、対応する領域を左右方向にシフトさせることで、左眼用画像と右眼用画像とを生成する。
表示部170は、入力画像とデプスマップとを用いて3次元画像を生成した場合の立体効果を示す立体効果画像を表示する。立体効果画像は、立体効果調整部180によって生成される。あるいは、立体効果画像は、例えば、3次元画像生成部160によって生成された3次元画像であってもよい。
また、表示部170は、GUI(Graphical User Interface)を表示する。GUIは、例えば、ユーザから被写体の指定を受け付けるためのインタフェース、及び、立体効果の強弱を調整するためのインタフェースなどである。GUIの具体的な例については、後で説明する。
立体効果調整部180は、ユーザからの指示に基づいて立体効果の強弱を調整する。具体的には、立体効果調整部180は、表示部170に表示される立体効果調整用のGUIを介して、ユーザからの指示を受け付ける。このとき、立体効果調整部180は、ユーザに立体効果を確認させるために、入力画像から3次元画像を生成した場合の立体効果を表す立体効果画像を生成してもよい。
例えば、立体効果調整部180は、ユーザから、どの被写体をどの程度、立体効果を強める、又は、弱めるかという指示を受け付ける。すなわち、立体効果調整部180は、立体効果の調整の対象となる被写体と、強弱の程度とを示す指示をユーザから受け付ける。受け付けた指示は、分解能設定部120に通知される。
記録部190は、3次元画像生成部160によって生成された3次元画像、すなわち、左眼用画像と右眼用画像とを記録媒体などに記録する。あるいは、記録部190は、撮影部130によって取得された入力画像と、デプスマップ生成部140によって生成されたデプスマップとを記録してもよい。なお、記録媒体は、例えば、3次元画像撮影装置100が備える内部メモリ、又は、3次元画像撮影装置100と接続可能なメモリカードなどである。
続いて、本発明の実施の形態に係る奥行き分解能の設定処理について説明する。
図3は、本発明の実施の形態に係る奥行き分解能の一例を示す図である。
図3(a)に示すように、図1(a)と同様に、3次元画像撮影装置100(カメラ)から遠い側(テレ端)から近い側(ワイド端)までの間に、10個の奥行き値d〜d10が予め定められている。つまり、本実施の形態に係る3次元画像撮影装置100では、奥行き値の個数が予め定められており、図3(a)に示す例では、10個である。
ここで、被写体指定部110は、奥行き値dが示す奥行き位置とdが示す奥行き位置との間に存在する被写体を、注目被写体として指定する。分解能設定部120は、10個の奥行き位置の少なくとも1つを注目被写体近傍の奥行き位置に近づけることで、図3(b)に示すように、10個の奥行き値d〜d10を設定する。
具体的には、分解能設定部120は、注目被写体を中心として注目被写体から離れる程、隣り合う奥行き値間の間隔が広くなるように、予め等間隔で定められていた複数の奥行き値を調整する。言い換えると、分解能設定部120は、注目被写体近傍の奥行き値の間隔を狭めるように複数の奥行き値を設定することで、注目被写体近傍の奥行き分解能を高める。
要するに、分解能設定部120は、注目被写体近傍の領域に含まれる奥行き値の個数が、注目被写体から離れた領域(例えば、テレ端又はワイド端付近の領域)に含まれる奥行き値の個数より多くなるように、複数の奥行き値を設定する。言い換えると、分解能設定部120は、注目被写体近傍の奥行き値が密となるように、複数の奥行き値を設定する。
これにより、図3(a)に示す例では、注目被写体の奥行き値は、d及びdの2つの値でしか表現されないのに対して、図3(b)に示す例では、注目被写体の奥行き値は、d、d及びdの3つの値で表現される。このため、図3(a)の場合に比べて、立体感を向上させることができる。このとき、全体の奥行き値の個数は、10個のままで変わらないので、奥行き値を決定するための演算コストも変わらない。したがって、演算コストの増加も抑制することができる。
このように、分解能設定部120は、互いに異なる予め定められた複数の奥行き位置の少なくとも1つを、被写体指定部110によって指定された被写体近傍の奥行き位置に近づけることで、複数の奥行き値を設定する。これにより、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができ、立体感を向上させることができる。また、予め定められた奥行き位置を移動させるだけで、奥行き値の数を増やさないので、演算コストの増加を抑制することができる。
なお、この処理は、入力画像に対して初めて被写体が指定された場合、つまり、1回目の第1被写体が指定された場合に実行されることが好ましい。言い換えると、分解能設定部120は、予め定められた複数の奥行き位置の少なくとも1つを、被写体指定部110によって1回目に指定された第1被写体近傍の奥行き位置に近づけることで、複数の初期奥行き値を設定する。複数の初期奥行き値は、図3(b)に示すd〜d10であり、少なくとも1回は奥行き分解能を高める処理が行われた後の奥行き値である。
図4は、本発明の実施の形態に係る奥行き分解能の別の一例を示す図である。
ここでは、図4(b)に示すように、注目被写体近傍に、新たな奥行き値d11及びd12が追加されている。つまり、分解能設定部120は、図3(b)に示した複数の初期奥行き値d〜d10のそれぞれが示す奥行き位置とは異なる奥行き位置であって、注目被写体近傍の奥行き位置を示す新たな奥行き値d11及びd12を、追加奥行き値として設定する。このとき、デプスマップ生成部140は、初期奥行き値d〜d10と追加奥行き値d11及びd12との中から1つの奥行き値を入力画像の2次元の領域毎に決定する。
このように、被写体近傍に追加奥行き値を設定することで、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができる。これにより、注目被写体の奥行き分解能をさらに高めることができ、注目被写体の立体感をさらに高めることができる。
なお、追加奥行き値の設定は、初期奥行き値の設定及びデプスマップの生成が完了した後に行われることが好ましい。具体的には、初期奥行き値の設定が完了した後、デプスマップ生成部140によって、初期奥行き値を用いてデプスマップが生成される。そして、表示部170には、生成されたデプスマップと入力画像とを用いて立体効果画像が表示されるとともに、ユーザからの立体効果の強弱を調整するため指示を受け付けるGUIが表示される。
立体効果調整部180は、表示部170に表示されたGUIを介して、ユーザから立体効果を強める指示を受けた場合、当該指示を分解能設定部120に通知する。分解能設定部120は、立体効果調整部180によって立体効果を強める設定がされた場合に、追加奥行き値を設定する。これにより、例えば、1回目に設定した第1被写体の立体感を確かめた後に、他の被写体の立体感を向上させたい場合などに、第2被写体を追加指定することで、第1被写体だけでなく第2被写体の立体感も向上させることができる。
このとき、デプスマップ生成部140は、初期奥行き値に対応するコスト関数は既に算出されているので、追加奥行き値に対応するコスト関数のみを算出すればよい。つまり、既に設定された初期奥行き値に対応するコスト関数を再び算出する必要はない。したがって、立体効果を高めるために必要な演算コストの増加を最小限に抑えることができる。
図5は、本発明の実施の形態に係る奥行き分解能の別の一例を示す図である。
本実施の形態では、上述したように、被写体指定部110は、第1被写体とは異なる第2被写体を追加指定することができる。図5は、第2被写体が追加指定された場合における奥行き分解能の一例を示している。
分解能設定部120は、複数の初期奥行き値d〜d10のそれぞれが示す奥行き位置とは異なる奥行き位置であって、追加被写体近傍の奥行き位置を示す新たな奥行き値(追加奥行き値d11及びd12)を設定する。このとき、デプスマップ生成部140は、初期奥行き値d〜d10と追加奥行き値d11及びd12との中から1つの奥行き値を入力画像の2次元の領域毎に決定する。
これにより、注目被写体だけでなく、新たに指定した追加被写体の奥行き分解能も高めることができ、注目被写体及び追加被写体の立体感を高めることができる。
なお、第2被写体の追加は、初期奥行き値の設定及びデプスマップの生成が完了した後に行われることが好ましい。具体的には、初期奥行き値の設定が完了した後、デプスマップ生成部140によって、初期奥行き値を用いてデプスマップが生成される。そして、表示部170には、生成されたデプスマップと入力画像とを用いて立体効果画像が表示されるとともに、ユーザからの被写体の追加を受け付けるためのGUIが表示される。
被写体指定部110は、表示部170に表示されたGUIを介して、ユーザから第2被写体の指定の指示を受けた場合、第2被写体を追加指定する。分解能設定部120は、第2被写体が追加指定された場合に、第2被写体の奥行き分解能を高めるように、奥行き値を設定する。これにより、1回目に指定した第1被写体だけでなく、新たに追加指定した第2被写体の奥行き分解能も高めることができ、第1被写体及び第2被写体の立体感を高めることができる。
続いて、本発明の実施の形態に係る表示部170が表示するGUIの例について説明する。
図6Aは、本発明の実施の形態に係る1つの被写体を指定するためのユーザインタフェースの一例を示す図である。
図6Aに示すように、表示部170は、被写体指定部110によって指定された被写体を強調して、入力画像を表示する。被写体の強調の方法には、例えば、被写体の輪郭を太くする方法、被写体をハイライト表示する方法、又は、被写体の色を反転表示する方法などがある。
さらに、表示部170は、被写体の奥行き位置を表すヒストグラム200を表示する。ヒストグラム200の縦軸は、画素数を表している。図6Aに示す例では、奥行き方向における中央付近に指定された被写体が存在することが表されている。
さらに、表示部170は、立体効果を表す立体効果画像201を表示する。図6Aに示す例では、立体効果画像201は、濃淡のパターンによって立体効果を表している。具体的には、パターンの濃い領域は立体効果が強く、すなわち、奥行き値が密であり、パターンの薄い領域は立体効果が弱く、すなわち、奥行き値が疎であることを示している。図6Aに示すように、本実施の形態では、指定された被写体を含む領域の立体効果が高められている。
このとき、表示部170は、例えば、カーソルなどを表示させることで、被写体指定部110は、ユーザからの被写体の指示を受け付けることができる。例えば、ユーザが表示部170に表示されている画像内で所定の領域を囲むような操作を行った場合、被写体指定部110は、当該領域に含まれる被写体を抽出し、抽出した被写体を指定する。あるいは、被写体指定部110は、当該領域そのものを被写体として指定してもよい。領域に含まれる被写体の抽出は、例えば、領域を対象としたエッジ検出処理、顔認識処理、及び、色検出処理などの画像処理によって行われる。
図6Bは、本発明の実施の形態に係る複数の被写体を指定するためのユーザインタフェースの一例を示す図である。
図6Bに示すように、表示部170は、被写体指定部110によって指定された被写体を強調して、入力画像を表示する。これにより、ユーザに指定された被写体を提示することができる。被写体の強調の方法には、例えば、被写体の輪郭を太くする方法、被写体をハイライト表示する方法、又は、被写体の色を反転表示する方法などがある。このとき、1回目に指定された第1被写体と、2回目以降に指定された第2被写体とで、強調の方法を変更してもよい。図6Bに示す例では、異なる網掛けによって被写体が異なることを示している。
表示部170は、図6Aと同様に、被写体の奥行き位置を表すヒストグラム210を表示する。図6Bに示す例では、奥行き方向における中央付近に指定された第1被写体が存在し、かつ、奥行き方向において遠端側に追加指定された第2被写体が存在することが表されている。
第2被写体が追加指定された場合、分解能設定部120は、図5(b)に示すように、追加被写体(第2被写体)近傍に追加奥行き値を設定することで、追加被写体の奥行き分解能を高める。これにより、第1被写体だけでなく、第2被写体近傍の立体効果も高めることができる。
さらに、表示部170は、立体効果を表す立体効果画像211を表示する。立体効果画像211は、図6Aに示す立体効果画像201と同様に、濃淡のパターンによって立体効果を表している。図6Bに示す例では、第1被写体近傍及び第2被写体近傍の立体効果が高められている。
このように、ユーザからの指示があった場合に追加奥行き値を設定するので、ユーザの意図する立体感を表現することができる。よって、ユーザの意図しない立体感の表現を行うことによる演算コストの増加を抑制することができる。
図7A及び図7Bは、本発明の実施の形態に係る立体効果を調整するためのユーザインタフェースの一例を示す図である。
図7A及び図7Bに示す例では、画面内に立体効果調整バーが表示されている。ユーザは、立体効果調整バーを操作することで、立体効果の強弱を調整することができる。
例えば、図7Aに示すように、ユーザが立体効果を弱めた場合、立体効果調整部180は、指定被写体の立体効果が弱まるような立体効果画像221を生成する。具体的には、立体効果画像は濃淡のパターンで立体効果を表示しているので、立体効果調整部180は、指定被写体の濃度が薄くなるような立体効果画像221を生成する。
さらに、立体効果調整部180は、ユーザ指示に基づいて立体効果を弱める設定を行う。そして、分解能設定部120は、立体効果を弱める設定が行われた場合、例えば、複数の初期奥行き値が示す奥行き位置のうち、注目被写体近傍の奥行き位置間の間隔を広げることで、立体効果を弱めることができる。例えば、分解能設定部120は、立体効果が弱められる程、注目被写体近傍の奥行き位置間の間隔を広げるように、複数の奥行き値を更新する。
あるいは、分解能設定部120は、複数の初期奥行き値のうち、注目被写体近傍の奥行き位置を示す初期奥行き値を削除してもよい。例えば、分解能設定部120は、立体効果が弱められる程、注目被写体近傍の奥行き値のうち削除する個数を増加させる。これによっても、立体効果を弱めることができる。
一方で、図7Bに示すように、ユーザが立体効果を強めた場合、立体効果調整部180は、指定被写体の立体効果が強まるような立体効果画像222を生成する。具体的には、立体効果調整部180は、指定被写体の濃度が濃くなるような立体効果画像222を生成する。
さらに、立体効果調整部180は、ユーザ指示に基づいて立体効果を強める設定を行う。そして、分解能設定部120は、立体効果を強める設定が行われた場合、例えば、複数の初期奥行き値が示す奥行き位置のうち、注目被写体近傍の奥行き位置間の間隔を狭めることで、立体効果を強めることができる。例えば、分解能設定部120は、立体効果が強められる程、注目被写体近傍の奥行き位置間の間隔を狭めるように、複数の奥行き値を更新する。
あるいは、図4(b)に示すように、注目被写体近傍に追加奥行き値を設定してもよい。例えば、分解能設定部120は、立体効果が強められる程、注目被写体近傍の追加奥行き値の個数を増加させる。これによっても、立体効果を強めることができる。
続いて、本発明の実施の形態に係るデプスマップの生成処理の一例について説明する。
図8は、本発明の実施の形態に係る入力画像とデプスマップ(奥行き情報)との関係の一例を示す図である。
入力画像は、m行×n列のマトリクス状に配列された画素A11〜Amnを含んでいる。
デプスマップは、奥行き情報の一例であり、入力画像の2次元の領域毎に奥行き値を示す画像である。図8に示す例では、デプスマップは、入力画像の画素毎に奥行き値を示している。言い換えると、入力画像に含まれる画素とデプスマップの画素とは1対1に対応している。具体的には、入力画像の画素Aijに対応する奥行き値は、Dijである。ここで、iは、1≦i≦mを満たし、jは、1≦j≦nを満たす。
図9は、本発明の実施の形態に係る複数の奥行き値と識別子との関係の一例を示す図である。
分解能設定部120は、設定した複数の奥行き値のそれぞれに識別子を付与する。図9に示す例では、分解能設定部120は、N個の奥行き値を設定した場合、カメラから最も遠い奥行き値に識別子“1”を付与し、カメラに最も近い奥行き値に識別子“N”を付与する。
なお、識別子の付与の仕方はこれに限らず、例えば、カメラから最も遠い奥行き値に識別子“N”を付与し、カメラに最も近い奥行き値に識別子“1”を付与してもよい。あるいは、識別子を付与することなく、奥行き値の値そのものを識別子として用いてもよい。
図10は、本発明の実施の形態に係るコスト関数保持部150に保持されるデータの一例を示す図である。
デプスマップ生成部140は、入力画像の2次元の領域毎に、複数の奥行き値のそれぞれに対応するコスト関数を算出し、算出したコスト関数をコスト関数保持部150に格納する。具体的には、コスト関数保持部150は、デプスマップ生成部140によって算出されたコスト関数を、入力画像の2次元の領域毎に複数の奥行き値に対応付けて保持する。このように、コスト関数保持部150は、算出されたコスト関数を保持するので、デプスマップ生成部140が再び演算する必要がなくなり、演算コストの増加を抑制することができる。
図10に示す例では、コスト関数保持部150は、分解能設定部120によって設定された複数の奥行き値のそれぞれに対応する識別子“1”〜“N”と、入力画像の画素A11〜Amnとに対応するコスト関数を保持する。具体的には、まず、デプスマップ生成部140は、識別子“d”と画素Aijとに対応するコスト関数Cost[Aij][d]を算出する。そして、デプスマップ生成部140は、算出したコスト関数Cost[Aij][d]をコスト関数保持部150に格納する。
ここで、具体的なコスト関数の算出方法について説明する。
まず、DFD方式の場合であり、最遠端画像と最近端画像とが入力画像として取得された場合におけるコスト関数の算出方法について説明する。なお、詳細は、非特許文献1「Coded Aperture Pairs for Depth from Defocus」(Changyin Zhou、Stephen Lin、Shree Nayer)に開示されている。
コスト関数は、以下の(式1)で表される。
Figure 0006011862
ここで、F及びFは、2枚の異なるボケ画像を周波数変換することで得られる周波数係数である。具体的には、Fは、最近端画像を周波数変換することで得られる周波数係数であり、Fは、最遠端画像を周波数変換することで得られる周波数係数である。
また、K は、PSF(Point Spread Function)を周波数変換することで得られるOTF(Optical Transfer Function)である。デプスマップ生成部140は、合焦位置に対応するPSF又はOTFを内部メモリなどに保持している。例えば、K は、F、すなわち、最近端画像に対応するOTFであり、K は、F、すなわち、最遠端画像に対応するOTFである。
は、以下の(式2)で表される。なお、Cは、主にノイズ対策のための調整用係数である。
Figure 0006011862
ここで、K ̄は、Kの複素共役である。デプスマップ生成部140は、(式1)の右項を計算した上で、逆周波数変換により計算結果を空間領域に変換する。そして、デプスマップ生成部140は、画素毎に、コスト関数が最小となる奥行き値dを決定する。なお、(式1)で表されるコスト関数は、値が小さい程、奥行き値が妥当であることを示している。つまり、コスト関数が最小となる奥行き値が、最も妥当な奥行き値であり、対応する画素の奥行き位置を表している。
また、入力画像として全焦点画像が取得された場合も、デプスマップ生成部140は、上記と同様にPSFを用いてコスト関数を算出し、奥行き値が最も妥当であることを示すコスト関数を決定することができる。
このように、デプスマップ生成部140は、奥行き値毎のコスト関数を用いて、最も妥当な奥行き位置を決定するので、奥行き値の候補の中から最適な奥行き値を決定することができ、立体感を向上させることができる。
次に、DFF方式の場合のコスト関数の算出方法について説明する。このとき、それぞれが、分解能設定部120によって設定された複数の奥行き値が示す奥行き位置でピントが合った複数の画像が、入力画像として取得される。
デプスマップ生成部140は、入力画像の領域毎にコントラストを算出する。具体的には、デプスマップ生成部140は、画素毎に、複数の入力画像のコントラストが最大となる入力画像に対応する奥行き位置を、当該画素の奥行き値として決定する。すなわち、コントラストが最大であることが、最も妥当な奥行き値を示すコスト関数に相当する。
なお、既に初期奥行き値に対応するコスト関数が算出され、コスト関数保持部150に保持されている状態で、分解能設定部120によって新たに奥行き値が追加設定された場合、デプスマップ生成部140は、新たに追加された奥行き値(追加奥行き値)に対応するコスト関数のみを算出すればよい。そして、デプスマップ生成部140は、算出したコスト関数を追加奥行き値に対応付けてコスト関数保持部150に格納すればよい。このように、追加奥行き値が設定された場合は、デプスマップ生成部140は、追加奥行き値に対応するコスト関数のみの演算を行い、保持されているコスト関数との比較を行えばよい。これにより、演算コストの増加を抑制することができる。
また、コスト関数保持部150は、入力画像の2次元の領域毎に、奥行き値が最も妥当であることを示すコスト関数のみを、対応する奥行き値に対応付けて保持してもよい。具体的な例について、図11を用いて説明する。
図11は、本発明の実施の形態に係るコスト関数保持部150に保持されるデータの別の一例を示す図である。例えば、コスト関数保持部150は、図11に示すように、入力画像の画素毎に、図9に示す識別子(奥行きID)と、コスト関数の最小値Cost_minとを対応付けて保持している。
なお、既に初期奥行き値に対応するコスト関数が算出され、コスト関数保持部150にコスト関数の最小値が保持されている状態で、分解能設定部120によって新たに奥行き値が追加設定された場合、デプスマップ生成部140は、新たに追加された奥行き値(追加奥行き値)に対応するコスト関数のみを算出すればよい。そして、デプスマップ生成部140は、算出したコスト関数と、コスト関数保持部150に保持されているコスト関数とを比較する。
算出したコスト関数が、コスト関数保持部150に保持されているコスト関数より妥当であることを示している場合に、デプスマップ生成部140は、追加奥行き値を、対応する領域の奥行き値として決定する。さらに、この場合、デプスマップ生成部140は、コスト関数保持部150に保持されているコスト関数を、算出したコスト関数に置き換える。つまり、算出したコスト関数が、コスト関数の最小値より小さい場合は、デプスマップ生成部140は、追加奥行き値を、対応する領域の奥行き値として決定するとともに、算出したコスト関数を、コスト関数保持部150に保持されているコスト関数の最小値の代わりに格納する。
また、コスト関数保持部150に保持されているコスト関数が、算出したコスト関数より妥当であることを示している場合に、デプスマップ生成部140は、コスト関数保持部150に保持されているコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定する。このとき、コスト関数の置き換えは行われない。
このように、追加奥行き値が設定された場合は、追加奥行き値に対応するコスト関数のみの演算を行い、保持されているコスト関数との比較を行えばよく、演算コストの増加を抑制することができる。また、コスト関数保持部150は、算出したコスト関数のうち奥行き値が最も妥当なコスト関数のみを保持すればよいので、メモリ資源を有効に利用することができる。
続いて、本発明の実施の形態に係る3次元画像撮影装置100の動作の一例について説明する。
図12は、本発明の実施の形態に係る3次元画像撮影装置100の動作の一例を示すフローチャートである。なお、図12は、DFD方式に基づいてデプスマップを生成する場合の動作を示している。
まず、被写体指定部110は、被写体を指定する(S110)。例えば、被写体指定部110は、撮影部130によって取得された入力画像に、図6Aに示すような被写体指定用のGUIを重畳して表示部170に表示させ、ユーザからの被写体の指定の指示を受け付ける。そして、受け付けた指示に基づいて、被写体指定部110は、被写体を指定する。
次に、撮影部130は、撮影により入力画像を取得する(S120)。ここでは、撮影部130は、最遠端画像と最近端画像との2枚の入力画像を取得する。
次に、分解能設定部120は、入力画像の奥行き方向に平行な方向において、被写体指定部110によって指定された被写体近傍の奥行き分解能が高くなるように、複数の奥行き値を設定する(S130)。具体的な処理を、図13に示す。
図13は、本発明の実施の形態に係る奥行き分解能の設定処理の一例を示すフローチャートである。
まず、分解能設定部120(又は、3次元画像撮影装置100の全体を制御する制御部)は、レンズを制御することで、被写体指定部110によって指定された被写体にフォーカスを合わせる(S131)。
そして、分解能設定部120は、このときのレンズ情報から被写体までの距離を取得し(S132)、取得した距離を奥行き値に変換する。なお、レンズ情報とは、例えば、指定された被写体にピントが合った場合の合焦距離(1cm〜∞(無限)など)を示す情報である。これにより、分解能設定部120は、被写体指定部110によって指定された被写体の奥行き位置を取得することができる。
そして、分解能設定部120は、取得した奥行き位置に基づいて、奥行き分解能を決定する(S133)。つまり、分解能設定部120は、被写体近傍の奥行き分解能が、被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を設定する。例えば、分解能設定部120は、互いに異なる予め定められた複数の奥行き位置の少なくとも1つを、指定された被写体の奥行き位置に近づけることで、図3(b)に示すように、複数の奥行き値を複数の初期奥行き値として設定する。
図12に戻ると、続いて、デプスマップ生成部140が、入力画像に対応する奥行き情報(デプスマップ)を生成する(S140)。具体的には、デプスマップ生成部140は、入力画像の画素毎に、対応する画素の奥行き位置を示す奥行き値を、分解能設定部120によって設定された複数の奥行き値の中から決定することで、デプスマップを生成する。ここでは、デプスマップ生成部140は、上述したように、DFD方式に基づいて、(式1)及び(式2)に従って、コスト関数を算出し、画素毎にコスト関数が最小となる奥行き値を決定する。
次に、3次元画像生成部160は、入力画像とデプスマップとに基づいて3次元画像を生成する(S150)。そして、表示部170は、3次元画像生成部160によって生成された3次元画像を表示する(S160)。
ここで、立体効果調整部180は、ユーザから立体効果の調整の指示を受けたか否かを判定する(S170)。具体的には、立体効果調整部180は、図7A及び図7Bに示す立体効果調整バーなどの立体効果調整用のGUIを、表示部170に表示させる。そして、立体効果調整部180は、立体効果調整用のGUIを介して、立体効果の調整の指示を受けたか否かを判定する。
ユーザが立体効果の調整を指示した場合(S170でYes)、立体効果調整部180は、ユーザ指示に基づいて、被写体の立体効果をどの程度強める又は弱めるかを設定する(S180)。
例えば、立体効果調整部180によって立体効果を強める設定が行われた場合に、分解能設定部120は、被写体近傍の奥行き位置を示す新たな奥行き値を設定する(S130)。なお、このとき、図13に示すフォーカスの制御(S131)及び被写体までの距離の取得(S132)は、行う必要はない。すなわち、分解能設定部120は、既に取得した被写体の奥行き位置に基づいて、その近傍に追加奥行き値を設定すればよい。
そして、デプスマップ生成部140は、さらに、追加奥行き値に対応するコスト関数のみを算出する(S140)。つまり、初期奥行き値に対応するコスト関数は、既に算出されているので、ここで再び算出する必要はない。これにより、演算コストの増加を抑制することができる。
なお、立体効果調整部180によって立体効果を弱める設定が行われた場合には、分解能設定部120は、被写体近傍の奥行き値の間隔を広げる、あるいは、被写体近傍の奥行き値を除外することで、奥行き値を更新する。
以降、3次元画像の生成(S150)、表示(S160)、及び、立体効果の調整の判定(S170)が同様に行われる。
ユーザが立体効果の調整を指示しない場合(S170でNo)、記録部190は、3次元画像を記録媒体に記録する(S190)。なお、このとき、記録部190は、入力画像とデプスマップとを記録してもよい。
なお、本実施の形態では、3次元画像を生成しなくてもよい。例えば、3次元画像を生成する代わりに、ステップS150において、立体効果調整部180が、入力画像とデプスマップとを用いて3次元画像を生成した場合の立体効果を表す立体効果画像を生成してもよい。この場合、ステップS160では、表示部170は、図7A及び図7Bに示す立体効果画像221又は222などの立体効果を表す立体効果画像を表示する。
次に、被写体を追加指定する場合の動作の一例について、図14を用いて説明する。
図14は、本発明の実施の形態に係る3次元画像撮影装置100の動作の別の一例を示すフローチャートである。なお、図14に示すフローチャートは、図12に示すフローチャートとほぼ同じであるので、ここでは、異なる点を中心に説明し、同じ点は説明を省略する。
ここでは、立体効果の調整の判定(S170)において、新たな被写体の追加指定を受け付けた場合に、立体効果の調整が必要である(S170でYes)と判定する。なお、このとき、被写体指定部110は、被写体の指定を受け付けるためのGUIを表示部170に表示させ、当該GUIを介して被写体の追加指定をユーザから受け付ける。
ユーザから被写体が追加指定を受け付けた場合(S170でYes)、被写体指定部110は、ユーザによって指示された被写体(第2被写体)を追加指定する(S175)。この場合、立体効果調整部180は、立体効果調整用のGUIを介して、追加指定された第2被写体の立体効果を調整する(S180)。つまり、立体効果調整部180は、ユーザ指示に基づいて、第2被写体の立体効果をどの程度強める又は弱めるかを設定する。
例えば、立体効果調整部180によって立体効果を強める設定が行われた場合に、分解能設定部120は、追加被写体近傍の奥行き位置を示す新たな奥行き値を設定する(S130)。なお、このとき、図13に示すフローチャートに従って、フォーカスを制御して(S131)、新たに追加された被写体までの距離を取得する(S132)。あるいは、既にステップS140において生成されたデプスマップから、追加被写体を示す画素位置の奥行き値を取得することで、追加被写体までの距離を取得してもよい。
そして、分解能設定部120は、追加被写体近傍の奥行き位置を示す奥行き値を新たに追加することで、奥行き分解能を決定する(S133)。そして、デプスマップ生成部140は、さらに、追加奥行き値に対応するコスト関数のみを算出する(S140)。つまり、初期奥行き値に対応するコスト関数は、既に算出されているので、ここで再び算出する必要はない。これにより、演算コストの増加を抑制することができる。
図15は、本発明の実施の形態に係る3次元画像撮影装置の動作の別の一例を示すフローチャートである。なお、図15は、DFF方式(例えば、フォーカルスタック)に基づいてデプスマップを生成する場合の動作を示している。なお、図15に示すフローチャートは、図12に示すフローチャートとほぼ同じであるので、ここでは、異なる点を中心に説明し、同じ点は説明を省略する。
DFF方式に従う場合、奥行き位置毎に対応する複数の入力画像が必要となる。したがって、奥行き分解能の設定(S130)の後に、撮影(S120)を行うことで、設定された複数の奥行き値が示す複数の奥行き位置と1対1に対応する複数の入力画像を取得する。
なお、予め多くの合焦位置での入力画像を取得しておくことで、追加の撮影を行わないようにしてもよい。つまり、奥行き値の個数以上に、奥行き値が更新又は追加された場合にとり得る値に相当する合焦位置での入力画像を、予め撮影しておいてもよい。これにより、予め定められた奥行き値を更新する場合、又は、新たに奥行き値を追加する場合には、撮影により取得された複数の入力画像の合焦位置に対応する奥行き値へ更新、又は、当該奥行き値を追加すればよい。
このように、本発明の実施の形態に係る3次元画像撮影装置100では、指定した被写体近傍の奥行き分解能が高くなるように、複数の初期奥行き値を設定し、設定した初期奥行き値に基づいてデプスマップを生成する。そして、生成したデプスマップを用いた場合の立体効果をユーザに確認させた後、被写体の追加、及び、立体効果の調整の設定を受け付けることができる。
以上のように、本発明の実施の形態に係る3次元画像撮影装置100は、撮影により入力画像を取得する撮影部130と、入力画像内の被写体を指定する被写体指定部110と、指定された被写体近傍の奥行き分解能が高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を設定する分解能設定部120と、入力画像の領域毎に、対応する領域の奥行き位置を示す奥行き値を、設定された複数の奥行き値の中から決定することで、入力画像に対応するデプスマップを生成するデプスマップ生成部140とを備える。
これにより、指定した被写体近傍の奥行き分解能を高めることで、被写体近傍の奥行き位置を表す奥行き値の候補を増やすことができる。したがって、指定した被写体の書割感を低減し、立体感を向上させることができる。また、このとき、被写体近傍の奥行き分解能を他の領域の分解能より高めればよいので、例えば、全体の奥行き値の候補を増やす必要はなく、演算コストの増加を抑制することができる。
以上、本発明に係る3次元画像撮影装置及び3次元画像撮影方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、図5に示す例では、分解能設定部120は、第2被写体近傍に新たな奥行き値を設定したが、初期奥行き値を更新することで、第2被写体近傍の奥行き分解能を高めてもよい。具体的には、分解能設定部120は、複数の初期奥行き値が示す複数の奥行き値の少なくとも1つを、被写体指定部110によって追加指定された第2被写体近傍の奥行き値に近づけることで、複数の初期奥行き値を更新してもよい。
これにより、例えば、1回目に設定した第1被写体の立体感を確かめた後に、他の被写体の立体感を向上させたい場合などに、被写体指定部110が第2被写体を追加指定することで、第1被写体だけでなく第2被写体の立体感も向上させることができる。このとき、分解能設定部120は、1回目に設定された奥行き位置を移動させるだけで、奥行き値の数を増やさないので、演算コストの増加を抑制することができる。
また、図6A及び図6Bに示す例では、表示部170は、濃淡のパターンで表した立体効果画像201及び211を示しているが、立体効果画像201及び211の代わりに、3次元画像生成部160によって生成された3次元画像を立体効果画像として表示してもよい。これにより、ユーザは、入力画像から生成された3次元画像を直接見て、立体効果を確認することができるので、より適切な立体効果の調整を行うことができる。
つまり、表示部170が3次元画像を表示するので、ユーザは、立体効果を直接的に判断することができる。よって、ユーザは立体効果の調整を容易に行うことができるので、ユーザの意図する立体感を表現することができる。したがって、ユーザの意図しない立体感の表現を行うことによる演算コストの増加を抑制することができる。
また、図13に示す例では、レンズ情報から被写体の奥行き位置を求める例について示したが、例えば、予め定められた複数の奥行き値に対して、PSFを用いたコスト関数を算出することで、被写体の奥行き値を決定してもよい。この場合、被写体の奥行き値は、おおよその位置が分かればよいので、実際に奥行き値を決定する場合よりも少ない数の奥行き値に対してコスト関数を算出すればよい。すなわち、簡易的なデプスマップの生成(図12のS140に相当する処理)を行うことで、被写体の奥行き値を設定してもよい。これにより、演算コストの増大を抑制することができる。
また、1回目に複数の被写体を指定していた場合、被写体の追加(S175)の代わりに、被写体の指定を除外してもよい。この場合、除外された被写体近傍の奥行き位置を、指定されたままの被写体近傍に近づけ、又は、追加してもよい。
また、上記実施の形態に係る3次元画像撮影装置に含まれる各処理部は、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。例えば、本実施の形態に係る集積回路は、被写体指定部110と、分解能設定部120と、デプスマップ生成部140とを備える。
ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブルプロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて各処理部の集積化を行ってもよい。バイオ技術の適用等が可能性として考えられる。
また、本発明の実施の形態に係る3次元画像撮影装置の機能の一部又は全てを、CPU(Central Processing Unit)等のプロセッサがプログラムを実行することにより実現してもよい。
さらに、本発明は上記プログラムであってもよいし、上記プログラムが記録された記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。
さらに、上記の実施の形態は、ハードウェア及び/又はソフトウェアを用いて構成されるが、ハードウェアを用いる構成は、ソフトウェアを用いても構成可能であり、ソフトウェアを用いる構成は、ハードウェアを用いても構成可能である。
また、上記の実施の形態に係る3次元画像撮影装置の構成は、本発明を具体的に説明するために例示するためのものであり、本発明に係る3次元画像撮影装置は、上記構成の全てを必ずしも備える必要はない。言い換えると、本発明に係る3次元画像撮影装置は、本発明の効果を実現できる最小限の構成のみを備えればよい。
例えば、図16は、本発明の実施の形態の変形例に係る3次元画像撮影装置300の構成の一例を示すブロック図である。図16に示すように、本発明の実施の形態に係る3次元画像撮影装置300は、被写体指定部110と、分解能設定部120と、撮影部130と、デプスマップ生成部140とを備える。なお、各処理部は、図2に示す同じ参照符号が付された処理部と同じ処理を行うのでここでは説明を省略する。
このように、本発明に係る3次元画像撮影装置は、図16に示すような最小限の構成のみを備えている場合であっても、演算コストの増加を抑制しつつ、立体効果を高めることができる。
同様に、上記の3次元画像撮影装置による3次元画像撮影方法は、本発明を具体的に説明するために例示するためのものであり、本発明に係る3次元画像撮影装置による3次元画像撮影方法は、上記ステップの全てを必ずしも含む必要はない。言い換えると、本発明に係る3次元画像撮影方法は、本発明の効果を実現できる最小限のステップのみを含めばよい。また、上記のステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
本発明は、演算コストの増加を抑制しつつ、書割感を減少させ、立体感を向上させることができるという効果を奏し、例えば、デジタルカメラなどに利用することができる。
100、300 3次元画像撮影装置
110 被写体指定部
120 分解能設定部
130 撮影部
140 デプスマップ生成部
150 コスト関数保持部
160 3次元画像生成部
170 表示部
180 立体効果調整部
190 記録部
200、210 ヒストグラム
201、211、221、222 立体効果画像

Claims (12)

  1. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、
    撮影により前記入力画像を取得する撮影部と、
    前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成部は、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定する
    3次元画像撮影装置。
  2. 前記分解能設定部は、互いに異なる予め定められた複数の奥行き位置の少なくとも1つを、前記指定部によって指定された第1被写体の奥行き位置に近づけることで、前記複数の初期奥行き値を設定する
    請求項1記載の3次元画像撮影装置。
  3. 前記3次元画像撮影装置は、さらに、
    前記入力画像と前記奥行き情報とを用いて前記3次元画像を生成した場合の立体効果を示す立体効果画像を表示する表示部と、
    ユーザからの指示に基づいて前記立体効果の強弱を調整する立体効果調整部とを備え、
    前記分解能設定部は、前記立体効果調整部によって前記立体効果を強める設定がされた場合に、前記追加奥行き値を設定する
    請求項1記載の3次元画像撮影装置。
  4. 前記3次元画像撮影装置は、さらに、前記入力画像と前記奥行き情報とを用いて、前記入力画像から前記3次元画像を生成する3次元画像生成部を備え、
    前記表示部は、前記立体効果画像として前記3次元画像を表示する
    請求項3記載の3次元画像撮影装置。
  5. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、
    撮影により前記入力画像を取得する撮影部と、
    前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記指定部は、さらに、前記撮影部によって取得された入力画像内の、前記第1被写体とは異なる第2被写体を追加指定し、
    前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第2被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成部は、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定する
    3次元画像撮影装置。
  6. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、
    撮影により前記入力画像を取得する撮影部と、
    前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記指定部は、さらに、前記撮影部によって取得された入力画像内の、前記第1被写体とは異なる第2被写体を追加指定し、
    前記分解能設定部は、さらに、前記複数の初期奥行き値が示す複数の奥行き位置の少なくとも1つを、前記指定部によって追加指定された第2被写体の奥行き位置に近づけることで、前記複数の初期奥行き値を更新する
    3次元画像撮影装置。
  7. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、
    撮影により前記入力画像を取得する撮影部と、
    前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記奥行き情報生成部は、前記入力画像の2次元の領域毎に、
    (a)前記分解能設定部によって設定された複数の奥行き値のそれぞれに対応し、対応する奥行き値の妥当性を表すコスト関数を算出し、
    (b)奥行き値が最も妥当であることを示すコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定し、
    前記3次元画像撮影装置は、さらに、前記奥行き情報生成部によって算出されたコスト関数を保持するコスト関数保持部を備え、
    前記コスト関数保持部は、前記奥行き情報生成部によって算出されたコスト関数を、前記入力画像の2次元の領域毎に、前記複数の奥行き値に対応付けて保持し、
    前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成部は、さらに、前記入力画像の2次元の領域毎に、
    (a)前記追加奥行き値に対応するコスト関数を算出し、
    (b)算出したコスト関数を前記追加奥行き値に対応付けて前記コスト関数保持部に格納する
    3次元画像撮影装置。
  8. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影装置であって、
    撮影により前記入力画像を取得する撮影部と、
    前記撮影部によって取得された入力画像内の第1被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記奥行き情報生成部は、前記入力画像の2次元の領域毎に、
    (a)前記分解能設定部によって設定された複数の奥行き値のそれぞれに対応し、対応する奥行き値の妥当性を表すコスト関数を算出し、
    (b)奥行き値が最も妥当であることを示すコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定し、
    前記3次元画像撮影装置は、さらに、前記奥行き情報生成部によって算出されたコスト関数を保持するコスト関数保持部を備え、
    前記コスト関数保持部は、前記入力画像の2次元の領域毎に、奥行き値が最も妥当であることを示すコスト関数のみを、対応する奥行き値に対応付けて保持し、
    前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成部は、さらに、前記入力画像の2次元の領域毎に、
    (a)前記追加奥行き値に対応するコスト関数を算出し、
    (b)算出したコスト関数と前記コスト関数保持部に格納されているコスト関数とを比較し、
    (c)(i)算出したコスト関数が、前記コスト関数保持部に格納されているコスト関数より妥当であることを示している場合に、前記追加奥行き値を、対応する領域の奥行き値として決定するとともに、前記コスト関数保持部に格納されているコスト関数を当該算出したコスト関数に置き換え、(ii)前記コスト関数保持部に格納されているコスト関数が、算出したコスト関数より妥当であることを示している場合に、前記コスト関数保持部に格納されているコスト関数に対応する奥行き値を、対応する領域の奥行き値として決定する
    3次元画像撮影装置。
  9. 前記3次元画像撮影装置は、さらに、前記指定部によって指定された第1被写体を強調して前記入力画像を表示する表示部を備える
    請求項1記載の3次元画像撮影装置。
  10. 入力画像から3次元画像を生成するための奥行き情報を生成する3次元画像撮影方法であって、
    撮影により前記入力画像を取得する撮影ステップと、
    前記撮影ステップにおいて取得された入力画像内の被写体を指定する指定ステップと、
    前記入力画像の奥行き方向に平行な方向において、前記指定ステップにおいて指定された被写体近傍の奥行き分解能が、当該被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定ステップと、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定ステップにおいて設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成ステップとを含み、
    前記分解能設定ステップでは、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成ステップでは、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定する
    3次元画像撮影方法。
  11. 請求項10記載の3次元画像撮影方法をコンピュータに実行させるためのプログラム。
  12. 入力画像から3次元画像を生成するための奥行き情報を生成する集積回路であって、
    前記入力画像内の被写体を指定する指定部と、
    前記入力画像の奥行き方向に平行な方向において、前記指定部によって指定された第1被写体近傍の奥行き分解能が、当該第1被写体から離れた位置の奥行き分解能より高くなるように、互いに異なる奥行き位置を表す複数の奥行き値を、複数の初期奥行き値として設定する分解能設定部と、
    前記入力画像の2次元の領域毎に、対応する領域の奥行き位置を示す奥行き値を、前記分解能設定部によって設定された複数の奥行き値の中から決定することで、前記入力画像に対応する前記奥行き情報を生成する奥行き情報生成部とを備え、
    前記分解能設定部は、さらに、前記複数の初期奥行き値のそれぞれが示す奥行き位置とは異なる奥行き位置であって、前記第1被写体近傍の奥行き位置を示す新たな奥行き値を、追加奥行き値として設定し、
    前記奥行き情報生成部は、前記複数の初期奥行き値と前記追加奥行き値との中から1つの奥行き値を前記入力画像の2次元の領域毎に決定する
    集積回路。
JP2012517972A 2011-01-27 2011-12-15 3次元画像撮影装置及び3次元画像撮影方法 Active JP6011862B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011015622 2011-01-27
JP2011015622 2011-01-27
PCT/JP2011/007029 WO2012101719A1 (ja) 2011-01-27 2011-12-15 3次元画像撮影装置及び3次元画像撮影方法

Publications (2)

Publication Number Publication Date
JPWO2012101719A1 JPWO2012101719A1 (ja) 2014-06-30
JP6011862B2 true JP6011862B2 (ja) 2016-10-19

Family

ID=46580332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012517972A Active JP6011862B2 (ja) 2011-01-27 2011-12-15 3次元画像撮影装置及び3次元画像撮影方法

Country Status (5)

Country Link
US (1) US20130010077A1 (ja)
EP (1) EP2670148B1 (ja)
JP (1) JP6011862B2 (ja)
CN (1) CN102812715B (ja)
WO (1) WO2012101719A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013090031A (ja) * 2011-10-14 2013-05-13 Sony Corp 画像処理装置、画像処理方法およびプログラム
US8848201B1 (en) * 2012-10-20 2014-09-30 Google Inc. Multi-modal three-dimensional scanning of objects
US9058683B2 (en) * 2013-02-21 2015-06-16 Qualcomm Incorporated Automatic image rectification for visual search
US9077891B1 (en) * 2013-03-06 2015-07-07 Amazon Technologies, Inc. Depth determination using camera focus
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
US9508173B2 (en) * 2013-10-30 2016-11-29 Morpho, Inc. Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium
JP5866537B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP5866493B2 (ja) 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
EP3090285B1 (en) * 2013-12-30 2019-11-06 PGS Geophysical AS Control system for marine vibrators to reduce friction effects
CN107155341B (zh) 2014-07-31 2020-01-10 惠普发展公司,有限责任合伙企业 三维扫描系统和框架
JP6415179B2 (ja) 2014-08-20 2018-10-31 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
US11328446B2 (en) * 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
WO2017149565A1 (ja) * 2016-02-29 2017-09-08 パナソニック株式会社 画像処理装置および画像処理方法
EP3606062A4 (en) * 2017-03-24 2020-12-09 Semiconductor Energy Laboratory Co., Ltd. SEMICONDUCTOR DEVICE, DISPLAY SYSTEM AND ELECTRONIC DEVICE
JP6626551B2 (ja) * 2018-10-03 2019-12-25 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
CN110266959B (zh) * 2019-07-18 2021-03-26 珠海格力电器股份有限公司 一种移动终端拍照的方法及移动终端
US11575865B2 (en) 2019-07-26 2023-02-07 Samsung Electronics Co., Ltd. Processing images captured by a camera behind a display
WO2021200432A1 (ja) * 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 撮影指示方法、撮影方法、撮影指示装置及び撮影装置
US11721001B2 (en) * 2021-02-16 2023-08-08 Samsung Electronics Co., Ltd. Multiple point spread function based image reconstruction for a camera behind a display
US11722796B2 (en) 2021-02-26 2023-08-08 Samsung Electronics Co., Ltd. Self-regularizing inverse filter for image deblurring
US12216277B2 (en) 2021-10-14 2025-02-04 Samsung Electronics Co., Ltd. Optical element for deconvolution

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313202A (ja) * 1998-04-28 1999-11-09 Sharp Corp 画像処理装置および画像処理方法
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2008141666A (ja) * 2006-12-05 2008-06-19 Fujifilm Corp 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images
JP2009151758A (ja) * 2007-12-21 2009-07-09 Samsung Electronics Co Ltd 深さ情報に対する適応的情報表現方法及びその装置
JP2010238108A (ja) * 2009-03-31 2010-10-21 Sharp Corp 映像処理装置、映像処理方法及びコンピュータプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3372714B2 (ja) * 1995-06-15 2003-02-04 キヤノン株式会社 撮像装置
US6285779B1 (en) * 1999-08-02 2001-09-04 Trident Microsystems Floating-point complementary depth buffer
JP2001333324A (ja) 2000-05-19 2001-11-30 Minolta Co Ltd 撮像装置
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
JP2007074592A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
US9418433B2 (en) * 2007-07-03 2016-08-16 Koninklijke Philips N.V. Computing a depth map
JP5575778B2 (ja) * 2008-10-10 2014-08-20 コーニンクレッカ フィリップス エヌ ヴェ 信号に含まれる視差情報を処理する方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313202A (ja) * 1998-04-28 1999-11-09 Sharp Corp 画像処理装置および画像処理方法
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2008141666A (ja) * 2006-12-05 2008-06-19 Fujifilm Corp 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images
JP2009151758A (ja) * 2007-12-21 2009-07-09 Samsung Electronics Co Ltd 深さ情報に対する適応的情報表現方法及びその装置
JP2010238108A (ja) * 2009-03-31 2010-10-21 Sharp Corp 映像処理装置、映像処理方法及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012012253; C. Zhou, S. Lin, and S. K. Nayar: 'Coded Aperture Pairs for Depth from Defocus' IEEE International Conference on Computer Vision (ICCV) , 20091002, p.325-332 *

Also Published As

Publication number Publication date
EP2670148A4 (en) 2014-05-14
CN102812715A (zh) 2012-12-05
CN102812715B (zh) 2015-08-19
US20130010077A1 (en) 2013-01-10
WO2012101719A1 (ja) 2012-08-02
EP2670148B1 (en) 2017-03-01
JPWO2012101719A1 (ja) 2014-06-30
EP2670148A1 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
JP6011862B2 (ja) 3次元画像撮影装置及び3次元画像撮影方法
JP6094863B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5370542B1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
KR101502362B1 (ko) 영상처리 장치 및 방법
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5035195B2 (ja) 画像生成装置及びプログラム
JP2013042301A (ja) 画像処理装置、画像処理方法及びプログラム
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JP2015135661A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2013031154A (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5889022B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2013046082A (ja) 映像信号処理装置及び映像信号処理方法、並びにコンピューター・プログラム
JP4998422B2 (ja) 画像生成装置、方法、通信システム及びプログラム
US20120170841A1 (en) Image processing apparatus and method
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP6789677B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
KR101345971B1 (ko) 입체영상촬영장치에서의 주시각 제어장치
JP2014179925A (ja) 画像処理装置及びその制御方法
JP5354005B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR20090012982A (ko) 깊이 정보 생성 방법, 그 장치 및 그 방법을 실행하는프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160907

R151 Written notification of patent or utility model registration

Ref document number: 6011862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151