JP5993937B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP5993937B2 JP5993937B2 JP2014507580A JP2014507580A JP5993937B2 JP 5993937 B2 JP5993937 B2 JP 5993937B2 JP 2014507580 A JP2014507580 A JP 2014507580A JP 2014507580 A JP2014507580 A JP 2014507580A JP 5993937 B2 JP5993937 B2 JP 5993937B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- partial
- stereoscopic
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、瞳分割方式の撮像により生成された立体画像をトリミングした場合に、立体画像のトリミング領域から切り出した立体部分画像の立体感を損ねないようにすることができる画像処理装置、撮像装置、画像処理方法、記録媒体及びプログラムに関する。
視差のある複数の視点画像を観察者の左右の目にそれぞれ同時に見せることにより、観察者に複数の視点画像を立体視させる表示装置が知られている。
特許文献1には、複数の視点画像をトリミングして表示する際に、ユーザによって入力された視差調整量をデジタルズーム倍率に基づいて修正することで、適切な立体感を保ったままデジタルズームを行うことのできる構成が開示されている。
特許文献2には、被写体の距離情報又は被写体の視差量に基づいて、左右画像の視差が所定の範囲になるように絞りのF値を制御することで、目に負担のかからない自然な左、右画像を取得する構成が開示されている。
特許文献3には、視点画像の特徴点における視差量に基づいて、前景や背景に生じる視差量をその視差量に応じて重み付け調整する(強弱をつける)ことで、特に立体表示プリント上で好ましい立体感のある視差画像を表示可能にする構成が開示されている。
しかしながら、ユーザから指示入力された任意の範囲で立体画像をトリミングする際に、トリミング範囲が狭いと立体感が著しく損なわれてしまう問題があり、特に、瞳分割方式の撮像により生成された立体画像のトリミングでは、全体的にボケた画像になり更に立体感が損なわれてしまう場合がある。
本発明はこのような事情に鑑みてなされたもので、瞳分割方式の撮像により生成された立体画像をトリミングした場合に、立体画像のトリミング領域から切り出した部分画像の立体感を損ねないようにすることができる画像処理装置、撮像装置、画像処理方法、記録媒体及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明は、瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得する画像取得手段と、立体画像の複数の視点画像から切り出すトリミング領域を示す指示を入力する指示入力手段と、立体画像の複数の視点画像のそれぞれからトリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するトリミング手段と、複数の部分画像の部分画像間における視差を示す視差情報を生成する視差情報生成手段と、視差情報に基づいて、複数の部分画像の部分画像間の視差を調整する視差調整手段と、視差調整手段による調整結果に基づいて、視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うシャープネス変更処理手段と、を備えた画像処理装置を提供する。
本発明によれば、瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像をトリミングする際に、複数の視点画像間におけるトリミング領域(視点の異なる複数の部分画像)の視差情報が生成される。そして、その視差情報に基づいて、複数の部分画像の部分画像間の視差が調整され、かつ、視差の調整結果に基づいて複数の部分画像のシャープネスが変更される。したがって、瞳分割方式の撮像に起因してボケた領域を切り出す場合でも、適切にシャープネスが変更された、立体感を損なわない立体部分画像が得られる。
一態様では、立体部分画像内に視差の無いクロスポイントを設定するクロスポイント設定手段を備える。これにより、クロスポイントよりも近距離の被写体像の領域を切り出す場合や、クロスポイントよりも遠距離の被写体像の領域を切り出す場合でも、適切な視差の立体部分画像を得ることができる。
一態様では、クロスポイント設定手段は、立体部分画像の平均視差と立体画像の平均視差とが一致する点をクロスポイントに設定する。これにより、適切なクロスポイントが自動的に設定された立体部分画像が得られる。尚、平均視差が「一致」するとは、「ほぼ一致の状態」を含む。
一態様では、シャープネス変更処理手段は、視差調整後の視差情報に基づいて、立体部分画像を第1の領域と第1の領域よりも視差量が大きい第2の領域とに区分けし、第1の領域のシャープネスを強くし、かつ、第1の領域よりも視差量が大きい第2の領域のシャープネスを弱くする。これにより、立体部分画像を立体表示した際に、視差量が小さい領域の被写体像はシャープネスが強くなり、視差量が大きい領域の被写体像はシャープネスが弱くなる。したがって、視差量が小さい領域の立体感を保ち、かつ、視差量が大きい領域は二重像を目立たないようにできる。
一態様では、シャープネス変更処理手段は、瞳分割方式の撮像に起因した複数の視点画像のボケの状態を示すボケ関数を用いて、立体部分画像のシャープネスを変更する。これにより、ボケの分布に応じて、適切に立体部分画像のシャープネスを変更することができる。
一態様では、シャープネス変更処理手段は、立体部分画像の全体のシャープネスを変更する。
一態様では、視差調整手段は、部分画像間の視差を拡大する処理を行う場合、視差情報に基づいて、立体部分画像内における視差の無いクロスポイントよりも近距離の領域、及びクロスポイントよりも遠距離の領域を検出し、近距離の領域の視差拡大率を遠距離の領域の視差拡大率よりも大きくする。これにより、近距離の領域の被写体像の視差量が遠距離の領域の被写体像の視差量よりも増すことで、観察者がより立体感を体感し易くなる。
一態様では、立体部分画像のサイズを拡大する画像拡大手段を備え、視差調整手段は、部分画像間の視差を拡大する処理を行う場合、画像拡大手段による立体部分画像のサイズの拡大に伴う視差量の増分を差し引いて、立体部分画像の視差の拡大率を決定する。
また、本発明は、上記の画像処理装置と、瞳分割方式の撮像を行う撮像手段と、を備えた撮像装置を提供する。
また、本発明は、瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、立体画像の複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、立体画像の複数の視点画像のそれぞれからトリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、視差情報に基づいて、複数の部分画像の部分画像間の視差を調整するステップと、視差の調整結果に基づいて、視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップと、を備えた画像処理方法を提供する。
また、本発明は、コンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がプロセッサによって読み取られた場合に、プロセッサが、瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、前記複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整するステップと、前記視差の調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップとを実行する、記録媒体を提供する。
また、本発明は、瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、立体画像の複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、立体画像の複数の視点画像のそれぞれからトリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、視差情報に基づいて、複数の部分画像の部分画像間の視差を調整するステップと、視差の調整結果に基づいて、視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップと、をコンピュータに実行させるプログラムを提供する。
本発明によれば、瞳分割方式の撮像により生成された立体画像をトリミングした場合に、立体画像のトリミング領域から切り出した立体部分画像の立体感を損ねないようにすることができる。
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、立体撮像装置、及び携帯電子機器の実施の形態について説明する。
<立体撮像装置の全体構成>
図1は本発明に係る画像処理装置が適用された3Dデジタルカメラ(立体撮像装置)の実施の形態を示す正面斜視図である。図2は上記3Dデジタルカメラの背面図である。この3Dデジタルカメラ10は、レンズを通った光を撮像素子で受け、デジタル信号に変換してメモリカード等の記録メディアに記録するデジタルカメラである。
図1は本発明に係る画像処理装置が適用された3Dデジタルカメラ(立体撮像装置)の実施の形態を示す正面斜視図である。図2は上記3Dデジタルカメラの背面図である。この3Dデジタルカメラ10は、レンズを通った光を撮像素子で受け、デジタル信号に変換してメモリカード等の記録メディアに記録するデジタルカメラである。
図1に示すように、3Dデジタルカメラ10は、その正面に撮影レンズ12、フラッシュ1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、3D表示用の3D液晶モニタ30、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等が配設されている。
撮影レンズ12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ3によってカメラのモードを撮影モードに設定することにより、カメラ本体から繰り出される。フラッシュ1は、主要被写体に向けてフラッシュ光を照射するものである。
シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。3Dデジタルカメラ10は、撮影モードで駆動しているときは、このシャッタボタン2が「半押し」されることにより、AE/AF(自動露出調整/自動合焦)が作動し、「全押し」されることにより、撮影を実行する。また、3Dデジタルカメラ10は、撮影モードで駆動しているときは、このシャッタボタン2が「全押し」されることにより、撮影を実行する。
電源/モードスイッチ3は、3Dデジタルカメラ10の電源をON/OFFする電源スイッチとしての機能と、3Dデジタルカメラ10のモードを設定するモードスイッチとしての機能とを併せ持っている。電源/モードスイッチ3は、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。3Dデジタルカメラ10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
モードダイヤル4は、3Dデジタルカメラ10の撮影モードを設定する撮影モード設定手段として機能する。このモードダイヤルの設定位置により、3Dデジタルカメラ10の撮影モードが様々なモードに設定される。例えば、平面画像の撮影を行う「平面画像撮影モード」、立体画像(3D画像)の撮影を行う「立体画像撮影モード」、動画撮影を行う「動画撮影モード」等である。
3D液晶モニタ30は、立体画像(左目用画像及び右目用画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できる立体表示手段である。立体画像が3D液晶モニタ30に入力された場合には、3D液晶モニタ30のパララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片が交互に配列して表示される。平面画像やユーザインターフェース表示パネルとして利用される場合には、パララックスバリア表示層には何も表示せず、その下層の画像表示面に1枚の画像をそのまま表示する。尚、3D液晶モニタ30の形態はこれに限らず、左目用画像及び右目用画像を立体画像として認識可能に表示させるものであればよい。3D液晶モニタ30の形態は、例えば、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをユーザがかけることで左目用画像と右目用画像とを個別に見ることができるものでもよい。
ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。3Dデジタルカメラ10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。
MENU/OKボタン7は、3D液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。
再生ボタン8は、撮影記録した立体画像(3D画像)、平面画像(2D画像)の静止画又は動画を3D液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。
BACKボタン9は、入力操作のキャンセルや1つ前の操作状態に戻すことを指示するボタンとして機能する。
<撮影光学系、撮像素子の構成例>
図5に示すように、フォーカスレンズ12A、ズームレンズ12Bは、多数のレンズから構成される撮像光学系(撮影レンズ12)を構成する。絞り14は、例えば、5枚の絞り羽根からなり、例えば、絞り値(F値)をF2〜F8まで連続的又は段階的に絞り制御される。メカシャッタ15は、シャッタ駆動部35によって駆動され、撮像素子16に入射する光の遮光及び非遮光を切り替える。撮影モード時において、被写体を示す画像光は、撮影レンズ12、絞り14を介して撮像素子16の受光面に結像される。
図5に示すように、フォーカスレンズ12A、ズームレンズ12Bは、多数のレンズから構成される撮像光学系(撮影レンズ12)を構成する。絞り14は、例えば、5枚の絞り羽根からなり、例えば、絞り値(F値)をF2〜F8まで連続的又は段階的に絞り制御される。メカシャッタ15は、シャッタ駆動部35によって駆動され、撮像素子16に入射する光の遮光及び非遮光を切り替える。撮影モード時において、被写体を示す画像光は、撮影レンズ12、絞り14を介して撮像素子16の受光面に結像される。
図3Aから図3Cは撮像素子16の構成例を示す図である。
撮像素子16は、視差を有する画像(複数の視点画像)検出用のCCD(Charge Coupled Device)イメージセンサとして構成されており、それぞれマトリクス状に配列された奇数ラインの画素(主画素、A面画素ともいう)と、偶数ラインの画素(副画素、B面画素ともいう)とを有する。これらの主、副画素にてそれぞれ光電変換された2面分の画像信号は、独立して読み出すことができるようになっている。
図3Aから図3Cに示すように撮像素子16の奇数ライン(1、3、5、…)には、R(赤)、G(緑)、B(青)のカラーフィルタを備えた画素のうち、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられる。一方、偶数ライン(2、4、6、…)の画素は、奇数ラインと同様に、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられるとともに、偶数ラインの画素に対して画素同士が2分の1ピッチだけライン方向にずれて配置されている。
図4A及び図4Bは位相差イメージセンサとして機能する撮像素子16の要部拡大図である。
図4Aに示すように撮像素子16の主画素のフォトダイオードPDの前面側(マイクロレンズL側)には、遮光部材16Aが配設される。一方、図4Bに示すように副画素のフォトダイオードPDの前面側には、遮光部材16Bが配設される。マイクロレンズL、及び遮光部材16A、16Bは瞳分割手段としての機能を有し、図4Aに示すように遮光部材16Aは、主画素(フォトダイオードPD)の受光面の左半分を遮光する。そのため、主画素には、撮影レンズ12の射出瞳を通過する光束の光軸の左側のみが受光される。また、図4Bに示すように遮光部材16Bは、副画素(フォトダイオードPD)の受光面の右半分を遮光する。そのため、副画素には、撮影レンズ12の射出瞳を通過する光束の光軸の右側のみが受光される。このように、瞳分割手段であるマイクロレンズL及び遮光部材16A、16Bにより、射出瞳を通過する光束が左右に分割され、それぞれ主画素、副画素に入射する。
また、撮影レンズ12の射出瞳を通過する光束のうちの左半分の光束に対応する被写体像と、右半分の光束に対応する被写体像のうち、ピントが合っている部分は、撮像素子16上の同じ位置に結像するが、前ピン又は後ピンの部分は、それぞれ撮像素子16上の異なる位置に入射する(位相がずれる)。これにより、左半分の光束に対応する被写体像と、右半分の光束に対応する被写体像とは、視差が異なる視差画像(左目用画像、右目用画像)として取得することができる。尚、この実施の形態の撮像素子16は、CCDイメージセンサであるが、これに限定されるものではない。撮像素子16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)型のイメージセンサでもよい。
<立体撮像装置の内部構成>
図5は上記3Dデジタルカメラ10の内部構成の一実施形態を示すブロック図である。この3Dデジタルカメラ10は、撮像した画像を外部記録メディア54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
図5は上記3Dデジタルカメラ10の内部構成の一実施形態を示すブロック図である。この3Dデジタルカメラ10は、撮像した画像を外部記録メディア54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
3Dデジタルカメラ10には、シャッタボタン2、モードダイヤル4、再生ボタン8、MENU/OKボタン7、十字ボタン6、ズームボタン5、BACKボタン9を含む操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて3Dデジタルカメラ10の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、3D液晶モニタ30の表示制御などを行う。操作部38は、立体画像を構成する複数の視点画像から切り出すトリミング領域を示す指示の入力を受け付ける。
電源/モードスイッチ3により3Dデジタルカメラ10の電源がONされると、図示しない電源部から各ブロックへ給電され、3Dデジタルカメラ10の駆動が開始される。
フォーカスレンズ12A、ズームレンズ12B、絞り14等を通過した光束は撮像素子16に結像され、撮像素子16には信号電荷が蓄積される。撮像素子16に蓄積された信号電荷は、タイミングジェネレータ37から加えられる読み出し信号に基づく撮像素子制御部36による制御にしたがって、信号電荷に応じた電圧信号として読み出される。撮像素子16から読み出された電圧信号は、撮像素子信号処理部18に加えられる。
撮像素子信号処理部18は、撮像素子16から出力された電圧信号に対して、各種の信号処理を行い、画像入力コントローラ22に出力する。尚、本例では、撮像素子16にA/D変換器が内蔵されている。
撮像素子信号処理部18は、デジタルの画像信号に対して、オフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(同時化処理)、YC処理、エッジ強調処理等の所定の信号処理を行う。
ここで、撮像素子16の奇数ラインの主画素から読み出される主画像データは、左目用画像データとして処理され、偶数ラインの副画素から読み出される副画像データは、右目用画像データとして処理される。
撮像素子信号処理部18で処理された左目用画像データ及び右目用画像データ(3D画像データ)は、画像入力コントローラ22を介して、メモリ48に入力される。
メモリ48から読み出された3D画像データは、表示制御部28においてエンコーディングされ、カメラ背面に設けられているモニタ30(3D液晶表示デバイス)に出力される。これにより、3Dの被写体像が連続的にモニタ30の表示画面上に表示される。
操作部38のシャッタボタン2の第1段階の押下(半押し)があると、CPU40は、AF動作及びAE動作を開始させる。そして、フォーカスレンズ駆動部32を介してフォーカスレンズ12Aを光軸方向に移動させ、フォーカスレンズ12Aが合焦位置にくるように制御する。
AF処理部42は、コントラストAF処理又は位相差AF処理を行う部分である。コントラストAF処理を行う場合には、左目用画像及び右目用画像の少なくとも一方の画像のうちの所定のフォーカス領域内の画像の高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるようにフォーカスレンズ12Aを制御することによりAF制御が行われる。また、位相差AF処理を行う場合には、左目用画像及び右目用画像のうちの所定のフォーカス領域内の主画素、副画素に対応する画像の位相差を検出し、この位相差を示す情報に基づいてデフォーカス量を求める。このデフォーカス量が0になるようにフォーカスレンズ12Aを制御することによりAF制御が行われる。
CPU40は、ズームボタン5からのズーム指令に応じてズームレンズ駆動部33を介してズームレンズ12Bを光軸方向に進退動作させ、焦点距離を変更させる。
また、シャッタボタン2の半押し時に撮像素子信号処理部18から出力される画像データは、AE処理部44に取り込まれる。
AE処理部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE処理部44から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて、絞り駆動部34に対して設定する絞り14のF値、及びタイミングジェネレータ37に対して設定する撮像素子16の電子シャッタ(シャッタ速度)を、所定のプログラム線図にしたがって決定する。
AWB処理部45は、画像を解析し、画像に対してホワイトバランス処理を行う。
尚、図5において、被写体検出部46は、撮影画角内の特定の被写体(例えば顔画像)を検出し、その被写体を含むエリアをAFエリア、AEエリアとして設定するための公知の被写体検出回路である(例えば、特開平9−101579号公報)。
また、メモリ48は、カメラ制御プログラム、撮像素子16の欠陥情報、画像処理等に使用する各種のパラメータやテーブルに加えて、本発明に係る左目用画像及び右目用画像の立体感を補正(視差補正)するための画像処理プログラム、フィルタ係数算出用の計算式又はルックアップテーブル、視差や視差強調の度合いに応じた計算式のパラメータ、又はルックアップテーブルを決定するための情報が記憶されているROM(Read-Only Memory)(EEPROM(Electrically Erasable Programmable Read-Only Memory))を含む。尚、本発明に係る画像処理プログラム等の詳細については後述する。
シャッタボタン2の半押しによりAE動作及びAF動作が終了し、シャッタボタン2の第2段階の押下(全押し)があると、その押下に応答して撮像素子16から出力される主画素及び副画素に対応する左視点画像(主画像)及び右視点画像(副画像)の2枚分の画像データが画像入力コントローラ22からメモリ48に入力し、一時的に記憶される。
メモリ48に一時的に記憶された2枚分の画像データは、撮像素子信号処理部18により適宜読み出され、ここで、デモザイク処理(同時化処理;原色フィルタの配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理)、本発明に係る視差補正及びエッジ強調の画像処理、及びYC処理(画像データの輝度データ及び色差データの生成処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。
メモリ48に記憶された2枚分のYCデータは、それぞれ圧縮/伸長処理部26に出力され、JPEG(Joint Photographic Experts Group)などの所定の圧縮処理が実行されたのち、再びメモリ48に記憶される。メモリ48に記憶された2枚分のYCデータ(圧縮データ)から、マルチピクチャファイル(MPファイル:複数の画像が連結された形式のファイル)が生成される。そのMPファイルは、メディア制御部52により読み出され、外部記録メディア54に記録される。
フラッシュ1のフラッシュライト56は、フラッシュ制御部58の制御により、発光する。
画像処理部62は、各種の画像処理を行う回路等によって構成されている。
本例の画像処理部62は、立体画像を構成する複数の視点画像のそれぞれからトリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するトリミング手段を構成している。また、本例の画像処理部62は、立体部分画像のサイズを拡大する画像拡大手段を構成している。
視差マップ生成部64は、複数の部分画像の部分画像間における視差(視差分布)を示す視差マップ(視差情報)を生成する視差情報生成手段を構成している。
クロスポイント設定部66は、立体部分画像内に視差の無いクロスポイントを設定するクロスポイント設定手段を構成する。本例のクロスポイント設定部66は、立体部分画像の平均視差と立体画像の平均視差とが一致する点をクロスポイントに設定する機能を有する。
視差拡大部68は、視差情報に基づいて、複数の部分画像の部分画像間の視差を調整する視差調整手段を構成する。
シャープネス変更処理部70は、視差拡大部68による視差調整結果に基づいて、視差調整後の複数の部分画像のシャープネスを変更する画像処理を行うシャープネス変更処理手段を構成する。本例のシャープネス変更処理部70は、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする。
尚、3Dデジタルカメラ10は、立体画像(3D画像)のみでなく、平面画像(2D画像)の取得も可能である。
<立体画像のトリミング例>
次に、立体画像のトリミング例を説明する。
次に、立体画像のトリミング例を説明する。
図6の原立体画像80は、瞳分割方式により撮像された画像であり、実際には、図7A及び図7Bに示す左目用画像80Lと右目用画像80Rとからなる。本例の原立体画像80は、遠距離(遠景)の山画像81、中距離(中景)の人物画像82、近距離(近景)の花画像83を含む。
例えば、モニタ30に左目用画像80L及び右目用画像80Rの少なくとも一方を表示させて、操作部38によって、原立体画像80(左目用画像80L及び右目用画像80R)から切り出すトリミング領域を示す指示の入力を受け付ける。本例では、ユーザの指示入力を受け付ける。他の装置から通信により指示の入力を受け付けてもよい。
図8は、原立体画像80から中距離の人物画像82を含むトリミング領域92から立体部分画像を切り出す場合を示す。実際には、図7A及び図7Bの左目用画像80L及び右目用画像80Rから、それぞれ、図9A及び図9Bに示す左目用部分画像92L及び右目用部分画像92Rが、切り出される。図10は、原立体画像80から近距離の花画像83を含むトリミング領域93から立体部分画像を切り出す場合を示す。図11は、原立体画像80から遠距離の山画像81を含むトリミング領域91から立体部分画像を切り出す場合を示す。図12は、原立体画像80のうちで中距離の人物画像82及び近距離の花画像83を含むトリミング領域94から切り出す場合を示す。いずれの場合も、図7A及び図7Bの左目用画像80L及び右目用画像80Rから、それぞれ、左目用部分画像及び右目用部分画像が、切り出される。
<画像処理方法の一例>
図13は、本発明に係る画像処理方法の一例の処理の流れを示すフローチャートである。本処理は、図5のCPU40によって、プログラムに従い実行される。
図13は、本発明に係る画像処理方法の一例の処理の流れを示すフローチャートである。本処理は、図5のCPU40によって、プログラムに従い実行される。
図13では、立体画像取得(ステップS1)、トリミング範囲指定(ステップS2)、トリミング領域拡大(ステップS3)、視差マップ生成(ステップS4)、クロスポイント設定(ステップS5)、視差拡大(ステップS6)、シャープネス変更処理(ステップS7)の順番で実行される。これ以外の順番で行う場合も本発明に含まれる。
まず、メディア制御部52によって、瞳分割方式の撮像により生成された視点の異なる複数の視点画像(図7A及び図7Bの左目用画像80L及び右目用画像80R)からなる原立体画像(図6の80)が取得される(ステップS1)。
次に、操作部38(指示入力手段)によって、原立体画像80から切り出すトリミング領域を示すトリミング範囲指定の指示の入力を受け付ける(ステップS2)。例えば、図8に示すように、中景の人物画像を含むトリミング領域92から部分画像92L,92Rを切り出す場合、点線で示したトリミング領域92の範囲を指定する指示入力を受け付ける。
次に、画像処理部62(画像拡大手段)によって、原立体画像80の左目用画像80L及び右目用画像80Rのそれぞれからトリミング領域92内の部分画像92L,92Rを切り出し、その切り出したトリミング領域92内の部分画像92L,92Rを拡大する(ステップS3)。即ち、左目用部分画像92L及び右目用部分画像92Rが、それぞれ、画像処理により拡大される。
次に、視差マップ生成部64(視差情報生成手段)によって、拡大されたトリミング領域の部分画像92L、92Rにおける視差マップを生成する(ステップS4)。本例の視差マップは、左目用部分画像と右目用部分画像との対応点間の視差を示す。
次に、クロスポイント設定部66によって、部分画像(トリミング領域の画像)内に視差の無いクロスポイントを設定し(ステップS5)、視差拡大部68によって、部分画像における視差マップに基づいて、部分画像の視差を拡大(調整)する(ステップS6)。視差拡大する量の設定は、表示系で表示できる幅を基準にして行えばよい。
例えば、図8に示すように、原立体画像80から中距離の人物画像82を中心にトリミングした場合には、人物画像82にクロスポイントが設定されており、そのままでは視差量が小さいので、部分画像92L、92Rの全体で視差量を拡大する。また、例えば、図10に示すように、原立体画像80から近距離の花画像83を中心にトリミングした場合には、花画像83にクロスポイントを設定し、かつ、そのままでは視差量が小さいので、部分画像93の全体で視差を拡大する。また、例えば、図11に示すように、原立体画像80から遠距離の山画像81を中心にトリミングした場合には、山画像81にクロスポイントを設定し、かつ、そのままでは視差量が小さいので、部分画像91の全体で視差を拡大する。
次に、シャープネス変更処理部70によって、視差が拡大された立体部分画像のシャープネスを変更する(ステップS6)。本例のシャープネス変更処理部70は、ステップS6の視差拡大(視差調整)後の視差マップ(視差情報)に基づいて、視差拡大(視差調整)後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行う。
尚、クロスポイント設定(ステップS5)、視差拡大(ステップS6)の順で行う場合を例に説明したが、視差拡大(ステップS6)、クロスポイント設定(ステップS5)の順で行ってもよい。クロスポイント設定、視差拡大の順で行った方が、視差の最大ずらし量が小さくなり、メモリの節約になる。
<クロスポイント設定及び視差拡大>
クロスポイント設定部66によるクロスポイント設定(ステップS5)及び視差拡大部68による視差拡大(ステップS6)の例を、図14〜図17を用いて説明する。
クロスポイント設定部66によるクロスポイント設定(ステップS5)及び視差拡大部68による視差拡大(ステップS6)の例を、図14〜図17を用いて説明する。
図14は、原立体画像80における距離(3Dデジタルカメラ10から被写体までの距離)と視差との関係を示す。符号101は遠景としての山画像81の距離及び視差の範囲を示し、符号102は中景としての人物画像82の距離及び視差の範囲を示し、符号103は近景としての花画像83の距離及び視差の範囲を示す。
図8に示すように中景の人物画像82を含むトリミング領域92から立体部分画像を切り出した場合、図15に示すようにクロスポイント設定及び視差拡大が行われる。本例では、視差拡大部68によって、視差と距離との対応関係を、符号102で示す直線から、符号122で示す直線に変化させる。これにより、視差範囲がd20からd22(>d20)に拡大する。
図10に示すように近景の花画像83を含むトリミング領域93から部分画像を切り出した場合、図16に示すようにクロスポイント設定及び視差拡大が行われる。本例では、まず、クロスポイント設定部66によって、視差と距離との対応関係を、符号103で示す直線から、符号113で示す直線(点線)に変化させる。ここで、クロスポイント設定部66は、立体部分画像の平均視差と原立体画像の平均視差とが一致するようにクロスポイントを設定する。次に、視差拡大部68によって、視差と距離との対応関係を、符号113で示す直線から、符号123で示す直線に変化させる。これにより、視差範囲がd30からd32(>d30)に拡大する。
図11に示すように遠景の山画像81を含むトリミング領域91から部分画像を切り出した場合、図17に示すようにクロスポイント設定及び視差拡大が行われる。本例では、まず、クロスポイント設定部66によって、視差と距離との対応関係を、符号101で示す直線から、符号111で示す直線(点線)に変化させる。ここで、クロスポイント設定部66は、立体部分画像の平均視差と原立体画像の平均視差とが一致するようにクロスポイントを設定する。次に、視差拡大部68によって、視差と距離との対応関係を、符号111で示す直線から、符号121で示す直線に変化させる。これにより、視差範囲がd10からd12(>d10)に拡大する。
視差拡大部68による視差拡大処理としては、例えば、視点が異なる部分画像間の視差マップ(視差情報)に基づいて、立体部分画像内に近距離領域及び遠距離領域を区分し、近距離領域の視差拡大率を遠距離領域の視差拡大率よりも大きくする画像処理を行ってもよい。
また、画像処理部62(画像拡大手段)により立体部分画像のサイズを拡大する場合には、視差拡大部68は、画像処理部62による立体部分画像のサイズの拡大に伴う視差の増分を差し引いて、立体部分画像の視差を拡大する。
また、本例のクロスポイント設定部66は、立体部分画像の平均視差と立体画像の平均視差とが一致する点をクロスポイントに設定する。
<シャープネス変更処理>
シャープネス変更処理部70のシャープネス変更処理には、各種の態様がある。
シャープネス変更処理部70のシャープネス変更処理には、各種の態様がある。
第1に、立体部分画像における左目用部分画像と右目用部分画像との間の視差(視差分布)を示す視差マップ(視差情報)であって視差調整後(例えば視差拡大後)の視差マップに基づいて、立体部分画像のうち調整後の視差量が小さい部分のシャープネスを強くし、調整後の視差量が大きい部分のシャープネスを弱くする態様がある。
例えば、シャープネス変更処理部70は、視差マップに基づいて、立体部分画像を視差量(視差の大きさ)が閾値以下の視差小領域(第1の領域)と、視差量が閾値よりも大きい視差大領域(第2の領域)とに区分けし、視差小領域(第1の領域)のシャープネスを強くする画像処理を行い、かつ、視差大領域(第2の領域)をぼかす画像処理を行う。例えば、クロスポイント及びその近傍領域はシャープにし、クロスポイントから離れた視差量が大きい領域はぼかす。
第2に、瞳分割方式の撮像に起因した複数の視点画像のボケの状態を示すボケ関数を用いて、視差調整後の視差マップに基づいて立体部分画像のシャープネスを変更する態様がある。例えば、視差調整前の視差マップに対応したボケ関数を視差調整後の視差マップに対応付けて、視差調整後の視差マップに基づいて、シェープネス変更処理として復元処理を行う。
ボケ関数として、例えば、レンズのボケ関数、点光源のボケ関数などを利用して、復元処理を行う。
第3に、視差調整後の視差マップに基づいて、立体部分画像の全体を同一のシャープネス変更処理でシャープネスを変更する態様がある。例えば、調整後の立体部分画像の視差量の代表値(例えば最大視差)が小さいほど立体部分画像の全体のシャープネスを強くし、調整後の立体部分画像の視差量の代表値(例えば最大視差)が大きいほど立体部分画像の全体のシャープネスを弱くする。
シャープネス変更処理は、周知の技術を用いることができる。ウィーナーフィルタ、一般逆フィルタ、射影フィルタ等を適用してもよい。
<スマートフォンの構成>
図18は、本発明に係る携帯型電子機器の他の実施形態であるスマートフォン500の外観を示すものである。図18に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
図18は、本発明に係る携帯型電子機器の他の実施形態であるスマートフォン500の外観を示すものである。図18に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
図19は、図18に示すスマートフォン500の構成を示すブロック図である。図19に示すように、スマートフォンの主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部510は、主制御部501の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部520は、主制御部501の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆる操作パネルであって、表示パネル521と、操作パネル522とを備える。
表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
図18に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図18に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載し、マイクロホン532を筐体502の側面に搭載することができる。
操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図18に示すように、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部550は、主制御部501の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA(携帯情報通信端末)、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部20に表示する機能のことをいう。
更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル21の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御する操作パネル制御機能を備える。
また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、入出力部560や無線通信部510を通じて出力することができる。図18に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影したり、あるいは、複数のカメラ部541を同時に使用して撮影することもできる。
また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
主制御部501は、前述した、図5の画像処理部62、視差マップ生成部64、クロスポイント設定部66、視差拡大部68、シャープネス変更処理部70、CPU40などの機能を備える。
その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記憶部550に記録したり、入出力部560や無線通信部510を通じて出力することもできる。
本発明は、上記に例示したようなデバイスに上記の処理を行わせるためのコンピュータ読取可能なプログラムコード、該プログラムコードが格納される非一次的(non-transitory)かつコンピュータ読取可能な記録媒体(例えば、光ディスク(例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc))、磁気ディスク(例えば、ハードディスク、光磁気ディスク))、及び該方法のための実行可能なコードを格納するコンピュータ・プログラム・プロダクトとして提供することができる。
なお、本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
10…3Dデジタルカメラ(画像処理装置)、16…撮像素子、30…LCD、40…CPU、62…画像処理部、64…視差マップ生成部、66…クロスポイント設定部、68…視差拡大部、70…シャープネス変更処理部、500…スマートフォン
Claims (11)
- 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得する画像取得手段と、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力する指示入力手段と、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するトリミング手段と、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成する視差情報生成手段と、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整する視差調整手段と、
前記視差調整手段による調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うシャープネス変更処理手段と、
前記立体部分画像の平均視差と前記立体画像の平均視差とが一致する点を前記立体部分画像内における視差の無いクロスポイントに設定するクロスポイント設定手段と、
を備えた画像処理装置。 - 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得する画像取得手段と、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力する指示入力手段と、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するトリミング手段と、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成する視差情報生成手段と、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整する視差調整手段と、
前記視差調整手段による調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うシャープネス変更処理手段と、
を備え、
前記視差調整手段は、前記部分画像間の視差を拡大する処理を行う場合、前記視差情報に基づいて、前記立体部分画像内における視差の無いクロスポイントよりも近距離の領域、及び前記クロスポイントよりも遠距離の領域を検出し、前記近距離の領域の視差拡大率を前記遠距離の領域の視差拡大率よりも大きくする画像処理装置。 - 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得する画像取得手段と、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力する指示入力手段と、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するトリミング手段と、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成する視差情報生成手段と、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整する視差調整手段と、
前記視差調整手段による調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うシャープネス変更処理手段と、
前記立体部分画像のサイズを拡大する画像拡大手段と、
を備え、
前記視差調整手段は、前記部分画像間の視差を拡大する処理を行う場合、前記画像拡大手段による前記立体部分画像のサイズの拡大に伴う視差量の増分を差し引いて、前記立体部分画像の視差の拡大率を決定する画像処理装置。 - 前記シャープネス変更処理手段は、前記視差情報に基づいて、前記立体部分画像を第1の領域と前記第1の領域よりも視差量が大きい第2の領域とに区分けし、前記第1の領域内の画像のシャープネスを強くし、かつ、前記第1の領域よりも視差量が大きい前記第2の領域内の画像のシャープネスを弱くする請求項1〜3のいずれか1項に記載の画像処理装置。
- 前記シャープネス変更処理手段は、前記瞳分割方式の撮像に起因した前記複数の視点画像のボケの状態を示すボケ関数を用いて、前記立体部分画像のシャープネスを変更する請求項1〜3のいずれか1項に記載の画像処理装置。
- 前記シャープネス変更処理手段は、前記立体部分画像の全体のシャープネスを変更する請求項1〜3のいずれか1項に記載の画像処理装置。
- 請求項1〜3のいずれか1項に記載の画像処理装置と、
前記瞳分割方式の撮像を行う撮像手段と、
を備えた撮像装置。 - 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整するステップと、
前記視差の調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップと、
前記立体部分画像の平均視差と前記立体画像の平均視差とが一致する点を前記立体部分画像内における視差の無いクロスポイントに設定するステップと、
を備えた画像処理方法。 - 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整するステップと、
前記視差の調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップと、
前記部分画像間の視差を拡大する処理を行う場合、前記視差情報に基づいて、前記立体部分画像内における視差の無いクロスポイントよりも近距離の領域、及び前記クロスポイントよりも遠距離の領域を検出し、前記近距離の領域の視差拡大率を前記遠距離の領域の視差拡大率よりも大きくするステップと、
を備えた画像処理方法。 - 瞳分割方式の撮像により生成された視点の異なる複数の視点画像からなる立体画像を取得するステップと、
前記立体画像の前記複数の視点画像から切り出すトリミング領域を示す指示を入力するステップと、
前記立体画像の前記複数の視点画像のそれぞれから前記トリミング領域に対応する部分画像を切り出すことにより、視点の異なる複数の部分画像からなる立体部分画像を生成するステップと、
前記複数の部分画像の部分画像間における視差を示す視差情報を生成するステップと、
前記視差情報に基づいて、前記複数の部分画像の部分画像間の視差を調整するステップと、
前記視差の調整結果に基づいて、前記視差の調整後の複数の部分画像に対し、調整後の視差量が小さいほどシャープネスを強くし、調整後の視差量が大きいほどシャープネスを弱くする画像処理を行うステップと、
前記立体部分画像のサイズを拡大するステップと、
前記部分画像間の視差を拡大する処理を行う場合、前記立体部分画像のサイズの拡大に伴う視差量の増分を差し引いて、前記立体部分画像の視差の拡大率を決定するステップと、
を備えた画像処理方法。 - 請求項8〜10のいずれか1項に記載の画像処理方法をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014507580A JP5993937B2 (ja) | 2012-03-30 | 2013-02-28 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012082079 | 2012-03-30 | ||
JP2012082079 | 2012-03-30 | ||
PCT/JP2013/055374 WO2013146067A1 (ja) | 2012-03-30 | 2013-02-28 | 画像処理装置、撮像装置、画像処理方法、記録媒体及びプログラム |
JP2014507580A JP5993937B2 (ja) | 2012-03-30 | 2013-02-28 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016162044A Division JP2017041887A (ja) | 2012-03-30 | 2016-08-22 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013146067A1 JPWO2013146067A1 (ja) | 2015-12-10 |
JP5993937B2 true JP5993937B2 (ja) | 2016-09-14 |
Family
ID=49259342
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014507580A Expired - Fee Related JP5993937B2 (ja) | 2012-03-30 | 2013-02-28 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
JP2016162044A Withdrawn JP2017041887A (ja) | 2012-03-30 | 2016-08-22 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016162044A Withdrawn JP2017041887A (ja) | 2012-03-30 | 2016-08-22 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9609302B2 (ja) |
JP (2) | JP5993937B2 (ja) |
CN (1) | CN104247412B (ja) |
WO (1) | WO2013146067A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104221370B (zh) * | 2012-03-29 | 2016-01-20 | 富士胶片株式会社 | 图像处理装置、摄像装置以及图像处理方法 |
JP6248484B2 (ja) * | 2013-09-11 | 2017-12-20 | ソニー株式会社 | 立体視画像生成装置、立体視画像生成方法 |
US20150215530A1 (en) * | 2014-01-27 | 2015-07-30 | Microsoft Corporation | Universal capture |
JP6771954B2 (ja) * | 2015-11-30 | 2020-10-21 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法及びプログラム |
JP6643102B2 (ja) * | 2016-01-22 | 2020-02-12 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP7022544B2 (ja) * | 2017-09-13 | 2022-02-18 | キヤノン株式会社 | 画像処理装置及び方法、及び撮像装置 |
JP2019079193A (ja) * | 2017-10-23 | 2019-05-23 | キヤノン株式会社 | 情報処理装置、撮像装置、プログラム及び撮像システム |
CN114269218A (zh) * | 2019-08-29 | 2022-04-01 | 奥林巴斯株式会社 | 图像处理方法和图像处理装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19720851A1 (de) * | 1997-05-17 | 1998-11-19 | Zeiss Carl Jena Gmbh | Ophthalmologisches Untersuchungsgerät sowie Verfahren zu dessen Betrieb |
JP4259913B2 (ja) * | 2003-05-08 | 2009-04-30 | シャープ株式会社 | 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体 |
JP4442190B2 (ja) * | 2003-10-24 | 2010-03-31 | ソニー株式会社 | 立体視画像処理装置 |
JP4737573B2 (ja) | 2009-02-05 | 2011-08-03 | 富士フイルム株式会社 | 3次元画像出力装置及び方法 |
JP2011211717A (ja) | 2009-02-05 | 2011-10-20 | Fujifilm Corp | 3次元画像出力装置及び方法 |
WO2010140332A1 (ja) * | 2009-06-01 | 2010-12-09 | パナソニック株式会社 | 立体画像表示装置 |
JP5491786B2 (ja) * | 2009-07-21 | 2014-05-14 | 富士フイルム株式会社 | 画像再生装置及び方法 |
JP2011035712A (ja) * | 2009-08-03 | 2011-02-17 | Mitsubishi Electric Corp | 画像処理装置、画像処理方法及び立体画像表示装置 |
US8682061B2 (en) | 2009-08-25 | 2014-03-25 | Panasonic Corporation | Stereoscopic image editing apparatus and stereoscopic image editing method |
JP2011071605A (ja) * | 2009-09-24 | 2011-04-07 | Fujifilm Corp | 立体撮像装置及び立体撮像方法 |
JP2011082918A (ja) * | 2009-10-09 | 2011-04-21 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011087234A (ja) * | 2009-10-19 | 2011-04-28 | Fujifilm Corp | 撮像装置及び撮像方法 |
JP5565001B2 (ja) * | 2010-03-04 | 2014-08-06 | 株式会社Jvcケンウッド | 立体映像撮像装置、立体映像処理装置および立体映像撮像方法 |
JP5368350B2 (ja) | 2010-03-18 | 2013-12-18 | 富士フイルム株式会社 | 立体撮像装置 |
WO2011118089A1 (ja) * | 2010-03-24 | 2011-09-29 | 富士フイルム株式会社 | 立体撮像装置 |
JP5683025B2 (ja) * | 2010-04-19 | 2015-03-11 | パナソニックIpマネジメント株式会社 | 立体画像撮影装置および立体画像撮影方法 |
CN102948157B (zh) * | 2010-06-22 | 2016-05-11 | 富士胶片株式会社 | 立体图像显示设备及立体图像显示方法 |
WO2012002347A1 (ja) * | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
WO2012029298A1 (ja) * | 2010-08-31 | 2012-03-08 | パナソニック株式会社 | 撮影装置および画像処理方法 |
-
2013
- 2013-02-28 JP JP2014507580A patent/JP5993937B2/ja not_active Expired - Fee Related
- 2013-02-28 CN CN201380018550.XA patent/CN104247412B/zh not_active Expired - Fee Related
- 2013-02-28 WO PCT/JP2013/055374 patent/WO2013146067A1/ja active Application Filing
-
2014
- 2014-09-29 US US14/500,176 patent/US9609302B2/en not_active Expired - Fee Related
-
2016
- 2016-08-22 JP JP2016162044A patent/JP2017041887A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20150015672A1 (en) | 2015-01-15 |
CN104247412A (zh) | 2014-12-24 |
US9609302B2 (en) | 2017-03-28 |
JP2017041887A (ja) | 2017-02-23 |
JPWO2013146067A1 (ja) | 2015-12-10 |
CN104247412B (zh) | 2016-08-24 |
WO2013146067A1 (ja) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5655174B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
JP5993937B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP5931206B2 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
JP5889441B2 (ja) | 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム | |
JP5901781B2 (ja) | 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム | |
CN104205827B (zh) | 图像处理装置及方法、以及摄像装置 | |
JP5901801B2 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
JP5926391B2 (ja) | 撮像装置及び合焦確認表示方法 | |
JP5923595B2 (ja) | 画像処理装置及び方法並びに撮像装置 | |
US9288472B2 (en) | Image processing device and method, and image capturing device | |
WO2014106916A1 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
JPWO2014045738A1 (ja) | 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5993937 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |