[go: up one dir, main page]

JP2011035643A - 多眼撮影方法および装置、並びにプログラム - Google Patents

多眼撮影方法および装置、並びにプログラム Download PDF

Info

Publication number
JP2011035643A
JP2011035643A JP2009179623A JP2009179623A JP2011035643A JP 2011035643 A JP2011035643 A JP 2011035643A JP 2009179623 A JP2009179623 A JP 2009179623A JP 2009179623 A JP2009179623 A JP 2009179623A JP 2011035643 A JP2011035643 A JP 2011035643A
Authority
JP
Japan
Prior art keywords
image
imaging
main subject
images
macro
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2009179623A
Other languages
English (en)
Inventor
Yoshiaki Kato
吉明 加藤
Tomosato Miyamura
智悟 宮村
Akihiko Urano
昭彦 占野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009179623A priority Critical patent/JP2011035643A/ja
Priority to US12/841,925 priority patent/US20110025824A1/en
Publication of JP2011035643A publication Critical patent/JP2011035643A/ja
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】多眼撮影装置において、マクロ撮影を行った際に、複数の画像間で背景画像の逆相が起きて画像に違和感が生じることを防止する。
【解決手段】主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像を取得し、主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得し、第1の画像に対し、主要被写体以外の領域を透明化する処理を施し、その透明化処理の施された第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する。
【選択図】図4

Description

本発明は、例えば立体視画像を作成するために、複数の撮像手段により被写体を撮影して互いに視差の有る画像を得るようにした多眼撮影方法および装置並びにその方法を実行するためのプログラムに関するものである。
従来、複数の画像を組み合わせて表示することにより、視差を利用して立体視できることが知られている。このような立体視できる画像(以下、立体視画像という)は、同一の被写体を異なる位置から複数のカメラを用いて撮影することによって取得された互いに視差のある複数の画像に基づいて生成される。
具体的には、たとえば、複数の画像の色を互いに異ならせて重ね合わせたり、複数の画像の偏光方向を異ならせて重ね合わせたりすることにより立体視画像を生成することができる。また、パララックスバリア方式およびレンチキュラー方式のように、複数の画像を立体視可能な3D液晶に表示することによって立体視画像を生成したりする方法も提案されている。
これに対し、特許文献1および特許文献2においては、上記ように互いに視差のある複数の画像に基づいて立体視画像を生成したのでは、レンチキュラレンズや空間変調器などが必要となって構成が複雑となり、また、観察者が目のフォーカスにより距離判断を行うことができないため、観察する立体視画像に不自然さを感じたり、観察者の疲労が増えるという問題を解決するため、上記ように互いに視差のある複数の画像を取得して立体視画像を生成するのではなく、たとえば、互いに異なる距離にある被写体をそれぞれ合焦した状態で撮影した複数の画像データを取得し、その取得した複数の画像データをそれぞれ異なる表示パネルに表示させて重ね合わせることによって、立体的に見える画像を生成することが提案されている。
特開2006−267767号公報 特開2002−341472号公報 特開平10−39435号公報
しかしながら、特許文献1や特許文献2に記載の発明のように、近景色、中景および遠景にそれぞれ合焦した状態で撮影した画像を重ね合わせたのでは、単に2次元画像を重ね合わせただけなので、互いに視差のある複数の画像に基づいて生成される立体視画像と比較すると違和感が生じる。
また、特許文献1や特許文献2に記載の方法では、複数枚の画像を重ね合わせて表示するための特別な表示装置が必要であり、コストアップになるとともに、簡易に表示画像を見ることができない。
一方、上述したような互いに視差のある複数の画像を撮影する多眼撮影方法においても、主要被写体に接近した状態で撮影する、いわゆるマクロ撮影がなされることがある。
しかしながら、従来の多眼撮影方法では、そのようなマクロ撮影を行った場合、複数のカメラの輻湊角が大きくなるため、複数の画像間で主要被写体後方のいわゆる背景画像同志の位置ずれが増大し、背景画像がいわゆる逆相となるので、立体視した際に複数の背景画像同志が一致しなくなることがある。
このような背景画像の逆相を解決するためには、背景画像同志で一致する部分だけを使用するようにすればよいが、背景画像の一部分した使用できないため、立体感にあふれる立体視画像を生成することができない。
また、複数のカメラの輻湊角を小さくすれば、いわゆる逆相の問題は解消できるが、撮影レンズの大きさは物理的に決まっているので、マクロ撮影のときにのみ輻湊角を小さくすることはできない。たとえば、特許文献3には、通常の撮影レンズに加え、さらに輻湊角を変更することができるような機構を設けることによって撮影距離に応じて輻湊角を変更する方法が提案されているが、このような方法では、輻湊角を変更可能にするための機構を設ける必要があり、カメラが大型化するとともに、コストアップにもなる。
本発明は上記の事情に鑑みてなされたものであり、マクロ撮影においても、背景画像の逆相による違和感の無い立体視画像を簡易に得ることができる多眼撮影方法および装置並びにその方法を実行するためのプログラムを提供することを目的とする。
本発明の多眼撮影方法は、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、複数の撮像系のうちの1つの撮像系を主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得し、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施し、その透明化処理の施された各第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成することを特徴とする。
本発明の多眼撮影方法は、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行って取得した各画像のうちの1つの画像を第2の画像として取得し、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施し、その透明化処理の施された各第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成することを特徴とする。
本発明の多眼撮影方法は、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像をそれぞれ取得し、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施し、その透明化処理の施された各第1の画像と、その各第1の画像に対応する各第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成することを特徴とする。
また、上記本発明の多眼撮影方法においては、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との識別が困難である場合に、フラッシュ光を照射した状態で第1のマクロ撮影を行って第1の画像を取得するようにできる。
また、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との輝度値の分散をそれぞれ検出し、その検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態で第1のマクロ撮影を行って第1の画像を取得し、各分散の差が閾値未満の場合には、フラッシュ光を照射した状態で第1のマクロ撮影を行って第1の画像を取得するようにできる。
また、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との色相値の分散をそれぞれ検出し、その検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態での第1のマクロ撮影のみを行い、各分散の差が閾値未満の場合には、フラッシュ光を照射した状態とフラッシュ光を照射してない状態でそれぞれ第1のマクロ撮影を行い、その各第1のマクロ撮影によって取得された各第1の画像のうちのいずれか一方の選択を受け付け、その選択された第1の画像に透明化処理を施すとともに、その透明化処理の施された第1の画像と第2の画像とを用いて合成画像の生成を行うようにできる。
本発明の多眼撮影装置は、複数の撮像系を有する多眼撮影装置において、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、複数の撮像系のうちの1つの撮像系を主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう各撮像系を制御する撮像系制御手段と、第1のマクロ撮影によって各撮像系により取得された各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す透明化処理手段と、その透明化処理手段によって透明化処理の施された各第1の画像と、第2の撮影によって取得された第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする。
本発明の多眼撮影装置は、複数の撮像系を有する多眼撮影装置において、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう各撮像系を制御する撮像系制御手段と、第1のマクロ撮影によって各撮像系により取得された各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す透明化処理手段と、その透明化処理手段によって透明化処理の施された各第1の画像と、第2の撮影によって各撮像系によって取得された各画像のうちの1つ画像である第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする。
本発明の多眼撮影装置は、複数の撮像系を有する多眼撮影装置において、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう各撮像系を制御する撮像系制御手段と、第1のマクロ撮影によって各撮像系により取得された各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す透明化処理手段と、透明化処理手段によって透明化処理の施された各第1の画像と、その各第1の画像に対応する各第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする。
また、上記本発明の多眼撮影装置においては、第1のマクロ撮影を行う際、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との識別が困難である場合に、フラッシュ光を照射するフラッシュ制御手段を設けることができる。
また、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との輝度値の分散をそれぞれ検出する輝度分散検出手段と、第1のマクロ撮影を行う際、各分散の差が閾値以上である場合には、フラッシュ光を照射せず、各分散の差が閾値未満の場合にはフラッシュ光を照射するフラッシュ制御手段とをさらに設けることができる。
また、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との色相値の分散をそれぞれ検出する色相分散検出手段と、各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態での第1のマクロ撮影のみを行い、各分散の差が閾値未満の場合には、フラッシュ光を照射した状態とフラッシュ光を照射してない状態でそれぞれ第1のマクロ撮影を行い、その各第1のマクロ撮影によって取得された各第1の画像のうちのいずれか一方の選択を受け付け、その選択された第1の画像に透明化処理を施すとともに、その透明化処理の施された第1の画像と第2の画像とを用いて合成画像の生成を行うよう制御する撮影処理制御手段とをさらに設けることができる。
本発明のプログラムは、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、複数の撮像系のうちの1つの撮像系を主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得する手順と、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す手順と、その透明化処理の施された各第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とする。
本発明のプログラムは、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行って取得した各画像のうちの1つの画像を第2の画像として取得する手順と、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す手順と、その透明化処理の施された各第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とする。
本発明のプログラムは、複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、各撮像系をそれぞれ主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、各撮像系をそれぞれ主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像をそれぞれ取得する手順と、各第1の画像に対し、主要被写体以外の領域を透明化する処理を施す手順と、その透明化処理の施された各第1の画像と、その各第1の画像に対応する各第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とする。
ここで、上記「マクロ撮影」とは、撮像系と主要被写体との距離が50cm以下の状態で行われる近接撮影のことをいう。
また、上記「各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との識別が困難である場合」とは、主要被写体を含む領域とそれ以外の領域とを識別不可能である場合や、識別できたとしてもその精度が低い場合のことをいう。
本発明による多眼撮影方法および装置並びにプログラムによれば、主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像を取得し、主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得し、第1の画像に対し、主要被写体以外の領域を透明化する処理を施し、その透明化処理の施された第1の画像と、第2の画像の主要被写体以外の領域とを合成して各撮像系に対応する合成画像をそれぞれ生成するようにしたので、先に説明した背景画像の逆相の影響を無くし、あるいは低減することができる。すなわち、上記第2の撮影においては主要被写体よりも遠方を撮影していることから、第1の撮影の場合よりも輻輳角が小さい状態で撮影がなされるので、このときの撮影画像は、背景画像は逆相状態が無くなり、あるいは低減されたものとなる。
また、上記本発明の多眼撮影方法および装置並びにプログラムにおいて、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との輝度値の分散をそれぞれ検出し、その検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態で第1のマクロ撮影を行って第1の画像を取得し、各分散の差が閾値未満の場合には、フラッシュ光を照射した状態で第1のマクロ撮影を行って第1の画像を取得するようにした場合には、撮影画像において主要被写体の輝度が高められるので、主要被写体以外を透明化する処理において、主要被写体の領域をより確実に検出できるようになる。
また、各撮像系の撮影範囲内の主要被写体を含む所定領域とそれ以外の領域との色相値の分散をそれぞれ検出し、その検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態での第1のマクロ撮影のみを行い、各分散の差が閾値未満の場合には、フラッシュ光を照射した状態とフラッシュ光を照射してない状態でそれぞれ第1のマクロ撮影を行い、その各第1のマクロ撮影によって取得された各第1の画像のうちのいずれか一方の選択を受け付け、その選択された第1の画像に透明化処理を施すとともに、その透明化処理の施された第1の画像と第2の画像とを用いて合成画像の生成を行うようにした場合には、第2の撮影、透明化処理および合成処理を不必要に行うことを回避できる。すなわち、上記色相値の分散の差が所定の閾値以上であるのは、通常、撮影範囲全体に主要被写体が存在している場合とみなすことができる。このような場合は背景画像が存在しないから、当然背景画像の逆相も発生しないので、通常のマクロ撮影である第1の撮影を行うだけで何ら問題無く、第2の撮影、透明化の処理および合成の処理を省くことにより、処理の高速化が達成される。
本発明の第1から第3の実施形態によるデジタルカメラの正面部を示す斜視図 図1に示すデジタルカメラの背面部を示す斜視図 図1に示すデジタルカメラの電気的構成を示すブロック図 本発明の第1の実施形態のデジタルカメラにおける立体マクロ撮影処理の流れを示すフローチャート デジタルカメラにおいて表示される被写体の一例を示す模式図 撮影シーンの一例を示す概略図 マクロモードで撮影された左目画像の一例を示す概略図 マクロモードで撮影された右目画像の一例を示す概略図 透明化処理を受けた左目画像の一例を示す概略図 透明化処理を受けた右目画像の一例を示す概略図 主要被写体を非合焦とした左目画像または右目画像の一例を示す概略図 合成された左目画像の一例を示す概略図 合成された右目画像の一例を示す概略図 デジタルカメラに記録される画像ファイルの記録フォーマットの一例を示す図 画像ファイルのその他の記録フォーマットの一例を示す図 本発明の第2の実施形態のデジタルカメラにおける立体マクロ撮影処理の流れを示すフローチャート ほぼ近景のみのようなシーンの撮影画像の一例を示す図 本発明の第3の実施形態のデジタルカメラにおける立体マクロ撮影処理の流れを示すフローチャート 本発明の第3の実施形態のデジタルカメラにおける立体マクロ撮影処理の流れを示すフローチャート ほぼ近景のみのようなシーンのその他の撮影画像の一例を示す図 ストロボ発光状態で撮像された合焦画像とストロボ非発光状態で撮像された合焦画像との選択画面の一例を示す図
1 デジタルカメラ
10L 左撮像系
10R 右撮像系
14 撮影レンズ
16 ストロボ(フラッシュ)
24 モニタ
36 マクロボタン
110 CPU
112 操作部
130Z ズームレンズ
130F フォーカスレンズ
134 撮像素子
170 画像処理部
171 画像合成部
以下、図面を参照して本発明の第1の実施形態を適用したデジタルカメラについて詳細に説明する。図1および図2はそれぞれ、本発明の多眼撮影装置の第1の実施形態を適用したデジタルカメラ1の正面形状、背面形状を示すものである。
このデジタルカメラ1のカメラボディ12は概略矩形の箱状に形成されており、その正面には、図1に示すように2つの撮影レンズ14,14、ストロボ(フラッシュ)16等が設けられている。また、カメラボディ12の上面には、シャッタボタン18、電源/モードスイッチ20、モードダイヤル22等が設けられている。
一方、カメラボディ12の背面には、図2に示すようにモニタ24、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、マクロボタン36等が設けられている。またカメラボディ12の側面には、入出力コネクタ38が設けられている。
また、図示されていないが、カメラボディ12の底面には、三脚ネジ穴、開閉自在なバッテリカバー等が設けられており、バッテリカバーの内側には、バッテリを収納するためのバッテリ収納室、メモリカードを装着するためのメモリカードスロット等が設けられている。
撮影レンズ14,14はそれぞれ後述する右撮像系、左撮像系の一部を構成するものであって、沈胴式のズームレンズで構成されており、マクロ撮影機能(近接撮影機能)を有している。これらの撮影レンズ14,14は、デジタルカメラ1の電源をONすると、カメラボディ12から繰り出される。なお、各撮影レンズ14におけるズーム機構や沈胴機構、マクロ撮影機構は公知のものが適用されており、それらの具体的な説明は省略する。
ストロボ16はキセノン管で構成されており、暗い被写体を撮影する場合や逆光時などに必要に応じて発光される。
シャッタボタン18は、いわゆる「半押し」と「全押し」とで異なる機能を果たす二段ストローク式のスイッチで構成されている。デジタルカメラ1は、モードダイヤル22で静止画撮影モードを選択し、あるいはメニューから静止画撮影モードを選択した場合の静止画撮影時にシャッタボタン18を半押しすると、撮影準備処理すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、次いで全押しすると画像の撮影・記録処理を行うように構成されている。なお、デジタルカメラ1には適宜動画撮影機能が付与されてもよいが、それについては本発明と直接的な関係が無いので詳しい説明は省略する。
電源/モードスイッチ20は、デジタルカメラ1の電源スイッチとして機能するとともに、デジタルカメラ1の再生モードと撮影モードとを切り替える切替手段として機能し、「OFF位置」と「再生位置」と「撮影位置」との間をスライドして動くように形成されている。デジタルカメラ1は、この電源/モードスイッチ20を「再生位置」にセットすると再生モードに設定され、「撮影位置」にセットすると撮影モードに設定され、「OFF位置」にセットすると電源がOFFされる。
モードダイヤル22は、撮影モードの設定に用いられる。このモードダイヤル22は、カメラボディ12の上面に回転自在に設けられており、図示しないクリック機構によって、例えば「2D静止画位置」、「2D動画位置」、「3D静止画位置」、「3D動画位置」にセット可能に設けられている。デジタルカメラ1は、このモードダイヤル22を「2D静止画位置」にセットすることにより、2Dつまり一般的な2次元の静止画を撮影する2D静止画撮影モードに設定され、後述する2D/3Dモード切替フラグ部168に2D静止画撮影モードであることを表すフラグが設定される。また、モードダイヤル22を「2D動画位置」にセットすることにより、2Dの動画を撮影する2D動画撮影モードに設定され、2D/3Dモード切替フラグ部168に2D動画撮影モードであることを表すフラグが設定される。
また、モードダイヤル22を「3D静止画位置」にセットすることにより、3Dつまり3次元の静止画(立体視画像)を撮影する3D静止画撮影モードに設定され、2D/3Dモード切替フラグ部168に3D静止画撮影モードであることを表すフラグが設定される。さらに、モードダイヤル22を「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定され、2D/3Dモード切替フラグ部168に3D動画撮影モードであることを表すフラグが設定される。
後述するCPU110は、この2D/3Dモード切替フラグ部168のフラグを参照して、2D静止画撮影モード、2D動画撮影モード、3D静止画撮影モードまたは3D動画撮影モードのいずれであるかを把握する。
ここで3D静止画モードあるいは3D動画撮影モードとは、一方の撮影レンズ14を含む右撮像系と、他方の撮影レンズ14を含む左撮像系によって互いに視差の有る2通りの画像を撮影するモードである。そして、このモードで撮影された2つの画像は、モニタ24に3次元表示される。3次元表示としては、公知の任意の方式を用いることができる。例えば、2つの画像を並べて表示して裸眼平衡法により立体視を行う方式、またはモニタ24にレンチキュラーレンズを貼り付け、モニタ24の表示面の所定位置に各画像を表示することにより、左右の目に各画像をそれぞれ入射させて3次元表示を実現するレンチキュラー方式を用いることができる。また、2つの画像の色を例えば赤と青のように異ならせて重ね合わせたり、2つの画像の偏光方向を異ならせて重ね合わせることにより、2つの画像を合成して3次元表示を実現するアナグリフ方式を用いることができる。さらに、モニタ24のバックライトの光路を光学的に左右の目に対応するように交互に分離し、モニタ24の表示面に2つの画像をバックライトの左右への分離にあわせて交互に表示することにより、3次元表示を実現するスキャンバックライト方式等を用いることができる。モニタ24は、一例としてカラー液晶パネル等の画像表示手段から構成されている。このモニタ24は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また撮影時には、撮像素子が撮影する画像がモニタ24にスルー表示され、電子ファインダとして利用される。なお、モニタ24は、上述した3次元表示の方式に応じた加工がなされているものとする。例えば、3次元表示の方式がレンチキュラー方式の場合には、モニタ24の表示面にレンチキュラーレンズが取り付けられており、スキャンバックライト方式の場合には、左右の画像の光線方向を変えるための光学素子がモニタ204の表示面に取り付けられている。
ズームボタン26は、撮影レンズ14のズーム倍率を変更する操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。
十字ボタン28は、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられている。例えば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにストロボモードを切り替える機能が割り当てられる。また、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、左ボタンにコマ送りの機能が割り当てられ、右ボタンにコマ戻しの機能が割り当てられる。さらに、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ24に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられており、このカーソルを移動させることによってモニタ24に表示された複数の画像の中から1つの画像を選択することができる。
MENU/OKボタン30は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、デジタルカメラ1の設定状態に応じて割り当てられる機能が切り替えられる。上記のメニュー画面では、例えば露出値、色合い、ISO感度、記録画素数などの画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否かなど、デジタルカメラ1が持つ全ての調整項目の設定が行われる。デジタルカメラ1は、このメニュー画面で設定された条件に応じて動作する。
DISPボタン32は、モニタ24の表示内容の切り替え指示等を入力するために用いられ、BACKボタン34は入力操作のキャンセル等の指示を入力するために用いられる。
図3は、上記デジタルカメラ1の主に電気的構成を示すブロック図である。以下、この図3を参照して、電気的構成について説明する。なお以下では、図1および図2中に出ている要素についても、他の要素との関連で説明の必要が有る場合は、適宜説明することとする。
同図に示すようにこのデジタルカメラ1は、CPU110、操作部(前述のシャッタボタン18、電源/モードスイッチ20、モードダイヤル22、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、マクロボタン36等)112、ROM116、フラッシュROM118、SDRAM120、VRAM122、AF検出部144、AE/AWB検出部146、圧縮・伸張処理部152、メディア制御部154、メモリカード156、表示制御部158、モニタ24、電源制御部160、バッテリ162、ストロボ制御部164、ストロボ16、2D/3Dモード切替フラグ部168、画像処理部170、画像合成部171等を備えている。
さらにこのデジタルカメラ1は、右撮像系10Rおよび左撮像系10Lを有している。それらの撮影系は基本的に同じ構成とされ、各撮影系は撮影レンズ14、ズームレンズ制御部124、フォーカスレンズ制御部126、絞り制御部128、撮像素子134、タイミングジェネレータ(TG)136、アナログ信号処理部138、A/D変換器140、画像入力コントローラ141、デジタル信号処理部142を備えている。
CPU110は、カメラ全体の動作を統括制御する制御手段として機能し、操作部112からの入力に基づき所定の制御プログラムに従って各部を制御する。CPU110にバス114を介して接続されたROM116には、このCPU110が実行する制御プログラム及び制御に必要な各種データ(後述するAE/AFの制御データ等)等が格納されており、フラッシュROM118には、ユーザ設定情報等のデジタルカメラ1の動作に関する各種設定情報等が格納されている。
SDRAM120は、CPU110の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM122は、表示用の画像データ専用の一時記憶領域として利用される。
撮影レンズ14は、ズームレンズ130Z、フォーカスレンズ130F、絞り132を含んで構成されている。ズームレンズ130Zは、図示しないズームアクチュエータに駆動されて光軸に沿って前後移動する。CPU110は、ズームレンズ制御部124を介してズームアクチュエータの駆動を制御することにより、ズームレンズ130Zの位置を制御し、撮影レンズ14のズーミング、つまりズーム倍率を変更する操作を制御する。
フォーカスレンズ130Fも、図示しないフォーカスアクチュエータに駆動されて光軸に沿って前後移動する。CPU110は、フォーカスレンズ制御部126を介してフォーカスアクチュエータの駆動を制御することにより、フォーカスレンズ130Fの位置を制御し、撮影レンズ14のフォーカシングを制御する。
絞り132は、図示しない絞りアクチュエータに駆動されて動作する。CPU110は、絞り制御部128を介して絞りアクチュエータの駆動を制御することにより、絞り132の開口量(絞り値)を制御し、撮像素子134への入射光量を制御する。
撮像素子134は、所定のカラーフィルタ配列を持つカラーCCDから構成されている。CCDは、その受光面に二次元的に配列された多数のフォトダイオードを有する。撮影レンズ14によってCCDの受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU110の指令に従ってTG136から与えられる駆動パルスに基づいて、信号電荷に応じた電圧信号(画像信号)として順次読み出される。なお、この撮像素子134はいわゆる電子シャッタの機能を有するもので、上記フォトダイオードへの電荷蓄積時間を制御することにより露光時間(シャッタ速度)が制御される。
本実施形態では、撮像素子134としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
アナログ信号処理部138は、撮像素子134から出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CDS)、画像信号を増幅し、一定レベルの大きさにコントロールするためのAGS回路等を含み、撮像素子134から出力される画像信号を増幅する。
A/D変換器140は、アナログ信号処理部138から出力されたアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ141は、A/D変換器140から出力されたデジタル画像信号を取り込んで、SDRAM120に格納する。
デジタル信号処理部142は、CPU110からの指令に従って、SDRAM120に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、CbとからなるYUV信号を生成する。そしてこのデジタル信号処理部142は、AE/AWB検出部146で算出された積算値を取り込んでホワイトバランス調整用のゲイン値を算出する処理、画像入力コントローラ141を介して取り込まれたR、G、Bの各色の画像信号に対するオフセット処理、ガンマ補正処理、ノイズ低減処理等を行う。
AF検出部144は、画像入力コントローラ141から取り込まれたR、G、Bの各色画像信号を受けて、AF制御に必要な焦点評価値を算出し、それをCPU110に出力する。CPU110はAF制御時、上記焦点評価値が極大となる位置をサーチし、その位置にフォーカスレンズ130Fを移動させることにより、主要被写体への焦点合わせを行う。
AE/AWB検出部146は、画像入力コントローラ141から取り込まれたR、G、Bの各色画像信号を取り込み、AE制御及びAWB制御に必要な積算値を算出する。CPU110はAE制御時に、このAE/AWB検出部146で算出された被写界内エリアごとのR、G、B信号の積算値を取得し、被写体の明るさ(測光値)を求めて、適正な露光量を得るための露出設定、すなわち、感度、絞り値、シャッタ速度、ストロボ発光の要否等の設定を行う。
またCPU110はAWB制御時に、AE/AWB検出部146で算出された被写界内エリアごとのR、G、B信号の積算値をデジタル信号処理部142に入力し、それをホワイトバランス調整や光源種の検出に適用させる。
圧縮・伸張処理部152は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
メディア制御部154は、CPU110からの指令に従い、メモリカード156に対してデータの読み/書きを制御する。
表示制御部158は、CPU110からの指令に従い、モニタ24への表示を制御する。すなわち該表示制御部158は、CPU110からの指令に従い、入力された画像信号をモニタ24に表示するための映像信号(例えば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ24に出力するとともに、所定の文字、図形情報をモニタ24に出力する。
電源制御部160は、CPU110からの指令に従い、バッテリ162から各部への電源供給を制御する。ストロボ制御部164は、CPU110からの指令に従い、ストロボ16の発光を制御する。
画像処理部170は、後述する本発明に係る画像処理を行うものである。画像合成部171は、後述する本発明に係る合焦、非合焦の画像データの合成を行うものであり、その形態は、画像の合成を行う回路であってもよいし、画像合成を行うコンピュータプログラムであってもよい。
なお、本実施形態ではCPU110が、本発明における撮影系制御手段、フラッシュ制御手段、輝度分散検出手段、色相分散検出手段および撮影処理制御手段を構成している。
このデジタルカメラ1の右撮像系10Rおよび左撮像系10Lにより被写体を撮影すると、各撮影系により、互いに視差の有る画像が撮影される。そのような画像を担持するデジタル画像信号を利用すれば、例えば立体視画像を構成したり、測定対象の物体の3次元位置情報を求めたりすることができる。
以下、このデジタルカメラ1においてなされるマクロ撮影時の処理について、その処理の流れを示す図4のフローチャートを参照して説明する。なお本実施形態のデジタルカメラ1は撮像系を2つ有するものであるが、本発明は撮像系を3つ以上有する多眼撮影装置に対しても適用可能である。また、以下の説明においてデジタルカメラ1により自動的になされる処理は、特に説明が無い場合は、基本的にCPU110の制御によってなされるものである。
この場合、まずモードダイヤル22で「3D静止画」を選択した後、マクロボタン36をONすることにより、撮影モードが立体マクロモード(図4のS200)となる。マクロボタン36がONにされていなければ、通常の3D静止画を撮影するモードとなる。
このときモニタ24(図2参照)には自動的に、図5に示すようなAF検出枠510が表示される(S205)。このAF検出枠510は、合焦させたい被写体領域を示すもので、撮影者が任意の大きさに設定することができる。立体マクロモードでは、指定されたAF検出領域でAF検出を行う。
その後、シャッタボタン18を半押しする(S210)ことにより、合焦位置検出(S220)が行われる。この合焦位置検出はいわゆるコントラストAFと呼ばれる方法で、フォーカシング処理はフォーカスレンズ130F(図3参照)を近距離で合焦する位置から遠距離で合焦する位置へ向けて移動させ、そのとき撮像素子134が検出するコントラスト情報のピーク位置を求めることによって行う。具体的には、フォーカスレンズ134Fを移動させながら、所定の位置で合焦状態を検出するために画像データを取得(サンプリング)し、その取得した画像データは、SDRAM120に一時的に保存(バッファリング)する。
そして、各画像データのコントラスト情報を取得し、そのコントラスト情報が最大となる画像データを取得したときのフォーカス位置が合焦位置として検出される。本実施形態においては、合焦位置の検出はAF検出部144が行う。
同時に、AF制御のために取得された画像データを用いて、右撮像系10Rあるいは左撮像系10Lのデジタル信号処理部142において以下の処理がなされる。まず、図5に示したAF検出枠510内にあるAF検出領域(これは主要被写体が存在する領域である)内における輝度値の分散(ZAF)と、それ以外の領域内における輝度値の分散(NZ)とが計算され、その差分が算出される(S230)。次に、その差分と予め設定された閾値(α)との比較をして、|ZAF−NZ|≧αならばストロボ非発光、|ZAF−NZ|<αならばストロボ発光とするストロボ発光制御がなされる(S240、S250)。分散(ZAF)と分散(NZ)の計算方法としては、たとえば、下式(1)および下式(2)を計算するようにすればよい。なお、下式(1),(2)におけるNは分割ブロック数である。また、下式(2)の分割ブロックとは、下式(1)の分割ブロックと同じ大きさのブロックである。
またストロボ発光量については、マクロ撮影以外の通常の光量と同じ光量では被写体が白飛びしてしまうため、通常の光量よりも少ない光量を発するように、その光量値を予めカメラ内のフラッシュROM118等に記憶させておき、立体マクロモードのときのみ、少ない光量で発光させるように制御する。また他の方法として、上記分散の差分とストロボ発光量との関係を予め設定しておき、この差分が少なくなるほど大きな光量でストロボを発光させるようにしてもよい。
その後、シャッタボタン18を全押しすると、右撮像系10Rおよび左撮像系10Lにより各々主要被写体に合焦した画像が撮影(第1の撮影)され、それにより取得された画像データは一時的にSDRAM120に保存される。なおこの第1の撮影のとき、前述した|ZAF−NZ|<αの条件が満たされているならば、主要被写体にストロボ16からの光が照射される。
このときの取得された画像を、図6に示すシーンを例に取って、図7と図8に示す。図7は左撮像系10Lで取得されたマクロモードでの合焦画像であり、図8は右撮像系10Rで取得されたマクロモードでの合焦画像である。このようにマクロモードでは、2つの撮影レンズ14の光軸間距離はレンズの物理的大きさと、人間の視差とを考慮して最も立体視が得られ易い距離として6cm程度になっており、例えばレンズから10cmの距離にある図6に示すような花を主要被写体としたときには、輻輳角が34度程度になる。そこでこの場合、主要被写体の背景にある山や雲はそれそれぞれ、左側あるいは右側に偏ったような画像となる。これが、いわゆる背景画像の逆相と言われるものである。
次に、このような画像から主要被写体のみを抽出するために、主要被写体以外の領域を透明化、すなわちデジタル信号値で00hにする処理がなされる(S270)。透明化の画像処理は、この処理を実行するプログラムが予め記録された、前述した図3の画像処理部170で行なわれる。
この透明化を行うための指標となる値は、合焦画像の画像データの輝度値の分散である。つまり、既に合焦画像を得るときに主要被写体とそれ以外の輝度値の分散が一定以上の差を生じるように撮影しているため、この輝度値の分散を閾値判定することによって、透明化する領域が特定できる。
このようにして図7、図8の画像から得られた透明化画像を、それぞれ図9、図10に示す。このように、主要被写体である花のみ抽出された画像が得られる。この透明化の画像処理は上述のように画像処理部170で行う他、CPU110の中にその機能を持たせて、そこで行ってもよい。この透明化処理を受けた画像データは、一時的にSDRAM120に保存される。
その後、右撮像系10Rまたは左撮像系10Lのズームレンズ130Zが、マクロモードで合焦していた位置から自動的に、主要被写体より遠方の位置、例えば撮影レンズ14から約1m離れた位置に合焦する位置(主要被写体に対して非合焦の位置)に設定され、その状態で撮影(第2の撮影)が行われる(S280)。このとき左撮像系10Lまたは右撮像系10Rによって撮影された画像(以下、非合焦画像という)を図11に示す。このように、図6に示したシーンの「花」「山」「雲」のいずれにも合焦していない画像が得られる。この非合焦画像を示す画像データも、一時的にSDRAM120に保存される。
次に、SDRAM120に保存されていた画像データを利用して、図9および図10の透明化画像と図11の非合焦画像とをそれぞれ合成する処理がなされる(S290)。このとき非合焦画像は、透明化画像の透明化された領域に相当する領域だけが抽出され、その抽出された部分と透明化画像とが合成される。上記抽出の処理は、この処理を実行するプログラムが予め記録された、図3の画像処理部170によって行なわれ、合成処理は同じく図3の画像合成部171によって行われる。こうして合成された画像を図12、図13に示す。2枚の合成画像の背景画像は同じ画像となるので、背景部分の逆相が無いものとなる。
なお、このように合成される2つの画像は、被写体の大きさが異なる。そこで、このような2つの画像を合成するために、立体マクロモードの合焦画像取得時に設定したAF検出枠の情報(画像内の座標データ)を利用することにより2つの画像の位置合わせを行えば、違和感の無い合成画像が得られる。
その後、合成された画像を示す画像データがメモリカード156に記録される(S300)。このときの記録フォーマットを図14に示す。図14に示すように、右撮像系10Rによって撮影された画像に基づく画像データを含む右目画像ファイルと、左撮像系10Lによって撮影された画像に基づく画像データを含む左目画像ファイルとをそれぞれ別のファイルで生成し、メモリカード156に記録する。
具体的には、右目画像ファイルには、右撮像系10Rに対応する合成画像を含む本画像データと、上記合成画像に縮小処理を施したサムネイル画像データと、右目画像であることを示す情報と上記本画像データと上記サムネイル画像データとを対応付けたヘッダー情報とが含まれている。また、左目画像ファイルには、左撮像系10Lに対応する合成画像を含む本画像データと、上記合成画像に縮小処理を施したサムネイル画像データと、左目画像であることを示す情報と上記本画像データと上記サムネイル画像データとを対応付けたヘッダー情報とが含まれている。
なお、右目画像ファイルのヘッダー情報には、その本画像データと同時に取得された左目画像ファイルの情報が含まれ、左目画像ファイルのヘッダー情報には、その本画像データと同時に取得された右目画像ファイルの情報が含まれており、右目画像ファイルとそれに対応する左目画像ファイルとが、互いのヘッダー情報を介して対応付けられているものとする。
そして、再生モードにおいては、ヘッダー情報に基づいて、右目画像ファイルとそれに対応する左目画像ファイルとがそれぞれ読み出され、これらに基づいて立体視画像が生成されてモニタ24に表示される。なお、立体視画像の生成方法については、上述したように種々の公知の方法を採用することができる。
また、右目画像ファイルと左目画像ファイルとの組み合わせのファイルセットが複数記録されている場合には、各ファイルセットに含まれるサムネイル画像データに基づいて、各ファイルセットに対応するサムネイル画像の立体視画像をそれぞれ生成してモニタ24に表示させ、その複数のサムネイル画像のうちのいずれか1つの選択を受け付け、その選択されたサムネイル画像に対応するファイルセットの本画像データに基づいて、立体視画像をモニタ24に表示するようにしてもよい。
また、画像データの記録フォーマットとしては、その他に、図15に示すようなものも適用可能である。このフォーマットでは、右目画像ファイル、左目画像ファイルにおいて、立体マクロモードで撮影しかつ画像処理した「透明化した合焦画像」および「非合焦の画像」をさらにそれぞれ記録する。このときヘッダー情報には、AF検出枠の座標情報等を記録しておく。なお、「非合焦の画像」は、右目画像ファイルと左目画像ファイルとで同じものである。
そして、このようにする場合、再生時には、右目用画像ファイルと左目用画像ファイルからそれぞれ透明化した合焦画像と非合焦画像を読み出し、それらをヘッダー情報に基づいて重ね合わせて右目用合成画像と左目用合成画像を作成し、それらをモニタ24に表示させることにより、立体視画像を得ることができる。
また、このような記録フォーマットは、マクロ撮影画像だけでなく、その他の撮影モードで撮影された3D静止画を記録する上でも適用可能であることは勿論である。
以上説明した実施形態においては、焦点距離の異なるレンズで撮影した2枚の画像のうち、マクロ撮影した一方の画像において主要被写体以外を透明化し、その透明化された画像と、マクロ撮影の場合よりも焦点距離がより長く設定された撮影レンズ14で撮影した他方の画像とを重ね合わせるようにしたので、背景部分に違和感の無い立体視画像を、特別な装置を用いることなく表示あるいは記録可能となる。
また主要被写体以外を透明化する画像の撮影時にはストロボを発光させて、背景との輝度差を意図的に大きくすれば、合焦した主要被写体を明確に識別して、透明化の範囲を適切なものとすることができる。
なお、上記第1の実施形態においては、右撮像系10Rおよび左撮像系10Lのうちのいずれか一方のみを用いて非合焦画像を撮影するようにしたが、右撮像系10Rおよび左撮像系10Lの両方を用いて上記と同様にして第2の撮影を行い、右撮像系10Rおよび左撮像系10Lによって撮影された2つの画像のうちの1つの画像を選択し、その選択した画像を非合焦画像として取得するようにしてもよい。2つの画像のうちの1つの画像の選択については操作者が行うようにしてもよいし、自動的に行うようにしてもよい。
次に、本発明の多眼撮影装置の第2の実施形態を適用したデジタルカメラについて詳細に説明する。上記第1の実施形態のデジタルカメラにおいては、2つの合成画像における背景画像(非合焦画像)として同じものを使用するようにしたが、第2の実施形態のデジタルカメラは、より臨場感のある立体視画像を生成するため、背景画像についても2つの撮像系によって撮影された非合焦画像を用いて合成画像を生成するようにしたものである。なお、第2の実施形態のデジタルカメラの概略構成は、第1の実施形態のデジタルカメラとほぼ同様であり、非合焦画像の取得方法および合成画像の生成方法のみが第1の実施形態のデジタルカメラと異なる。したがって、この点を中心に図16に示すフローチャートを参照しながら説明する。
まず、立体マクロモードの設定から合焦画像の透明化処理までのステップ(S200〜S270)については、第1の実施形態のデジタルカメラにおける図4に示すS200〜S270までのステップと同様である。
そして、合焦画像に透明化処理を施した後、右撮像系10Rおよび左撮像系10Lの各ズームレンズ130Zが、マクロモードで合焦していた位置から自動的に、主要被写体より遠方の位置、例えば撮影レンズ14から約1m離れた位置に合焦する位置(主要被写体に対して非合焦の位置)に設定され、その状態で撮影(第2の撮影)が行われ、非合焦画像がそれぞれ撮影される(S280)。このとき左撮像系10Lおよび右撮像系10Rによって撮影された非合焦画像は、輻輳角に換算すると約3.3度程度であることから、前述した背景部分の逆相が無いものとなる。これらの画像を示す画像データも、一時的にSDRAM120に保存される。
なお本実施形態では、1mの距離に合焦する状態にズームレンズ130Zを自動的に動かすようにしているが、この距離は、背景画像が逆相にならない範囲の輻輳角となる距離であれば、いずれの距離であってもよい。背景画像の逆相を無くすという点からは、より小さい輻輳角となる距離とするのがよい。そして、背景画像はぼかした画像が望ましい。すなわち、背景画像に含まれる「山」や「雲」などの被写体に対しても非合焦な画像であることが望ましい。なぜなら、背景がはっきりした画像になると、立体画像を観察する際に背景画像に目の焦点が合ってしまい、立体画像が見え難くなるからである。
次に、SDRAM120に保存されていた画像データを利用して、右撮像系10Rに対応する透明化画像と非合焦画像とを合成する処理、並びに左撮像系10Lに対応する透明化画像と非合焦画像とを合成する処理がなされる(S290)。
なお、このとき、第1の実施形態のデジタルカメラと同様に、立体マクロモードの合焦画像取得時に設定したAF検出枠の情報(画像内の座標データ)を利用することにより2つの画像の位置合わせを行うようにしてもよい。
その後、合成された画像を示す画像データがメモリカード156に記録される(S300)。なお、このときの記録フォーマットは、右目画像ファイルと左目画像ファイルとで非合焦画像が互いに異なるものであること以外は、上記第1の実施形態と同様である。
次に、本発明の多眼撮影装置の第3の実施形態を適用したデジタルカメラについて詳細に説明する。第1および第2の実施形態のデジタルカメラは、図5に示すような遠景と近景とが両方存在するようなシーンに対して良好な立体マクロ撮影ができるものであるが、第3の実施形態のデジタルカメラは、図17に示すような、ほぼ近景のみのようなシーンに対しても良好な立体マクロ撮影を行うことができるようにしたものである。なお、第3の実施形態のデジタルカメラの概略構成は、第1および第2の実施形態のデジタルカメラとほぼ同様であり、その撮影制御方法が異なるので、その点を中心に以下に説明する。なお、第1および第2の実施形態のデジタルカメラと同様の作用については一部説明を省略している。
第3の実施形態のデジタルカメラにおいてなされるマクロ撮影時の処理について、図18Aおよび図18Bに示すフローチャートを参照しながら説明する。
まず、第1および第2の実施形態のデジタルカメラと同様に、モードダイヤル22で「3D静止画」を選択した後、マクロボタン36をONすることにより、撮影モードが立体マクロモードとなり(S200)、モニタ24に、図17に示すようなAF検出枠510が表示される(S205)。
その後、シャッタボタン18を半押しする(S210)ことにより、合焦位置検出(S220)が行われる。
そして、これと同時に、AF制御のために取得された画像データを用いて、右撮像系10Rあるいは左撮像系10Lのデジタル信号処理部142において以下の処理がなされる。まず、図17に示したAF検出枠510内にあるAF検出領域内における輝度値の分散(ZAF)と、それ以外の領域内における輝度値の分散(NZ)とが計算され、その差分が算出される。そして、さらに図17に示したAF検出枠510内にあるAF検出領域内における色相値の分散(CAF)と、それ以外の領域内における色相値の分散(NC)とが計算され、その差分が算出される(S230)。分散(ZAF)と分散(NZ)の計算方法は、上記実施形態と同様である。また、分散(CAF)と分散(NC)の計算方法としては、たとえば、下式(3)および下式(4)を計算するようにすればよい。なお、下式(3),(4)におけるNは分割ブロック数である。また、下式(4)の分割ブロックとは、下式(3)の分割ブロックと同じ大きさのブロックである。
次に、まず、輝度値の分散の差分と予め設定された閾値(α)との比較をして、|ZAF−NZ|≧αならばストロボ非発光制御がなされ(S240、YES)、第1の実施形態のデジタルカメラと同様に、S260〜S300の動作が行われる。なお、図18に示すS260〜S300の動作については、図4に示すS260〜S300の動作と同様である。
一方、S240において輝度値の差分と予め設定された閾値(α)との比較をして、|ZAF−NZ|<αの場合には、色相値の分散の差分と予め設定された閾値(β)との比較をする。そして、|CAF−NC|≧βの場合には(S250、YES)、すなわち、図17に示すように、ほぼ近景の画像のみが撮影され、AF検出枠510内の画像とAF検出枠510以外の画像との間で色のばらつきが異なる場合には、ストロボ非発光制御がなされ(S252)、その後、シャッタボタン18を全押しすると、右撮像系10Rおよび左撮像系10Lにより各々主要被写体に合焦した画像が撮影(第1の撮影)される。そして、第1の撮影により取得された画像データは、透明化処理が施されることなく、メモリカード156に記録される(S300)。そして、再生モードにおいては、右撮像系10Rおよび左撮像系10Lにより撮影された合焦画像がそれぞれ読み出され、これらに基づいて立体視画像が生成されてモニタ24に表示される。
上記のようにしてストロボを非発光として通常のマクロ撮影を行えば、主要被写体が白飛びすることを防止できる。またこの場合は背景シーンが殆ど存在しないとみなせるので、前述の透明化および合成の処理は行わない。すなわち、ここでも輻輳角は前述の約34度程度になるが、背景シーンが存在しないから背景の逆相問題も発生しないので、得られた合焦画像を透明化等の処理をせずそのまま記録して、表示する。
一方、S250において色相値の分散の差分と予め設定された閾値(β)との比較をし、|CAF−NC|<βの場合には(S250、NO)、すなわち、図19に示すように、ほぼ近景の画像のみが撮影されているが、AF検出枠510内の画像(カブトムシ)とAF検出枠510以外の画像(枯葉)との間で色のばらつきが同様である場合には、2枚撮りを行うか、もしくはAF検出枠(AF検出領域)を変更するかを選択する画面がモニタ24に表示される(S310)。なお、上記2枚撮りとは、後述するようにストロボ発光状態での合焦画像の撮影と、ストロボ非発光状態での合焦画像の撮影との両方を行い、その後、いずれか一方の合焦画像の選択を受け付ける方法である。
そして、S310において、AF検出枠(AF検出領域)510の変更が操作者により選択された場合には、操作者によってもしくは自動的にAF検出枠(AF検出領域)510が変更され、S205からの処理が再び行われる。このときAF検出枠(AF検出領域)を自動で変更する場合には、AF検出枠に対して主要被写体がどのような状況にあるかわからないため、AF検出枠を拡大したり縮小したりしながらS205からの処理を繰り返して行い、AF検出枠内の輝度値の分散とAF検出枠外の輝度値の分散との差、またはAF検出枠内の色相値の分散とAF検出枠外の色相値の分散との差が閾値以上となるように調整するようにすればよい。このように調整することにより、モニタ24内の主要被写体の大小に関わらず、また、主要被写体と背景部分との色の差が小さい場合においても主要被写体と背景部分との識別が可能である。
一方、S310において、2枚撮りが選択された場合には、その後、シャッタボタン18を全押しすると、ストロボ発光制御された状態で右撮像系10Rおよび左撮像系10Lによりそれぞれ合焦画像が撮影される(S312、S314)。そして、さらに、ストロボ非発光制御された状態で右撮像系10Rおよび左撮像系10Lによりそれぞれ合焦画像が撮影される(S316、S318)。
そして、上記のようにストロボ発光状態で撮像された合焦画像と、ストロボ非発光状態で撮像された合焦画像とが、図20に示すように、それぞれモニタ24に表示される。なお、このときモニタ24に表示する画像は、右撮像系10Rおよび左撮像系10Lによりそれぞれ撮影された合焦画像に基づいて生成された立体視画像でもよいし、右撮像系10Rおよび左撮像系10Lによりそれぞれ撮影された合焦画像のいずれか一方でもよい。
次に、モニタ24に表示されたストロボ発光合焦画像とストロボ非発光合焦画像とのいずれか一方が操作者によって選択される(S322)。
そして、ストロボ非発光合焦画像が選択された場合には、ストロボ非発光状態で撮像された合焦画像が、メモリカード156に記録される(S300)。そして、再生モードにおいては、右撮像系10Rおよび左撮像系10Lにより撮影された合焦画像がそれぞれ読み出され、これらに基づいて立体視画像が生成されてモニタ24に表示される。
一方、S322において、ストロボ発光合焦画像が選択された場合には、その合焦画像データに透明化処理が施され(S270)、次に、右撮像系10Rおよび左撮像系10Lにより非合焦画像の撮影が行われ(S280)、合焦画像と非合焦画像とが合成されて合成画像が生成され(S290)、その合成画像データが記録される(S300)。そして、再生モードにおいては、右撮像系10Rおよび左撮像系10Lにより取得された合成画像がそれぞれ読み出され、これらに基づいて立体視画像が生成されてモニタ24に表示される。
このように本実施形態では、被写界内に主要被写体および遠景が含まれる場合と、近景の主要被写体のみが含まれる場合とで、ストロボ発光と、画像透明化および合成処理を行なうか否かを判別して立体マクロ撮影を行うようにしているので、撮影シーンに応じた良好な立体画像を撮影可能となる。

Claims (15)

  1. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、
    前記複数の撮像系のうちの1つの撮像系を前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得し、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施し、
    該透明化処理の施された各第1の画像と、前記第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成することを特徴とする多眼撮影方法。
  2. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、
    前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って取得した各画像のうちの1つの画像を第2の画像として取得し、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施し、
    該透明化処理の施された各第1の画像と、前記第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成することを特徴とする多眼撮影方法。
  3. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法であって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得し、
    前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像をそれぞれ取得し、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施し、
    該透明化処理の施された各第1の画像と、該各第1の画像に対応する前記各第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成することを特徴とする多眼撮影方法。
  4. 前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との識別が困難である場合に、フラッシュ光を照射した状態で前記第1のマクロ撮影を行って前記第1の画像を取得することを特徴とする請求項1から3いずれか1項記載の多眼撮影方法。
  5. 前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との輝度値の分散をそれぞれ検出し、
    該検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態で前記第1のマクロ撮影を行って前記第1の画像を取得し、
    前記各分散の差が閾値未満の場合には、フラッシュ光を照射した状態で前記第1のマクロ撮影を行って前記第1の画像を取得することを特徴とする請求項1から4記載の多眼撮影方法。
  6. 前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との色相値の分散をそれぞれ検出し、
    該検出した各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態での前記第1のマクロ撮影のみを行い、
    前記各分散の差が閾値未満の場合には、フラッシュ光を照射した状態とフラッシュ光を照射してない状態でそれぞれ前記第1のマクロ撮影を行い、
    該各第1のマクロ撮影によって取得された前記各第1の画像のうちのいずれか一方の選択を受け付け、
    該選択された第1の画像に前記透明化処理を施すとともに、該透明化処理の施された第1の画像と前記第2の画像とを用いて前記合成画像の生成を行うことを特徴とする請求項1から5いずれか1項記載の多眼撮影方法。
  7. 複数の撮像系を有する多眼撮影装置において、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、前記複数の撮像系のうちの1つの撮像系を前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう前記各撮像系を制御する撮像系制御手段と、
    前記第1のマクロ撮影によって前記各撮像系により取得された各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す透明化処理手段と、
    該透明化処理手段によって透明化処理の施された各第1の画像と、前記第2の撮影によって取得された第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする多眼撮影装置。
  8. 複数の撮像系を有する多眼撮影装置において、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう前記各撮像系を制御する撮像系制御手段と、
    前記第1のマクロ撮影によって前記各撮像系により取得された各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す透明化処理手段と、
    該透明化処理手段によって透明化処理の施された各第1の画像と、前記第2の撮影によって前記各撮像系によって取得された各画像のうちの1つ画像である第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする多眼撮影装置。
  9. 複数の撮像系を有する多眼撮影装置において、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行うとともに、前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行うよう前記各撮像系を制御する撮像系制御手段と、
    前記第1のマクロ撮影によって前記各撮像系により取得された各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す透明化処理手段と、
    該透明化処理手段によって透明化処理の施された各第1の画像と、該各第1の画像に対応する前記各第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する合成画像生成手段とを備えたことを特徴とする多眼撮影装置。
  10. 前記第1のマクロ撮影を行う際、前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との識別が困難である場合に、フラッシュ光を照射するフラッシュ制御手段を備えたことを特徴とする請求項7から9いずれか1項記載の多眼撮影装置。
  11. 前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との輝度値の分散をそれぞれ検出する輝度分散検出手段をさらに備え、
    前記フラッシュ制御手段が、前記第1のマクロ撮影を行う際、前記各分散の差が閾値以上である場合には、フラッシュ光を照射せず、前記各分散の差が閾値未満の場合にはフラッシュ光を照射するものであることを特徴とする請求項10記載の多眼撮影装置。
  12. 前記各撮像系の撮影範囲内の前記主要被写体を含む所定領域とそれ以外の領域との色相値の分散をそれぞれ検出する色相分散検出手段と、
    前記各分散の差が閾値以上である場合には、フラッシュ光を照射していない状態での前記第1のマクロ撮影のみを行い、
    前記各分散の差が閾値未満の場合には、フラッシュ光を照射した状態とフラッシュ光を照射してない状態でそれぞれ前記第1のマクロ撮影を行い、該各第1のマクロ撮影によって取得された前記各第1の画像のうちのいずれか一方の選択を受け付け、該選択された第1の画像に前記透明化処理を施すとともに、該透明化処理の施された第1の画像と前記第2の画像とを用いて前記合成画像の生成を行うよう制御する撮影処理制御手段とを備えたことを特徴とする請求項7から11いずれか1項記載の多眼撮影装置。
  13. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、
    前記複数の撮像系のうちの1つの撮像系を前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像を取得する手順と、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す手順と、
    該透明化処理の施された各第1の画像と、前記第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とするプログラム。
  14. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、
    前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って取得した各画像のうちの1つの画像を第2の画像として取得する手順と、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す手順と、
    該透明化処理の施された各第1の画像と、前記第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とするプログラム。
  15. 複数の撮像系を有する多眼撮影装置においてマクロ撮影を行うときの多眼撮影方法をコンピュータに実行させるためのプログラムであって、
    前記各撮像系をそれぞれ前記主要被写体に合焦させた状態で第1のマクロ撮影を行って第1の画像をそれぞれ取得する手順と、
    前記各撮像系をそれぞれ前記主要被写体よりも遠方に合焦させた状態で第2の撮影を行って第2の画像をそれぞれ取得する手順と、
    前記各第1の画像に対し、前記主要被写体以外の領域を透明化する処理を施す手順と、
    該透明化処理の施された各第1の画像と、該各第1の画像に対応する前記各第2の画像の前記主要被写体以外の領域とを合成して前記各撮像系に対応する合成画像をそれぞれ生成する手順とをコンピュータに実行させることを特徴とするプログラム。
JP2009179623A 2009-07-31 2009-07-31 多眼撮影方法および装置、並びにプログラム Abandoned JP2011035643A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009179623A JP2011035643A (ja) 2009-07-31 2009-07-31 多眼撮影方法および装置、並びにプログラム
US12/841,925 US20110025824A1 (en) 2009-07-31 2010-07-22 Multiple eye photography method and apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179623A JP2011035643A (ja) 2009-07-31 2009-07-31 多眼撮影方法および装置、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2011035643A true JP2011035643A (ja) 2011-02-17

Family

ID=43526622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179623A Abandoned JP2011035643A (ja) 2009-07-31 2009-07-31 多眼撮影方法および装置、並びにプログラム

Country Status (2)

Country Link
US (1) US20110025824A1 (ja)
JP (1) JP2011035643A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042301A (ja) * 2011-08-12 2013-02-28 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2013133057A1 (ja) * 2012-03-07 2013-09-12 ソニー株式会社 画像処理装置および方法、並びにプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2637397A1 (en) * 2012-03-09 2013-09-11 BlackBerry Limited Methods and devices for capturing images
US9105110B2 (en) * 2012-08-04 2015-08-11 Fujifilm North America Corporation Method of simulating an imaging effect on a digital image using a computing device
US10204083B2 (en) * 2016-10-20 2019-02-12 Microsoft Technology Licensing, Llc Computer systems and methods using multiple neutral type characters as delimiters between segments in structured, multi-segment data values
JP7022544B2 (ja) * 2017-09-13 2022-02-18 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
WO2019220856A1 (ja) * 2018-05-14 2019-11-21 株式会社ニコン 画像表示装置、画像表示システム、画像表示方法及び画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089422A (ja) * 1994-06-17 1996-01-12 Sony Corp 立体画像出力装置
JPH08182023A (ja) * 1994-12-26 1996-07-12 Sanyo Electric Co Ltd 2次元画像を3次元画像に変換する装置
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
JP2008053954A (ja) * 2006-08-23 2008-03-06 Fujifilm Corp デジタルカメラ
JP2008187385A (ja) * 2007-01-29 2008-08-14 Fujifilm Corp 撮影装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
JP4153444B2 (ja) * 2004-02-18 2008-09-24 富士フイルム株式会社 デジタルカメラ
JP2008294981A (ja) * 2007-05-28 2008-12-04 Panasonic Corp カメラシステム
JP4739291B2 (ja) * 2007-08-09 2011-08-03 富士フイルム株式会社 撮影画角算出装置
JP4402710B2 (ja) * 2007-09-18 2010-01-20 オリンパス株式会社 撮像装置
KR101445185B1 (ko) * 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089422A (ja) * 1994-06-17 1996-01-12 Sony Corp 立体画像出力装置
JPH08182023A (ja) * 1994-12-26 1996-07-12 Sanyo Electric Co Ltd 2次元画像を3次元画像に変換する装置
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
JP2008053954A (ja) * 2006-08-23 2008-03-06 Fujifilm Corp デジタルカメラ
JP2008187385A (ja) * 2007-01-29 2008-08-14 Fujifilm Corp 撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042301A (ja) * 2011-08-12 2013-02-28 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2013133057A1 (ja) * 2012-03-07 2013-09-12 ソニー株式会社 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US20110025824A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP5425554B2 (ja) 立体撮像装置及び立体撮像方法
US8599245B2 (en) Image processing apparatus, camera, and image processing method
EP2590421B1 (en) Single-lens stereoscopic image capture device
US20110018970A1 (en) Compound-eye imaging apparatus
US20080158346A1 (en) Compound eye digital camera
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
JP5269252B2 (ja) 単眼立体撮像装置
WO2012132797A1 (ja) 撮像装置及び撮像方法
US8823778B2 (en) Imaging device and imaging method
JP4763827B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2010114760A (ja) 撮影装置、指がかり通知方法およびプログラム
JP5160460B2 (ja) 立体撮像装置および立体撮像方法
JP2011035643A (ja) 多眼撮影方法および装置、並びにプログラム
JP4730616B2 (ja) 複眼デジタルカメラ
JP2010103949A (ja) 撮影装置、方法およびプログラム
JP2010147940A (ja) 立体画像処理装置および立体画像処理方法
WO2013035427A1 (ja) 立体撮像装置および方法
JP2010237582A (ja) 立体撮像装置および立体撮像方法
JP2014036362A (ja) 撮像装置、その制御方法、および制御プログラム
JP2010204385A (ja) 立体撮像装置および立体撮像方法
JP2010200024A (ja) 立体画像表示装置および立体画像表示方法
JP5054214B2 (ja) 複眼デジタルカメラ
JP2012028871A (ja) 立体画像表示装置、立体画像撮影装置、立体画像表示方法及び立体画像表示プログラム
JP5259367B2 (ja) 立体画像表示装置および立体画像表示方法
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130129