JP2007215091A - 撮像装置及びそのプログラム - Google Patents
撮像装置及びそのプログラム Download PDFInfo
- Publication number
- JP2007215091A JP2007215091A JP2006035079A JP2006035079A JP2007215091A JP 2007215091 A JP2007215091 A JP 2007215091A JP 2006035079 A JP2006035079 A JP 2006035079A JP 2006035079 A JP2006035079 A JP 2006035079A JP 2007215091 A JP2007215091 A JP 2007215091A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- focus
- lens position
- focusing
- focus lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
【課題】 多領域においてピントの合った綺麗な画像が得られる撮像装置及びそのプログラムを実現する。
【解決手段】 シャッタが半押しされると、AFサーチを開始し、ブロック領域に分けられた画像に基づいて、各ブロック領域の合焦レンズ位置の検出を行い、ブロック領域と該ブロック領域の合焦レンズ位置を関連付けて記憶させる。このとき、合焦レンズ位置が検出されたブロック領域は、それ以後、AFサーチにおいては該ブロック領域の画像データの読み出しを行なわない。そして、シャッタボタンが全押しされると、該記憶させた合焦レンズ位置にフォーカスレンズ2aを移動させていくとともに、各合焦レンズ位置において、該合焦レンズ位置に対応するブロック領域の画像データのみを読み出すという静止画撮影処理を連続して行う。そして、該得られた画像データを合成して1枚の画像データを生成する。
【選択図】 図5
【解決手段】 シャッタが半押しされると、AFサーチを開始し、ブロック領域に分けられた画像に基づいて、各ブロック領域の合焦レンズ位置の検出を行い、ブロック領域と該ブロック領域の合焦レンズ位置を関連付けて記憶させる。このとき、合焦レンズ位置が検出されたブロック領域は、それ以後、AFサーチにおいては該ブロック領域の画像データの読み出しを行なわない。そして、シャッタボタンが全押しされると、該記憶させた合焦レンズ位置にフォーカスレンズ2aを移動させていくとともに、各合焦レンズ位置において、該合焦レンズ位置に対応するブロック領域の画像データのみを読み出すという静止画撮影処理を連続して行う。そして、該得られた画像データを合成して1枚の画像データを生成する。
【選択図】 図5
Description
本発明は、撮像装置及びそのプログラムに係り、詳しくは、AF機能を搭載した撮像装置及びそのプログラムに関する。
従来のAF処理においては、撮影領域の1部の領域にしかピントを合わせられないため、全ての領域にピントの合った画像を得ることができなかった。
そこで、撮影領域の全ての領域に対してピントが合った画像データを得るため、ある領域に対してAF処理を行うとともに静止画撮影を行なうという動作を、全ての領域に対して行い、該得られた複数の画像データを合成することにより全ての領域にピントの合った画像データを生成するという技術が登場した(特許文献1)。
そこで、撮影領域の全ての領域に対してピントが合った画像データを得るため、ある領域に対してAF処理を行うとともに静止画撮影を行なうという動作を、全ての領域に対して行い、該得られた複数の画像データを合成することにより全ての領域にピントの合った画像データを生成するという技術が登場した(特許文献1)。
しかしながら、上記の技術によれば、AF処理を行ってから撮影処理を行うという動作を全ての領域に対して行なうため、撮影処理の撮影間隔が長くなってしまい、その結果、撮影の間に被写体が動いてしまったり、撮影環境(明るさ等)が変化してしまった場合には、合成が綺麗にできず、違和感のある合成画像が得られてしまうという問題があった。
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、多領域においてピントの合った綺麗な画像が得られる撮像装置及びそのプログラムを提供することを目的とする。
上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段と、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする。
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段と、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする。
また、例えば、請求項2に記載されているように、前記連続撮影手段は、
合焦部分の画像データのみを前記撮像手段から読み出すようにしてもよい。
合焦部分の画像データのみを前記撮像手段から読み出すようにしてもよい。
上記目的達成のため、請求項3記載の発明による撮像装置は、被写体を撮像する撮像手段と、
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により合焦動作された合焦部分の画像データを前記撮像手段から読み出す撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする。
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により合焦動作された合焦部分の画像データを前記撮像手段から読み出す撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする。
また、例えば、請求項4に記載されているように、前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を備え、
前記合焦動作手段は、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させ、
前記連続撮影手段は、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段から合焦部分の画像データを読み出す動作を連続して行なうようにしてもよい。
前記合焦動作手段は、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させ、
前記連続撮影手段は、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段から合焦部分の画像データを読み出す動作を連続して行なうようにしてもよい。
また、例えば、請求項5に記載されているように、ユーザが撮影準備を指示するための第1の指示手段と、
ユーザが撮影を指示するための第2の指示手段と、
を備え、
前記検出手段は、
前記第1の指示手段により撮影準備の指示が行われた場合に、前記複数の被写体の合焦レンズ位置を検出し、
前記合焦動作手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記検出手段により検出された合焦レンズ位置に順次フォーカスレンズを移動させていき、
前記連続撮影手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なうようにしてもよい。
ユーザが撮影を指示するための第2の指示手段と、
を備え、
前記検出手段は、
前記第1の指示手段により撮影準備の指示が行われた場合に、前記複数の被写体の合焦レンズ位置を検出し、
前記合焦動作手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記検出手段により検出された合焦レンズ位置に順次フォーカスレンズを移動させていき、
前記連続撮影手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なうようにしてもよい。
また、例えば、請求項6に記載されているように、前記合焦動作手段は、
前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を含み、前記検出手段により合焦レンズ位置が検出された場合に該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしてもよい。
前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を含み、前記検出手段により合焦レンズ位置が検出された場合に該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしてもよい。
また、例えば、請求項7に記載されているように、ユーザが撮影を指示するための指示手段を備え、
前記合焦動作手段は、
前記指示手段により撮影の指示が行われた場合に、前記検出手段に前記複数の被写体の合焦レンズ位置を検出させるとともに、前記検出手段により合焦レンズ位置が検出された場合に、該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記指示手段により撮影の指示が行われ、且つ、前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしてもよい。
前記合焦動作手段は、
前記指示手段により撮影の指示が行われた場合に、前記検出手段に前記複数の被写体の合焦レンズ位置を検出させるとともに、前記検出手段により合焦レンズ位置が検出された場合に、該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記指示手段により撮影の指示が行われ、且つ、前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしてもよい。
また、例えば、請求項8に記載されているように、前記検出手段は、
前記撮像手段により撮像される画像を複数のブロック領域に分割し、該分割された各ブロック領域の合焦レンズ位置を検出することにより前記複数の被写体の合焦レンズ位置を検出し、
前記合成手段は、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦ブロック領域の画像データを合成して1枚の画像データを生成するようにしてもよい。
前記撮像手段により撮像される画像を複数のブロック領域に分割し、該分割された各ブロック領域の合焦レンズ位置を検出することにより前記複数の被写体の合焦レンズ位置を検出し、
前記合成手段は、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦ブロック領域の画像データを合成して1枚の画像データを生成するようにしてもよい。
また、例えば、請求項9に記載されているように、前記検出手段は、
フォーカスレンズを移動させるとともに、各レンズ位置における前記撮像手段により撮像された画像データを読み出すことにより、前記複数の被写体の画像データのコントラスト成分を検出し、該検出したコントラスト成分に基づいて、各被写体の合焦レンズ位置を検出するようにしてもよい。
フォーカスレンズを移動させるとともに、各レンズ位置における前記撮像手段により撮像された画像データを読み出すことにより、前記複数の被写体の画像データのコントラスト成分を検出し、該検出したコントラスト成分に基づいて、各被写体の合焦レンズ位置を検出するようにしてもよい。
また、例えば、請求項10に記載されているように、前記検出手段は、
合焦レンズ位置を検出した場合に、それ以後、該合焦レンズ位置を検出した部分の画像データの前記撮像手段からの読出しを禁止する禁止手段を含むようにしてもよい。
合焦レンズ位置を検出した場合に、それ以後、該合焦レンズ位置を検出した部分の画像データの前記撮像手段からの読出しを禁止する禁止手段を含むようにしてもよい。
また、例えば、請求項11に記載されているように、前記検出手段は、
前記禁止手段により画像データの読出しを禁止した場合に、該合焦レンズ位置を検出した部分の領域に応じてフォーカスレンズの移動速度を速めるようにしてもよい。
前記禁止手段により画像データの読出しを禁止した場合に、該合焦レンズ位置を検出した部分の領域に応じてフォーカスレンズの移動速度を速めるようにしてもよい。
上記目的達成のため、請求項12記載の発明によるプログラムは、被写体を撮像する撮像処理と、
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出処理と、
前記検出処理により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作処理と、
前記合焦動作処理により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像処理による撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出処理と、
前記検出処理により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作処理と、
前記合焦動作処理により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像処理による撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
上記目的達成のため、請求項13記載の発明によるプログラムは、被写体の光を画像データに変換する撮像素子を備えた撮像装置を実行させるためのプログラムであって、
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作処理により合焦動作された合焦部分の画像データを前記撮像素子から読み出す撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含むことを特徴とする。
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作処理により合焦動作された合焦部分の画像データを前記撮像素子から読み出す撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含むことを特徴とする。
請求項1記載の発明によれば、被写体を撮像する撮像手段と、撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段と、前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作手段と、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なう連続撮影手段と、前記連続撮影手段により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、を備えるようにしたので、連続撮影の動作中に合焦レンズ位置を検出しなくて済み、撮影間隔を短くすることができ、違和感のない合成画像を得ることができる。また、複数の被写体にピントの合った1枚の画像データを得ることができる。
請求項2記載の発明によれば、前記連続撮影手段は、合焦部分の画像データのみを前記撮像手段から読み出すようにしたので、不要な部分の画像データの読出しを行なわなくて済み、撮影動作を短くすることができ、延いては連続撮影の撮影間隔を短くすることができる。また、撮影間隔が更に短縮されるので、違和感のない綺麗な合成画像を得ることができる。
請求項3記載の発明によれば、被写体を撮像する撮像手段と、撮影距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、前記合焦動作手段により合焦動作された合焦部分の画像データを前記撮像手段から読み出す撮影動作を連続して行なう連続撮影手段と、前記連続撮影手段により得られた複数の合成部分の画像データを合成して1枚の画像データを生成する合成手段と、を備えるようにしたので、不要な部分の画像データの読出しを行なわなくて済み、撮影動作を短くすることができ、延いては連続撮影の撮影間隔を短くすることができる。また、撮影間隔が短縮されるので、違和感の少ない綺麗な合成画像を得ることができる。また、複数の被写体にピントの合った1枚の画像データを得ることができる。
請求項4記載の発明によれば、前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を備え、前記合焦動作手段は、前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させ、前記連続撮影手段は、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段から合焦部分の画像データを読み出す動作を連続して行なうようにしたので、連続撮影の動作中に合焦レンズ位置を検出しなくて済み、撮影間隔を短くすることができ、違和感のない合成画像を得ることができる。
請求項5記載の発明によれば、ユーザが撮影準備を指示するための第1の指示手段と、ユーザが撮影を指示するための第2の指示手段と、を備え、前記検出手段は、前記第1の指示手段により撮影準備の指示が行われた場合に、前記複数の被写体の合焦レンズ位置を検出し、前記合焦動作手段は、前記第2の指示手段により撮影の指示が行われた場合に、前記検出手段により検出された合焦レンズ位置に順次フォーカスレンズを移動させていき、前記連続撮影手段は、前記第2の指示手段により撮影の指示が行われた場合に、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なうようにしたので、撮影準備の指示が行われると各被写体の合焦レンズ位置を検出し、撮影の指示が行われると各合焦レンズ位置における撮影動作を連続して行なうことができ、撮影間隔を短くすることができ、違和感のない合成画像を得ることができる。
請求項6記載の発明によれば、前記合焦動作手段は、前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を含み、前記検出手段により合焦レンズ位置が検出された場合に該被写体に対して合焦動作を行なっていき、前記連続撮影手段は、前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしたので、連続撮影の動作中に合焦レンズ位置を検出する場合であっても、撮影間隔を短くすることができ、違和感の少ない合成画像を得ることができる。
請求項7記載の発明によれば、ユーザが撮影を指示するための指示手段を備え、前記合焦動作手段は、前記指示手段により撮影の指示が行われた場合に、前記検出手段に前記複数の被写体の合焦レンズ位置を検出させるとともに、前記検出手段により合焦レンズ位置が検出された場合に、該被写体に対して合焦動作を行なっていき、前記連続撮影手段は、前記指示手段により撮影の指示が行われ、且つ、前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すようにしたので、撮影開始の指示により各被写体の合焦レンズ位置の検出、連続撮影動作を行なうことができる。
請求項8記載の発明によれば、前記検出手段は、前記撮像手段により撮像される画像を複数のブロック領域に分割し、該分割された各ブロック領域の合焦レンズ位置を検出することにより前記複数の被写体の合焦レンズ位置を検出し、前記合成手段は、前記連続撮影手段により得られた各レンズ位置の画像データの合焦ブロック領域の画像データを合成して1枚の画像データを生成するようにしたので、合成部分や合焦レンズ位置を検出する領域の特定が容易になり、合成や合焦レンズ位置の検出を簡単に行なうことができる。
請求項9記載の発明によれば、前記検出手段は、フォーカスレンズを移動させるとともに、各レンズ位置における前記撮像手段により撮像された画像データを読み出すことにより、前記複数の被写体の画像データのコントラスト成分を検出し、該検出したコントラスト成分に基づいて、各被写体の合焦レンズ位置を検出するようにしたので、撮像された画像データに基づいて各被写体の合焦レンズ位置を検出することができる。
請求項10記載の発明によれば、前記検出手段は、合焦レンズ位置を検出した場合に、それ以後、該合焦レンズ位置を検出した部分の画像データの前記撮像手段からの読出しを禁止する禁止手段を含むようにしたので、不要な画像データを読み出す必要がなく、読出し動作が楽になる。
請求項11記載の発明によれば、前記検出手段は、前記禁止手段により画像データの読出しを禁止した場合に、該合焦レンズ位置を検出した部分の領域に応じてフォーカスレンズの移動速度を速めるようにしたので、フレームレートが上がり、それに合わせてフォーカスレンズの移動速度を速めることができ、各被写体の合焦レンズ位置を検出する動作時間を短縮することができる。
請求項12、13記載の発明によれば、デジタルカメラ、パソコン等に読み込ませることにより、本発明の撮像装置を実現することができる。
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、CMOS(Complementary
Metal Oxide Semiconductor)センサ4、ドライバ5、TG(timing
generator)6、ユニット回路7、画像生成部8、AF評価値算出部9、CPU10、キー入力部11、メモリ12、DRAM13、合成部14、フラッシュメモリ15、画像表示部16、バス17を備えている。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、CMOS(Complementary
Metal Oxide Semiconductor)センサ4、ドライバ5、TG(timing
generator)6、ユニット回路7、画像生成部8、AF評価値算出部9、CPU10、キー入力部11、メモリ12、DRAM13、合成部14、フラッシュメモリ15、画像表示部16、バス17を備えている。
撮影レンズ2は、複数のレンズ群から構成されるフォーカスレンズ2a、ズームレンズ2b等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ2a、ズームレンズ2bをそれぞれ光軸方向に駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
CMOSセンサ4は、ドライバ5によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路7に出力する。この垂直ドライバ5、ユニット回路7の動作タイミングはTG6を介してCPU10により制御される。
ユニット回路7には、TG6が接続されており、CMOSセンサ4から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CMOSセンサ4から出力された撮像信号はユニット回路7を経てデジタル信号として画像生成部8及びAF評価値算出部9に送られる。
画像生成部8は、ユニット回路7から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはCPU10に送られる。
AF評価値算出部9は、オートフォーカス動作時に各フォーカスポイント(フォーカスレンズ2aの各レンズ位置)においてCMOSセンサ4により取得される各ブロック領域内の画像データに基づいて高周波成分を抽出し、該抽出した高周波成分を積算してAF評価値を算出する。
CPU10は、画像生成部9から送られてきた画像データの圧縮・伸張(例えば、JPEG形式、MPEG形式の圧縮・伸張)処理、AF処理、撮像処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。
キー入力部11は、半押し操作及び全押し操作が可能なシャッタボタン、モード切替キー、メニューキー、十字キー、SETキー、ズームキー(「W」キー、「T」キー)等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム(例えば、AF処理、撮像処理に必要な制御プログラム)、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム(例えば、AF処理、撮像処理に必要な制御プログラム)、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
DRAM13は、CMOSセンサ4によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
合成部14は、バッファメモリ(DRAM13)に記憶された各ブロック領域の画像データを合成して、一枚の画像データを生成する部分である。
フラッシュメモリ15は、圧縮された画像データを保存する記録媒体である。
合成部14は、バッファメモリ(DRAM13)に記憶された各ブロック領域の画像データを合成して、一枚の画像データを生成する部分である。
フラッシュメモリ15は、圧縮された画像データを保存する記録媒体である。
画像表示部16は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CMOSセンサ4によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ15から読み出され、伸張された記録画像を表示させる。
B.本発明の特徴となるデジタルカメラ1のそれぞれの構成の機能について
以下、デジタルカメラ1のそれぞれの構成の機能をAFサーチ処理時と静止画撮影処理時に分けて説明する。
以下、デジタルカメラ1のそれぞれの構成の機能をAFサーチ処理時と静止画撮影処理時に分けて説明する。
B−1.AFサーチ処理時について
このAFサーチ処理時においては、CMOSセンサ4により撮像される画像データを、複数のブロック領域に分割し、各ブロック領域毎の画像データに基づいてフォーカス位置(合焦レンズ位置)を検出して各フォーカス位置を記憶する。
このAFサーチ処理時においては、CMOSセンサ4により撮像される画像データを、複数のブロック領域に分割し、各ブロック領域毎の画像データに基づいてフォーカス位置(合焦レンズ位置)を検出して各フォーカス位置を記憶する。
ここで、図2(a)は、複数のブロック領域(ここでは9つのブロック領域、ブロック領域1〜ブロック領域9)に分けられたCMOSセンサ4の撮像面の様子を示すものであり、図2(b)は、CMOSセンサ4により撮像された画像を示すものである。図2(b)を見ると分かるように、CMOSセンサ4により撮像された画像は、複数のブロック領域に対応して画像が分けられているのがわかる。
なお、ブロック領域の画像とブロック領域の画像との間に境界線があるが、これは説明のための便宜上のものであり、実際は、CMOSセンサ4により撮像された画像にはこのような境界線は生じない。
なお、ブロック領域の画像とブロック領域の画像との間に境界線があるが、これは説明のための便宜上のものであり、実際は、CMOSセンサ4により撮像された画像にはこのような境界線は生じない。
以下、この処理を具体的に説明する。
AFサーチ処理の開始が指示されると(シャッタボタン半押しに対応する操作信号が送られてくると)、CPU10は、AFサーチ処理を開始させる。具体的に説明すると、レンズ駆動ブロック3に制御信号を送ることにより、フォーカスレンズ2aをレンズ端(最も撮影者から一番近い被写体にピントが合うレンズ位置)からレンズ端(最も撮影者から一番遠い被写体にピントが合う位置)まで移動させていくとともに(サーチ移動)、各レンズ位置における各ブロック領域の画像データを読出し、該読出した画像データに基づいてAF評価値算出部9に各ブロック領域のAF評価値を算出させることにより、各レンズ位置における各ブロック領域のAF評価値を算出させる。そして、該算出された各ブロック領域のAF評価値に基づいて、各ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出させる。なお、AFサーチ時においては、CMOSセンサ4の画像データを間引いて読み出すようにする。AFサーチ時においては、AF評価値がピークとなるレンズ位置を検出すればよいからである。これにより、フレームレートを上げることができる。
AFサーチ処理の開始が指示されると(シャッタボタン半押しに対応する操作信号が送られてくると)、CPU10は、AFサーチ処理を開始させる。具体的に説明すると、レンズ駆動ブロック3に制御信号を送ることにより、フォーカスレンズ2aをレンズ端(最も撮影者から一番近い被写体にピントが合うレンズ位置)からレンズ端(最も撮影者から一番遠い被写体にピントが合う位置)まで移動させていくとともに(サーチ移動)、各レンズ位置における各ブロック領域の画像データを読出し、該読出した画像データに基づいてAF評価値算出部9に各ブロック領域のAF評価値を算出させることにより、各レンズ位置における各ブロック領域のAF評価値を算出させる。そして、該算出された各ブロック領域のAF評価値に基づいて、各ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出させる。なお、AFサーチ時においては、CMOSセンサ4の画像データを間引いて読み出すようにする。AFサーチ時においては、AF評価値がピークとなるレンズ位置を検出すればよいからである。これにより、フレームレートを上げることができる。
次いで、CPU10は、ブロックのAF評価値がピークとなるレンズ位置を検出すると、該ブロック領域のレンズ位置を記憶させていく。このとき、AF評価値がピークとなるレンズ位置を検出したブロック領域については、以後、AFサーチ時においては該ブロック領域の画像データのCMOSセンサ4からの読出しは行なわないこととなる。
図3は、各ブロック領域のAF評価値がピークと検出されたレンズ位置の様子を示すものである。なお、ここでは、図2(b)に示すような被写体に対してAFサーチを行なっている場合について説明する。
まず、レンズ端からレンズ端までフォーカスレンズを移動させるステップを1から10までとし、ステップNo1から順々にステップNo10までフォーカスレンズ2aを移動させる。
図3は、各ブロック領域のAF評価値がピークと検出されたレンズ位置の様子を示すものである。なお、ここでは、図2(b)に示すような被写体に対してAFサーチを行なっている場合について説明する。
まず、レンズ端からレンズ端までフォーカスレンズを移動させるステップを1から10までとし、ステップNo1から順々にステップNo10までフォーカスレンズ2aを移動させる。
まず、フォーカスレンズ2aをステップNo1に移動させ、全ブロック領域の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。次いで、フォーカスレンズ2aをステップNo2に移動させ、全ブロック領域の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出させる。そして、フォーカスレンズ2aをステップNo3に移動させ、全ブロック領域の画像データを間引いて読出し、該読み出した各ブロック領域の画像データに基づいて各ブロック領域のAF評価値を算出する。このときにブロック領域9においては山を検出したので(図3参照)、ステップNo2がAF評価値のピークと判断し、ブロック領域9とピークとなるレンズ位置(ステップNo)とをメモリ12のレンズ位置記憶領域に記憶させる。なお、ここではブロック領域9の画像は、図2(b)を見るとわかるように花の画像である。
そして、フォーカスレンズ2aをステップNo4に移動させ、ブロック領域の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。このとき、ブロック領域9においては既にAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出したので、ブロック領域9以外の領域であるブロック領域(1〜8)の画像データをCMOSセンサ4から読み出す。これにより、フレームレートを上げることができる。
そして、フォーカスレンズ2aをステップNo5に移動させ、ブロック領域の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。このときブロック領域1、2、4、5、7、8においては山を検出したので(図3参照)、ステップNo4がピークと判断し、ブロック領域1、2、4、5、7、8とピークとなるレンズ位置(ステップNo)とをメモリ12のレンズ位置記憶領域に記憶させる。なお、ここではブロック領域1、2、4、5、7、8の画像は、図2(b)を見るとわかるように女性の顔の画像である。
そして、フォーカスレンズ2aをステップNo6に移動させ、ブロック領域の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。このとき、ブロック領域1、2、4、5、7、8、9においては既にAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出したので、ブロック領域1、2、4、5、7、8、9以外の領域であるブロック領域(3、6)の画像データを読み出す。
そして、以後、同様に残りのブロック領域3、6のみの画像データをCMOSセンサ4から読み出して、ブロック領域3、6のAF評価値がピークとなるレンズ位置を検出することとなる。ここでは、ブロック領域3、6はステップNo10のときにAF評価値がピークとなり(図3参照)、ブロック領域3、6の画像は、図2(b)を見るとわかるように雲及び富士山の画像である。
そして、以後、同様に残りのブロック領域3、6のみの画像データをCMOSセンサ4から読み出して、ブロック領域3、6のAF評価値がピークとなるレンズ位置を検出することとなる。ここでは、ブロック領域3、6はステップNo10のときにAF評価値がピークとなり(図3参照)、ブロック領域3、6の画像は、図2(b)を見るとわかるように雲及び富士山の画像である。
また、ブロック領域の画像のフォーカス位置(合焦レンズ位置)を検出する度に、画像データを読み出すブロック領域が少なくなっていき、それによりフレームレートが上げることができるので、それに合わせてフォーカスレンズ2aの移動速度(サーチ移動の速度)を速めるようにする。これにより、AFサーチ時間を短縮することができる。
図4は、メモリ12のレンズ位置記憶領域の様子を示す図である。
図4には、各ブロック領域(1〜9)に対応してそれぞれのレンズ位置(ステップNo)を記憶させる記憶領域がある。
ここでは、ステップNo2のときにブロック領域9のAF評価値がピークとなるので、ブロック領域9にはステップNo2と記憶されており、ステップNo4のときにブロック領域1、2、4、5、7、8のAF評価値がピークとなるので、ブロック領域1、2、4、5、7、8にはそれぞれステップNo4と記憶されており、ステップNo10のときにブロック領域3、6のAF評価値がピークとなるので、ブロック領域3、6にはそれぞれステップNo10と記憶されているのがわかる。
図4には、各ブロック領域(1〜9)に対応してそれぞれのレンズ位置(ステップNo)を記憶させる記憶領域がある。
ここでは、ステップNo2のときにブロック領域9のAF評価値がピークとなるので、ブロック領域9にはステップNo2と記憶されており、ステップNo4のときにブロック領域1、2、4、5、7、8のAF評価値がピークとなるので、ブロック領域1、2、4、5、7、8にはそれぞれステップNo4と記憶されており、ステップNo10のときにブロック領域3、6のAF評価値がピークとなるので、ブロック領域3、6にはそれぞれステップNo10と記憶されているのがわかる。
B−2.静止画撮影処理時について
この静止画撮影処理時においては、該メモリ12のレンズ位置記憶領域に記憶した各ステップNoの位置にフォーカスレンズを順々に移動させて、各ステップNoの位置毎に静止画撮影処理を行い、該撮像された複数の静止画像データを合成して一枚の静止画像データを得るというものである。
この静止画撮影処理時においては、該メモリ12のレンズ位置記憶領域に記憶した各ステップNoの位置にフォーカスレンズを順々に移動させて、各ステップNoの位置毎に静止画撮影処理を行い、該撮像された複数の静止画像データを合成して一枚の静止画像データを得るというものである。
以下、この処理を具体的に説明する。
静止画撮影処理の開始が指示されると(シャッタボタン全押しに対応する操作信号が送られてくると)、CPU10は、メモリ12のレンズ位置記憶領域に記憶されているレンズ位置情報とブロック領域情報を読出してバッファメモリに記憶させ、該記憶させた情報に基づいて静止画撮影処理を行う。
静止画撮影処理の開始が指示されると(シャッタボタン全押しに対応する操作信号が送られてくると)、CPU10は、メモリ12のレンズ位置記憶領域に記憶されているレンズ位置情報とブロック領域情報を読出してバッファメモリに記憶させ、該記憶させた情報に基づいて静止画撮影処理を行う。
具体的に説明すると、CPU10は、レンズ駆動ブロック3に制御信号を送ることによりフォーカスレンズ2aを、バッファメモリに記憶された該レンズ位置情報の中で、一番被写体に近いレンズ位置順、つまり、ステップNoが一番小さいレンズ位置順に移動させるとともに、該移動された各レンズ位置で撮影動作(露光動作、読出し動作)を行なう。このときの読出し動作は、バッファメモリに記憶されている該移動させたレンズ位置に対応するブロック領域の画像データのみをCMOSセンサ4から読み出す。つまり、全画像データを読み出すのではなく、合焦部分の画像データのみを読み出すので、読出し動作を早く終わらせることができ、撮影間隔を短縮することができる。
例えば、図4に示すようなレンズ位置情報及びブロック領域情報に基づいて静止画撮影処理を行う場合は、先ず、フォーカスレンズ2aをステップNo2に移動させて露光動作を行い、ブロック領域9の画像データを読出す。そして、フォーカスレンズ2aをステップNo4に移動させて露光動作を行い、ブロック領域1、2、4、5、7、8の画像データを読み出す。そして、フォーカスレンズ2aをステップNo10に移動させて露光動作を行ない、ブロック領域3、6の画像データを読み出すということになる。なお、読み出されたブロック領域の画像データはバッファメモリに記憶される。
また、CPU10は、全てのブロック領域の画像データを読み出したか否かを判断し、全てのブロック領域の画像データを読み出したと判断すると、合成部14に、該読み出した各ブロック領域の画像データを合成して1枚の静止画像データを生成させ、CPU10は、該生成された静止画像データを圧縮してフラッシュメモリ15に記録させる。
このときの合成は、各ブロック領域のそれぞれの画像データを、該画像データに対応するブロック領域の位置に基づいて合成させることにより、1枚の静止画像データが生成されることとなる。
このときの合成は、各ブロック領域のそれぞれの画像データを、該画像データに対応するブロック領域の位置に基づいて合成させることにより、1枚の静止画像データが生成されることとなる。
C.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図5フローチャートに従って説明する。
実施の形態におけるデジタルカメラ1の動作を図5フローチャートに従って説明する。
ユーザのキー入力部11のモード切替キーの操作により撮影モードに設定されると、CPU10は、CMOSセンサ4による撮像を開始させ、画像生成部8によって生成された輝度色差信号の画像データをバッファメモリ(DRAM13)に記憶させ、該記憶された画像データを画像表示部16に表示させるという、いわゆるスルー画像表示を行う(ステップS1)。
次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かの判断を行う(ステップS2)。この判断は、シャッタボタン半押しに対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かの判断を行う(ステップS2)。この判断は、シャッタボタン半押しに対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS2で、シャッタボタンが半押しされていないと判断するとステップS1に戻り、シャッタボタンが半押しされたと判断すると、CPU10は、AFサーチを開始させる(ステップS3)。このAFサーチとは、レンズ駆動ブロック3に制御信号を送ることにより、フォーカスレンズ2aをレンズ端(最も撮影者から近い被写体にピントが合うレンズ位置)からレンズ端(最も撮影者から遠い被写体にピントが合う位置)まで移動させていくとともに(サーチ移動)、各レンズ位置における各ブロック領域の画像データをCMOSセンサ4から間引いて読出し、該読出した画像データに基づいてAF評価値算出部9に各ブロック領域のAF評価値を算出させることにより、各レンズ位置における各ブロック領域のAF評価値を算出させ、該算出された各ブロック領域のAF評価値に基づいて、各ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出させることをいう。この算出された各レンズ位置における各ブロック領域のAF評価値はCPU10に出力される。
次いで、CPU10は、ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出したか否かの判断を行う(ステップS4)。
ステップS4で、ブロック領域のAF評価値がピークとなるレンズ位置を検出していないと判断すると検出されるまでステップS4に留まり、ブロック領域のAF評価値がピークとなるレンズ位置を検出したと判断すると、該検出したAF評価値がピークとなるレンズ位置とブロック領域とをメモリ12のレンズ位置情報記憶領域に記憶させる(ステップS5)。このとき、AFサーチはフォーカスレンズ2aを撮影者から一番近い被写体にピントが合うようなレンズ端から他方のレンズ端まで移動させているので、検出されるAF評価値がピークとなるレンズ位置もステップNoが小さい順に検出されることとなる。
ステップS4で、ブロック領域のAF評価値がピークとなるレンズ位置を検出していないと判断すると検出されるまでステップS4に留まり、ブロック領域のAF評価値がピークとなるレンズ位置を検出したと判断すると、該検出したAF評価値がピークとなるレンズ位置とブロック領域とをメモリ12のレンズ位置情報記憶領域に記憶させる(ステップS5)。このとき、AFサーチはフォーカスレンズ2aを撮影者から一番近い被写体にピントが合うようなレンズ端から他方のレンズ端まで移動させているので、検出されるAF評価値がピークとなるレンズ位置もステップNoが小さい順に検出されることとなる。
例えば、図2(b)に示すような被写体を撮像している場合において、検出されるAF評価値がピークとなるレンズ位置は、ステップNo2、ステップNo4、ステップNo10の順に検出されることとなる。また、この場合は図4に示したようなレンズ位置情報とブロック領域情報が記憶される。
次いで、CPU10は、それ以降のAFサーチ時における、該ピーク値を検出したブロック領域の画像データのCMOSセンサ4からの読出しを禁止する(ステップS6)。このとき、画像データの読出しを禁止したブロック領域の数に応じてフレームレートが上がるので、それに合わせてフォーカスレンズ2aの移動速度も速めるようにする。
例えば、ステップNo2がブロック領域9のAF評価値がピークとなるレンズ位置であると検出すると、それ以後、ブロック領域9の画像データのCMOSセンサ4からの読出しは行なわない。また、ステップNo4がブロック領域1、2、4、5、7、8のAF評価値がピークとなるレンズ位置であると検出すると、それ以後、ブロック領域1、2、4、5、7、8、9の画像データのCMOSセンサ4からの読出しは行なわない。これによりブロック領域の画像のフォーカス位置(合焦レンズ位置)を検出する度に、画像データを読み出すブロック領域が少なくなっていき、それにより、フレームレートを上げることができ、それに合わせてフォーカスレンズ2aの移動速度(サーチ移動の速度)を速めることにより、AFサーチ時間を短縮することができる。
例えば、ステップNo2がブロック領域9のAF評価値がピークとなるレンズ位置であると検出すると、それ以後、ブロック領域9の画像データのCMOSセンサ4からの読出しは行なわない。また、ステップNo4がブロック領域1、2、4、5、7、8のAF評価値がピークとなるレンズ位置であると検出すると、それ以後、ブロック領域1、2、4、5、7、8、9の画像データのCMOSセンサ4からの読出しは行なわない。これによりブロック領域の画像のフォーカス位置(合焦レンズ位置)を検出する度に、画像データを読み出すブロック領域が少なくなっていき、それにより、フレームレートを上げることができ、それに合わせてフォーカスレンズ2aの移動速度(サーチ移動の速度)を速めることにより、AFサーチ時間を短縮することができる。
次いで、CPU10は、AF評価値がピークとなるレンズ位置を検出していないブロック領域があるか否かを判断する(ステップS7)。
ステップS7で、ピークを検出していないブロック領域があると判断するとステップS4に戻り、ピーク値を検出していないブロック領域がないと判断すると、CPU10は、AFサーチを終了させる(ステップS8)。
ステップS7で、ピークを検出していないブロック領域があると判断するとステップS4に戻り、ピーク値を検出していないブロック領域がないと判断すると、CPU10は、AFサーチを終了させる(ステップS8)。
次いで、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する(ステップS9)。この判断は、シャッタボタン全押しに対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS9で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS9に留まり、全押しされたと判断するとステップS10に進む。
ステップS9で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS9に留まり、全押しされたと判断するとステップS10に進む。
ステップS10に進むと、CPU10は、メモリ12のレンズ位置記憶領域に記憶したレンズ位置のうち、ステップNoが一番小さいレンズ位置にフォーカスレンズ2aを移動させる(合焦動作を行なう)。ここでは、図4に示したようなレンズ位置情報記憶領域に基づいてフォーカスレンズ2aを移動させるので、ステップNo2にフォーカスレンズ2aを移動させることとなる。
次いで、CPU10は、COMSセンサ4に露光を行なわせてから、該移動させたレンズ位置に対応するブロック領域の画像データをCMOSセンサ4から読み出すという静止画撮影処理を行う(ステップS11)。ここでは、ステップNo2に対応するブロック領域は9なので、ブロック領域9の画像データのみをCMOSセンサ4から読み出すこととなる。この読み出した画像データはバッファメモリに記憶される。
次いで、CPU10は、COMSセンサ4に露光を行なわせてから、該移動させたレンズ位置に対応するブロック領域の画像データをCMOSセンサ4から読み出すという静止画撮影処理を行う(ステップS11)。ここでは、ステップNo2に対応するブロック領域は9なので、ブロック領域9の画像データのみをCMOSセンサ4から読み出すこととなる。この読み出した画像データはバッファメモリに記憶される。
次いで、CPU10は、全てのブロック領域の画像データを読出(撮影)したか否かの判断を行う(ステップS12)。
ステップS12で、全てのブロック領域の画像データを読み出していないと判断すると、次にステップNoが小さいレンズ位置にフォーカスレンズ2aを移動させ(ステップS13)、ステップS11に戻る。
一方、ステップS12で、全てのブロック領域の画像データを読み出したと判断すると、CPU10は、該記憶した(読み出した)全てのブロック領域の画像データを、合成部14に合成させることにより1枚の静止画像データを生成させ、該生成された静止画像データを圧縮してフラッシュメモリ15に記録させる(ステップS14)。
ステップS12で、全てのブロック領域の画像データを読み出していないと判断すると、次にステップNoが小さいレンズ位置にフォーカスレンズ2aを移動させ(ステップS13)、ステップS11に戻る。
一方、ステップS12で、全てのブロック領域の画像データを読み出したと判断すると、CPU10は、該記憶した(読み出した)全てのブロック領域の画像データを、合成部14に合成させることにより1枚の静止画像データを生成させ、該生成された静止画像データを圧縮してフラッシュメモリ15に記録させる(ステップS14)。
なお、第1の実施の形態において、シャッタボタンが半押しされることなく、シャッタボタンが全押しされた場合には、ステップS3〜ステップS8までの動作を行ってから、ステップS10以降の動作を行なうようにする。
D.以上のように、第1の実施の形態においては、シャッタボタンが半押しされると、各ブロック領域の合焦レンズ位置を検出し、シャッタボタンが全押しされると、該検出した各ブロック領域の合焦レンズ位置にフォーカスレンズを移動させて撮影動作を連続して行なうので、全ての被写体にピントの合った画像データを得ることができる。また、連続撮影中に合焦レンズ位置を検出しなくても済むので、撮影間隔を短くすることができ、違和感のない綺麗な合成画像を得ることができる。
また、撮影動作においては、合焦部分の画像データのみをCMOSセンサ4から読み出すようにしたので、撮影動作を短くすることができ、延いては撮影間隔を更に短縮することができる。また、撮影間隔が更に短縮されるので、違和感のない綺麗な合成画像を得ることができる。
また、AFサーチにおいては、合焦レンズ位置を検出したブロック領域は、それ以後、画像データのCMOSセンサ4からの読出しを行なわないようにしたので、フレームレートを上げることができ、それに合わせてフォーカスレンズの移動スピードを上げることにより、更にAFサーチ時間を短縮することができる。
また、撮影動作においては、合焦部分の画像データのみをCMOSセンサ4から読み出すようにしたので、撮影動作を短くすることができ、延いては撮影間隔を更に短縮することができる。また、撮影間隔が更に短縮されるので、違和感のない綺麗な合成画像を得ることができる。
また、AFサーチにおいては、合焦レンズ位置を検出したブロック領域は、それ以後、画像データのCMOSセンサ4からの読出しを行なわないようにしたので、フレームレートを上げることができ、それに合わせてフォーカスレンズの移動スピードを上げることにより、更にAFサーチ時間を短縮することができる。
[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、AFサーチと静止画撮影処理を別々に行なうようにしたが、第2の実施の形態においては、ブロック領域の合焦レンズ位置を検出する毎に静止画撮影処理を行うというものである。
次に第2の実施の形態について説明する。
第1の実施の形態においては、AFサーチと静止画撮影処理を別々に行なうようにしたが、第2の実施の形態においては、ブロック領域の合焦レンズ位置を検出する毎に静止画撮影処理を行うというものである。
E.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態のデジタルカメラ1の動作を図6のフローチャートにしたがって説明する。
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態のデジタルカメラ1の動作を図6のフローチャートにしたがって説明する。
ユーザのキー入力部11のモード切替キーの操作により撮影モードに設定されると、CPU10は、CMOSセンサ4による撮像を開始させ、画像生成部8によって生成された輝度色差信号の画像データをバッファメモリに記憶させ、該記憶された画像データを画像表示部16に表示させるという、いわゆるスルー画像表示を行う(ステップS51)。
次いで、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する(ステップS52)。なお、ここでは、図2(b)の被写体に対してシャッタボタンを全押ししたものとする。
次いで、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する(ステップS52)。なお、ここでは、図2(b)の被写体に対してシャッタボタンを全押ししたものとする。
ステップS52で、シャッタボタンが全押しされていないと判断するとステップS51に戻り、シャッタボタンが全押しされたと判断すると、CPU10は、AFサーチを開始させる(ステップS53)。
次いで、CPU10は、ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出したか否かの判断を行う(ステップS54)。
ステップS54で、ブロック領域のAF評価値がピークとなるレンズ位置を検出していないと判断すると検出されるまでステップS54に留まり、ブロック領域のAF評価値がピークとなるレンズ位置を検出したと判断すると、該検出したAF評価値がピークとなるレンズ位置にフォーカスレンズ2aを移動させる(合焦動作を行う)(ステップS55)。
次いで、CPU10は、ブロック領域のAF評価値がピークとなるレンズ位置(合焦レンズ位置)を検出したか否かの判断を行う(ステップS54)。
ステップS54で、ブロック領域のAF評価値がピークとなるレンズ位置を検出していないと判断すると検出されるまでステップS54に留まり、ブロック領域のAF評価値がピークとなるレンズ位置を検出したと判断すると、該検出したAF評価値がピークとなるレンズ位置にフォーカスレンズ2aを移動させる(合焦動作を行う)(ステップS55)。
次いで、CPU10を、COMSセンサ4に露光を行なわせてから、該ピークとなるレンズ位置を検出したブロック領域のみの画像データをCMOSセンサ4から読出してバッファメモリに記憶させる(ステップS56)。
次いで、CPU10は、それ以降のAFサーチ時における、該ピークとなるレンズ位置を検出したブロック領域(ステップS56で画像データを読み出したブロック領域)の画像データのCMOSセンサ4からの読出しを禁止する(ステップS57)。このとき、画像データの読出しを禁止したブロック領域の数に応じてフレームレートが上がるので、それに合わせてフォーカスレンズ2aの移動速度も速めるようにする。
次いで、CPU10は、全てのブロック領域の合焦レンズ位置を検出したか否かを判断し(ステップS58)、検出していないと判断するとステップS54に戻る。
次いで、CPU10は、それ以降のAFサーチ時における、該ピークとなるレンズ位置を検出したブロック領域(ステップS56で画像データを読み出したブロック領域)の画像データのCMOSセンサ4からの読出しを禁止する(ステップS57)。このとき、画像データの読出しを禁止したブロック領域の数に応じてフレームレートが上がるので、それに合わせてフォーカスレンズ2aの移動速度も速めるようにする。
次いで、CPU10は、全てのブロック領域の合焦レンズ位置を検出したか否かを判断し(ステップS58)、検出していないと判断するとステップS54に戻る。
ここで、ステップS53からステップS58の動作を図3を用いて具体的に説明する。
AFサーチが開始されると、フォーカスレンズ2aをステップNo1(撮影者から一番近い被写体にピントが合うレンズ位置)に移動させ、全ブロック領域の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。次いで、フォーカスレンズ2aをステップNo2に移動させ、全ブロック領域の画像データを間引いて読み出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。そして、フォーカスレンズ2aをステップNo3に移動させ、全ブロック領域の画像データを間引いて読出し、該読み出した各ブロック領域の画像データに基づいて各ブロック領域のAF評価値を検出する。このとき、ブロック領域9においては山(ピーク)を検出したので(ステップS54でY)、該ピークを検出したレンズ位置、つまり、ステップNo2にフォーカスレンズ2aを移動させる、つまり、合焦動作を行う(ステップS55)。
AFサーチが開始されると、フォーカスレンズ2aをステップNo1(撮影者から一番近い被写体にピントが合うレンズ位置)に移動させ、全ブロック領域の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。次いで、フォーカスレンズ2aをステップNo2に移動させ、全ブロック領域の画像データを間引いて読み出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。そして、フォーカスレンズ2aをステップNo3に移動させ、全ブロック領域の画像データを間引いて読出し、該読み出した各ブロック領域の画像データに基づいて各ブロック領域のAF評価値を検出する。このとき、ブロック領域9においては山(ピーク)を検出したので(ステップS54でY)、該ピークを検出したレンズ位置、つまり、ステップNo2にフォーカスレンズ2aを移動させる、つまり、合焦動作を行う(ステップS55)。
そして、露光を行い、ブロック領域9の画像データをCMOSセンサ4から読み出すという静止画撮影処理を行い、(ステップS56)、それ以後のAFサーチにおいて該ピークを検出したブロック領域9の画像データのCMOSセンサ4からの読出しを禁止する(ステップS57)。
そして、まだ、全てのブロック領域の合焦レンズ位置を検出していないので(ステップS58でN)、フォーカスレンズ2aをステップNo4に移動させ、ブロック領域(ブロック領域9以外のブロック領域)の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいてブロック領域(ブロック領域9以外のブロック領域)のAF評価値を算出する。そして、フォーカスレンズ2aをステップNo5に移動させ、ブロック領域(ブロック領域9以外のブロック領域)の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。このとき、ブロック領域1、2、4、5、7、8においては山(ピーク)を検出したので、該ピークを検出したレンズ位置、つまり、ステップNo4にフォーカスレンズ2aを移動させる(合焦動作を行う)(ステップS55)。
そして、まだ、全てのブロック領域の合焦レンズ位置を検出していないので(ステップS58でN)、フォーカスレンズ2aをステップNo4に移動させ、ブロック領域(ブロック領域9以外のブロック領域)の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいてブロック領域(ブロック領域9以外のブロック領域)のAF評価値を算出する。そして、フォーカスレンズ2aをステップNo5に移動させ、ブロック領域(ブロック領域9以外のブロック領域)の画像データを間引いて読出し、該読み出した画像データに基づいて各ブロック領域のAF評価値を算出する。このとき、ブロック領域1、2、4、5、7、8においては山(ピーク)を検出したので、該ピークを検出したレンズ位置、つまり、ステップNo4にフォーカスレンズ2aを移動させる(合焦動作を行う)(ステップS55)。
そして、露光を行い、ブロック領域1、2、4、5、7、8の画像データをCMOSセンサ4から読み出すという静止画撮影処理を行い、(ステップS56)、それ以後のAFサーチにおいて該ピークを検出したブロック領域1、2、4、5、7、8の画像データのCMOSセンサ4からの読出しを禁止する(ステップS57)。
そして、まだ、全てのブロック領域の合焦レンズ位置を検出していないので(ステップS58でN)、フォーカスレンズ2aをステップNo6に移動させ、ブロック領域(ブロック領域1、2、4、5、7、8、9以外のブロック領域)の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいてブロック領域(ブロック領域1、2、4、5、7、8、9以外のブロック領域)のAF評価値を算出する。このような動作を全てのブロック領域の合焦レンズ位置を検出するまで行なう。
そして、まだ、全てのブロック領域の合焦レンズ位置を検出していないので(ステップS58でN)、フォーカスレンズ2aをステップNo6に移動させ、ブロック領域(ブロック領域1、2、4、5、7、8、9以外のブロック領域)の画像データをCMOSセンサ4から間引いて読出し、該読み出した画像データに基づいてブロック領域(ブロック領域1、2、4、5、7、8、9以外のブロック領域)のAF評価値を算出する。このような動作を全てのブロック領域の合焦レンズ位置を検出するまで行なう。
図6のフローチャートに戻り、ステップS58で、全てのブロック領域の合焦レンズ位置を検出したと判断すると、CPU10は、AFサーチを終了させ(ステップS59)、該記憶した(読み出した)全てのブロック領域の画像データを、合成部14に合成させることにより1枚の静止画像データを生成させ、該生成された静止画像データを圧縮してフラッシュメモリ15に記録させる(ステップS60)。
F.以上のように、第2の実施の形態においては、AFサーチにおいて、CMOSセンサ4からの間引き読出し行なうとともに、合焦レンズ位置を検出したブロック領域は、以後、該合焦レンズ位置を検出したブロック領域の画像データのCMOSセンサ4からの読出しを行なわないようにしたので、フレームレートを上げることができ、それに合わせてフォーカスレンズの移動スピードを上げることにより、合焦レンズ位置を迅速に検出することができ、連続撮影中に合焦レンズ位置を検出する場合でも、撮影動作の間隔を短くすることができ、違和感の少ない合成画像を得ることができる。
また、撮影動作においては、合焦部分の画像データのみをCMOSセンサ4から読み出すようにしたので、撮影動作を短くすることができ、延いては撮影間隔を更に短縮することができる。また、撮影間隔が更に短縮されるので、違和感のない綺麗な合成画像を得ることができる。
また、撮影動作においては、合焦部分の画像データのみをCMOSセンサ4から読み出すようにしたので、撮影動作を短くすることができ、延いては撮影間隔を更に短縮することができる。また、撮影間隔が更に短縮されるので、違和感のない綺麗な合成画像を得ることができる。
なお、第1及び第2の実施の形態においては、ブロック領域内の全画像データのコントラスト成分に基づいて該ブロックの合焦レンズ位置を検出するようにしたが、ブロック領域内の1部の画像データのみに基づいて該ブロック領域の合焦レンズ位置を検出するようにしてもよい。
また、CMOSセンサ4により撮像された画像を複数のブロック領域に分けたが、ブロック単位ではなく、被写体(人、建物等)単位で分けるようにしてもよい。
また、CMOSセンサ4により撮像された画像を複数のブロック領域に分けたが、ブロック単位ではなく、被写体(人、建物等)単位で分けるようにしてもよい。
また、撮像素子としてCMOSセンサ4を用いて説明したが、CCDセンサ等の他の撮像センサであってもよい。
また、画像のコントラスト成分に基づいて合焦レンズ位置を検出する(コントラストAFを採用する)ようにしたが、位相差AF等の他のAF方式であってもよい。
また、合焦部分のみ撮像センサから読み出すようにしたが(図5のステップS11、図6のステップS56)、全画像データを撮像センサから読出し、該読み出した後、合焦部分を抽出して合成するようにしてもよい。
また、画像のコントラスト成分に基づいて合焦レンズ位置を検出する(コントラストAFを採用する)ようにしたが、位相差AF等の他のAF方式であってもよい。
また、合焦部分のみ撮像センサから読み出すようにしたが(図5のステップS11、図6のステップS56)、全画像データを撮像センサから読出し、該読み出した後、合焦部分を抽出して合成するようにしてもよい。
更に、上記実施の形態におけるデジタルカメラ1は、上記の実施の形態に限定されるものではなく、カメラ付き携帯電話、カメラ付きPDA、カメラ付きパソコン、カメラ付きICレコーダ、又はデジタルビデオカメラ等でもよく、AF機能及び撮影機能を備えた機器であれば何でもよい。
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 CMOSセンサ
5 垂直ドライバ
6 TG
7 ユニット回路
8 画像生成部
9 AF評価値算出部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 合成部
15 フラッシュメモリ
16 画像表示部
17 バス
2 撮影レンズ
3 レンズ駆動ブロック
4 CMOSセンサ
5 垂直ドライバ
6 TG
7 ユニット回路
8 画像生成部
9 AF評価値算出部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 合成部
15 フラッシュメモリ
16 画像表示部
17 バス
Claims (13)
- 被写体を撮像する撮像手段と、
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段と、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする撮像装置。 - 前記連続撮影手段は、
合焦部分の画像データのみを前記撮像手段から読み出すことを特徴とする請求項1記載の撮像装置。 - 被写体を撮像する撮像手段と、
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作手段により合焦動作された合焦部分の画像データを前記撮像手段から読み出す撮影動作を連続して行なう連続撮影手段と、
前記連続撮影手段により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成手段と、
を備えたことを特徴とする撮像装置。 - 前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を備え、
前記合焦動作手段は、
前記検出手段により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させ、
前記連続撮影手段は、
前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段から合焦部分の画像データを読み出す動作を連続して行なうことを特徴とする請求項3記載の撮像装置。 - ユーザが撮影準備を指示するための第1の指示手段と、
ユーザが撮影を指示するための第2の指示手段と、
を備え、
前記検出手段は、
前記第1の指示手段により撮影準備の指示が行われた場合に、前記複数の被写体の合焦レンズ位置を検出し、
前記合焦動作手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記検出手段により検出された合焦レンズ位置に順次フォーカスレンズを移動させていき、
前記連続撮影手段は、
前記第2の指示手段により撮影の指示が行われた場合に、前記合焦動作手段により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像手段による撮影動作を連続して行なうことを特徴とする請求項1乃至4の何れかに記載の撮像装置。 - 前記合焦動作手段は、
前記複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出手段を含み、前記検出手段により合焦レンズ位置が検出された場合に該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すことを特徴とする請求項3記載の撮像装置。 - ユーザが撮影を指示するための指示手段を備え、
前記合焦動作手段は、
前記指示手段により撮影の指示が行われた場合に、前記検出手段に前記複数の被写体の合焦レンズ位置を検出させるとともに、前記検出手段により合焦レンズ位置が検出された場合に、該被写体に対して合焦動作を行なっていき、
前記連続撮影手段は、
前記指示手段により撮影の指示が行われ、且つ、前記合焦動作手段により合焦動作が行なわれた場合に、合焦部分の画像データを前記撮像手段から読み出すことを特徴とする請求項6記載の撮像装置。 - 前記検出手段は、
前記撮像手段により撮像される画像を複数のブロック領域に分割し、該分割された各ブロック領域の合焦レンズ位置を検出することにより前記複数の被写体の合焦レンズ位置を検出し、
前記合成手段は、
前記連続撮影手段により得られた各レンズ位置の画像データの合焦ブロック領域の画像データを合成して1枚の画像データを生成することを特徴とする請求項1乃至7の何れかに記載の撮像装置。 - 前記検出手段は、
フォーカスレンズを移動させるとともに、各レンズ位置における前記撮像手段により撮像された画像データを読み出すことにより、前記複数の被写体の画像データのコントラスト成分を検出し、該検出したコントラスト成分に基づいて、各被写体の合焦レンズ位置を検出することを特徴とする請求項1乃至8の何れかに記載の撮像装置。 - 前記検出手段は、
合焦レンズ位置を検出した場合に、それ以後、該合焦レンズ位置を検出した部分の画像データの前記撮像手段からの読出しを禁止する禁止手段を含むことを特徴とする請求項9記載の撮像装置。 - 前記検出手段は、
前記禁止手段により画像データの読出しを禁止した場合に、該合焦レンズ位置を検出した部分の領域に応じてフォーカスレンズの移動速度を速めることを特徴とする請求項10記載の撮像装置。 - 被写体を撮像する撮像処理と、
撮影距離が異なる複数の被写体に対してピントが合う合焦レンズ位置を被写体毎に検出する検出処理と、
前記検出処理により検出された前記複数の被写体の合焦レンズ位置に順次フォーカスレンズを移動させることにより、各被写体に対して合焦動作を行なう合焦動作処理と、
前記合焦動作処理により順次フォーカスレンズが移動された各合焦レンズ位置において、前記撮像処理による撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた各レンズ位置の画像データの合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。 - 被写体の光を画像データに変換する撮像素子を備えた撮像装置を実行させるためのプログラムであって、
被写体距離が異なる複数の被写体に対して合焦動作を行なう合焦動作手段と、
前記合焦動作処理により合焦動作された合焦部分の画像データを前記撮像素子から読み出す撮影動作を連続して行なう連続撮影処理と、
前記連続撮影処理により得られた複数の合焦部分の画像データを合成して1枚の画像データを生成する合成処理と、
を含むことを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006035079A JP2007215091A (ja) | 2006-02-13 | 2006-02-13 | 撮像装置及びそのプログラム |
US11/704,041 US7397611B2 (en) | 2006-02-13 | 2007-02-08 | Image capturing apparatus, image composing method and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006035079A JP2007215091A (ja) | 2006-02-13 | 2006-02-13 | 撮像装置及びそのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007215091A true JP2007215091A (ja) | 2007-08-23 |
Family
ID=38367987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006035079A Pending JP2007215091A (ja) | 2006-02-13 | 2006-02-13 | 撮像装置及びそのプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7397611B2 (ja) |
JP (1) | JP2007215091A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009246558A (ja) * | 2008-03-28 | 2009-10-22 | Canon Inc | 撮像装置及びその制御方法 |
JP2010197551A (ja) * | 2009-02-24 | 2010-09-09 | Nikon Corp | 撮像装置および画像合成方法 |
JP2012231520A (ja) * | 2012-07-05 | 2012-11-22 | Canon Inc | 撮像装置、制御装置及びそれらの制御方法 |
KR20120128986A (ko) * | 2011-05-18 | 2012-11-28 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 구동 방법 |
KR101396347B1 (ko) * | 2007-11-30 | 2014-05-19 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
KR101436323B1 (ko) | 2008-03-10 | 2014-09-01 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
JP5737387B2 (ja) * | 2011-03-22 | 2015-06-17 | 富士通株式会社 | 画像処理装置 |
WO2016104477A1 (ja) * | 2014-12-26 | 2016-06-30 | 株式会社Screenホールディングス | 画像処理方法、制御プログラムおよび画像処理装置 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008058391A (ja) * | 2006-08-29 | 2008-03-13 | Samsung Yokohama Research Institute Co Ltd | 撮像レンズユニットおよび撮像装置 |
JP5306628B2 (ja) * | 2007-10-16 | 2013-10-02 | 富士フイルム株式会社 | 撮影方法及び装置 |
US8724013B2 (en) * | 2007-12-27 | 2014-05-13 | Qualcomm Incorporated | Method and apparatus with fast camera auto focus |
JP5993133B2 (ja) * | 2011-11-24 | 2016-09-14 | 株式会社キーエンス | 画像処理センサ、フォーカス調整方法及びコンピュータプログラム |
CN102523376A (zh) * | 2011-12-06 | 2012-06-27 | 鸿富锦精密工业(深圳)有限公司 | 拍摄设备及方法 |
KR20140007529A (ko) * | 2012-07-09 | 2014-01-20 | 삼성전자주식회사 | 카메라의 이미지 촬영장치 및 방법 |
CN103618852A (zh) * | 2013-11-25 | 2014-03-05 | 厦门美图网科技有限公司 | 一种图像存储与显示方法 |
CN105898135A (zh) * | 2015-11-15 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 相机成像方法及相机装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3555607B2 (ja) * | 2001-11-29 | 2004-08-18 | ミノルタ株式会社 | オートフォーカス装置 |
JP2003319235A (ja) | 2002-04-25 | 2003-11-07 | Konica Minolta Holdings Inc | 撮影装置 |
JP3922274B2 (ja) * | 2004-06-30 | 2007-05-30 | コニカミノルタフォトイメージング株式会社 | レンズユニットおよび撮像装置 |
-
2006
- 2006-02-13 JP JP2006035079A patent/JP2007215091A/ja active Pending
-
2007
- 2007-02-08 US US11/704,041 patent/US7397611B2/en active Active
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396347B1 (ko) * | 2007-11-30 | 2014-05-19 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
KR101436323B1 (ko) | 2008-03-10 | 2014-09-01 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
JP2009246558A (ja) * | 2008-03-28 | 2009-10-22 | Canon Inc | 撮像装置及びその制御方法 |
US9894280B2 (en) | 2008-03-28 | 2018-02-13 | Canon Kabushiki Kaisha | Imaging apparatus for displaying selected face in in-focus state and method for controlling imaging apparatus |
JP2010197551A (ja) * | 2009-02-24 | 2010-09-09 | Nikon Corp | 撮像装置および画像合成方法 |
JP5737387B2 (ja) * | 2011-03-22 | 2015-06-17 | 富士通株式会社 | 画像処理装置 |
US9129184B2 (en) | 2011-03-22 | 2015-09-08 | Fujitsu Limited | Image synthesis processor and image synthesis method |
KR20120128986A (ko) * | 2011-05-18 | 2012-11-28 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 구동 방법 |
KR101940481B1 (ko) * | 2011-05-18 | 2019-04-10 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 구동 방법 |
JP2012231520A (ja) * | 2012-07-05 | 2012-11-22 | Canon Inc | 撮像装置、制御装置及びそれらの制御方法 |
WO2016104477A1 (ja) * | 2014-12-26 | 2016-06-30 | 株式会社Screenホールディングス | 画像処理方法、制御プログラムおよび画像処理装置 |
JP2016127342A (ja) * | 2014-12-26 | 2016-07-11 | 株式会社Screenホールディングス | 画像処理方法、制御プログラムおよび画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US7397611B2 (en) | 2008-07-08 |
US20070188652A1 (en) | 2007-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007215091A (ja) | 撮像装置及びそのプログラム | |
JP4591325B2 (ja) | 撮像装置及びプログラム | |
JP4761146B2 (ja) | 撮像装置及びそのプログラム | |
JP4742242B2 (ja) | 撮像装置及びそのプログラム | |
JP4957943B2 (ja) | 撮像装置及びそのプログラム | |
KR101433121B1 (ko) | 소정의 종횡비의 합성 화상을 생성하는 화상 처리 장치 | |
JP4797522B2 (ja) | 撮像装置及びそのプログラム | |
JP2006025238A (ja) | 撮像装置 | |
JP2012222495A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5302058B2 (ja) | 撮像装置および撮像方法 | |
JP5614425B2 (ja) | 撮像装置及びプログラム | |
JP2007178576A (ja) | 撮像装置及びそのプログラム | |
JP2010239277A (ja) | 撮像装置および撮像方法 | |
KR20120011920A (ko) | 디지털 영상 신호 처리 장치, 디지털 영상 신호 처리 방법 및 상기 방법을 기록한 기록 매체 | |
JP2010206519A (ja) | 撮像装置および撮像方法 | |
JP2007082049A (ja) | 撮像装置及びそのプログラム | |
US7515816B2 (en) | Imaging apparatus having a focus function | |
JP5105298B2 (ja) | 撮像装置及びそのプログラム | |
JP2006276683A (ja) | 撮像装置及びプログラム | |
JP4534250B2 (ja) | 動画撮像装置及びそのプログラム | |
JP5648563B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4905797B2 (ja) | 撮像装置及び撮像方法 | |
JP2007142639A (ja) | 撮像装置及びそのプログラム | |
JP4362094B2 (ja) | 合焦制御装置及び合焦制御方法 | |
JP5273220B2 (ja) | 撮像装置及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090409 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090513 |