JP2011113174A - Image synthesizer, image reproduction device and imaging device - Google Patents
Image synthesizer, image reproduction device and imaging device Download PDFInfo
- Publication number
- JP2011113174A JP2011113174A JP2009267292A JP2009267292A JP2011113174A JP 2011113174 A JP2011113174 A JP 2011113174A JP 2009267292 A JP2009267292 A JP 2009267292A JP 2009267292 A JP2009267292 A JP 2009267292A JP 2011113174 A JP2011113174 A JP 2011113174A
- Authority
- JP
- Japan
- Prior art keywords
- image
- signal
- evaluation value
- subject
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像合成装置、画像再生装置、および撮像装置に関するものである。 The present invention relates to an image composition device, an image reproduction device, and an imaging device.
従来より、撮像素子の撮像面に結像した被写体像を撮像信号として出力する撮像装置が知られている。このような撮像装置において、1回の撮影で得られた撮像信号に基づいて、光学系の任意の像面に焦点の合った画像を合成する技術が開示されている(特許文献1)。 2. Description of the Related Art Conventionally, an imaging apparatus that outputs a subject image formed on an imaging surface of an imaging element as an imaging signal is known. In such an imaging apparatus, a technique for synthesizing an image focused on an arbitrary image plane of an optical system based on an imaging signal obtained by one imaging is disclosed (Patent Document 1).
しかしながら、従来技術では、特定の被写体について焦点の合った画像を取得するための像面をいかにして決定するかについては何ら提案されていなかった。 However, in the prior art, no proposal has been made on how to determine an image plane for acquiring a focused image for a specific subject.
本発明が解決しようとする課題は、撮影画像中の特定の被写体について焦点の合った画像を適切に得ることができる画像合成装置を提供することである。 The problem to be solved by the present invention is to provide an image synthesizing apparatus that can appropriately obtain a focused image of a specific subject in a captured image.
この発明は、以下の解決手段によって上記課題を解決する。なお、発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。 The present invention solves the above problems by the following means. In addition, although the code | symbol corresponding to drawing which shows embodiment of this invention is attached | subjected and demonstrated, this code | symbol is only for making an understanding of invention easy, and is not the meaning which limits invention.
[1]本発明に係る画像合成装置は、光束を受光して得られた複数の受光信号を入力する入力手段(101)と、前記複数の受光信号の一部を、第1の選択形態により選択して得られる第1画像信号と、前記第1の選択形態とは異なる第2の選択形態により選択して得られる第2画像信号と、を生成するとともに、前記第1画像信号のコントラストに関する評価値と、前記第2画像信号のコントラストに関する評価値とに基づいて、前記評価値が最大となる画像信号を生成する画像生成手段(104)と、を備えることを特徴とする。 [1] An image composition device according to the present invention includes an input unit (101) for inputting a plurality of light reception signals obtained by receiving a light beam and a part of the plurality of light reception signals according to a first selection form. A first image signal obtained by selection and a second image signal obtained by selection according to a second selection form different from the first selection form are generated, and the contrast of the first image signal is generated The image generation means (104) which produces | generates the image signal from which the said evaluation value becomes the maximum based on an evaluation value and the evaluation value regarding the contrast of a said 2nd image signal, It is characterized by the above-mentioned.
[2]上記画像合成装置に係る発明において、前記画像生成手段(104)は、少なくとも3つの画像信号の評価値を求めることにより、前記評価値が最大となる画像信号に対応する前記受光信号の選択形態を決定するように構成することができる。 [2] In the invention relating to the image composition device, the image generation means (104) obtains evaluation values of at least three image signals, whereby the light reception signal corresponding to the image signal having the maximum evaluation value is obtained. It can be configured to determine the selection form.
[3]上記画像合成装置に係る発明において、前記画像生成手段(104)は、前記受光信号に基づく画像のうちの所定の部分領域に対応する受光信号に基づいて、前記第1画像信号および前記第2画像信号を生成するように構成することができる。 [3] In the invention according to the image composition device, the image generation means (104) is configured to generate the first image signal and the image signal based on a light reception signal corresponding to a predetermined partial region of an image based on the light reception signal. A second image signal can be generated.
[4]上記画像合成装置に係る発明において、前記受光信号に基づく画像内の前記部分領域の位置を選択するための領域選択手段(104)をさらに備え、前記画像生成手段(104)は、前記領域選択手段による選択結果に応じて、前記所定の部分領域を決定するように構成することができる。 [4] In the invention relating to the image composition device, the image generation device (104) further includes a region selection unit (104) for selecting a position of the partial region in the image based on the light reception signal. The predetermined partial area can be determined in accordance with a selection result by the area selecting means.
[5]上記画像合成装置に係る発明において、前記領域選択手段(104)は、前記受光信号に基づく画像のシーンを認識する認識手段(104)を備え、前記画像生成手段(104)は、前記認識手段により認識されたシーンに応じて、前記所定の部分領域を決定するように構成することができる。 [5] In the invention according to the image composition device, the area selection unit (104) includes a recognition unit (104) for recognizing an image scene based on the light reception signal, and the image generation unit (104) The predetermined partial area can be determined according to the scene recognized by the recognition means.
[6]本発明に係る画像再生装置は、上記画像合成装置と、前記画像信号に基づく画像を表示する表示部(102)と、を備えることを特徴とする。 [6] An image reproduction device according to the present invention includes the image composition device and a display unit (102) for displaying an image based on the image signal.
[7]本発明に係る撮像装置は、複数のマイクロレンズ(212a)を二次元状に配列したマイクロレンズアレイ(212)、および前記複数のマイクロレンズに対して設けられた複数の光電変換素子(213a)を有し、前記マイクロレンズアレイを介して光学系からの光束を受光して得られた前記受光信号を、前記入力手段(101)に入力する撮像素子(211)と、を備えることを特徴とする。 [7] An imaging device according to the present invention includes a microlens array (212) in which a plurality of microlenses (212a) are two-dimensionally arranged, and a plurality of photoelectric conversion elements ( 213a), and an image sensor (211) that inputs the received light signal obtained by receiving the light beam from the optical system via the microlens array to the input means (101). Features.
本発明によれば、撮影画像中の特定の被写体について焦点の合った画像を適切に得ることができる。 According to the present invention, it is possible to appropriately obtain an image focused on a specific subject in a captured image.
以下、本発明の実施形態を図面に基づいて説明する。本実施形態の画像合成システムは、図1に示すパーソナルコンピュータ(パソコン)100と図2示すカメラ200とから構成される。また、本実施形態の画像合成システムは、カメラ200により撮影された撮影画像の画像データをパソコン100に取り込み、パソコン100において、取り込まれた撮影画像の画像データに基づいて、画像合成処理を行うシステムである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The image composition system according to this embodiment includes a personal computer (personal computer) 100 shown in FIG. 1 and a
図1は、本実施形態に係るパソコン100の構成を示すブロック図である。図1に示すように、パソコン100は、入力部101と、表示部102と、操作部103と、制御部104とを備えている。
FIG. 1 is a block diagram showing a configuration of a personal computer 100 according to the present embodiment. As shown in FIG. 1, the personal computer 100 includes an input unit 101, a
入力部101は、カメラ200で撮影された撮影画像の画像データを取得して、パソコン100に取り込み、取り込んだ撮影画像の画像データを、制御部104に送信する。ここで、入力部101としては、例えば、USBケーブルを介して外部機器を接続するためのUSBインターフェースを用いることができる。この場合、入力部101に、SDカードなどのメモリカードにデータを入出力するためのメモリカードリーダーを接続し、カメラ200で撮影された撮影画像の画像データを保存したメモリカードを、接続したメモリカードリーダーに挿入することで、入力部101は、カメラ200で撮影された撮影画像の画像データを取得することができる。なお、入力部101は、上述のUSBインターフェースに限定されず、例えば、メモリカードを直接挿入可能なインターフェースであってもよいし、有線または無線の通信回線(不図示)を介して、カメラ200から撮影画像の画像データを受信可能なインターフェースであってもよいし、あるいは所定のケーブルを介してカメラ200と直接接続することが可能なインターフェースであってもよい。
The input unit 101 acquires image data of a captured image captured by the
表示部102は、カメラ200で撮影された撮影画像の画像データに基づく画像を、表示部102が備えるディスプレイに表示する。なお、図3に、表示部102により表示される画像の一例を示す。
The
操作部103は、使用者が焦点を合わせたい被写体を選択する操作などの各種操作を行うために、使用者によって用いられるキーボード、マウス、およびタッチパネルなどの各種操作装置で構成される。例えば、操作部103を介して、使用者により、表示部102のディスプレイ上に表示される撮影画像中の被写体のうち、焦点を合わせたい被写体が選択された場合、選択された被写体に対応する撮影画像中の領域の情報が制御部104に送信され、後述する被写体領域として設定される。
The
制御部104は、メモリ、CPUその他の周辺部品から構成され、カメラ200で撮影された撮影画像の画像データを入力部101から取得し、取得した画像データに基づき、コントラストに関する焦点評価値の算出および評価を行う。さらに、制御部104は、焦点評価値の評価の結果に基づき、焦点評価値が最大となる像面位置に対応する画像の合成を行い、合成画像を得る。
The
また、制御部104は、操作部103を介して、使用者により、表示部102のディスプレイに表示された撮影画像中の被写体のうち焦点を合わせたい被写体が選択された場合には、撮影者により選択された被写体に対応する撮影画像中の領域を、被写体領域として設定する。例えば、図3に示す例において、使用者により焦点を合わせたい被写体として、表示部102のディスプレイに表示された街灯(ランプ)が選択された場合、制御部104は、図3に示すように、撮影画像中の街灯(ランプ)に対応する領域を、被写体領域として設定する。
In addition, when the user selects the subject to be focused from among the subjects in the captured image displayed on the display of the
次に、パソコン100において合成画像の合成に用いられる撮影画像を撮影するカメラ200について説明する。図2は、カメラ200の構成を示すブロック図である。図2に示すように、カメラ200は、カメラボディ210とレンズ鏡筒220とを備えている。
Next, a description will be given of the
レンズ鏡筒220には、レンズ221,222,223、および絞り224を含む撮影光学系が内蔵されている。
The
フォーカスレンズ222は、レンズ鏡筒220の光軸L1に沿って移動可能に設けられ、カメラボディ210側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、このフォーカスレンズ222の移動は、レンズ制御部227からの指令に基づいて制御され、レンズ駆動モータ226によりその位置が調節される。
The
絞り224は、上記撮影光学系を通過して、カメラボディ210に備えられた撮像素子211に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り224による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、レンズ制御部227を介して、カメラ制御部215から絞り駆動部225へ送信されることにより行われる。
The
一方、カメラボディ210には、被写体からの光束を受光する撮像素子211が、光軸L1上であって、撮影光学系の予定焦点面に設けられている。撮像素子211は二次元CCDイメージセンサ、MOSセンサまたはCIDなどのデバイスから構成され、受光した光信号を受光信号に変換する。ここで、図4は、撮像素子211の撮像面の部分拡大図である。図4に示すように、撮像素子211は、複数のマイクロレンズ212aを二次元状に稠密に配列したマイクロレンズアレイ212を備えている。また、撮像素子211は、各マイクロレンズ212aに対して、複数の光電変換素子213aから構成される各光電変換素子アレイ213を有している。なお、図4において、光電変換素子アレイ213を構成する光電変換素子213aの数(画素密度)は、縦方向および横方向ともに5個となっているが、これらの数は、特に限定されるものではない。
On the other hand, in the
さらに、図5は、撮像素子211の構成を説明するための図であり、図4と同様に、撮像素子211の撮像面を拡大した斜視図である。図5に示すように、光電変換素子アレイ213は、マイクロレンズアレイ212の後方に配置されおり、マイクロレンズアレイ212と光電変換素子アレイ213との間には、マイクロレンズ212aの焦点距離に対応する間隔が設けられている。そして、被写体からの光束(光軸L1)は、まずマイクロレンズ212aへと入射され、マイクロレンズ212aを通過して光電変換素子213aで受光される。各光電変換素子213aは受光した光の強度に応じた受光信号を出力し、出力された受光信号は、カメラ制御部215に送信される。
Further, FIG. 5 is a diagram for explaining the configuration of the
カメラ操作部214は、例えば、シャッターレリーズボタン、カメラ1の各種動作モードを設定するためのモード設定スイッチなどを備えており、カメラ操作部214により、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。
The
カメラ制御部215は、撮像素子211から得た受光信号について、A/D変換などの各種処理を施し、画像データとしてメモリ216に記憶させる他、撮像素子211から得た受光信号に基づいて、フォーカスレンズ212の駆動量を算出し、算出したフォーカスレンズ212の駆動量をレンズ制御部227に送信することにより、フォーカスレンズ212の駆動制御を行うなどカメラ1全体の動作の制御を行う。
The camera control unit 215 performs various processes such as A / D conversion on the light reception signal obtained from the
次に、本実施形態に係る画像合成システムの動作例を説明する。図6は、本実施形態に係る画像合成システムの動作例を示すフローチャートである。なお、以下においては、カメラ200で撮影された撮影画像の画像データが、パソコン100に取り込まれているものとして説明する。また、以下に説明する処理は、画像合成システムを構成するパソコン100により行われる。
Next, an operation example of the image composition system according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an operation example of the image composition system according to the present embodiment. In the following description, it is assumed that image data of a photographed image photographed by the
まず、ステップS101では、カメラ200で撮影された撮影画像が表示部102のディスプレイ上に表示される。例えば、操作部103を介して、使用者により、パソコン100に取り込まれた複数の撮影画像のうち、いずれかの撮影画像が選択された場合、選択された撮影画像が表示部102のディスプレイ上に表示される。なお、ここで用いられる画像データは、上述したように、図5に示すカメラ200の撮像素子211のマイクロレンズ212aを通過した光束を、各光電変換素子213aで受光することにより得られた受光信号に基づくものである。
First, in step S <b> 101, a photographed image photographed by the
続いて、ステップS102では、制御部104により、操作部103を介して、焦点を合わせたい被写体が選択されたか否かの判断が行われる。使用者により被写体が選択された場合はステップS103に進み、選択された被写体に対応する撮影画像中の領域が、被写体領域として設定される。このように被写体領域を設定することで、撮影画像中の全体の領域ではなく、使用者に選択された被写体に対応する被写体領域、すなわち、撮影画像中の一部の領域に対応する画像データに基づいて、後述する画像合成処理が行われることになる。例えば、図3に示す例において、使用者により、焦点を合わせたい被写体として撮影画像中の街灯(ランプ)が選択された場合、ステップS103に進み、図3に示すように、撮影画像中の街灯(ランプ)に対応する領域が、被写体領域として設定される。一方、使用者により被写体が選択されていない場合は、ステップS101に戻り、使用者により被写体が選択されるまで、待機する。
Subsequently, in step S <b> 102, the
ステップS104では、制御部104により、撮影画像の画像データに基づいて、画像合成範囲(合成画像信号を合成可能な範囲。詳細は後述する。)内の複数の像面位置に対応する像面の異なる複数の画像信号が、それぞれ合成画像信号として合成される。
In step S104, based on the image data of the photographed image, the
ここで、本実施形態で合成される複数の合成画像信号は、後述するステップS105における焦点評価値の算出、および、ステップS106の焦点評価値におけるピークの検出に用いられる。本実施形態においては、画像合成範囲内において合成される合成画像信号の数は、特に限定されないが、焦点評価値のピークを検出できる数であればよく、通常、3点以上である。 Here, the plurality of synthesized image signals synthesized in the present embodiment are used for calculation of a focus evaluation value in step S105 described later and detection of a peak in the focus evaluation value in step S106. In the present embodiment, the number of synthesized image signals to be synthesized within the image synthesis range is not particularly limited, but may be any number that can detect the peak of the focus evaluation value, and is usually three or more.
また、本実施形態において、合成画像信号は、撮影画像中の全ての領域ではなく、撮影画像中の全ての領域のうちステップS103で設定された被写体領域、すなわち、撮影画像中の一部の領域に対応する画像データに基づいて合成される。例えば、図3に示す例において、ステップS103で、図3に示す街灯(ランプ)に対応する撮影画像中の領域が被写体領域として設定された場合、ステップS104では、撮影画像中の全ての領域に対応する画像データではなく、画像データのうち、図3に示す被写体領域に対応するデータに基づいて、合成画像信号が合成される。 In the present embodiment, the composite image signal is not the entire region in the captured image, but the subject region set in step S103 among all the regions in the captured image, that is, a partial region in the captured image. Are synthesized based on the image data corresponding to. For example, in the example shown in FIG. 3, when an area in the captured image corresponding to the street lamp (lamp) shown in FIG. 3 is set as the subject area in step S103, all areas in the captured image are set in step S104. The synthesized image signal is synthesized based on the data corresponding to the subject region shown in FIG. 3 in the image data, not the corresponding image data.
さらに、本実施形態においては、それぞれ異なる複数の像面位置に対応する(像面位置に焦点の合った)複数の合成画像信号が、撮影画像の画像データに基づいて合成されるが、合成画像信号が合成される像面の範囲は、以下に説明する画像合成範囲となる。図7は、合成画像信号を合成可能な範囲である画像合成範囲について説明するための図であり、光電変換素子アレイ213を構成する複数の光電変換素子213aのうちの特定の光電変換素子c1に対してマイクロレンズ212aを介して入射する光束を示す図である。なお、図7においては、光電変換素子アレイ213を構成する各光電変換素子213aをa1,b1,c1,d1,e1で示した。本実施形態に係る撮像装置によって得られる像の分解能は、画素の単位であるマイクロレンズ1つ分に相当する。そのため、分解能を保ったまま像を合成できる像面の範囲は、図7に示すように、光電変換素子213aのマイクロレンズ212aによる逆投影像の大きさが、マイクロレンズ212aの有効径Dとほぼ同じになるマイクロレンズ212aからの距離Lとすることができる。すなわち、マイクロレンズ212aの有効径D(配列ピッチP>D)と同じ大きさの範囲からの光がマイクロレンズ212aを通過して1つの光電変換素子c1に入射すれば、画素の単位であるマイクロレンズの大きさに相当する分解能を得ることができる。よって、この距離Lを画像合成範囲となり、この画像合成範囲内の像面位置であれば、異なる複数の像面位置について、合成画像信号を合成することが可能となる。そのため、ステップS104においては、制御部104により、上述した画像合成範囲内において、複数の像面位置に対応する像面の異なる複数の合成画像信号が、以下に説明する画像合成方法に従って合成される。
Furthermore, in this embodiment, a plurality of synthesized image signals corresponding to a plurality of different image plane positions (focused on the image plane positions) are synthesized based on the image data of the captured image. The range of the image plane in which the signals are combined is an image combining range described below. FIG. 7 is a diagram for explaining an image composition range, which is a range in which a composite image signal can be synthesized, and a specific photoelectric conversion element c 1 among a plurality of
図8〜図10は、本実施形態における画像合成方法の一例を説明するための図である。図8に示す場面例では、マイクロレンズアレイ212からの像面の高さ(マイクロレンズアレイ212から距離)をZとした場合に、像面の高さZ=0である位置に画像合成の対象となる被写体が存在する場合である。図8においては、撮像素子211の各光電変換素子アレイ213について、各光電変換素子アレイ213を構成する光電変換素子213aのうち、5つの光電変換素子213aに入射する各光線(マイクロレンズアレイ212を構成するマイクロレンズ212aの中心を通る主光線のみ)を示した。また、図8中においては、各光電変換素子213aを識別するために、それぞれの光電変換素子213aを、a1〜e1、a2〜e2、a3〜e3、a4〜e4、a5〜e5で示すとともに、像面の高さZ=0における各座標X1、X2、X3、X4、X5のうち、X3からの射出光束(光線r1、r2、r3、r4、r5)を実線で示し、それ以外のX1、X2、X4、X5からの射出光束を点線で示した(以下、図9、図10においても同様。)。
8 to 10 are diagrams for explaining an example of the image composition method according to the present embodiment. In the example of the scene shown in FIG. 8, when the height of the image plane from the microlens array 212 (distance from the microlens array 212) is Z, the image synthesis target is positioned at a position where the height of the image plane Z = 0. This is a case where there is a subject to be. In FIG. 8, for each photoelectric
図8に示すように、像面の高さZ=0における座標X3からの射出光束(光線r1、r2、r3、r4、r5)は、各光電変換素子a3、b3、c3、d3、e3、にそれぞれ入射する。そのため、像面の高さZ=0における座標X3における画素値L(Z=0、X3)は、これら光電変換素子a3、b3、c3、d3、e3における出力を合成することにより求めることができる(下記式(1)参照)。
L(Z=0、X3)=Out(a3)+Out(b3)+Out(c3)+Out(d3)+Out(e3) …(1)
As shown in FIG. 8, the emitted light beams (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the height Z = 0 of the image plane are respectively converted into photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , and e 3 , respectively. Therefore, the pixel value L (Z = 0, X 3 ) at the coordinate X 3 at the height Z = 0 of the image plane combines the outputs at these photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , e 3 . (See the following formula (1)).
L (Z = 0, X 3 ) = Out (a 3 ) + Out (b 3 ) + Out (c 3 ) + Out (d 3 ) + Out (e 3 ) (1)
また、同様に、座標X3に隣接する座標X4における画素値L(Z=0、X4)は、下記式(2)に従って求めることができる。
L(Z=0、X4)=Out(a4)+Out(b4)+Out(c4)+Out(d4)+Out(e4) …(2)
Similarly, the pixel value L (Z = 0, X 4 ) at the coordinate X 4 adjacent to the coordinate X 3 can be obtained according to the following equation (2).
L (Z = 0, X 4 ) = Out (a 4 ) + Out (b 4 ) + Out (c 4 ) + Out (d 4 ) + Out (e 4 ) (2)
したがって、座標Xiにおける画素値L(Z=0、Xi)は、下記式(3)に従って、それぞれ求めることができる。
L(Z=0、Xi)=Out(ai)+Out(bi)+Out(ci)+Out(di)+Out(ei) …(3)
Therefore, the pixel value L (Z = 0, X i ) at the coordinate X i can be obtained according to the following equation (3).
L (Z = 0, X i ) = Out (a i ) + Out (b i ) + Out (c i ) + Out (d i ) + Out (e i ) (3)
なお、上記式(3)は、使用者による指定絞り値が開放(開口サイズ最大)であったときに採用される式である。そのため、仮に、使用者による指定絞り値が最大(開口サイズ最小)であったときには、光線r1、r2、r3、r4、r5からなる光束を、光線r3のみからなる光束に制限すればよいので、上記式(3)に代えて下記式(4)を採用すればよい(後述する図9、図10に示す場合においても同様。)。
L(Z=0、Xi)=Out(ci) …(4)
In addition, the said Formula (3) is a formula employ | adopted when the designated aperture value by a user is open | released (opening size maximum). Therefore, if the aperture value designated by the user is the maximum (minimum aperture size), the light beam composed of the light beams r 1 , r 2 , r 3 , r 4 , r 5 is changed to the light beam composed only of the light beam r 3. Therefore, the following formula (4) may be adopted instead of the above formula (3) (the same applies to the cases shown in FIGS. 9 and 10 described later).
L (Z = 0, X i ) = Out (c i ) (4)
また、絞り値が中間値(開口サイズ中間)であったときには、光線r1、r2、r3、r4、r5からなる光束を、光線r2、r3、r4のみからなる光束に制限すればよいので、上記式(3)に代えて下記式(5)を採用すればよい(後述する図9、図10に示す場合においても同様。)。
L(Z=0、Xi)=Out(bi)+Out(ci)+Out(di) …(5)
When the aperture value is an intermediate value (intermediate aperture size), a light beam composed of the light beams r 1 , r 2 , r 3 , r 4 , and r 5 is converted into a light beam composed of only the light beams r 2 , r 3 , and r 4 Therefore, the following equation (5) may be adopted instead of the above equation (3) (the same applies to the cases shown in FIGS. 9 and 10 described later).
L (Z = 0, X i ) = Out (b i ) + Out (c i ) + Out (d i ) (5)
なお、上記説明においては、或る1方向に並ぶ5つの光電変換素子a3、b3、c3、d3、e3のみに着目し、それら5つの光電変換素子の出力値の和をとったが、実際は、2方向に並ぶ25個の光電変換素子の出力値の和をとる必要がある(後述する図9、図10に示す場合においても同様。)。 In the above description, only the five photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , and e 3 arranged in a certain direction are focused on, and the sum of the output values of these five photoelectric conversion elements is taken. However, actually, it is necessary to take the sum of the output values of 25 photoelectric conversion elements arranged in two directions (the same applies to the cases shown in FIGS. 9 and 10 described later).
次いで、図9に示すように、像面の高さZ=h1である位置に画像合成の対象となる被写体が存在する場合について説明する。図9に示すように、像面の高さZ=h1における座標X3からの射出光束(光線r1、r2、r3、r4、r5)は、図8の場合と異なり、各光電変換素子a1、b2、c3、d4、e5にそれぞれ入射する。そのため、像面の高さZ=h1における座標X3における画素値L(Z=h1、X3)は、これら光電変換素子a1、b2、c3、d4、e5における出力を合成することにより求めることができる(下記式(6)参照)。
L(Z=h1、X3)=Out(a1)+Out(b2)+Out(c3)+Out(d4)+Out(e5) …(6)
Next, as shown in FIG. 9, a case will be described in which a subject to be image-combined exists at a position where the image plane height Z = h 1 . As shown in FIG. 9, the emitted light beam (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the image plane height Z = h 1 is different from the case of FIG. The light enters the photoelectric conversion elements a 1 , b 2 , c 3 , d 4 , and e 5 . Therefore, the pixel value L (Z = h 1 , X 3 ) at the coordinate X 3 at the height Z = h 1 of the image plane is the output from the photoelectric conversion elements a 1 , b 2 , c 3 , d 4 , e 5 . Can be obtained by synthesizing (see the following formula (6)).
L (Z = h 1 , X 3 ) = Out (a 1 ) + Out (b 2 ) + Out (c 3 ) + Out (d 4 ) + Out (e 5 ) (6)
さらに、図10に示すように、像面の高さZ=h2である位置に合成対象となる被写体が存在する場合について説明する。図10に示すように、像面の高さZ=h2における座標X3からの射出光束(光線r1、r2、r3、r4、r5)は、図8、図9の場合と異なり、複数の光電変換素子にまたがって入射することとなる。具体的には、図10に示すように、光線r1は光電変換素子a1、b1に、光線r2は光電変換素子b2、c2に、光線r4は光電変換素子c4、d4に、光線r5は光電変換素子d5、e5に、それぞれまたがって入射する。なお、光線r3は、図10に示すように光電変換素子c3にのみ入射する。そのため、光線r1に着目すると、光線r1の光量は、光電変換素子a1の出力値Out(a1)と、光電変換素子b1の出力値Out(b1)との重み付け和によって求めることができる(下記式(7)参照)。ここで、下記式(7)において、w11、w12は、重み係数であり、マイクロレンズアレイ212からの像面の高さZに応じて決まる係数である。
Out(a1)×w11+Out(b1)×w12 …(7)
Further, as shown in FIG. 10, a case where a subject to be synthesized exists at a position where the height Z of the image plane is Z = h 2 will be described. As shown in FIG. 10, the emitted light beam (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the height Z = h 2 of the image plane is the case of FIGS. Unlike the case, the light enters across a plurality of photoelectric conversion elements. Specifically, as shown in FIG. 10, the light beam r 1 is converted into photoelectric conversion elements a 1 and b 1 , the light beam r 2 is converted into photoelectric conversion elements b 2 and c 2 , and the light beam r 4 is converted into a photoelectric conversion element c 4 , The light beam r 5 enters the photoelectric conversion elements d 5 and e 5 across d 4 and d 4 , respectively. The light beam r 3 is incident only on the photoelectric conversion element c 3 as shown in FIG. Therefore, when focusing on the light r 1, the light quantity of the light rays r 1 is determined by the weighted sum of the output value of the photoelectric conversion elements a 1 Out (a 1), the output value of the photoelectric conversion elements b 1 Out (b 1) (See the following formula (7)). Here, in the following formula (7), w 11 and w 12 are weighting coefficients, which are determined according to the height Z of the image plane from the
Out (a 1 ) × w 11 + Out (b 1 ) × w 12 (7)
そして、光線r2、光線r4、光線r5の光量も、同様に重み付け和によって求めることができるため、像面の高さZ=h2における座標X3における画素値L(Z=h2、X3)は、下記式(8)に従って求めることができる。なお、下記式(8)において、W21、W22、W41、W42、W51、W52は、重み係数であり、マイクロレンズアレイ212からの像面の高さZに応じて決まる係数である。
L(Z=h2、X3)=〔Out(a1)×w11+Out(b1)×w12〕+〔Out(b2)×W21+Out(c2)×w22〕+Out(c3)+〔Out(c4)×W41+Out(d4)×W42〕+〔Out(d5)×W51+Out(e5)×W52〕 …(8)
Since the light amounts of the light beam r 2 , the light beam r 4 , and the light beam r 5 can be similarly obtained by weighted sum, the pixel value L (Z = h 2) at the coordinate X 3 at the height Z = h 2 of the image plane. , X 3 ) can be determined according to the following formula (8). In the following equation (8), W 21 , W 22 , W 41 , W 42 , W 51 , W 52 are weighting factors, and are determined according to the height Z of the image plane from the
L (Z = h 2 , X 3 ) = [Out (a 1 ) × w 11 + Out (b 1 ) × w 12 ] + [Out (b 2 ) × W 21 + Out (c 2 ) × w 22 ] + Out ( c 3 ) + [Out (c 4 ) × W 41 + Out (d 4 ) × W 42 ] + [Out (d 5 ) × W 51 + Out (e 5 ) × W 52 ] (8)
このように、画像合成の対象となる被写体が存在する像面位置Zに応じて、被写体からの光束の入射する光電変換素子213a、および画像合成に必要な重み付け係数の値が決まってくることとなる。なお、各像面位置Zに対応する、被写体からの光束の入射する光電変換素子112a、および画像合成に必要な重み付け係数の値は、たとえば、制御部104の備えるメモリなどに予め記憶させておき、これを利用するような構成とすればよい。
As described above, the
以上のように、制御部104は、複数の光電変換素子112aから得られた受光信号に基づく画像データを用いて、所定の像面位置Zに対応する合成画像信号を合成することができる。そのため、ステップS104においては、制御部104により、上述した画像合成方法に従い、画像合成範囲内の複数の像面に位置対応する像面の異なる複数の合成画像信号の合成が行われる。
As described above, the
次に、ステップS105では、制御部104により、ステップS104で合成された複数の合成画像信号のそれぞれについて、合成画像信号のコントラストに関する焦点評価値が算出される。焦点評価値は、例えば、合成した合成画像信号の空間周波数から高周波成分を、高周波透過フィルタを用いて抽出し、抽出された高周波成分の絶対値を積算することで求められる。また、焦点評価値は、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、抽出された高周波成分の絶対値のそれぞれを積算することで求めてもよい。
Next, in step S105, the
ステップS106では、制御部104により、画像合成範囲内において焦点評価値のピークの検出が行われ、画像合成範囲内において焦点評価値のピークが検出されたか否か判断される。具体的には、ステップS106において、制御部104は、ステップS105で算出した少なくても3つの焦点評価値に基づいて、3点内挿法により、焦点評価値のピークの検出を行う。そして、画像合成範囲内において焦点評価値のピークを検出できた場合は、画像合成範囲内に被写体に対応する像面位置が存在すると判断し、ステップS107に進み、一方、焦点評価値のピークを検出できない場合は、画像合成範囲内に被写体に対応する像面位置が存在しないと判断し、ステップS110に進む。
In step S106, the
ステップS107では、制御部104により、焦点評価値のピークに基づいて、焦点評価値が最大となる像面位置の検出が行われる。具体的には、まず、制御部104により、撮影画像の画像データに基づき、複数の合成画像信号(被写体領域に対応する合成画像信号)が合成される。ここで、ステップS107では、焦点評価値が最大となる像面位置を得るため、通常、ステップS104で合成した合成画像信号よりも多くの像面位置に対応する合成画像信号が合成される。そして、合成された合成画像信号の焦点評価値に基づいて、焦点評価値が最大となる像面位置の検出が行われる。また、ステップS107では、使用者により選択された被写体に焦点の合った画像を得るため、使用者により選択された被写体に対応する被写体領域について、焦点評価値が最大となる像面位置の検出が行われる。
In step S107, the
そして、ステップS108では、ステップS107で検出された焦点評価値が最大となる像面位置に対応する画像が合成画像として合成され、続くステップS109では、ステップS108で合成された合成画像が、表示部102のディスプレイに表示される。これにより、使用者は、選択した被写体について焦点の合った画像を得ることができる。 In step S108, an image corresponding to the image plane position with the maximum focus evaluation value detected in step S107 is combined as a combined image. In subsequent step S109, the combined image combined in step S108 is displayed on the display unit. 102 is displayed on the display. As a result, the user can obtain a focused image of the selected subject.
一方、ステップS106で焦点評価値のピークを検出できない場合はステップS110に進む。ステップS110では、制御部104により、焦点評価値のピークの探索を終了するか否か判断される。例えば、画像合成範囲の全ての範囲において焦点評価値のピークを検出できない場合は、焦点評価値のピークの探索を終了すると判断し(ステップS110=YES)、ステップS112に進み、焦点評価値のピークの検出を終了し、使用者が選択した被写体に焦点を合わせることができない旨のエラーを、表示部102のディスプレイに表示する。これに対して、画像合成範囲の全ての範囲において焦点評価値のピークの検出が行われていない場合は、焦点評価値のピークの探索を続行すると判断し(ステップS110=NO)、ステップS111に進む。例えば、画像合成範囲のうちの一部の範囲において焦点評価値のピークを検出できなかった場合であり、かつ、画像合成範囲において焦点検出のピークの検出が行われていない範囲がある場合には、画像合成範囲のうち焦点評価値のピークの検出が行なわれていない残りの範囲について、焦点評価値のピークの検出を行うため、焦点評価値のピークの探索を続行すると判断し(ステップS110=NO)、ステップS111に進む。
On the other hand, if the focus evaluation value peak cannot be detected in step S106, the process proceeds to step S110. In step S110, the
ステップS111では、画像合成範囲のうち既に合成された合成画像信号の像面位置とは異なる新たな像面位置についての合成画像信号の合成が行われる。そして、新たな像面位置に対応する合成画像信号について焦点評価値が算出され(ステップS105)、新たな像面位置に対応する合成画像信号の焦点評価値を用いて、焦点評価値のピークの検出が行われる(ステップS106)。このように、本実施形態では、焦点評価値のピークが検出されるまで、画像合成範囲内の異なる像面位置に対応する合成画像信号の合成(ステップS111)と、焦点評価値のピークの検出(ステップS106)とが、繰り返し行われる。そして、焦点評価値のピークが検出された場合(ステップS106=YES)は、焦点評価値のピークに基づいて、焦点評価値が最大となる像面位置が検出され(ステップS107)、焦点評価値が最大となる像面位置に対応する合成画像の合成および表示が行われる(ステップS108、S109)。一方、画像合成範囲の全ての範囲において焦点評価値のピークが検出されなかった場合(ステップS110=YES)は、その旨のエラーが表示部102のディスプレイに表示される(ステップS112)。 In step S111, the synthesized image signal is synthesized for a new image plane position that is different from the image plane position of the synthesized image signal that has already been synthesized in the image synthesis range. Then, a focus evaluation value is calculated for the composite image signal corresponding to the new image plane position (step S105), and the focus evaluation value peak of the focus evaluation value is calculated using the focus evaluation value of the composite image signal corresponding to the new image plane position. Detection is performed (step S106). As described above, in this embodiment, until a focus evaluation value peak is detected, synthesis of synthesized image signals corresponding to different image plane positions in the image synthesis range (step S111) and detection of the focus evaluation value peak are performed. (Step S106) is repeated. If the peak of the focus evaluation value is detected (step S106 = YES), the image plane position where the focus evaluation value is maximized is detected based on the peak of the focus evaluation value (step S107). The composite image corresponding to the image plane position where the maximum is is synthesized and displayed (steps S108 and S109). On the other hand, when the focus evaluation value peak is not detected in the entire range of the image synthesis range (step S110 = YES), an error to that effect is displayed on the display of the display unit 102 (step S112).
以上のように、本実施形態では、カメラ200において撮影された撮影画像の画像データをパソコン100に取り込み、パソコン100において、取り込んだ撮影画像の画像データに基づいて、複数の像面位置に対応する像面の異なる複数の合成画像信号を合成し、合成した合成画像信号の焦点評価値に基づいて、画像合成範囲内において焦点評価値が最大となる像面位置の検出を行い、焦点評価値が最大となる像面位置に対応する合成画像を合成する。このように、本実施形態では、撮影画像の画像データに基づいて、複数の像面位置に対応する像面の異なる複数の合成画像信号を合成し、合成画像信号の焦点評価値に基づく焦点検出を行うことで、撮影画像中の被写体に焦点の合う像面位置を検出することができ、撮影画像中の被写体に焦点の合った画像を適切に合成することができる。
As described above, in the present embodiment, image data of a captured image captured by the
特に、本実施形態では、使用者により選択された被写体に対応する撮影画像中の領域を、被写体領域として設定し、この被写体領域に対応する画像データに基づいて、合成画像信号を合成する。そして、この被写体領域において合成画像信号の焦点評価値が最大となる像面位置を検出し、被写体領域において焦点評価値が最大となる像面位置に対応する合成画像を合成する。これにより、本実施形態では、使用者により選択された特定の被写体について焦点の合った画像を得ることができる。さらに、撮影画像中の領域のうち被写体領域について合成画像信号を合成することで、撮影画像中の全ての領域について合成画像信号を合成する場合と比べて、処理負担を軽減し、使用者により選択された特定の被写体について焦点が合った画像を迅速に合成することができる。 In particular, in the present embodiment, an area in the captured image corresponding to the subject selected by the user is set as the subject area, and a composite image signal is synthesized based on the image data corresponding to the subject area. Then, an image plane position at which the focus evaluation value of the composite image signal is maximum in this subject area is detected, and a composite image corresponding to the image plane position at which the focus evaluation value is maximum in the subject area is synthesized. Thereby, in this embodiment, the focused image can be obtained about the specific subject selected by the user. Furthermore, by combining the composite image signal for the subject area among the areas in the captured image, the processing burden is reduced compared with the case of combining the composite image signal for all the areas in the captured image, and the user selects It is possible to quickly synthesize an image focused on a specific subject.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
例えば、本実施形態では、操作部103を介して、使用者により選択された画像内の所定の領域を被写体領域として設定しているが、被写体領域を設定する方法は特に限定されず、例えば、制御部104が、撮影画像の画像データに基づいてシーンを認識し、認識したシーンに応じた画像内の所定の領域を被写体領域として設定してもよい。具体的には、制御部104が、撮影画像の画像データに基づいて、人物を撮像しているシーンと認識した場合、テンプレートマッチングなどにより、その人物の顔部分を認識し、認識した顔部分を被写体領域として設定することができる。また、操作部103を介して使用者がシーンを選択可能な場合は、使用者により選択されたシーンに応じて、被写体領域を設定してもよい。なお、シーンを認識する際に、撮影画像の画像データに基づいて、焦点深度の深いパンフォーカスの画像信号を合成し、このパンフォーカスの画像信号に基づいて、シーン認識を行ってもよい。これにより、シーンをより適切に認識することができる。
For example, in the present embodiment, a predetermined area in the image selected by the user is set as the subject area via the
また、本実施形態では、単一の画像データを用いて、図6に示す画像合成処理を行う例を示したが、カメラ1の動作はこれに限定されるものではなく、例えば、同じ構図を異なるフォーカスレンズ位置で連続して撮影して得られた複数の撮影画像の画像データが、互いに関連付けられた状態で、パソコン100に取り込まれている場合には、これら複数の画像データを用いて画像合成処理を行う構成としてもよい。この場合、あるフォーカスレンズ位置において得られた画像データに基づく画像合成範囲内において、焦点評価値のピークを検出することができない場合でも、焦点評価値のピークの探索を終了すると判断する(ステップS110=YES)ことなく、関連付けられた他の画像データ(異なるフォーカスレンズ位置で得られた別の画像データ)を用いて、焦点評価値のピークの検出を行う構成とすることができる。これにより、使用者は、撮影画像中の被写体に焦点の合った画像をより適切に得ることができる。 Further, in the present embodiment, an example in which the image composition processing shown in FIG. 6 is performed using a single image data is shown, but the operation of the camera 1 is not limited to this, and for example, the same composition is used. When image data of a plurality of captured images obtained by continuously capturing images at different focus lens positions are captured in the personal computer 100 in a state of being associated with each other, an image is generated using the plurality of image data. It is good also as a structure which performs a synthetic | combination process. In this case, it is determined that the search for the peak of the focus evaluation value is finished even if the peak of the focus evaluation value cannot be detected within the image composition range based on the image data obtained at a certain focus lens position (step S110). (= YES), the peak of the focus evaluation value can be detected using other associated image data (other image data obtained at different focus lens positions). Thereby, the user can more appropriately obtain an image focused on the subject in the captured image.
さらに、上述した実施形態のステップS105〜ステップS111において、偽合焦を防止するための処理やフィルタ処理などの焦点評価値を用いた焦点検出処理において行われる公知の処理を、適宜行ってもよい。 Furthermore, in step S105 to step S111 of the above-described embodiment, a known process performed in a focus detection process using a focus evaluation value such as a process for preventing false focusing or a filter process may be appropriately performed. .
なお、本実施形態では、パソコン100において、撮影画像に基づいて、所定の被写体に焦点の合った画像を合成しているが、このような処理を行う装置はパソコン100に限られず、例えば、上述した方法により、所定の被写体に焦点の合った画像を合成可能なカメラ、またはプリンタ(画像出力装置)などであってもよい。 In the present embodiment, the personal computer 100 synthesizes an image focused on a predetermined subject based on the photographed image. However, the apparatus that performs such processing is not limited to the personal computer 100, for example, In this way, a camera or a printer (image output device) that can synthesize an image focused on a predetermined subject may be used.
また、本実施形態のカメラ200も特に限定されず、例えば、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、デジタルビデオカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。
Also, the
100…パーソナルコンピュータ(パソコン)
101…入力部
102…表示部
103…操作部
104…制御部
200…カメラ
210…カメラボディ
211…撮像素子
212…マイクロレンズアレイ
212a…マイクロレンズ
213…光電変換素子アレイ
213a…光電変換素子
214…カメラ操作部
215…カメラ制御部
216…メモリ
220…鏡筒
222…フォーカスレンズ
224…絞り
225…絞り駆動部
226…レンズ駆動モータ
227…レンズ制御部
100 ... Personal computer (PC)
DESCRIPTION OF SYMBOLS 101 ...
213a ...
Claims (7)
前記複数の受光信号の一部を、第1の選択形態により選択して得られる第1画像信号と、前記第1の選択形態とは異なる第2の選択形態により選択して得られる第2画像信号と、を生成するとともに、
前記第1画像信号のコントラストに関する評価値と、前記第2画像信号のコントラストに関する評価値とに基づいて、前記評価値が最大となる画像信号を生成する画像生成手段と、を備えることを特徴とする画像合成装置。 Input means for inputting a plurality of light receiving signals obtained by receiving the light flux;
A first image signal obtained by selecting a part of the plurality of received light signals according to a first selection form, and a second image obtained by selecting according to a second selection form different from the first selection form A signal, and
Image generating means for generating an image signal that maximizes the evaluation value based on an evaluation value related to the contrast of the first image signal and an evaluation value related to the contrast of the second image signal. An image composition device.
前記画像生成手段は、少なくとも3つの画像信号の評価値を求めることにより、前記評価値が最大となる画像信号に対応する前記受光信号の選択形態を決定することを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
The image generating device determines the selection form of the received light signal corresponding to the image signal having the maximum evaluation value by obtaining evaluation values of at least three image signals.
前記画像生成手段は、前記受光信号に基づく画像のうちの所定の部分領域に対応する受光信号に基づいて、前記第1画像信号および前記第2画像信号を生成することを特徴とする画像合成装置。 The image composition device according to claim 1 or 2,
The image generating device generates the first image signal and the second image signal based on a light reception signal corresponding to a predetermined partial region of an image based on the light reception signal. .
前記受光信号に基づく画像内の前記部分領域の位置を選択するための領域選択手段をさらに備え、
前記画像生成手段は、前記領域選択手段による選択結果に応じて、前記所定の部分領域を決定することを特徴とする画像合成装置。 The image composition device according to claim 3.
Further comprising region selection means for selecting the position of the partial region in the image based on the received light signal;
The image synthesizing apparatus, wherein the image generation means determines the predetermined partial area in accordance with a selection result by the area selection means.
前記領域選択手段は、前記受光信号に基づく画像のシーンを認識する認識手段を備え、
前記画像生成手段は、前記認識手段により認識されたシーンに応じて、前記所定の部分領域を決定することを特徴とする画像合成装置。 The image composition device according to claim 4, wherein
The region selection means includes a recognition means for recognizing an image scene based on the light reception signal,
The image synthesizing apparatus according to claim 1, wherein the image generating unit determines the predetermined partial area in accordance with a scene recognized by the recognizing unit.
前記画像信号に基づく画像を表示する表示部と、を備えることを特徴とする画像再生装置。 An image composition device according to any one of claims 1 to 5,
And a display unit that displays an image based on the image signal.
複数のマイクロレンズを二次元状に配列したマイクロレンズアレイ、および前記複数のマイクロレンズに対して設けられた複数の光電変換素子を有し、前記マイクロレンズアレイを介して光学系からの光束を受光して得られた前記受光信号を、前記入力手段に入力する撮像素子と、を備えることを特徴とする撮像装置。 An image composition device according to any one of claims 1 to 5,
A microlens array in which a plurality of microlenses are arranged two-dimensionally, and a plurality of photoelectric conversion elements provided for the plurality of microlenses, and receives a light beam from an optical system via the microlens array An image pickup device comprising: an image pickup device that inputs the received light signal obtained as described above to the input means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009267292A JP5526733B2 (en) | 2009-11-25 | 2009-11-25 | Image composition device, image reproduction device, and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009267292A JP5526733B2 (en) | 2009-11-25 | 2009-11-25 | Image composition device, image reproduction device, and imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011113174A true JP2011113174A (en) | 2011-06-09 |
JP5526733B2 JP5526733B2 (en) | 2014-06-18 |
Family
ID=44235480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009267292A Active JP5526733B2 (en) | 2009-11-25 | 2009-11-25 | Image composition device, image reproduction device, and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5526733B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013246375A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Image capturing device and control method therefor |
JP2013247590A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Imaging apparatus and method of controlling the same |
JP2014029429A (en) * | 2012-07-31 | 2014-02-13 | Canon Inc | Imaging device, control method, and program |
US9131145B2 (en) | 2012-08-10 | 2015-09-08 | Canon Kabushiki Kaisha | Image pickup apparatus and control method therefor |
US9667852B2 (en) | 2012-06-07 | 2017-05-30 | Canon Kabushiki Kaisha | Image pickup apparatus having in-focus operation based on one focus detection area and method for controlling same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004135029A (en) * | 2002-10-10 | 2004-04-30 | Fuji Photo Film Co Ltd | Digital camera |
JP2007004471A (en) * | 2005-06-23 | 2007-01-11 | Nikon Corp | Image composition method and imaging apparatus |
JP2009088742A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Imaging apparatus, imaging control program, and imaging method |
JP2009103912A (en) * | 2007-10-23 | 2009-05-14 | Olympus Corp | Image pickup apparatus |
-
2009
- 2009-11-25 JP JP2009267292A patent/JP5526733B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004135029A (en) * | 2002-10-10 | 2004-04-30 | Fuji Photo Film Co Ltd | Digital camera |
JP2007004471A (en) * | 2005-06-23 | 2007-01-11 | Nikon Corp | Image composition method and imaging apparatus |
JP2009088742A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Imaging apparatus, imaging control program, and imaging method |
JP2009103912A (en) * | 2007-10-23 | 2009-05-14 | Olympus Corp | Image pickup apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013246375A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Image capturing device and control method therefor |
JP2013247590A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Imaging apparatus and method of controlling the same |
US9667852B2 (en) | 2012-06-07 | 2017-05-30 | Canon Kabushiki Kaisha | Image pickup apparatus having in-focus operation based on one focus detection area and method for controlling same |
JP2014029429A (en) * | 2012-07-31 | 2014-02-13 | Canon Inc | Imaging device, control method, and program |
US9131145B2 (en) | 2012-08-10 | 2015-09-08 | Canon Kabushiki Kaisha | Image pickup apparatus and control method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP5526733B2 (en) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5178553B2 (en) | Imaging device | |
US20120105590A1 (en) | Electronic equipment | |
JP6159097B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2010093422A (en) | Imaging apparatus | |
US9681042B2 (en) | Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus | |
US8542291B2 (en) | Imaging apparatus and image playing apparatus having a control device that determines whether an image plane is within a range | |
JP2009115893A (en) | Image-pickup apparatus | |
JP5750551B2 (en) | Apparatus and method for measuring distance of multiple subjects | |
JP2016024489A (en) | Image processing apparatus, imaging device, image processing method, and program | |
WO2017077906A1 (en) | Information processing device, information processing method, and program | |
JP5434503B2 (en) | Image composition device and imaging device | |
JP2007043637A (en) | Image pick-up apparatus, image pick-up program, and image processing program | |
JP5526733B2 (en) | Image composition device, image reproduction device, and imaging device | |
JP2010091669A (en) | Imaging device | |
JP2016219991A (en) | Image processor and control method thereof and program | |
JP6534456B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6534455B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2020193820A (en) | Measurement device, imaging device, control method, and program | |
JP6494059B2 (en) | Information processing apparatus, information processing method, and program | |
JP6071748B2 (en) | Imaging apparatus and control method thereof | |
JP2018010245A (en) | Signal processor and control method therefor | |
JP2010109921A (en) | Image synthesizing apparatus | |
JP6882016B2 (en) | Imaging device, imaging system, imaging device control method, and program | |
JP2009047735A (en) | Imaging apparatus and image processing program | |
JP6336284B2 (en) | Image processing apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5526733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |