JP5348258B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5348258B2 JP5348258B2 JP2012015260A JP2012015260A JP5348258B2 JP 5348258 B2 JP5348258 B2 JP 5348258B2 JP 2012015260 A JP2012015260 A JP 2012015260A JP 2012015260 A JP2012015260 A JP 2012015260A JP 5348258 B2 JP5348258 B2 JP 5348258B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- photoelectric conversion
- defocus
- pair
- conversion units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
Description
本発明は、撮像された画像に処理を施す撮像装置、画像処理装置および画素処理方法に関する。 The present invention relates to an imaging apparatus, an image processing apparatus, and a pixel processing method that perform processing on a captured image.
所定の視差を有する一対の撮影レンズで同時に一対の画像を撮影し、これらの一対の画像に基づいて求められた被写界の距離分布に基づいて、一対の画像の内の一方の画像に対しボケを付加する画像処理を施すようにした画像処理装置が知られている(例えば、特許文献1参照)。この出願の発明に関連する先行技術文献としては次のものがある。 A pair of photographing lenses having a predetermined parallax are photographed at the same time, and one of the pair of images is obtained based on the distance distribution of the object scene obtained based on the pair of images. An image processing apparatus that performs image processing for adding blur is known (for example, see Patent Document 1). Prior art documents related to the invention of this application include the following.
しかし、上述した従来の画像処理装置には次のような問題がある。
ボケ量はデフォーカス量(予定結像面と実際の結像面との差)に比例するので、ボケ量を演算する過程でデフォーカス量を算出する必要があるが、被写体距離のみに基づいて直接的にデフォーカス量を算出することはできない。ピントを合わせたい主要被写体の距離(合焦距離)を指定し、合焦距離と被写体距離の差に基づいてデフォーカス量を算出する必要がある。したがって、合焦距離を入力する装置が必要になるとともに、合焦距離の誤差に応じてデフォーカス量およびボケ量も誤差を生じる。
また、合焦距離と被写体距離の差に基づいてデフォーカス量を算出する過程においては、撮影レンズの焦点距離等の光学パラメータが必要となる。光学的パラメータを入力する入力装置が必要になるとともに、光学的パラメータの誤差に応じてデフォーカス量およびボケ量も誤差を生じる。
However, the above-described conventional image processing apparatus has the following problems.
Since the blur amount is proportional to the defocus amount (difference between the planned image plane and the actual image plane), it is necessary to calculate the defocus amount in the process of calculating the blur amount, but based only on the subject distance The defocus amount cannot be calculated directly. It is necessary to specify the distance (focus distance) of the main subject to be focused and calculate the defocus amount based on the difference between the focus distance and the subject distance. Therefore, a device for inputting the in-focus distance is required, and an error occurs in the defocus amount and the blur amount in accordance with the in-focus distance error.
Further, in the process of calculating the defocus amount based on the difference between the focus distance and the subject distance, optical parameters such as the focal length of the photographing lens are required. An input device for inputting an optical parameter is required, and the defocus amount and the blur amount also cause an error according to the error of the optical parameter.
請求項1の発明による撮像装置は、撮影光学系を通過する被写体光束による被写体像を前記撮影光学系の予定焦点面に設定された撮像画面領域において撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮影光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して前記撮像画面に形成される画像を合成画像として生成する画像合成手段と、前記画像合成手段が用いたデータと同一の前記第1の画像データと前記第2の画像データとに基づき、前記撮像画面全体を複数の小領域に分割した際の各々の小領域における前記撮影光学系より形成された合焦像面と前記予定焦点面とのデフォーカス量を算出する焦点検出手段と、前記撮像画面内に設定された焦点検出領域において前記焦点検出手段によって算出されたデフォーカス量に基づき、前記撮影光学系の焦点調節を行う焦点調節手段と、前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、前記類別手段によって類別されたデフォーカス属性に基づき、前記複数の小領域を複数のグループに分けるグループ化手段と、前記撮影光学系の絞り開口F値を設定する絞り開口F値設定手段と、前記絞り開口F値設定手段により設定された絞り開口F値となるように前記撮影光学系の絞り開口径を制御する絞り開口制御手段と、前記絞り開口F値設定手段により設定された絞り開口F値が前記撮影光学系の絞り開放F値を越えて小さな値となった場合に、前記グループ化手段によって複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、を備えることを特徴とする。
請求項3の発明による撮像装置は、撮影光学系を通過する被写体光束による被写体像を撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮影光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、前記類別手段によって類別されたデフォーカス属性に基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、撮影動作を開始させるレリーズ操作部材と、前記レリーズ操作部材の操作に応じて前記複数の第1の光電変換部から出力される出力信号による第1の画像データと前記複数の第2の光電変換部から出力される出力信号による第2の画像データとを記憶媒体に記録する記録手段と、を備えることを特徴とする。
The imaging apparatus according to the invention of
An image pickup apparatus according to a third aspect of the present invention is an image pickup device that picks up a subject image by a subject light beam passing through a photographing optical system, and a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged. Each of the microlenses divides the luminous flux of the subject into a pair of luminous fluxes that respectively pass through a pair of pupil regions of the pupil of the photographing optical system, and the plurality of photoelectric conversion units are arranged in one of the pair of luminous fluxes. An imaging device including a plurality of first photoelectric conversion units that receive a plurality of light beams and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams, and the plurality of first photoelectric conversions Image synthesizing means for generating a synthesized image by adding the first image data based on the output signal of the unit and the second image data based on the output signals of the plurality of second photoelectric conversion units; and the first image data And the second Based on the image data, a focus detection unit that calculates a defocus amount in each of a plurality of small areas in the imaging screen, and the plurality of small regions according to the magnitude of the defocus amount calculated by the focus detection unit Classifying means for classifying an area into any one of a plurality of defocus attributes, and the group of the combined image portions respectively corresponding to small areas divided into a plurality of groups based on the defocus attributes classified by the classification means Image processing means for performing image processing according to the defocus attribute, display means for displaying the composite image processed by the image processing means as a through image, a release operation member for starting a photographing operation, and the release First image data based on an output signal output from the plurality of first photoelectric conversion units according to operation of the operation member and the previous image data Characterized in that it comprises a recording means for recording the plurality of second second image data and a storage medium by an output signal outputted from the photoelectric conversion unit.
本発明によれば、得られた画像に対して簡単な構成で精度よくボケを付加することができる。 According to the present invention, it is possible to add blur to an obtained image with high accuracy with a simple configuration.
本願発明の画像処理装置を備えた撮像装置を、デジタルスチルカメラに適用した一実施の形態を説明する。図1は一実施の形態の構成を示す。一実施の形態のデジタルスチルカ
メラ201は交換レンズ202とカメラボディ203から構成され、交換レンズ202はマウント部204によりカメラボディ203に装着される。
An embodiment in which an imaging apparatus including an image processing apparatus according to the present invention is applied to a digital still camera will be described. FIG. 1 shows the configuration of an embodiment. A
交換レンズ202はレンズ駆動制御装置206、絞り207、ズーミング用レンズ208、レンズ209、フォーカシング用レンズ210などを備えている。レンズ駆動制御装置206は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ210と絞り207の駆動制御、絞り207、ズーミング用レンズ208およびフォーカシング用レンズ210の状態検出、後述するボディ駆動制御装置214に対するレンズ情報の送信とカメラ情報の受信などを行う。
The
カメラボディ203は撮像素子211、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子211には後述する画素が二次元状に配列されており、交換レンズ202の予定結像面に配置されて交換レンズ202により結像される被写体像を撮像する。ボディ駆動制御装置214はマイクロコンピューターとメモリなどの周辺部品から成り、撮像素子211からの画像信号の読み出し、画像信号の補正、交換レンズ202の焦点調節状態の検出、レンズ駆動制御装置206からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルスチルカメラ全体の動作制御などを行う。ボディ駆動制御装置214とレンズ駆動制御装置206は、マウント部204の電気接点部213を介して通信を行う。
The
液晶表示素子駆動回路215は、液晶ビューファインダー(EVF:電気的ビューファインダー)の液晶表示素子216を駆動する。撮影者は接眼レンズ217を介して液晶表示素子216に表示された像を観察することができる。メモリカード219はカメラボディ203に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。
The liquid crystal display
交換レンズ202を通過して撮像素子211上に形成された被写体像は、撮像素子211により光電変換され、その出力はボディ駆動制御装置214へ送られる。ボディ駆動制御装置214は、撮像素子211の出力に基づいて画面上におけるデフォーカス分布情報を生成し、デフォーカス分布情報に応じて撮像素子出力に画像処理を加える。また、ボディ駆動制御装置214は、画素出力に基づいて所定の焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。さらに、ボディ駆動制御装置214は、撮像素子211の出力に基づいて生成した画像信号をメモリカード219に格納するとともに、画像信号を液晶表示素子駆動回路215へ送り、液晶表示素子216に画像を表示させる。撮影者は液晶表示素子216に表示された画像を、接眼レンズ217を介して観察することができる。
The subject image formed on the
カメラボディ203には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材、画像処理調整パラメータ入力部材等)が設けられており、これらの操作部材からの操作状態信号をボディ駆動制御装置214が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。
The
レンズ駆動制御装置206はレンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御装置206は、レンズ208、210の位置と絞り207の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォーカシングレンズ210を不図示のモーター等の駆動源により合焦点へと駆動する。
The lens
図2は撮像素子211の画素配列構成を示す正面拡大図である。撮像素子211には、画素311と画素312が二次元状に規則的に配列されている。
FIG. 2 is an enlarged front view showing the pixel arrangement configuration of the
図3は画素の構成を示す。図3(a)に示すように、画素312はマイクロレンズ10と光電変換部13とから構成される。光電変換部13はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。また、図3(b)に示すように、画素311はマイクロレンズ10と光電変換部12とから構成される。光電変換部12はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。光電変換部12と13は、マイクロレンズ10を重ね合わせて表示した場合に左右水平方向に並んでおり、マイクロレンズ10の垂直2等分線に関して対称な形状をしている。撮像素子211には、画素311と画素312が水平方向(光電変換部12と13の並び方向)に交互に配置された画素行が、垂直方向に1行おきに1画素ずらして配置される
FIG. 3 shows the configuration of the pixel. As illustrated in FIG. 3A, the
図4は画素の断面図である。(a)は画素311の断面を示す。画素311において、光電変換部12の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部12が前方に投影される。光電変換部12は半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサーの製造工程により一体的かつ固定的に形成される。光電変換部12はマイクロレンズ10の光軸の片側に配置される。(b)は画素312の断面を示す。画素312において、光電変換部13の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部13が前方に投影される。光電変換部13は半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。光電変換部13はマイクロレンズ10の光軸の片側でかつ光電変換部12の反対側に配置される。
FIG. 4 is a cross-sectional view of a pixel. (a) shows a cross section of the
次に、図5を参照してマイクロレンズを用いた瞳分割型位相差検出方式焦点検出の原理を説明する。図5において、90は、交換レンズの予定結像面に配置されたマイクロレンズの前方d4の距離に設定された射出瞳である。なお、距離d4は、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部の間の距離などに応じて決まる距離であって、以下では測距瞳距離という。91は交換レンズの光軸、10a〜10cはマイクロレンズ、12a、12b、13a、13bは光電変換部、311a、311b、312a、312bは画素、72,73、82,83は光束である。
Next, the principle of focus detection using a pupil division type phase difference detection method using a microlens will be described with reference to FIG. In FIG. 5,
92は、マイクロレンズ10a、10cにより投影された光電変換部12a、12bの領域である。この明細書では領域92を測距瞳と呼ぶ。なお、図5では解りやすくするために楕円形状の領域で表すが、実際には光電変換部12a、12bの形状が拡大投影された形状となる。同様に、93は、マイクロレンズ10b、10dにより投影された光電変換部13a、13bの領域、すなわち測距瞳である。なお、図5では解りやすくするために楕円形状の領域で表すが、実際には光電変換部13a、13bの形状が拡大投影された形状となる。
図5では、隣接する4画素311a、311b、312a、312bを模式的に例示しているが、その他の画素においても同様に、光電変換部がそれぞれ対応した測距瞳から各マイクロレンズに到来する光束を受光する。
FIG. 5 schematically illustrates four
マイクロレンズ10a〜10cは交換レンズの予定結像面近傍に配置されており、マイクロレンズ10a〜10cによりその背後に配置された光電変換部12a、12b、13a、13bの形状がマイクロレンズ10a〜10cから測距瞳距離d4だけ離間した射出瞳90上に投影され、その投影形状は測距瞳92,93を形成する。すなわち、投影距離d4にある射出瞳90上で各画素の光電変換部の投影形状(測距瞳92,93)が一致す
るように、各画素における光電変換部の投影方向が決定されている。
The microlenses 10a to 10c are disposed in the vicinity of the planned imaging plane of the interchangeable lens, and the shapes of the
光電変換部12aは測距瞳92を通過し、マイクロレンズ10aに向う光束72によりマイクロレンズ10a上に形成される像の強度に対応した信号を出力する。また、光電変換部12bは測距瞳92を通過し、マイクロレンズ10cに向う光束82によりマイクロレンズ10c上に形成される像の強度に対応した信号を出力する。さらに、光電変換部13aは測距瞳93を通過し、マイクロレンズ10bに向う光束73によりマイクロレンズ10b上に形成される像の強度に対応した信号を出力する。また、光電変換部13bは測距瞳92を通過し、マイクロレンズ10dに向う光束83によりマイクロレンズ10d上に形成される像の強度に対応した信号を出力する。
The
このような2種類の画素を直線状に多数配置し、各画素の光電変換部の出力を測距瞳92および測距瞳93に対応した出力グループにまとめることによって、測距瞳92と測距瞳93を各々通過する焦点検出光束が画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。そして、この像ズレ量に所定の変換係数を乗ずることにより、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)が算出される。
A large number of these two types of pixels are arranged in a straight line, and the output of the photoelectric conversion unit of each pixel is grouped into an output group corresponding to the
図6は射出瞳面における投影関係を示す図である。各画素から光電変換部をマイクロレンズにより射出瞳面90に投影した測距瞳92,93は、光学系の射出瞳89を含むような大きさに設定されている。したがって、実際に画素の光電変換部が受光する光束は、測距瞳92,93を光学系の射出瞳89で絞り込んだ領域を通過する光束となる。このように、測距瞳92、93を光学系の射出瞳89より大きな領域に設定することによって、光学系の絞りを制御したときに光電変換部で絞りの制御量に応じた光量を受光することが可能になり、画素の出力を画像データとして用いるのに適した構成となる。
FIG. 6 is a diagram showing a projection relationship on the exit pupil plane. The
図7により、瞳分割型位相差検出方式における像の形成状態を説明する。図7(a)に示すように、光学系の射出瞳面90において測距瞳92、93に分割され、像を形成する光束は測距瞳92を通過する光束72と、測距瞳93を通過する光束73とに分割される。このような構成により、例えば光軸91上にあり図7の紙面に垂直な方向の線パターン(黒地に白線)を光学系により結像させた場合、合焦面P0においては測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(c)に示すように光軸91上の同じ位置に高コントラストな線像パターンを形成する。
The image formation state in the pupil division type phase difference detection method will be described with reference to FIG. As shown in FIG. 7A, the light beam which is divided into
一方、合焦面P0より前方の面P1においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(b)に示すように異なる位置にぼけた線像パターンを形成する。また、合焦面P0より後方の面P2においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(d)に示すように、図7(b)とは反対方向の異なる位置にぼけた線像パターンを形成する。したがって、測距瞳92を通過する光束72と測距瞳93を通過する光束73とにより形成される2つの像を分離して検出し、2つの像の相対的な位置関係(像ズレ量)を算出することによって、2つの像を検出した面における光学系の焦点調節状態を検出できる。
On the other hand, on the plane P1 ahead of the focusing plane P0, the
図8は、一実施の形態のデジタルスチルカメラ(撮像装置)の動作を示すフローチャートである。ボディ駆動制御装置214は、カメラの電源がオンされるとこの動作を繰り返し実行する。ステップ100で電源がオンされるとステップ110へ進み、撮像素子211から一対の画像データ(2種類の画素のデータ)を読み出し、一対の画像データを加算して基本画像データを生成する。ステップ120では画面を微小領域に分割した微小ブロ
ックごとに後述する像ズレ検出演算処理(相関演算処理)を行い、像ズレ量を演算し、さらにデフォーカス量を算出してデフォーカス分布情報を生成する。
FIG. 8 is a flowchart illustrating the operation of the digital still camera (imaging device) according to the embodiment. The body
ステップ130において、デフォーカス分布情報に基づいて基本画像データに対してボケ制御の画像処理を行う。この処理については詳細を後述する。続くステップ140では画像処理が行われた基本画像データを電子ビューファインダーに表示させる。ステップ150で焦点検出位置のデフォーカス量が合焦近傍か否か、つまり算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。なお、焦点検出位置は不図示の位置設定操作部材を用いて撮影者により指定されている。合焦近傍でないと判定した場合はステップ160へ進み、デフォーカス量をレンズ駆動制御装置206へ送信して交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させ、ステップ110へ戻って上述した動作を繰り返す。なお、焦点検出不能な場合もステップ160へ分岐し、レンズ駆動制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限から至近までの間でスキャン駆動させ、ステップ110へ戻って上述した動作を繰り返す。
In
合焦近傍であると判定した場合はステップ170へ進み、不図示の操作部材の操作によりシャッターレリーズがなされたか否かを判定し、なされていないと判定された場合はステップ110へ戻って上述した動作を繰り返す。一方、シャッターレリーズがなされたと判定された場合はステップ180へ進み、撮像素子211に撮像動作を行わせ、撮像素子211から一対の画像データ(2種類の画素のデータ)を読み出し、一対の画像データを独立にメモリーカード219に格納する。
If it is determined that it is close to the in-focus state, the process proceeds to step 170 to determine whether or not a shutter release has been performed by operating an operation member (not shown). If it is determined that the shutter release has not been performed, the process returns to step 110 and described above. Repeat the operation. On the other hand, if it is determined that the shutter release has been performed, the process proceeds to step 180 where the
図9により、図8のステップ120で実行されるデフォーカス量算出処理の詳細を説明する。微小ブロックにおける一対の画素データを(E(1)〜E(m))、(F(1)〜F(m)、mはデータ数)と一般化して表現した場合に、データ系列(E(1)〜E(m))に対しデータ系列(F(1)〜F(m)を相対的にずらしながら数式1により2つのデータ列間のずらし量kにおける相関量C(k)を演算する。
C(k)=Σ|E(n)−F(n+k)| ・・・(1)
(1)式において、Σ演算はnについて計算される。このΣ演算においてn、n+kのとる範囲は1〜mの範囲に限定される。また、ずらし量kは整数であり、一対のデータの検出ピッチを単位とした相対的シフト量である。
The details of the defocus amount calculation process executed in step 120 of FIG. 8 will be described with reference to FIG. When a pair of pixel data in a minute block is expressed as (E (1) to E (m)), (F (1) to F (m), where m is the number of data), the data series (E ( 1) to E (m)), the correlation amount C (k) in the shift amount k between the two data strings is calculated by
C (k) = Σ | E (n) −F (n + k) | (1)
In the equation (1), the Σ operation is calculated for n. In this Σ operation, the range taken by n and n + k is limited to a range of 1 to m. The shift amount k is an integer, and is a relative shift amount in units of the detection pitch of a pair of data.
(1)式の演算結果は、図9(a)に示すように、一対のデータ系列の相関が高いシフト量(図9(a)ではk=kj=2)において相関量C(k)が最小(小さいほど相関度が高
い)になる。続いて下記(2)〜(5)式による3点内挿の手法を用い、連続的な相関量に対する最小値C(x)を与えるシフト量xを求める。
x=kj+D/SLOP ・・・(2),
C(x)= C(kj)−|D| ・・・(3),
D={C(kj-1)−C(kj+1)}/2 ・・・(4),
SLOP=MAX{C(kj+1)−C(kj),C(kj-1)−C(kj)} ・・・(5)
As shown in FIG. 9A, the calculation result of the expression (1) shows that the correlation amount C (k) is the shift amount with high correlation between the pair of data series (k = kj = 2 in FIG. 9A). The minimum (the smaller the value, the higher the degree of correlation). Subsequently, the shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is obtained by using a three-point interpolation method according to the following equations (2) to (5).
x = kj + D / SLOP (2),
C (x) = C (kj) − | D | (3),
D = {C (kj-1) -C (kj + 1)} / 2 (4),
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)
(2)式で求めたシフト量xより、被写体像面の予定結像面に対するデフォーカス量DEFを下記(6)式で求めることができる。
DEF=KX・PY・x ・・・(6)
(6)式において、PYは検出ピッチ(同一種類の画素の配置ピッチ)であり、KXは一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。また、一対のデータ系列がぴったり合致した場合(x=0)は、実際にはデータ列が検出ピッチの半分だけすれた状態となるので、(2)式で求めたシフト量は半ピッチ分だけ補正されて(6)式に適用される。さらに、一対の測距瞳を通過する光束の重心の開き角の大き
さは、交換レンズ202の絞り開口の大きさ(開放絞り値)に応じて変化するので、レンズ情報に応じて決定される。
The defocus amount DEF of the subject image plane with respect to the planned imaging plane can be obtained from the following equation (6) from the shift amount x obtained from the equation (2).
DEF = KX · PY · x (6)
In equation (6), PY is a detection pitch (arrangement pitch of the same type of pixels), and KX is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils. In addition, when the pair of data series exactly match (x = 0), the data string is actually shifted by half of the detected pitch, so the shift amount obtained by equation (2) is only half the pitch. It is corrected and applied to equation (6). Furthermore, since the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils changes according to the size of the aperture of the interchangeable lens 202 (open aperture value), it is determined according to the lens information. .
算出されたデフォーカス量DEFの信頼性があるかどうかは、以下のようにして判定される。図9(b)に示すように、一対のデータ系列の相関度が低い場合は、内挿された相関量の最小値C(x)の値が大きくなる。したがって、C(x)が所定値以上の場合は信頼性が低いと判定する。あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は信頼性が低いと判定する。あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたデフォーカス量DEFの信頼性が低いと判定する。 Whether or not the calculated defocus amount DEF is reliable is determined as follows. As shown in FIG. 9B, when the degree of correlation between the pair of data series is low, the value of the minimum value C (x) of the interpolated correlation amount becomes large. Therefore, it is determined that the reliability is low when C (x) is equal to or greater than a predetermined value. Alternatively, in order to normalize C (x) with the contrast of data, if the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, it is determined that the reliability is low. Alternatively, if SLOP that is proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated defocus amount DEF is low.
図9(c)に示すように、一対のデータ系列の相関度が低く、所定のシフト範囲kmin〜
kmaxの間で相関量C(k)の落ち込みがない場合は、最小値C(x)を求めることができず
、このような場合は焦点検出不能と判定する。焦点検出が可能であった場合は、算出された像ズレ量に所定の変換係数を乗じてデフォーカス量を算出する。
As shown in FIG. 9C, the degree of correlation between the pair of data series is low, and a predetermined shift range kmin to
When there is no drop in the correlation amount C (k) between kmax, the minimum value C (x) cannot be obtained. In such a case, it is determined that focus detection is impossible. When focus detection is possible, the defocus amount is calculated by multiplying the calculated image shift amount by a predetermined conversion coefficient.
上述した説明では一対のデータ系列について求めたデフォーカス量を採用しているが、同一微小ブロック内の複数対のデータ系列について求めたデフォーカス量を統計処理(例えば平均やメディアンなど)をして最終的なデフォーカス量を求めてもよい。 In the above description, the defocus amount obtained for a pair of data series is adopted, but the defocus amount obtained for a plurality of pairs of data series in the same minute block is subjected to statistical processing (for example, average or median). The final defocus amount may be obtained.
図10は、図8のステップ110〜130における画像処理の概要を示すブロック図である。右測距瞳画像デ−タR(x,y)、左測距瞳画像データL(x,y)を加算して基本画像データg(x,y)を算出する。ここで、(x,y)は画素の2次元の離散的な位置を表し、図2に示す撮像素子211においてxが水平方向、yが垂直方向に対応する。ただし、右測距瞳画像デ−タR(x,y)はxが奇数の場合のみ存在し、左測距瞳画像データ
L(x,y)はxが偶数の場合のみ存在するものとする。
g(x,y)=R(x,y)+(L(x-1,y)+L(x+1,y))/2、If x:奇数、
g(x,y)=L(x,y)+(R(x-1,y)+R(x+1,y))/2、If x:偶数
・・・(7)
デフォーカス分布情報データd(p,q)を、図9に説明すように分割された微小ブロックごとに算出する。ここで、(p,q)は微小ブロックの2次元の離散的な位置を表す。
FIG. 10 is a block diagram showing an overview of image processing in
g (x, y) = R (x, y) + (L (x-1, y) + L (x + 1, y)) / 2, If x: odd number,
g (x, y) = L (x, y) + (R (x-1, y) + R (x + 1, y)) / 2, If x: even number
... (7)
Defocus distribution information data d (p, q) is calculated for each small block divided as described in FIG. Here, (p, q) represents a two-dimensional discrete position of the minute block.
微小ブロック内の基本画像データg(x,y)に対し、微小ブロックのデフォーカス量および外部より指定された画像処理制御パラメータに応じて画像処理を施し、画像処理済みの基本画像データG(x,y)を生成する。
G(x,y)=F(g(x,y),d,z) ・・・(8)
関数Fは、デフォーカス量dとパラメータzに応じて画像データに画像処理を加える関数である。
The basic image data g (x, y) in the minute block is subjected to image processing according to the defocus amount of the minute block and the image processing control parameter designated from the outside, and the basic image data G (x , Y).
G (x, y) = F (g (x, y), d, z) (8)
The function F is a function for applying image processing to image data in accordance with the defocus amount d and the parameter z.
このように、右測距瞳画像デ−タと左測距瞳画像データを加算した基本画像データに対して画像処理を行っているので、焦点調節に応じて画像の重心位置が移動することがなく、画像処理済みの基本画像データを電子ビューファインダーで表示した場合でも違和感なく自然に観察することができる。一方の画像データのみに画像処理を加えた場合には、焦点調節状に応じて画像の重心位置が移動してしまうので、電子ビューファインダーで表示した場合に違和感が生じ、不自然さが感じられてしまう(図7参照)。 As described above, since the image processing is performed on the basic image data obtained by adding the right ranging pupil image data and the left ranging pupil image data, the barycentric position of the image may be moved according to the focus adjustment. In addition, even when image-processed basic image data is displayed on the electronic viewfinder, it can be observed naturally without a sense of incongruity. When image processing is applied to only one of the image data, the center of gravity of the image moves according to the focus adjustment, so that an uncomfortable feeling occurs when displayed with an electronic viewfinder, and unnaturalness is felt. (See FIG. 7).
また、一方の画像データのみに画像処理を加えた場合には、もともとの画像データが一対の測距瞳の片側の測距瞳を通過する光束により形成される像に対応しているので、測距瞳の形状(絞りにより制限されるので半円状になる)を反映したボケ味になり、ボケを加
味した後の画像データでも電子ビューファインダーで表示した場合に違和感が生じ、不自然さが感じられてしまう。
In addition, when image processing is applied to only one of the image data, the original image data corresponds to an image formed by a light flux that passes through the distance measuring pupil on one side of the pair of distance measuring pupils. The bokeh reflects the shape of the distance pupil (it becomes semicircular because it is limited by the aperture), and even when the image data after adding blur is displayed on the electronic viewfinder, a sense of incongruity occurs and the unnaturalness I feel it.
図11は、図8のステップ120〜130における画像処理の詳細を示すフローチャートである。ステップ200において画面を図12に示すように微小ブロック101に分割し、微小ブロックごとにデフォーカス量を算出する。これにより、画面全体に渡り図13に示すような二次元状のデフォーカス量dの分布情報(デフォーカス分布情報d(p、q))が得られる。ステップ210でデフォーカス分布情報d(p、q)に基づいてデフォーカス量dのヒストグラムを算出する(図14参照)。
FIG. 11 is a flowchart showing details of the image processing in steps 120 to 130 of FIG. In step 200, the screen is divided into minute blocks 101 as shown in FIG. 12, and the defocus amount is calculated for each minute block. As a result, two-dimensional distribution information of the defocus amount d (defocus distribution information d (p, q)) as shown in FIG. 13 is obtained over the entire screen. In
ステップ220において、デフォーカス量dのヒストグラムに基づいて頻度が低いデフォーカス量を境界としてデフォーカス量を複数の範囲に類別する。ここでは、図15に示すような基本画像データを例に上げて説明する。図15において、近景が主要被写体の人物であり、中景が建物、遠景が空と雲になっている。この基本画像データに対しデフォーカス量dのヒストグラムをとると、図14に示すように、近景に対応した部分113、中景に対応した部分114、遠景に対応した部分115に大まかに類別することができる。部分113と114の中間(谷間)にしきい値デフォーカス量d1を、部分114と115の中間にしきい値デフォーカス量d2をそれぞれ設定し、デフォーカス範囲をL1(+∞>d≧d1)、L2(d1>d≧d2)、L3(d2>d>−∞)の3つの範囲に分割する。各デフォーカス範囲L1、L2、L3を代表するデフォーカス量をDL1、DL2、DL3とする。
In step 220, the defocus amount is classified into a plurality of ranges based on the defocus amount with a low frequency based on the defocus amount d histogram. Here, basic image data as shown in FIG. 15 will be described as an example. In FIG. 15, the near view is a person who is a main subject, the middle view is a building, and the distant view is a sky and clouds. When a histogram of the defocus amount d is taken with respect to this basic image data, as shown in FIG. 14, it is roughly classified into a
ステップ230では微小ブロックのデフォーカス量dがどのデフォーカス範囲に属するかによって、微小ブロックを4つのデフォーカス属性(H0:焦点検出不能、H1:デフォーカス範囲L1、H2:デフォーカス範囲L2、H3:デフォーカス範囲L3)に類別する(図16参照)。ステップ240において、低コントラスト等の原因で焦点検出不能な微小ブロック(属性H0)に対して、周囲の微小ブロックとの画像特性と類似性に基づいてデフォーカス特性H1,H2,H3を決定する。
In step 230, depending on which defocus range the defocus amount d of the micro block belongs to, the micro block has four defocus attributes (H0: focus cannot be detected, H1: defocus range L1, H2: defocus range L2, H3). : Defocus range L3) (see FIG. 16). In step 240, defocus
例えば、基本画像データより肌色の領域(図17の130)を切り出し、この領域に含まれる微小ブロックのデフォーカス属性が1つの属性H1に集中している場合には、この領域に属する焦点検出不能な微小ブロックの属性をH1とする。あるいは、この領域の外形輪郭部分に属する微小ブロックのデフォーカス属性が1つの属性H1に集中している場合には、この領域に属する焦点検出不能な微小ブロックの属性をH1とする。また、例えば基本画像データに対して輪郭抽出の画像処理を施した画像データ(図18参照)に基づき、輪郭線131を含む微小ブロックが焦点検出不能である場合には、輪郭線が連続している方向の周囲の焦点検出可能な微小ブロックのデフォーカス属性を該焦点検出不能な微小ブロックの属性として採用する。
For example, when a skin color region (130 in FIG. 17) is cut out from the basic image data and the defocus attributes of the minute blocks included in this region are concentrated on one attribute H1, focus detection that belongs to this region is impossible. Let H1 be the attribute of a small block. Alternatively, when the defocus attributes of the minute blocks belonging to the outer contour portion of this region are concentrated on one attribute H1, the attribute of the minute block that cannot be detected in the focus belonging to this region is set to H1. For example, based on image data obtained by performing contour extraction image processing on basic image data (see FIG. 18), when the focus detection is impossible for a minute block including the
焦点検出不能な微小ブロックのデフォーカス属性決定方法は上記の方法に限定されず、焦点検出不能な微小ブロックと焦点検出可能な周囲の微小ブロックとの画像特性の類似性および連続性に基づいて決定することができる。画像特性としては、輝度情報、色相情報、彩度情報、コントラスト情報などを使用することができる。 The method for determining the defocus attribute of a minute block incapable of focus detection is not limited to the above method, and is determined based on the similarity and continuity of image characteristics of a minute block incapable of focus detection and surrounding minute blocks in which focus detection is possible. can do. As image characteristics, luminance information, hue information, saturation information, contrast information, and the like can be used.
ステップ250で微小ブロックのデフォーカス属性に基づいて微小ブロックをグループ化する。ここでは、図19に示すように、グループJ1、グループJ2、グループJ3に分類する。続くステップ260では同一グループに属する微小ブロックをまとめ、グループごとに抜き出す。図20にはグループJ1を、図21にはグループJ2を、図22にはグループJ3をそれぞれ抜き出した例を示す。次に、抜き出した領域に対応する基本画像データ部分を切り出す。図23(a)にはグループJ1に対応する基本画像データ部分を、
図24(a)にはグループJ2に対応する基本画像データ部分を、図25(a)にはグループJ3に対応する基本画像データ部分をそれぞれ示す。
In
24A shows a basic image data portion corresponding to the group J2, and FIG. 25A shows a basic image data portion corresponding to the group J3.
ステップ270において、切り出した部分画像データに対して、デフォーカス属性と指定された画像処理制御パラメータに応じた画像処理を施し、グループごとに画像レイヤーを生成する。図23(b)にグループJ1に対応する画像レイヤーを、図24(b)にグループJ2に対応する画像レイヤーを、図25(b)にグループJ3に対応する画像レイヤーをそれぞれ示す。ステップ280で画像レイヤーを距離に応じた順序に重ねていき、最終的な画像処理済みの基本画像データを生成する。ここでは、遠景が下、近景が上になる順序で重ねる。図26は遠景の上に中景を重ねた段階の画像を示し、図27は図26の上に近景を重ね完成した段階の画像を示す。
In step 270, image processing corresponding to the defocus attribute and the designated image processing control parameter is performed on the cut out partial image data, and an image layer is generated for each group. FIG. 23B shows an image layer corresponding to the group J1, FIG. 24B shows an image layer corresponding to the group J2, and FIG. 25B shows an image layer corresponding to the group J3. In
次に、ステップ270における画像処理を詳細に説明する。部分画像W(x,y)に対
し、この部分画像のデフォーカス属性および指定された画像処理制御パラメータに基づいて画像処理が施される。ここでは、画像処理例としてボケ付加処理を行う。部分画像W(x,y)に対し、ボケによる点像分布関数(ポイントスプレッドファンクションPSF(x,y))をコンボルーション演算(フィルタリング演算)し、処理済み部分画像V(x,y
)を生成する。
V(x,y)=W(x,y)◇PSF(x,y) ・・・(9)
(9)式において、◇ は二次元のコンボルーション演算を表す。なお、∫∫PSF(x,
y)dxdy=1とする。
Next, the image processing in step 270 will be described in detail. Image processing is performed on the partial image W (x, y) based on the defocus attribute of the partial image and the designated image processing control parameter. Here, blur addition processing is performed as an example of image processing. The partial image W (x, y) is subjected to a convolution calculation (filtering calculation) with a point spread function (point spread function PSF (x, y)) due to blur, and the processed partial image V (x, y)
) Is generated.
V (x, y) = W (x, y) PSF (x, y) (9)
In equation (9), ◇ represents a two-dimensional convolution operation. ∫∫PSF (x,
y) Set dxdy = 1.
点像分布関数PSF(x,y)は例えば次のようにする。
PSF(x,y)=1/(π*r2) if x2+y2≦r2,
PSF(x,y)=0 if x2+y2>r2 ・・・(10)
(10)式において、rは点像ボケの半径、ただしr=0の場合はPSF(x,y)=δ(x,y)とする。
r=Zf・|dL| ・・・(11)
(11)式において、Zfは画像処理制御パラメータであり、不図示の操作部材の操作により手動で入力されるか、あるいは露出制御に応じて自動で入力される絞り開口F値に相当するパラメータである。また、dLは部分画像のデフォーカス属性に応じたデフォーカス量である。例えばデフォーカス属性H1(デフォーカス範囲L1)についてはデフォーカス量dL1、デフォーカス属性H2(デフォーカス範囲L2)についてはデフォーカス量dL2、デフォーカス属性H3(デフォーカス範囲L3)についてはデフォーカス量dL3となる(図14参照)。
For example, the point spread function PSF (x, y) is as follows.
PSF (x, y) = 1 / (π * r2) if x2 + y2 ≦ r2,
PSF (x, y) = 0 if x2 + y2> r2 (10)
In the equation (10), r is the radius of the point image blur. However, when r = 0, PSF (x, y) = δ (x, y).
r = Zf · | dL | (11)
In the equation (11), Zf is an image processing control parameter, which is a parameter corresponding to the aperture F value that is manually input by operating an operation member (not shown) or automatically input according to exposure control. is there. DL is a defocus amount corresponding to the defocus attribute of the partial image. For example, for the defocus attribute H1 (defocus range L1), the defocus amount dL1, for the defocus attribute H2 (defocus range L2), the defocus amount dL2, and for the defocus attribute H3 (defocus range L3), the defocus amount. dL3 (see FIG. 14).
(11)式により、半径rの値はデフォーカス量dLと入力値Zfに応じて変化するので、部分画像に加えられる画像処理の量も変化する。例えば図14においてデフォーカス量dL1=0とすれば、図23に示すように画像処理前の基本画像データ(a)と画像処理後の基本画像データ(b)は変化しないが、デフォーカス量dLが大きくなるほど画像処理後の基本画像データのボケ量は大きくなる。また、パラメータZfの値が大きくなるほど画像処理後の基本画像データのボケ量は大きくなる。 According to equation (11), the value of the radius r changes according to the defocus amount dL and the input value Zf, so the amount of image processing applied to the partial image also changes. For example, if the defocus amount dL1 = 0 in FIG. 14, the basic image data (a) before image processing and the basic image data (b) after image processing do not change as shown in FIG. 23, but the defocus amount dL The larger the is, the larger the blur amount of the basic image data after image processing is. Further, as the value of the parameter Zf increases, the amount of blur of the basic image data after image processing increases.
画像処理制御パラメータZfを入力するための操作部材は、露光時の絞り開口F値を設定するために通常使用される操作部材を拡張して使用することができる。例えば、交換レンズに設けられている絞り設定のための絞り環の操作に応じて、絞り開口の大きさが対応できる限界までは絞りを制御してビューファインダー表示や撮像を行い、絞り開口の限界を超えた絞り設定の場合は、画像処理による画像をビューファインダー表示や撮像に使用することができる。もちろん、画像処理専用のパラメータ入力操作部材を設けてもよい。 The operation member for inputting the image processing control parameter Zf can be used by expanding the operation member that is normally used for setting the aperture F value at the time of exposure. For example, according to the operation of the aperture ring for the aperture setting provided on the interchangeable lens, the viewfinder display and imaging are performed by controlling the aperture to the limit that the aperture aperture can accommodate, and the aperture aperture limit In the case of an aperture setting exceeding 1, an image obtained by image processing can be used for viewfinder display and imaging. Of course, a parameter input operation member dedicated to image processing may be provided.
点像分布関数PSF(x,y)は(11)式に示すようなステップ関数に限定されず、関数の形状がなめらかに変化するものであってもよい。関数の形状、大きさを調整することによってボケ味の制御を行うことができる。 The point spread function PSF (x, y) is not limited to the step function as shown in the equation (11), and the shape of the function may change smoothly. Bokeh can be controlled by adjusting the shape and size of the function.
上述した画像処理では部分画像に対し個別の画像処理を加え、画像処理後の部分画像を合成することによって最終的な画像処理済み画像を生成している。デフォーカス量のヒストグラムに応じて、相対的な距離が近接している被写体が同じ部分画像に入るように部分画像の切り出しを行っているので、画像処理後の部分画像を合成した場合にも、違和感のない自然な合成画像を得ることができる。また、画像処理後の部分画像を合成する際に、部分画像のつなぎ目近傍(境界近傍)がより自然になるような画像処理、例えば平均化処理や輪郭強調処理を施してもよい。 In the image processing described above, individual image processing is applied to the partial images, and the final image processed image is generated by synthesizing the partial images after the image processing. Depending on the histogram of defocus amount, the partial image is cut out so that the subject whose relative distance is close enters the same partial image, so even when combining the partial images after image processing, A natural composite image without a sense of incongruity can be obtained. Further, when combining the partial images after the image processing, image processing such as averaging processing or contour enhancement processing may be performed so that the vicinity of the joints (near the boundary) of the partial images becomes more natural.
また、デフォーカス量とボケ量を関係づける式は(11)式に限定されず、合焦位置オフセット用のピント調整パラメーターOffを加えた次式を用いてもよい。
r=Zf・|dL−Off| ・・・(12)
合焦位置オフセット用のピント調整パラメーターOffを手動または自動で調整することによって、基本画像データに対してフォーカス位置を調整変更した画像処理済みの基本画像データを生成することも可能になる。
Further, the expression relating the defocus amount and the blur amount is not limited to the expression (11), and the following expression in which a focus adjustment parameter Off for the focus position offset is added may be used.
r = Zf · | dL−Off | (12)
By adjusting the focus adjustment parameter Off for the focus position offset manually or automatically, it is also possible to generate image-processed basic image data in which the focus position is adjusted and changed with respect to the basic image data.
基本画像データの生成に関しては(7)式のような単純加算平均に限定されず、画像の
重心位置がデフォーカス量に応じて変化しない処理であれば、重み付け加算平均やその他の合成演算処理を用いることができる。
The generation of the basic image data is not limited to the simple addition average as shown in the expression (7), and weighted addition average and other synthesis calculation processes are performed as long as the center of gravity position of the image does not change according to the defocus amount. Can be used.
焦点検出不能な微小ブロックに対し、すべて周囲の微小ブロックとの関係に基づいてデフォーカス量を決定する必要はない。例えば、コントラストが低い画像は画像処理を加えても変化が少ないので、コントラストが所定しきい値値以下の焦点検出不能な微小ブロックに対しては画像処理を加えずにそのまま合成に使用するようにしてもよい。 It is not necessary to determine the defocus amount based on the relationship with the surrounding minute blocks for all the minute blocks where the focus cannot be detected. For example, an image with low contrast has little change even when image processing is applied. Therefore, a fine block whose contrast is equal to or lower than a predetermined threshold value and cannot be detected is used as it is without being subjected to image processing. May be.
画像処理としては(9)式のようなボケ付加処理に限定されず、例えばデフォーカス量dLに応じたパラメータにより鮮明化処理(ハイパスフィルタ処理)を行うことによって、ボケた画像データを回復する画像処理を行ってもよい。このような撮影後にデフォーカス量に応じた鮮明化処理が可能になれば、容易にパンフォーカス画像を得ることができる。また、光量不足のために絞り開口を大きくして撮影せざるを得ない場合にも、撮影した画像データから被写界深度の深い画像データを得ることができる。 The image processing is not limited to the blur addition processing as expressed by the equation (9), and for example, an image that recovers the blurred image data by performing a sharpening process (high-pass filter process) using a parameter corresponding to the defocus amount dL. Processing may be performed. If a sharpening process according to the defocus amount becomes possible after such shooting, a pan-focus image can be easily obtained. Further, even when it is necessary to shoot with a large aperture opening due to insufficient light quantity, image data having a deep depth of field can be obtained from the captured image data.
画像処理としてボケの付加や鮮明化だけでなく、ボケ味(絞り開口形状を反映したボケ形状)を採用することができる。例えば、通常の絞り形状(円形)で撮影した画像データに対し、反射方式のレンズで撮影した場合に生じるリング状のボケとなるような画像処理を施したり、多角形の絞りで撮影した画像データを画像処理して、円形絞りで撮影した画像データにすることも可能である。 As image processing, not only blurring and sharpening but also blurring (a blurred shape reflecting the aperture opening shape) can be employed. For example, image data shot with a normal aperture shape (circular) is subjected to image processing that causes ring-shaped blurring when shooting with a reflective lens, or image data shot with a polygonal aperture. Can be processed into image data photographed with a circular aperture.
また、特定のデフォーカス範囲の画像のみに画像処理を加えることも可能である。例えば、前ボケが汚い場合には前ボケ(デフォーカス量が+)の画像のみにボケ整形画像処理を加え、前ボケが良好な画像を得ることができる。 It is also possible to apply image processing only to an image in a specific defocus range. For example, when the front blur is dirty, it is possible to obtain an image with a good front blur by applying blur shaping image processing only to the front blur (defocus amount +) image.
さらに、デフォーカス量に応じた収差修正処理を行うことも可能である。例えば、デフォーカス量に応じた非点収差やコマ収差などの見苦しいボケが発生する場合でも、本発明の画像処理を適用することにより、好ましいボケに修正することが可能になる。 Furthermore, it is possible to perform aberration correction processing according to the defocus amount. For example, even when an unsightly blur such as astigmatism or coma depending on the defocus amount occurs, it can be corrected to a preferable blur by applying the image processing of the present invention.
上述したようにデフォーカス量に応じて部分画像に対し画像処理を加えることによって
、物理的な制限(絞り開口の大きさや形状など)に依存せずに、デフォーカス量に応じた効果が加味された画像を得ることができる。また、例えば物理的な制限(絞り開口の大きさ、形状など)をデフォーカス量に応じた描写コントロール(ボケ味調整、被写界深度調整など)以外の撮影コントロール(全体光量調整、周辺光量調整、収差調整、解像度/コントラスト調整、フレアー/迷光調整など)に使わざるを得ない場合においても、後処理
によりデフォーカス量に応じた描写コントロールを追加することができる。
As described above, the image processing is applied to the partial image according to the defocus amount, so that the effect according to the defocus amount is added without depending on physical restrictions (size or shape of the aperture opening). Images can be obtained. In addition, for example, physical control (aperture aperture size, shape, etc.) other than rendering controls (blur adjustment, depth of field adjustment, etc.) according to the defocus amount, shooting controls (total light intensity adjustment, peripheral light intensity adjustment) Even if it has to be used for aberration adjustment, resolution / contrast adjustment, flare / stray light adjustment, etc., it is possible to add depiction control according to the defocus amount by post-processing.
《発明の一実施の形態の変形例》
図28は撮像素子211の画素配列の変形例を示す。画素311はマイクロレンズ10と光電変換部12とから構成される。光電変換部12はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、画素312はマイクロレンズ10と光電変換部13とから構成される。光電変換部13はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。光電変換部12と13は、マイクロレンズ10を重ね合わせて表示した場合、左右水平方向に並んでおり、マイクロレンズ10の垂直2等分線に関して対称な形状をしている。
<< Modification of Embodiment of Invention >>
FIG. 28 shows a modification of the pixel array of the
画素316はマイクロレンズ10と光電変換部16とから構成される。光電変換部16はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。また、画素317はマイクロレンズ10と光電変換部17とから構成される。光電変換部17はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。光電変換部16と17は、マイクロレンズ10を重ね合わせて表示した場合、上下垂直方向に並んでおり、マイクロレンズ10の水平2等分線に関して対称な形状をしている。
The
光電変換部16と17に対応する測距瞳96、97を図29に示す。画素316は測距瞳96から来る光束を受光し、画素317は測距瞳97から来る光束を受光する。測距瞳96と測距瞳97は軸xに対し線対称に配置される。
FIG. 29 shows
図28に示す撮像素子211では、画素311と画素312が水平方向に交互に配置された第1の画素行の次の行に、画素316と画素317が水平方向に交互に配置された第2の画素行が配置され、その次の行には第1の画素行を1画素水平方向にずらした第3の行が配置され、その次の行には第2の画素行を1画素水平方向にずらした第4の行が配置される。以上の4行からなる配列を垂直方向に順次配列している。
In the
このように、画素を水平方向および垂直方向に稠密に配置した正方配列の画素配列においては、水平方向、垂直方向において像ズレ検出が可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの方向性によって焦点検出不能になる確率が減少する。 As described above, in a square pixel array in which pixels are densely arranged in the horizontal direction and the vertical direction, image shift detection can be performed in the horizontal direction and the vertical direction. Therefore, in calculating the defocus amount of a minute block, the probability that focus detection becomes impossible due to the directionality of the subject pattern is reduced.
図30は変形例の画素構成を示す。図30(a)に示すように、画素602はマイクロレンズ10と光電変換部513とから構成される。光電変換部513はマイクロレンズ10の垂直2等分線に右辺を略接する半円形状である。また、図30(b)に示すように、画素601はマイクロレンズ10と光電変換部512とから構成される。光電変換部512はマイクロレンズ10の垂直2等分線に左辺を略接する半円形状である。このような光電変換部形状を設定することによって、交換レンスの最大絞り開口(円形)に対し、限られた半導体基板の表面を効率よく利用できる。
FIG. 30 shows a pixel configuration of a modified example. As illustrated in FIG. 30A, the
図31は変形例の画素構成を示す。画素603はマイクロレンズ10と一対の光電変換部612、613とから構成される。光電変換部612はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部613はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。
FIG. 31 shows a pixel configuration of a modified example. The
図32は、図31に示す画素603の断面図である。画素603において、光電変換部612、613の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部612、613が前方に投影される。光電変換部612、613は、半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。光電変換部612、613は、マイクロレンズ10の光軸を挟んで振り分けて配置される。
32 is a cross-sectional view of the
図33は、図31に示す画素を二次元状に展開した変形例の撮像素子211の画素配列構成を示す。この撮像素子211において、画素603が二次元的に規則的に配列されている。図31から図33の構成により、一対の光電変換部612、613の並び方向(図33の水平方向)の像ズレ検出が可能になる。像の検出ピッチが図2の撮像素子に比較して半分になるので、デフォーカス検出精度が向上する。なお、図33に示す画素配置においては、右測距瞳画像デ−タR(x,y)、左測距瞳画像データL(x,y)が同じ画素に存在するので、基本画像データg(x,y)は(7)式の代わりに下記(13)式で算出
する。
g(x,y)=R(x、y)+L(x、y) ・・・(13)
同一の画素における右測距瞳画像デ−タと左測距瞳画像データを合成して基本画像データを生成するので、画像品質が向上する。
FIG. 33 shows a pixel arrangement configuration of the
g (x, y) = R (x, y) + L (x, y) (13)
Since the basic image data is generated by synthesizing the right ranging pupil image data and the left ranging pupil image data in the same pixel, the image quality is improved.
図34は変形例の撮像素子211の画素配列構成を示す。撮像素子の光電変換部の分光特性感度はすべて同一である必要はない。図34に示す撮像素子211において、画素421,422,423が二次元状に規則的に配列されている。図34において、Gを記した光電変換部51、71は図35に示す緑(G)の分光感度特性を有し、Rを記した光電変換部52、72は図35に示す赤(R)の分光感度特性を有し、Bを記した光電変換部53、73は図35に示す緑(B)の分光感度特性を有する。2つの画素421と画素422,423はベイヤー配列をなしている。
FIG. 34 shows a pixel arrangement configuration of the
画素421はマイクロレンズ10と光電変換部51、71とから構成される。光電変換部51はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部71はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素422はマイクロレンズ10と光電変換部52、72とから構成される。光電変換部52はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部72はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素423はマイクロレンズ10と光電変換部53、73とから構成される。光電変換部53はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部73はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。
The
図36は画素421の断面図である。画素421において、光電変換部51、71の前方に共通のマイクロレンズ10が配置され、マイクロレンズ10により光電変換部51、71が前方に投影される。マイクロレンズと光電変換部の間には緑の色フィルタ401が配置される。光電変換部51、71は、半導体回路基板29上に形成されるとともに、その上に色フィルタ401およびマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。画素422,423も、色フィルタの色以外は同様の構成である。
FIG. 36 is a cross-sectional view of the
図34に示す撮像素子211の画素配列構成においては、一対の光電変換部(51,71)、(52、72)、(53、73)の並び方向(図34の水平方向)の像ズレ検出が緑、赤、青の3色において可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの色によって焦点検出不能になる確率が減少する。
In the pixel array configuration of the
図37は変形例の撮像素子211の画素配列構成を示す。この変形例の撮像素子211において、画素421,423、424,425が二次元状に規則的に配列されている。図37において、Gを記した光電変換部51、71、54、74は図35に示す緑(G)の分光感度特性を有し、Rを記した光電変換部55、75は図35に示す赤(R)の分光感度特性を有し、Bを記した光電変換部53、73は図35に示す緑(B)の分光感度特性を有する。画素421,423、424,425はベイヤー配列をなしている。
FIG. 37 shows a pixel arrangement configuration of the
画素421はマイクロレンズ10と光電変換部51、71とから構成される。光電変換部51はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部71はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素423はマイクロレンズ10と光電変換部53、73とから構成される。光電変換部53はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部73はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。
The
画素424はマイクロレンズ10と光電変換部54、74とから構成される。光電変換部54はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。また、光電変換部74はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。画素425はマイクロレンズ10と光電変換部55、75とから構成される。光電変換部55はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。光電変換部75はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。
The
図37に示す撮像素子211の画素配列構成においては、一対の光電変換部(51,71)、(53、73)の並び方向(図37の水平方向)の像ズレ検出が緑、青の2色において可能になるとともに、一対の光電変換部(54,74)、(55、75)の並び方向(図37の垂直方向)の像ズレ検出が緑、赤の2色において可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの色および方向によって焦点検出不能になる確率が減少する。
In the pixel array configuration of the
図37に示す画素配列では、1つの微小ブロックにおいて複数の色、方向に対するデフォーカス量が求められる。最終的に1つのデフォーカス量を決定する手法としては、以下のような方法がある。(1)複数のデフォーカス量の平均にする。(2)特定色のデフォーカス量を優先する。例えば、比視感度の高い緑のデフォーカス量を優先する。(3)データの平均値が高い色のデフォーカス量を選択することによって、SNが高く高精度な焦点検出ができる。(4)上述した信頼性判定に基づいて、より信頼性が高いデフォーカス量を選択する。(5)焦点検出方向に応じた優先度を設ける。 In the pixel array shown in FIG. 37, defocus amounts for a plurality of colors and directions are obtained in one minute block. As a method for finally determining one defocus amount, there are the following methods. (1) An average of a plurality of defocus amounts. (2) Prioritize the defocus amount of a specific color. For example, priority is given to a green defocus amount with high specific visibility. (3) By selecting a defocus amount of a color having a high average value of data, it is possible to detect a focus with high SN and high accuracy. (4) A defocus amount with higher reliability is selected based on the reliability determination described above. (5) A priority according to the focus detection direction is provided.
図38は再結像瞳分割型位相差検出方式の焦点検出を説明するための図である。瞳分割の方式は図5に示すマイクロレンズを用いた方式に限定されず、再結像瞳分割型位相差検出方式であってもよい。図38において、91は交換レンズの光軸、110はコンデンサレンズ、111は絞りマスク、112,113は絞り開口、114、115は再結像レンズ、116は焦点検出用のイメージセンサー(CCD)、132,133は焦点検出光束である。また、101は交換レンズの予定結像面の前方d5の距離に設定された射出瞳である。ここで、距離d5は、コンデンサレンズ110の焦点距離とコンデンサレンズ110と絞り開口112,113の間の距離などに応じて決まる距離であり、以下では測距瞳距離と呼ぶ。
FIG. 38 is a diagram for explaining focus detection by the re-image pupil division type phase difference detection method. The pupil division method is not limited to the method using the microlens shown in FIG. 5, and may be a re-imaging pupil division type phase difference detection method. In FIG. 38, 91 is an optical axis of the interchangeable lens, 110 is a condenser lens, 111 is an aperture mask, 112 and 113 are aperture openings, 114 and 115 are re-imaging lenses, 116 is an image sensor (CCD) for focus detection,
702はコンデンサレンズ110により投影された絞り開口112の領域(測距瞳)、703はコンデンサレンズ110により投影された絞り開口113の領域(測距瞳)である。コンデンサレンズ110、絞りマスク111、絞り開口112,113、再結像レン
ズ114、115、イメージセンサー116が、撮像と焦点検出を同時に行う再結像ユニットを構成する。
図38において、光軸91上にある再結像ユニットは、交換レンズの予定結像面近傍に配置されたコンデンサレンズ110、その背後に配置されたイメージサンサー116、コンデンサレンズ110とイメージサンサー116の間に配置され、予定結像面近傍に結像された1次像をイメージセンサー116上に再結像する一対の再結像レンズ114、115、一対の再結像レンズの近傍(図では前面)に配置された一対の絞り開口112、113を有する絞りマスク111から構成される。イメージセンサー116は、複数の光電変換部が二次元状に配置されたイメージセンサーである。
In FIG. 38, the re-imaging unit on the
イメージセンサー116上に再結像された一対の像の強度分布に対応した情報がイメージセンサー116から出力され、この一対の画像に対し像ズレ検出演算処理(相関処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式(再結像方式)で一対の像の像ズレ量が検出される。コンデンサレンズ110は、絞りマスク111の絞り開口112、113を射出瞳701上に領域702、703として投影している。領域702,703を測距瞳と呼ぶ。すなわち、イメージセンサー116上に再結像される一対の像は、射出瞳701上の一対の測距瞳702,703を通過する光束132、133によって形成される。図38に示す再結像瞳分割型位相差検出方式においては、イメージセンサー116として通常のイメージセンサーを使用できるというメリットがある。
Information corresponding to the intensity distribution of the pair of images re-imaged on the
図39により、偏光フィルターを用いた瞳分割方式の焦点検出について説明する。瞳分割の方式としてはマイクロレンズによる方式に限定されず、図39に示すように偏光フィルターを用いても実現することができる。図において、690は偏光フィルター保持枠であり、偏光フィルター以外の部分は遮光されている。この偏光フィルター保持枠690は交換レンズの絞り近傍に配置される。692は偏光フィルターであり、フィルターの位置および形状により測距瞳を構成する。また、693も偏光フィルターであり、フィルターの位置および形状により測距瞳を構成する。偏光フィルター692と693は、互いに偏光方向が直交する。91は交換レンズの光軸である。621は偏光フィルターであり、偏光方向が偏光フィルター692と一致する。また、622も偏光フィルター、偏光方向が偏光フィルター693と一致する。611、612は光電変換部、631、632は画素、672,673、682,683は光束である。
39, pupil division type focus detection using a polarization filter will be described. The pupil division method is not limited to the microlens method, and can be realized using a polarizing filter as shown in FIG. In the figure,
図39では、隣接する4画素を模式的に例示してある。画素631において、光電変換部611は偏光フィルター621の作用により、偏光フィルター692によって形成された測距瞳を通過する光束を受光し、光束672または682によりに形成される像の強度に対応した信号を出力する。また、画素632において、光電変換部612は偏光フィルター622の作用により、偏光フィルター693によって形成された測距瞳を通過する光束を受光し、光束673または683によりに形成される像の強度に対応した信号を出力する。
In FIG. 39, four adjacent pixels are schematically illustrated. In the
上記のような偏光フィルターを用いた画素631,632を二次元状に配置し、各画素の光電変換部の出力を測距瞳に対応した出力グループにまとめることによって、各測距瞳を各々通過する焦点検出光束が画素列上に形成する一対の像の強度分布に関する情報を得ることができる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことにより、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。
The
なお、図34、図37に示す撮像素子例では赤、青,緑の3原色のフィルターを使用した例を示したが、2つの色のみの撮像素子や4色以上の色を検出するフィルターを備えた
撮像素子にも適用可能である。また、色分解フィルターは原色フィルタ(RGB)としていたが、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)を採用してもよい。さらにまた、色分解は色フィルター以外にも光電変換部を構成するフォトダイオードの分光感度特性を光電変換部毎に変更することによっても達成することができる。
The example of the image sensor shown in FIGS. 34 and 37 shows an example in which filters of three primary colors of red, blue, and green are used. However, an image sensor having only two colors and a filter for detecting four or more colors are used. The present invention can also be applied to an image sensor provided. Although the color separation filter is a primary color filter (RGB), a complementary color filter (green: G, yellow: Ye, magenta: Mg, cyan: Cy) may be employed. Furthermore, color separation can also be achieved by changing the spectral sensitivity characteristics of the photodiodes constituting the photoelectric conversion unit for each photoelectric conversion unit in addition to the color filter.
図28、図37に示す撮像素子の画素配列では水平方向と垂直方向の2方向で像ズレ検出を行う例を示したが、一対の測距瞳の並び方向が水平方向および垂直方向以外の方向になるように画素を構成するとともに、これらの画素を一対の測距瞳の並び方向に配列することによって、水平方向および垂直方向以外の方向でも像ズレ検出が可能になる。このようにすれば微小ブロックで焦点検出不能となる確率が減少し、より正確なデフォーカス分布情報をえることができるので、画像処理による画像品質が向上する。 In the pixel array of the image sensor shown in FIGS. 28 and 37, an example in which image misalignment detection is performed in two directions, the horizontal direction and the vertical direction, is shown. However, the alignment direction of the pair of distance measurement pupils is a direction other than the horizontal direction and the vertical direction. By arranging these pixels in the direction in which the pair of distance measuring pupils are arranged, it is possible to detect image misalignment in directions other than the horizontal direction and the vertical direction. In this way, the probability that focus detection is impossible in a minute block is reduced, and more accurate defocus distribution information can be obtained, so that image quality by image processing is improved.
なお、上述した撮像素子はCCDイメージセンサーやCMOSイメージセンサーとして形成することができる。 Note that the above-described imaging device can be formed as a CCD image sensor or a CMOS image sensor.
図8に示すフローチャートでは画像データをメモリーカードに保存する例を示したが、画像データを電子ビューファインダーやボディの背面に設けられた不図示の背面モニター画面に表示するようにしてもよい。 In the flowchart shown in FIG. 8, an example in which the image data is stored in the memory card is shown, but the image data may be displayed on an electronic viewfinder or a back monitor screen (not shown) provided on the back of the body.
図40は変形例の撮像装置の構成を示す。図1に示す撮像装置では撮像素子211を焦点検出用と撮像用に兼用する例を示したが、図40に示すように撮像専用の撮像素子212を設け、上述した一実施の形態の撮像素子211は焦点検出と電子ビューファインダー表示用に用いるようにしてもよい。図40において、カメラボディ203には撮影光束を分離するハーフミラー221が配置され、透過側に撮像専用の撮像素子212が配置されるとともに、反射側に焦点検出兼電子ビューファインダー表示用の撮像素子211が配置される。撮影前は、撮像素子211の出力に応じて、焦点検出および電子ビューファインダー表示が行われる。レリーズ時は、撮像専用の撮像素子212の出力に応じた画像データが生成される。ハーフミラー221を全反射ミラーとし、撮影時は撮影光路から退避するようにしてもよい。このような構成においては、上述した一実施の形態の画像処理は電子ビューファインダーの表示用のみに使用される。観察時に実際に絞りを絞り込まずに光量を確保したまま絞りを絞り込んだ場合の画像を観察することができる。
FIG. 40 shows a configuration of an imaging apparatus according to a modification. In the image pickup apparatus shown in FIG. 1, an example in which the
《一実施の形態の適用範囲》
一実施の形態の撮像装置は、交換レンズとカメラボディとから構成されるデジタルスチルカメラやフィルムスチルカメラに限定されず、レンズ一体型のデジタルスチルカメラやビデオカメラやフィルムカメラにも適用できる。また、携帯電話等に内蔵される小型カメラや、監視カメラス、テレオ画像撮影装置などにも適用できる。
<< Applicable scope of one embodiment >>
The imaging apparatus according to the embodiment is not limited to a digital still camera or a film still camera including an interchangeable lens and a camera body, but can be applied to a lens-integrated digital still camera, a video camera, or a film camera. Further, the present invention can also be applied to a small camera built in a mobile phone or the like, a surveillance camera, a teleo imaging device, or the like.
また、画像を取り込む装置と取り込んだ画像に画像処理を加える装置を別体として形成してもよい。画像処理においては、大量のデータを高速に処理する能力を持った処理装置(CPU)と、それに伴う電力消費の増加やスペースの増加が見込まれるが、このような構成にすることによって、画像取り込み装置を簡便でコンパクトな構成にすることができるとともに、いったん保存された画像データに対し高速で高度な画像処理を施すことが可能になる。画像処理を加える装置には画像処理制御パラメータを入力する操作部材が設けられる。さらに、撮影して保存した画像に対し、再生時に描写性能を調整しながら画像を閲覧することが可能になる。 Further, a device that captures an image and a device that performs image processing on the captured image may be formed separately. In image processing, a processing unit (CPU) capable of processing a large amount of data at high speed and an accompanying increase in power consumption and space are expected. It is possible to make the apparatus simple and compact, and it is possible to perform advanced image processing at high speed on the image data once stored. An apparatus for applying image processing is provided with an operation member for inputting image processing control parameters. Furthermore, it is possible to view images while adjusting the depiction performance at the time of reproduction with respect to the images captured and stored.
画像取り込み装置と画像処理装置の間の情報の受け渡し方法としては以下の2種類がある。(1)一対の画像データを画像取り込み装置側から画像処理装置側に渡し、画像処理
装置側で基本画像データとデフォーカス分布情報を演算する。このような構成ではデフォーカス分布の算出に色々な方式を適用できる。(2)画像取り込み装置側で基本画像データとデフォーカス分布情報を演算し、基本画像データとデフォーカス分布情報を画像処理装置側に渡す。このような構成では受け渡しするデータの容量を減少できる。
There are the following two methods for transferring information between the image capturing device and the image processing device. (1) A pair of image data is transferred from the image capturing device side to the image processing device side, and basic image data and defocus distribution information are calculated on the image processing device side. In such a configuration, various methods can be applied to calculate the defocus distribution. (2) The basic image data and defocus distribution information are calculated on the image capturing device side, and the basic image data and defocus distribution information are passed to the image processing device side. With such a configuration, the volume of data to be transferred can be reduced.
以上説明したように、一実施の形態によれば次のような効果が得られる。
(1)単一の光学系により結像した画像のみを用いて当該画像にボケを付加することができる。
(2)画像におけるデフォーカス量分布を対の画像に基づいて直接算出しているので、合焦距離の指定や撮影レンズの光学的パラメータの入力が不要になり、画像処理の精度が向上する。
(3)撮影レンズにより撮像された画像を撮像素子で撮像しているので、リアルタイムに画像処理が施こすことができ、撮影現場で画像処理結果を見ながら、画像処理のパラメータを調整することも可能になる。
(4)単一の撮影レンズで撮像した画像に対して画像処理を施した場合でも、違和感なく自然な画像を生成することができる。
(5)対の画像に基づいてデフォーカス量分布を算出する際に、デフォーカス量が算出できない領域が画面上に発生した場合でも、該領域と周囲の領域の画像特性(輝度、色相、彩度、コントラスト、輪郭など)の類似性に基づいて良好なデフォーカス量分布を決定することができる。
(6)対の画像の像ズレ量に基づいてデフォーカス量分布を算出する際に、複数の方向の像ズレ量に基づいてデフォーカス量を算出しているので、デフォーカス量の算出が不能となる領域が減少する。
(7)対の画像を独立して可搬記録媒体に保存しておくので、後から対の画像を読み出して所望の結果が得られるように画像処理をやりなおすことが可能となる。
(8)基本画像データとデフォーカス分布情報を独立して可搬記録媒体に保存しておくので、後から基本画像データとデフォーカス分布情報を読み出し、所望の結果が得られるように画像処理をやりなおすことが可能となる。
(9)絞り開口を大きくできない撮影光学系を用いて撮影した場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。例えばコンパクトサイズのカメラにおいては、スペース的に大きな絞り開口を有する撮影レンズを搭載することが困難であり、また絞り開口を大きくすると光学系の諸特性(像面湾曲、球面収差、色収差、非点収差、歪曲収差、周辺光量、コントラスト、解像度など)が悪化するので、撮影時は絞り開口を絞って撮影せざるを得ない場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。さらに、高輝度な被写体を撮影するときに、シャッター速度の高速側の限界を超えるために、絞り開口を絞って露光量を調節する場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。
As described above, according to the embodiment, the following effects can be obtained.
(1) Blur can be added to an image formed using only an image formed by a single optical system.
(2) Since the defocus amount distribution in the image is directly calculated based on the pair of images, it is not necessary to specify a focus distance or input optical parameters of the photographing lens, and the accuracy of image processing is improved.
(3) Since the image picked up by the taking lens is picked up by the image pickup device, image processing can be performed in real time, and the image processing parameters can be adjusted while viewing the image processing result at the shooting site. It becomes possible.
(4) Even when image processing is performed on an image captured by a single photographing lens, a natural image can be generated without a sense of incongruity.
(5) When calculating a defocus amount distribution based on a pair of images, even if an area where the defocus amount cannot be calculated occurs on the screen, the image characteristics (luminance, hue, saturation) of the area and the surrounding area are generated. A good defocus amount distribution can be determined based on the similarity of degree, contrast, contour, and the like.
(6) When calculating the defocus amount distribution based on the image shift amount of the pair of images, the defocus amount cannot be calculated because the defocus amount is calculated based on the image shift amounts in a plurality of directions. The area that becomes is reduced.
(7) Since the pair of images are stored in the portable recording medium independently, the image processing can be performed again so that the pair of images can be read later to obtain a desired result.
(8) Since the basic image data and the defocus distribution information are independently stored in the portable recording medium, the basic image data and the defocus distribution information are read out later, and image processing is performed so that a desired result is obtained. You can start over.
(9) Even when photographing is performed using a photographing optical system in which the aperture is not large, the blur effect when photographing with a large aperture can be obtained by post-processing. For example, in a compact camera, it is difficult to mount a photographic lens having a large aperture in space. When the aperture is increased, various characteristics of the optical system (field curvature, spherical aberration, chromatic aberration, astigmatism, etc.) Aberration, distortion, peripheral light, contrast, resolution, etc.) will deteriorate, so even if you have to shoot with the aperture opening restricted during shooting, you can post-process the blur effect when shooting with a large aperture opening. Can be obtained. Furthermore, when shooting a high-luminance subject, the blurring effect of shooting with a large aperture opening can be achieved even when adjusting the exposure amount by reducing the aperture opening to exceed the high-speed limit of the shutter speed. It can be obtained by post-treatment.
211 撮像素子
214 ボディ駆動制御装置
219 メモリカード
211
Claims (6)
前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して前記撮像画面に形成される画像を合成画像として生成する画像合成手段と、
前記画像合成手段が用いたデータと同一の前記第1の画像データと前記第2の画像データとに基づき、前記撮像画面全体を複数の小領域に分割した際の各々の小領域における前記撮影光学系より形成された合焦像面と前記予定焦点面とのデフォーカス量を算出する焦点検出手段と、
前記撮像画面内に設定された焦点検出領域において前記焦点検出手段によって算出されたデフォーカス量に基づき、前記撮影光学系の焦点調節を行う焦点調節手段と、
前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、
前記類別手段によって類別されたデフォーカス属性に基づき、前記複数の小領域を複数のグループに分けるグループ化手段と、
前記撮影光学系の絞り開口F値を設定する絞り開口F値設定手段と、
前記絞り開口F値設定手段により設定された絞り開口F値となるように前記撮影光学系の絞り開口径を制御する絞り開口制御手段と、
前記絞り開口F値設定手段により設定された絞り開口F値が前記撮影光学系の絞り開放F値を越えて小さな値となった場合に、前記グループ化手段によって複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、
前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、を備えることを特徴とする撮像装置。 An imaging device for imaging in the subject image by the object light beam passing through the photographing optical system imaging screen area set in the predetermined focal plane of the photographing optical system, a plurality of respectively constituted by a microlens and a photoelectric conversion unit Pixels are two-dimensionally arranged, each of the microlenses divides the subject light flux into a pair of light fluxes that respectively pass through a pair of pupil regions of the pupil of the photographing optical system, and the plurality of photoelectric conversion units, An imaging device including a plurality of first photoelectric conversion units that receive one light beam of the pair of light beams and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams;
An image formed on the imaging screen by adding the first image data based on the output signals of the plurality of first photoelectric conversion units and the second image data based on the output signals of the plurality of second photoelectric conversion units. Image synthesizing means for generating as a synthesized image;
The imaging optics in each small area when the entire imaging screen is divided into a plurality of small areas based on the same first image data and second image data as the data used by the image composition means Focus detection means for calculating a defocus amount between the focused image plane formed by the system and the planned focal plane;
A focus adjustment unit that performs focus adjustment of the photographing optical system based on a defocus amount calculated by the focus detection unit in a focus detection region set in the imaging screen;
Classification means for classifying the plurality of small areas into one of a plurality of defocus attributes according to the magnitude of the defocus amount calculated by the focus detection means;
Grouping means for dividing the plurality of small areas into a plurality of groups based on the defocus attributes classified by the classification means;
Stop aperture F value setting means for setting a stop aperture F value of the photographing optical system;
Stop aperture control means for controlling the stop aperture diameter of the photographing optical system so as to be the stop aperture F value set by the stop aperture F value setting means;
When the aperture opening F value set by the aperture opening F value setting means becomes a small value exceeding the aperture opening F value of the photographing optical system, the small areas are divided into a plurality of groups by the grouping means. Image processing means for performing image processing according to the defocus attribute of the group on the composite image portion corresponding to each of
An imaging apparatus comprising: display means for displaying the composite image processed by the image processing means as a through image.
前記画像処理手段は、前記絞り開口F値設定手段により設定された絞り開口F値が前記撮影光学系の絞り開放F値を越えて小さな値となった場合に、前記グループ化手段によって複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性と前記設定された絞り開口F値に応じて画像処理を施すことを特徴とする撮像装置。 The imaging device according to claim 1,
When the aperture opening F value set by the aperture opening F value setting unit becomes a small value exceeding the aperture opening F value of the photographing optical system, the image processing unit performs a plurality of groups by the grouping unit. An image pickup apparatus, wherein image processing is performed on the composite image portion corresponding to each of the small areas divided in accordance with a defocus attribute of the group and the set aperture opening F value.
前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、
前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、
前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、
前記類別手段によって類別されたデフォーカス属性に基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、
前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、
撮影動作を開始させるレリーズ操作部材と、
前記レリーズ操作部材の操作に応じて前記複数の第1の光電変換部から出力される出力信号による第1の画像データと前記複数の第2の光電変換部から出力される出力信号による第2の画像データとを記憶媒体に記録する記録手段と、を備えることを特徴とする撮像装置。 An imaging element that captures a subject image by a subject light flux that passes through a photographing optical system, wherein a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged, and each of the microlenses is The subject light beam is divided into a pair of light beams that respectively pass through a pair of pupil regions of the pupil of the photographing optical system, and the plurality of photoelectric conversion units receive a plurality of first light beams that receive one light beam of the pair of light beams. An imaging device including a photoelectric conversion unit and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams;
Image composition means for generating a composite image by adding first image data based on output signals of the plurality of first photoelectric conversion units and second image data based on output signals of the plurality of second photoelectric conversion units. When,
Focus detection means for calculating a defocus amount in each of a plurality of small areas in the imaging screen based on the first image data and the second image data;
Classification means for classifying the plurality of small areas into one of a plurality of defocus attributes according to the magnitude of the defocus amount calculated by the focus detection means;
Image processing means for performing image processing in accordance with the defocus attribute of the group on the composite image portion corresponding to each of the small areas divided into a plurality of groups based on the defocus attribute classified by the classification means;
Display means for displaying the composite image processed by the image processing means as a through image;
A release operation member for starting a photographing operation;
First image data based on output signals output from the plurality of first photoelectric conversion units and second output based on output signals output from the plurality of second photoelectric conversion units in response to an operation of the release operation member. An image pickup apparatus comprising: a recording unit that records image data on a storage medium.
前記第1及び第2の光電変換部が前記各マイクロレンズに対応して配置され、
前記画像合成手段は、前記各マイクロレンズに対応する前記第1及び第2の光電変換部の出力信号を加算することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 3,
The first and second photoelectric conversion units are arranged corresponding to the microlenses,
The image synthesizing unit adds the output signals of the first and second photoelectric conversion units corresponding to the microlenses.
前記複数のマイクロレンズのうち互いに隣接配置された一対のマイクロレンズは、その一方のマイクロレンズに対応して前記第1の光電変換部が配置され、その他方のマイクロレンズに対応して前記第2の光電変換部が配置され、
前記画像合成手段は、前記隣接配置されたマイクロレンズにそれぞれ対応する前記第1及び第2の光電変換部の出力信号を加算することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 3,
The pair of microlenses arranged adjacent to each other among the plurality of microlenses has the first photoelectric conversion unit arranged corresponding to one of the microlenses, and the second microlens corresponding to the other microlens. Photoelectric conversion part is arranged,
The image pickup device adds the output signals of the first and second photoelectric conversion units respectively corresponding to the adjacently arranged microlenses.
前記複数のマイクロレンズは、前記撮影光学系の瞳の、所定方向に並んだ一対の瞳領域をそれぞれ通過する一対の光束に分割する第1のマイクロレンズと、前記撮影光学系の瞳の、前記所定方向とは異なった方向に並んだ一対の瞳領域をそれぞれ通過する一対の光束に分割する第2のマイクロレンズとを含むことを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
Said plurality of microlenses, wherein the imaging optical system pupil of a first of microlenses is divided into a pair of light beams passing through each of the pair of pupil regions arranged in the predetermined direction, of the pupil of the imaging optical system, wherein An imaging apparatus comprising: a second microlens that divides a pair of light beams that respectively pass through a pair of pupil regions arranged in a direction different from a predetermined direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012015260A JP5348258B2 (en) | 2012-01-27 | 2012-01-27 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012015260A JP5348258B2 (en) | 2012-01-27 | 2012-01-27 | Imaging device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006185584A Division JP5066851B2 (en) | 2006-07-05 | 2006-07-05 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012142952A JP2012142952A (en) | 2012-07-26 |
JP5348258B2 true JP5348258B2 (en) | 2013-11-20 |
Family
ID=46678717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012015260A Expired - Fee Related JP5348258B2 (en) | 2012-01-27 | 2012-01-27 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5348258B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5942697B2 (en) | 2012-08-21 | 2016-06-29 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
JP6492394B2 (en) * | 2013-05-31 | 2019-04-03 | 株式会社ニコン | Imaging device and imaging apparatus |
JP6138632B2 (en) * | 2013-08-28 | 2017-05-31 | オリンパス株式会社 | Imaging apparatus, imaging method, and program |
JP6477597B2 (en) * | 2016-05-26 | 2019-03-06 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
KR102705860B1 (en) | 2016-08-24 | 2024-09-11 | 아우스터, 인크. | Optical system for collecting distance information within a field |
JP6699768B2 (en) * | 2019-02-07 | 2020-05-27 | 株式会社ニコン | Focus detection device and camera |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09181913A (en) * | 1995-12-26 | 1997-07-11 | Olympus Optical Co Ltd | Camera system |
JPH10164413A (en) * | 1996-12-02 | 1998-06-19 | Nikon Corp | Image-pickup device |
JP2001250931A (en) * | 2000-03-07 | 2001-09-14 | Canon Inc | Solid-state imaging device and imaging system using the same |
JP2002084444A (en) * | 2000-09-06 | 2002-03-22 | Minolta Co Ltd | Image pickup device |
JP4500434B2 (en) * | 2000-11-28 | 2010-07-14 | キヤノン株式会社 | Imaging apparatus, imaging system, and imaging method |
JP2003087545A (en) * | 2001-09-07 | 2003-03-20 | Canon Inc | Image pickup device, image processor and method |
-
2012
- 2012-01-27 JP JP2012015260A patent/JP5348258B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012142952A (en) | 2012-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5066851B2 (en) | Imaging device | |
RU2585235C2 (en) | Image capture devices | |
US8854528B2 (en) | Imaging apparatus | |
JP4992481B2 (en) | Focus detection apparatus and imaging apparatus | |
KR20170137633A (en) | Image processing apparatus, image capturing apparatus, image processing method, and computer-readable storage medium | |
JP4983271B2 (en) | Imaging device | |
JP2009141390A (en) | Image sensor and imaging apparatus | |
JP5348258B2 (en) | Imaging device | |
WO2013027504A1 (en) | Imaging device | |
JP6486149B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP6381266B2 (en) | IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2016038414A (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
JP4858179B2 (en) | Focus detection apparatus and imaging apparatus | |
WO2013005489A1 (en) | Image capture device and image processing device | |
JP5289105B2 (en) | Image processing apparatus, control method therefor, and imaging apparatus | |
JP6712362B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2014026051A (en) | Image capturing device and image processing device | |
WO2019202984A1 (en) | Image capturing device, distance measuring method, distance measuring program, and recording medium | |
JP7150785B2 (en) | Image processing device, imaging device, image processing method, and storage medium | |
JP2009251523A (en) | Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus | |
JP7501696B2 (en) | Imaging device | |
JP2016071275A (en) | Image-capturing device and focus control program | |
JP5338118B2 (en) | Correlation calculation device, focus detection device, and imaging device | |
JP2013037294A (en) | Image pickup apparatus | |
JP5691440B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5348258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |