[go: up one dir, main page]

JP2014142497A - Imaging apparatus and method for controlling the same - Google Patents

Imaging apparatus and method for controlling the same Download PDF

Info

Publication number
JP2014142497A
JP2014142497A JP2013011186A JP2013011186A JP2014142497A JP 2014142497 A JP2014142497 A JP 2014142497A JP 2013011186 A JP2013011186 A JP 2013011186A JP 2013011186 A JP2013011186 A JP 2013011186A JP 2014142497 A JP2014142497 A JP 2014142497A
Authority
JP
Japan
Prior art keywords
focus detection
image
focus
image blur
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013011186A
Other languages
Japanese (ja)
Inventor
Teruhiro Nishio
彰宏 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013011186A priority Critical patent/JP2014142497A/en
Publication of JP2014142497A publication Critical patent/JP2014142497A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining high focus detection accuracy, even when using an image blur correction function.SOLUTION: A digital camera 100A eccentrically moving a second lens group 103 in a plane orthogonal to an optical axis, to correct an image blur is configured to switch focus detection means adopting a phase difference detection system, for detecting a focus on an object by using an electrical signal outputted from a pixel for focus detection included in an imaging element 106 and focus detection means adopting a contrast evaluation system, for detecting a focus position by the contrast evaluation of an object image formed on the imaging element 106, based on an image blur correction amount for correcting the image blur.

Description

本発明は、撮影時の像ブレを抑制する像ブレ補正機能と、複数の被写体に対するオートフォーカス機能とを有する撮像装置、及びその制御方法に関する。   The present invention relates to an imaging apparatus having an image blur correction function for suppressing image blur at the time of shooting and an autofocus function for a plurality of subjects, and a control method thereof.

近年、静止画や動画の撮影時にCMOSセンサ等の撮像素子に結像した被写体像をリアルタイムに観察しながら撮影を行う(所謂、ライブビュー撮影)の使用形態が一般化しつつある。ライブビュー撮影を行う際の被写体に対する合焦制御方法として、例えば、撮像素子における結像面上での位相差検知方式を用いた焦点検出方法が知られている(特許文献1参照)。   2. Description of the Related Art In recent years, a usage form in which shooting is performed while observing a subject image formed on an image sensor such as a CMOS sensor in real time when shooting a still image or a moving image (so-called live view shooting) is becoming common. As a focus control method for a subject at the time of performing live view shooting, for example, a focus detection method using a phase difference detection method on an imaging plane in an image sensor is known (see Patent Document 1).

特開2004−191629号公報JP 2004-191629 A

しかしながら、補正レンズ群を偏心させることにより撮影時の像ブレ補正を行う撮像光学系に対して上記特許文献1に記載された焦点検出方法を用いた場合、補正レンズ群の偏心によって光線ケラレ変化が生じてしまい、焦点検出精度が低下するという問題がある。   However, when the focus detection method described in Patent Document 1 is used for an imaging optical system that performs image blur correction at the time of photographing by decentering the correction lens group, the change in the light vignetting is caused by the eccentricity of the correction lens group. As a result, the focus detection accuracy is lowered.

本発明は、像ブレ補正機能を使用する際にも高い焦点検出精度を得ることができる撮像装置を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus capable of obtaining high focus detection accuracy even when an image blur correction function is used.

本発明に係る撮像装置は、被写体を撮像する撮像手段と、前記撮像手段を構成する撮像素子に含まれる焦点検出用の画素から出力される電気信号を用いて前記被写体に対する焦点を検出する第1の焦点検出手段と、前記被写体に対する焦点を検出する、前記第1の焦点検出手段とは異なる第2の焦点検出手段と、像ブレを補正するための像ブレ補正量を算出する像ブレ補正手段と、前記像ブレ補正手段が算出する像ブレ補正量に基づいて前記第1の焦点検出手段と前記第2の焦点検出手段のいずれを用いるかを選択する選択手段とを備えることを特徴とする。   An image pickup apparatus according to the present invention uses an image pickup unit that picks up an image of a subject and an electric signal output from a focus detection pixel included in an image pickup element that constitutes the image pickup unit to detect a focus on the subject. Focus detection means, second focus detection means different from the first focus detection means for detecting the focus on the subject, and image blur correction means for calculating an image blur correction amount for correcting image blur. And a selection means for selecting which of the first focus detection means and the second focus detection means to use based on the image blur correction amount calculated by the image blur correction means. .

本発明によれば、撮像素子上に撮像光学系の焦点検出を行うための焦点検出用素子を有する撮像装置において、像ブレ補正を行う機構を使用した際にも高い焦点検出精度を得ることができる。   According to the present invention, in an imaging apparatus having a focus detection element for performing focus detection of an imaging optical system on the imaging element, high focus detection accuracy can be obtained even when a mechanism that performs image blur correction is used. it can.

本発明の実施形態に係る第1のデジタルカメラの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a first digital camera according to an embodiment of the present invention. 本発明の実施形態に係る第2のデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the 2nd digital camera which concerns on embodiment of this invention. 図1の第1のデジタルカメラ及び図2の第2のデジタルカメラの撮像素子の画素配列構造の一例を示す平面図である。FIG. 3 is a plan view illustrating an example of a pixel arrangement structure of an image sensor of the first digital camera of FIG. 1 and the second digital camera of FIG. 2. 図1の第1のデジタルカメラ及び図2の第2のデジタルカメラの撮像素子として用いることができる別の撮像素子の画素配列構造を示す平面図である。It is a top view which shows the pixel arrangement | sequence structure of another image pick-up element which can be used as an image pick-up element of the 1st digital camera of FIG. 1, and the 2nd digital camera of FIG. 図1の第1のデジタルカメラ及び図2の第2のデジタルカメラの撮像素子として用いることができる更に別の撮像素子の画素配列構造を示す平面図である。It is a top view which shows the pixel arrangement | sequence structure of another image pick-up element which can be used as an image pick-up element of the 1st digital camera of FIG. 1, and the 2nd digital camera of FIG. 図1の第1のデジタルカメラにおいて第2レンズ群を、図2の第2のデジタルカメラにおいて撮像素子をそれぞれ偏心移動させることにより像ブレ補正を行う撮像光学系の概略を光学形式で示す図である。FIG. 3 is a diagram illustrating an outline of an imaging optical system that performs image blur correction by decentering a second lens group in the first digital camera of FIG. 1 and an image sensor in the second digital camera of FIG. 2 in an optical format. is there. 焦点検出画素が図3の構成となっている場合における、撮像光学系の射出瞳に対する焦点検出画素の瞳投影像の関係を示す図である。FIG. 4 is a diagram illustrating a relationship of a pupil projection image of a focus detection pixel with respect to an exit pupil of the imaging optical system when the focus detection pixel has the configuration of FIG. 3. 焦点検出画素が図4又は図5に示した構成となっている場合における、撮像光学系の射出瞳に対する焦点検出画素の瞳投影像の関係を示す図である。FIG. 6 is a diagram illustrating a relationship of a pupil projection image of a focus detection pixel with respect to an exit pupil of the imaging optical system when the focus detection pixel has the configuration illustrated in FIG. 4 or FIG. 5. 図7及び図8の状態におけるA像とB像の焦点検出画素の出力波形を示す図である。It is a figure which shows the output waveform of the focus detection pixel of A image and B image in the state of FIG.7 and FIG.8. 図1のデジタルカメラでの焦点検出処理のフローチャートである。It is a flowchart of the focus detection process in the digital camera of FIG.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。以下の説明では、本実施形態に係る撮像装置として、デジタル一眼レフカメラやコンパクトデジタルカメラ等のデジタルカメラを取り上げることとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a digital camera such as a digital single-lens reflex camera or a compact digital camera is taken up as the imaging apparatus according to the present embodiment.

図1は、本発明の実施形態に係る第1のデジタルカメラ100Aの概略構成を示すブロック図である。デジタルカメラ100Aは、撮像素子106を備えるカメラ本体と撮像光学系とが一体化または接続されて動画と静止画を撮影可能であり、撮像光学系の一部に偏心移動作用を与えることで像ブレの補正を行う手ブレ補正機構を有している。   FIG. 1 is a block diagram showing a schematic configuration of a first digital camera 100A according to an embodiment of the present invention. In the digital camera 100A, a camera body including the image sensor 106 and an imaging optical system are integrated or connected to be able to shoot a moving image and a still image. It has a camera shake correction mechanism for correcting the above.

デジタルカメラ100Aは、撮像光学系(結像光学系)を構成する第1レンズ群101、絞り102、第2レンズ群103、第3レンズ群104及び光学的ローパスフィルタ105を備える。また、デジタルカメラ100Aは、撮像素子106、ズームアクチュエータ111、絞りアクチュエータ112、補正レンズアクチュエータ113、フォーカスアクチュエータ114、無線式通信部115及び姿勢検知部116を備える。   The digital camera 100 </ b> A includes a first lens group 101, an aperture 102, a second lens group 103, a third lens group 104, and an optical low-pass filter 105 that constitute an imaging optical system (imaging optical system). The digital camera 100 </ b> A includes an image sensor 106, a zoom actuator 111, a diaphragm actuator 112, a correction lens actuator 113, a focus actuator 114, a wireless communication unit 115, and an attitude detection unit 116.

第1レンズ群101は、撮像光学系の先端に配置されたレンズ群であり、光軸方向に移動可能である。絞り102は、開口径を調節することで撮影時の光量調節を行い、また、静止画撮影時には露光時間調節用シャッタとしての機能を備える。第2レンズ群103は、手持ち撮影時の像ブレを撮像光学系の偏心移動を行うことで補正する補正レンズ群である。また、第1レンズ群101と第2レンズ群103との間隔を変化させることによって焦点距離を変化させるズーム機能が得られる。第3レンズ群104は、光軸方向の移動により焦点調節を行う。光学的ローパスフィルタ105は、撮影画像の偽色やモアレを軽減するための光学素子である。   The first lens group 101 is a lens group disposed at the tip of the imaging optical system, and is movable in the optical axis direction. The diaphragm 102 adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function as an exposure time adjusting shutter at the time of still image shooting. The second lens group 103 is a correction lens group that corrects image blur at the time of hand-held shooting by performing an eccentric movement of the imaging optical system. Also, a zoom function that changes the focal length by changing the distance between the first lens group 101 and the second lens group 103 can be obtained. The third lens group 104 performs focus adjustment by movement in the optical axis direction. The optical low-pass filter 105 is an optical element for reducing false colors and moire in the captured image.

撮像素子106は、本実施形態では、CMOSセンサとその周辺回路で構成されている。CMOSセンサは、横方向にM画素、縦方向にN画素(M,Nは整数)の受光ピクセルが正方配置された構造を有し、例えば、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された2次元単板カラーセンサである。ズームアクチュエータ111は、上述の各種レンズ群を収納するカム筒(不図示)を回転させることにより、各種レンズ群を光軸方向に駆動してズーム操作を行ものであり、手動式と電動式のいずれのものであってもよい。   In this embodiment, the image sensor 106 includes a CMOS sensor and its peripheral circuits. The CMOS sensor has a structure in which M pixels in the horizontal direction and N pixels (M and N are integers) in the vertical direction are squarely arranged. For example, a Bayer array primary color mosaic filter is formed on-chip. 2D single plate color sensor. The zoom actuator 111 rotates the cam cylinder (not shown) that houses the various lens groups described above to drive the various lens groups in the optical axis direction to perform zoom operations. Any one may be used.

絞りアクチュエータ112は、絞り102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。補正レンズアクチュエータ113は、例えば、第2レンズ群103を光軸と直交する方向に偏心移動させることで、撮像素子106に結像する被写体像の像ブレの補正を行う。なお、補正レンズアクチュエータ113は、例えば、光軸と直交する面内において直交する2軸方向に第2レンズ群103を移動させ、合成される移動量と移動方向にて撮像素子106に対する像ブレ方向の変化に対応を行う。フォーカスアクチュエータ114は、第3レンズ群104を光軸方向に駆動して焦点調節を行う。   The aperture actuator 112 controls the aperture diameter of the aperture 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. The correction lens actuator 113 corrects the image blur of the subject image formed on the image sensor 106 by moving the second lens group 103 eccentrically in a direction orthogonal to the optical axis, for example. For example, the correction lens actuator 113 moves the second lens group 103 in two orthogonal directions in a plane orthogonal to the optical axis, and the image blur direction with respect to the image sensor 106 in the amount and direction of movement to be combined. Respond to changes. The focus actuator 114 performs focus adjustment by driving the third lens group 104 in the optical axis direction.

無線式通信部115は、インターネット等のネットワークを通じて不図示のサーバコンピュータと通信するためのアンテナや信号処理回路で構成される。姿勢検知部116は、カメラ本体の撮影姿勢、即ち、横位置撮影か縦位置撮影かを判別するための電子水準器である。   The wireless communication unit 115 includes an antenna and a signal processing circuit for communicating with a server computer (not shown) through a network such as the Internet. The posture detection unit 116 is an electronic level for determining the shooting posture of the camera body, that is, whether it is horizontal position shooting or vertical position shooting.

デジタルカメラ100Aは、CPU121、通信制御回路122、姿勢検知回路123、撮像素子駆動回路124、画像処理回路125、フォーカス駆動回路126及び補正レンズ駆動回路127を備える。また、デジタルカメラ100Aは、絞り駆動回路128、ズーム駆動回路129、表示器131、操作スイッチ132及びフラッシュメモリ133を備える。   The digital camera 100A includes a CPU 121, a communication control circuit 122, an attitude detection circuit 123, an image sensor driving circuit 124, an image processing circuit 125, a focus driving circuit 126, and a correction lens driving circuit 127. The digital camera 100A also includes an aperture driving circuit 128, a zoom driving circuit 129, a display 131, an operation switch 132, and a flash memory 133.

CPU121は、カメラ本体の種々の制御を司る演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。CPU121は、ROMに記憶された所定のプログラムに基づいて、デジタルカメラ100Aが備える各種回路を駆動し、焦点検出や撮影、画像処理、画像記録等の一連の動作を実行する。また、CPU121は、後述する焦点検出処理、合焦判断処理及びフォーカス駆動制御処理を行う。通信制御回路122は、無線式通信部115を介して、カメラ本体から撮影画像をサーバコンピュータへ送信し、また、サーバコンピュータから画像や各種情報を受信する。   The CPU 121 includes a calculation unit that performs various controls of the camera body, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 drives various circuits included in the digital camera 100A based on a predetermined program stored in the ROM, and executes a series of operations such as focus detection, photographing, image processing, and image recording. The CPU 121 performs a focus detection process, a focus determination process, and a focus drive control process, which will be described later. The communication control circuit 122 transmits a captured image from the camera body to the server computer via the wireless communication unit 115, and receives images and various information from the server computer.

姿勢検知回路123は、姿勢検知部116の出力信号からカメラ本体の姿勢を判別する。撮像素子駆動回路124は、撮像素子106の撮像動作を制御し、撮像素子106から取得した画像信号をA/D変換してCPU121に送信する。画像処理回路125は、撮像素子106が取得した画像のγ変換やカラー補間、画像圧縮等の処理を行う。フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群103を光軸方向に駆動して焦点調節(合焦動作)を行う。補正レンズ駆動回路127は、不図示のブレ量検知手段から出力される信号に基づいて補正レンズアクチュエータ113を駆動制御し、像ブレを補正する補正レンズ群である第2レンズ群103の偏心移動制御を行う。   The posture detection circuit 123 determines the posture of the camera body from the output signal of the posture detection unit 116. The image sensor drive circuit 124 controls the imaging operation of the image sensor 106, A / D converts the image signal acquired from the image sensor 106, and transmits the image signal to the CPU 121. The image processing circuit 125 performs processes such as γ conversion, color interpolation, and image compression of the image acquired by the image sensor 106. The focus drive circuit 126 drives and controls the focus actuator 114 based on the focus detection result, and drives the third lens group 103 in the optical axis direction to perform focus adjustment (focusing operation). The correction lens drive circuit 127 drives and controls the correction lens actuator 113 based on a signal output from a blur amount detection unit (not shown), and controls the eccentric movement of the second lens group 103 that is a correction lens group that corrects image blur. I do.

絞り駆動回路128は、絞りアクチュエータ112を駆動制御して、絞り102の開口を制御する。ズーム駆動回路129は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。表示器131は、液晶ディスプレイ(LCD)等であり、デジタルカメラ100Aの撮影モードに関する情報や撮影時のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態表示画像、カメラ本体の姿勢情報等を表示する。操作スイッチ132は、電源スイッチや撮影開始スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。フラッシュメモリ133は、カメラ本体に対して着脱自在であり、撮影済み画像を記憶する。   The aperture driving circuit 128 controls the aperture of the aperture 102 by drivingly controlling the aperture actuator 112. The zoom drive circuit 129 drives the zoom actuator 111 according to the zoom operation of the photographer. The display 131 is a liquid crystal display (LCD) or the like, and includes information related to the shooting mode of the digital camera 100A, a preview image at the time of shooting, a confirmation image after shooting, a focus state display image at the time of focus detection, and the posture of the camera body. Display information. The operation switch 132 includes a power switch, a shooting start switch, a zoom operation switch, a shooting mode selection switch, and the like. The flash memory 133 is detachable from the camera body and stores captured images.

図2は、本発明の実施形態に係る第2のデジタルカメラ100Bの概略構成を示すブロック図である。デジタルカメラ100Bは、図1に示した第1のデジタルカメラ100Aと比較すると、第2レンズ群103を駆動する補正レンズアクチュエータ113に代えて、撮像素子106を駆動する撮像素子アクチュエータ117を備えている点で相違する。また、デジタルカメラ100Bは、デジタルカメラ100Aが備える補正レンズアクチュエータ113を駆動する補正レンズ駆動回路127に代えて、撮像素子アクチュエータ117を駆動する撮像素子アクチュエータ駆動回路130を備える点で相違する。   FIG. 2 is a block diagram showing a schematic configuration of the second digital camera 100B according to the embodiment of the present invention. Compared with the first digital camera 100A shown in FIG. 1, the digital camera 100B includes an image sensor actuator 117 that drives the image sensor 106 instead of the correction lens actuator 113 that drives the second lens group 103. It is different in point. The digital camera 100B is different in that it includes an image sensor actuator drive circuit 130 that drives the image sensor actuator 117 instead of the correction lens drive circuit 127 that drives the correction lens actuator 113 provided in the digital camera 100A.

しかしながら、デジタルカメラ100A,100Bは、撮像光学系と撮像素子106とを相対的に移動させることによって、被写体像の結像位置変位を行わせて像ブレ補正を行う点で共通している。即ち、デジタルカメラ100Bでは、光軸と直交する面内で撮像素子106を偏心移動させることによって撮像素子106に結像される被写体像の像ブレ補正を行う。   However, the digital cameras 100 </ b> A and 100 </ b> B are common in that image blur correction is performed by moving the imaging optical system and the imaging element 106 to change the imaging position of the subject image. That is, in the digital camera 100B, the image blur correction of the subject image formed on the image sensor 106 is performed by moving the image sensor 106 eccentrically within a plane orthogonal to the optical axis.

撮像素子アクチュエータ駆動回路130は、不図示のブレ量検知手段から出力される信号に基づいて撮像素子アクチュエータ117の駆動制御を行い、撮像素子106の偏心移動制御を行う。撮像素子アクチュエータ117は、例えば、光軸と直交する面内において直交する2軸方向に撮像素子106を移動させ、合成される移動量と移動方向にて撮像素子106に対する像ブレ方向の変化に対応を行う。   The image sensor actuator drive circuit 130 performs drive control of the image sensor actuator 117 based on a signal output from a blur amount detection unit (not shown), and performs eccentric movement control of the image sensor 106. The image sensor actuator 117, for example, moves the image sensor 106 in two orthogonal directions within a plane orthogonal to the optical axis, and responds to a change in the image blur direction relative to the image sensor 106 in the amount and direction of movement to be combined. I do.

本実施形態に係る位相差検知による焦点検出方法について、従来の位相差検知による焦点検出方法と対比して説明する。なお、本実施形態に係る位相差検知による焦点検出方法は、上記説明に係るデジタルカメラ100A,100Bに共通して用いられる。   A focus detection method based on phase difference detection according to this embodiment will be described in comparison with a conventional focus detection method based on phase difference detection. Note that the focus detection method by phase difference detection according to the present embodiment is commonly used in the digital cameras 100A and 100B according to the above description.

従来は、例えば、特開平2−19813号公報に記載されているように、位相差を検出するために撮像光学系の一部の光線を焦点検出用光学系に偏向させることにより位相差検知を行っている。焦点検出用光学系は、一対となる2系統の各光学系が撮像光学系の射出瞳範囲の一部分光線を取り込み、一対の光電変換素子に像を形成するものである。そして、焦点検出用の2系統の各光学系で形成される2つの光学像を光電変換により電気信号に変換して得られる2つの形成像(以下「A像」、「B像」という)の相対的な位置関係である位相差を検出する。ここで、結像位置のずれ(デフォーカス)に対するA像とB像の位相差の変化量の関係は焦点検出用光学系の構成で決定されるため、基線長が既知であれば互いの関係を求めることができる。よって、A像とB像の位相差から撮像素子に結像される被写体像の焦点位置を検知することができる。   Conventionally, for example, as described in Japanese Patent Application Laid-Open No. 2-19813, phase difference detection is performed by deflecting some light beams of an imaging optical system to a focus detection optical system in order to detect a phase difference. Is going. In the focus detection optical system, each pair of two optical systems captures a partial light beam in the exit pupil range of the imaging optical system and forms an image on the pair of photoelectric conversion elements. Then, two formed images (hereinafter referred to as “A image” and “B image”) obtained by converting two optical images formed by the two optical systems for focus detection into electric signals by photoelectric conversion are shown. A phase difference that is a relative positional relationship is detected. Here, the relationship between the amount of change in the phase difference between the A image and the B image with respect to the shift (defocus) of the imaging position is determined by the configuration of the focus detection optical system. Can be requested. Therefore, the focal position of the subject image formed on the image sensor can be detected from the phase difference between the A image and the B image.

相関演算されるA像とB像の隔たり量(像ずれ量)を“L”、デフォーカス量を“DEF”としたとき、基線長Kは“K=L/DEF”で表される。基線長Kを算出するにあたっては、撮像光学系と焦点検出画素の光学的特性及び電気的特性を知っておく必要がある。具体的には、撮像光学系の射出瞳形状を導き出すための光線ケラレ情報と、その位置に投影される焦点検出画素の瞳像の関係と、焦点検出画素が射出瞳から受光する際の受光角強度分布情報が必要となる。   The base line length K is expressed as “K = L / DEF”, where “L” is the distance (image shift amount) between the A image and B image to be correlated and the defocus amount is “DEF”. In calculating the baseline length K, it is necessary to know the optical characteristics and electrical characteristics of the imaging optical system and the focus detection pixel. Specifically, ray vignetting information for deriving the exit pupil shape of the imaging optical system, the relationship between the pupil image of the focus detection pixel projected at that position, and the light reception angle when the focus detection pixel receives light from the exit pupil Intensity distribution information is required.

従来の位相差検知方式の焦点検出用光学系は、遮光マスクを配置して撮像光学系の光線通過範囲の分離(瞳分離)を行い、焦点検出時にはその遮光範囲内の光線はケラレを生じないように撮像光学系を開放状態として一定以上の明るさ(有効Fナンバー)となっていることを前提としている。この場合、焦点位置検出に必要となる基線長情報は変動することがないため、撮像装置に焦点検出光学系に固有な基線長情報を記憶しておけばよい。   A conventional phase detection optical system for focus detection uses a light-shielding mask to separate the light transmission range of the imaging optical system (pupil separation), and light in the light-shielding range does not cause vignetting during focus detection. As described above, it is assumed that the imaging optical system is in an open state and the brightness (effective F number) exceeds a certain level. In this case, since the baseline length information necessary for focus position detection does not fluctuate, the baseline length information unique to the focus detection optical system may be stored in the imaging apparatus.

しかし、近年のデジタル一眼レフレックスカメラには、撮像素子に結像する被写体像を液晶表示装置や電子ビューファインダにてリアルタイムに観察しながら撮影を行う、所謂、ライブビュー撮影機能を有するものが多い。この機能を活かしつつ合焦状態を得るために、撮像素子上の撮像画素を位相差式の焦点検出画素として用いる技術が提案されている。本実施形態では、このような焦点検出方式を用いることとし、以下に、焦点検出画素の構成と受光特性について以下に説明する。   However, many recent digital single-lens reflex cameras have a so-called live view shooting function in which a subject image formed on an image sensor is photographed while being observed in real time with a liquid crystal display device or an electronic viewfinder. . In order to obtain an in-focus state while making use of this function, a technique has been proposed in which an imaging pixel on an imaging element is used as a phase difference type focus detection pixel. In this embodiment, such a focus detection method is used, and the configuration and light receiving characteristics of the focus detection pixel will be described below.

図3は、デジタルカメラ100A,100Bにおける撮像素子106の画素配列構造の一例を示す平面図である。図3の上下方向をY方向、左右方向をX方向とする。撮像素子106は、画素群300,301,302,303,304を備えている。画素群300は撮像画像を形成するための画素であり、画素群301〜304は画素内に遮光構造が設けられた焦点検出用の画素群である。なお、画素群301〜304は、例えば特開2009−244862号公報に記載された公知技術等と同等である。   FIG. 3 is a plan view showing an example of a pixel arrangement structure of the image sensor 106 in the digital cameras 100A and 100B. The vertical direction in FIG. 3 is the Y direction, and the horizontal direction is the X direction. The image sensor 106 includes pixel groups 300, 301, 302, 303, and 304. The pixel group 300 is a pixel for forming a captured image, and the pixel groups 301 to 304 are focus detection pixel groups in which a light shielding structure is provided in the pixels. Note that the pixel groups 301 to 304 are equivalent to the known technique described in, for example, Japanese Patent Application Laid-Open No. 2009-244862.

図3中、Y方向に一列に配置された画素群301,302は、Y方向への被写体像の光電変換信号波形を位相差検知用の一対の相関演算用電気信号として用いて、横縞パターン形状の被写体の焦点位置を検出するものである。同様に、図3中、X方向に一列に配置された画素群303,304を用いて、X方向への被写体像の光電変換信号波形位相差検知用の一対の相関演算用電気信号として用いて、縦縞パターン形状の被写体の焦点位置を検出するためのものである。   In FIG. 3, pixel groups 301 and 302 arranged in a line in the Y direction have horizontal stripe pattern shapes using a photoelectric conversion signal waveform of a subject image in the Y direction as a pair of correlation calculation electric signals for phase difference detection. The focus position of the subject is detected. Similarly, in FIG. 3, pixel groups 303 and 304 arranged in a line in the X direction are used as a pair of correlation calculation electric signals for detecting a photoelectric conversion signal waveform phase difference of the subject image in the X direction. This is for detecting the focus position of a subject having a vertical stripe pattern shape.

図4は、1つのマイクロレンズに対して2つの光電変換部が配置された撮像素子の画素配列構造を示す平面図であり、このような撮像素子をデジタルカメラ100A,100Bの撮像素子106として用いることもできる。図4の上下方向をY方向、左右方向をX方向とする。図4中、X方向に並んだ画素群400は、画素402,403からの各電気信号を一対の相関演算用の電気信号として、Y方向の縞パターンの被写体の焦点位置を検出するためのものである。また、図4中、Y方向に並んだ画素群401は、画素404,405からの各電気信号を一対の相関演算用電気信号として、X方向の縞パターンの被写体の焦点位置を検出するためのものである。なお、画素402,403の電気信号と画素404,405の電気信号をそれぞれ加算することにより、撮影画像信号として用いることができる。   FIG. 4 is a plan view showing a pixel arrangement structure of an image sensor in which two photoelectric conversion units are arranged for one microlens, and such an image sensor is used as the image sensor 106 of the digital cameras 100A and 100B. You can also The vertical direction in FIG. 4 is the Y direction, and the horizontal direction is the X direction. In FIG. 4, the pixel group 400 arranged in the X direction is for detecting the focal position of the subject in the stripe pattern in the Y direction using each electric signal from the pixels 402 and 403 as a pair of correlation calculation electric signals. It is. In FIG. 4, the pixel group 401 arranged in the Y direction detects the focal position of the subject in the X-direction stripe pattern using each electrical signal from the pixels 404 and 405 as a pair of correlation calculation electrical signals. Is. Note that the electrical signals of the pixels 402 and 403 and the electrical signals of the pixels 404 and 405 can be added to be used as a captured image signal.

図5は、1つのマイクロレンズに対して4つの光電変換部が配置された撮像素子の画素配列構造を示す平面図であり、この撮像素子をデジタルカメラ100A,100Bの撮像素子106として用いることもできる。図5の上下方向をY方向、左右方向をX方向とする。図5の撮像素子では、4つの光電変換部の電気信号の加算方式を変えることにより、図3を参照して説明した撮像素子と同様の画素特性を得ることができる。即ち、画素群500は、Y方向の縞パターンの被写体の焦点検出を行う際には、X方向に並んだ画素501,502と画素503,504のそれぞれの光電変換信号を加算することによって得られる2列の電気信号波形を一対の相関演算用の電気信号として用いる。また、画素群500は、X方向の縞パターンの被写体の焦点検出を行う際には、Y方向に並んだ画素501,503と画素502,504のそれぞれの光電変換信号を加算することによって得られた2列の電気信号波形を一対の相関演算用の電気信号として用いる。   FIG. 5 is a plan view showing a pixel arrangement structure of an image sensor in which four photoelectric conversion units are arranged for one microlens. This image sensor may be used as the image sensor 106 of the digital cameras 100A and 100B. it can. The vertical direction in FIG. 5 is the Y direction, and the horizontal direction is the X direction. In the image sensor of FIG. 5, the pixel characteristics similar to those of the image sensor described with reference to FIG. 3 can be obtained by changing the addition method of the electric signals of the four photoelectric conversion units. That is, the pixel group 500 is obtained by adding the respective photoelectric conversion signals of the pixels 501 and 502 and the pixels 503 and 504 arranged in the X direction when performing focus detection of a subject having a stripe pattern in the Y direction. Two rows of electric signal waveforms are used as a pair of correlation calculation electric signals. Further, the pixel group 500 is obtained by adding the photoelectric conversion signals of the pixels 501 and 503 and the pixels 502 and 504 arranged in the Y direction when performing focus detection of a subject having a stripe pattern in the X direction. The two rows of electric signal waveforms are used as a pair of correlation calculation electric signals.

なお、このような焦点検出のための光電変換信号の2通りの加算方法は、撮像素子の結像面を複数のブロックに分け、ブロック毎に画素の加算方法を変えることにより、或いは、千鳥配列的に互い違いに画素の加算方法を変えることによって実現してもよい。その場合、縦縞パターンと横縞パターン被写体を同時に評価することができるため、焦点検出に際して被写体のパターン方向依存性をなくすことができる。   Note that the two methods of adding photoelectric conversion signals for focus detection can be performed by dividing the imaging surface of the image sensor into a plurality of blocks and changing the pixel addition method for each block, or by staggered arrangement. For example, the pixel addition method may be changed alternately. In this case, since the vertical stripe pattern and horizontal stripe pattern subjects can be evaluated simultaneously, the subject pattern direction dependency can be eliminated during focus detection.

また、焦点検出のための光電変換信号の加算方法は、撮影状態に応じて或いは時系列的に全画素において切り替えを行ってもよい。この場合、同パターン方向の被写体を焦点検出する焦点検出用画素が密な状態になるため、焦点検出用画素が疎な場合に生ずる細い線分を有する被写体が合焦近傍において被写体検知が行えなくなるという問題を回避することができる。   Further, the photoelectric conversion signal addition method for focus detection may be switched in all pixels according to the photographing state or in time series. In this case, since the focus detection pixels for detecting the focus of the subject in the same pattern direction are in a dense state, the subject having a thin line segment generated when the focus detection pixels are sparse cannot be detected in the vicinity of the in-focus state. Can be avoided.

一方、画素501〜504から出力される電気信号を加算することにより、撮影画像用信号として用いることができる。このような撮像素子構造を用いた場合、従来の位相差検知方式のように撮像光学系から被写体像の一部を焦点検出用の光学系へと分岐させる必要がない。そのため、リアルタイムに撮像素子が受光して画像記録を行う被写体像を監視しながらライブビュー撮影を行うことができ、従来の動画撮影において被写体光線の分割機構なしでは行えなかった位相差検知方式の焦点検出が可能となっている。   On the other hand, by adding the electrical signals output from the pixels 501 to 504, they can be used as a captured image signal. When such an image pickup device structure is used, it is not necessary to branch a part of the subject image from the image pickup optical system to the focus detection optical system unlike the conventional phase difference detection method. Therefore, live view shooting can be performed while monitoring the subject image for which the image sensor receives light and records the image in real time, and the focus of the phase difference detection method that cannot be achieved without the subject beam splitting mechanism in conventional movie shooting. Detection is possible.

しかしながら、上述のライブビュー撮影では、リアルタイムで画像記録を行うために、撮像光学系の絞り値を被写体像の明るさ変化に応じて変化させることが必要となる。そのため、前述の従来の位相差検出方式のように焦点検出のために常に撮像光学系を開放状態に保持することができない。   However, in the above live view shooting, in order to perform image recording in real time, it is necessary to change the aperture value of the imaging optical system in accordance with the change in the brightness of the subject image. Therefore, the imaging optical system cannot always be kept open for focus detection as in the conventional phase difference detection method described above.

この場合に問題となるのは、撮影時の絞りの絞り込み動作によって撮像光学系の有効Fナンバーが大きくなってくる(暗くなってくる)と、撮像光学系の射出瞳範囲が小さくなるため、焦点検出のために取り込まれる光線にケラレが発生してくることである。これにより、焦点検出のために取り込まれる電気信号(以下「像信号」と呼ぶ)に変化が生じてしまい、前述したデフォーカス量に対する像信号の位相差の変化量の関係(K=L/DEF)に変化が生じてしまうと同時に、像信号で相関演算を行う際に誤差が発生してくる。また、撮像光学系の開口効率が低下する画面周辺像高の焦点検出画素で焦点検出を行う際にも光線ケラレが発生し、同様の問題が生じる。この問題を解決するために、例えば、特開2004−191629号公報等は、焦点検出時に撮像光学系の光線ケラレ情報を取得し、焦点検出用の像信号の補正を行う方法を提案している。   The problem in this case is that if the effective F-number of the imaging optical system becomes larger (becomes darker) due to the diaphragm aperture operation at the time of shooting, the exit pupil range of the imaging optical system becomes smaller. This is the occurrence of vignetting in the light beam captured for detection. As a result, a change occurs in an electrical signal (hereinafter referred to as an “image signal”) captured for focus detection, and the relationship between the defocus amount and the change amount of the phase difference of the image signal (K = L / DEF). At the same time, an error occurs when performing correlation calculation on the image signal. Also, when performing focus detection with focus detection pixels having a peripheral image height at which the aperture efficiency of the imaging optical system is reduced, light vignetting occurs and the same problem occurs. In order to solve this problem, for example, Japanese Patent Application Laid-Open No. 2004-191629 proposes a method of acquiring light vignetting information of an imaging optical system at the time of focus detection and correcting an image signal for focus detection. .

しかしながら、近年の防振機能を有する撮影レンズには、撮像光学系を構成する補正レンズ群を偏心移動させることで像ブレを補正するものが多く、この場合、偏心移動時に光線ケラレ状態が変化するため、焦点検出精度に影響が及ぶ。これに対して、像ブレ方向を追従するように撮像素子を移動させることで像ブレ補正を行う方式もある。しかし、この方法では、撮像素子の一定の領域に射出される光線は、撮像素子が移動するために、見かけ上、常に撮像光学系からの射出角度が変化している(像高変化が生じている)状態となり、光線ケラレ状態も変化を生じていることになる。   However, many recent photographing lenses having an image stabilization function correct image blur by moving the correction lens group constituting the imaging optical system eccentrically. In this case, the light vignetting state changes during the eccentric movement. Therefore, the focus detection accuracy is affected. On the other hand, there is also a method of performing image blur correction by moving the image sensor so as to follow the image blur direction. However, in this method, the light beam emitted to a certain area of the image pickup device moves the image pickup device, so that the apparent emission angle from the image pickup optical system always changes (the image height changes). In other words, the vignetting state also changes.

図6は、補正レンズ群である第2レンズ群103又は撮像素子106が偏心移動を行うことにより像ブレ補正を行う本実施形態に係る図1又は図2の撮像光学系の概略を光学形式で示す図である。図6において、被写体側に位置する第1レンズ群101は、正の屈折力を有するものとする。第2レンズ群103は、負の屈折力を有しており、光軸と直交する方向に偏心移動を行うことで結像位置変位作用を発生させて、像ブレを補正する(打ち消す)。第3レンズ群104は、正の屈折力を有するものとする。図6に示す絞り102、光学的ローパスフィルタ105及び撮像素子を106は、図1を参照した説明に準ずる。図6において、画面中心光束を“L0”、周辺光束を“L1”とする。   FIG. 6 shows an outline of the imaging optical system of FIG. 1 or FIG. 2 according to the present embodiment in which the second lens group 103, which is a correction lens group, or the image sensor 106 performs image blur correction by performing an eccentric movement in an optical format. FIG. In FIG. 6, it is assumed that the first lens group 101 located on the subject side has a positive refractive power. The second lens group 103 has a negative refracting power, and performs an eccentric movement in a direction perpendicular to the optical axis to generate an imaging position displacement action, thereby correcting (cancelling) image blur. The third lens group 104 has a positive refractive power. The diaphragm 102, the optical low-pass filter 105, and the image sensor 106 shown in FIG. 6 are based on the description with reference to FIG. In FIG. 6, the center beam of the screen is “L0” and the peripheral beam is “L1”.

図6(A)は、像ブレ補正を行う前の状態を示している。そして、図6(B)は、画角変化量として角度Δωに相当する像ブレの補正作用を得るために、第2レンズ群103を偏心移動させた状態を示している。図6(B)の状態では、第2レンズ群103の偏心によって、絞り102の位置において第2レンズ群103の光線有効範囲が撮像光学系の瞳範囲内に入り込んでしまい、その結果、非対称な光線ケラレが生じている。図6(C)は、撮像素子106を偏心移動させて、像ブレ補正を行った状態を示しており、図6(B)と同様に角度Δωに相当する像ブレの補正作用を得ている。図6(C)の状態では、見かけ上、撮像光学系から見て撮像素子106の中央が周辺像高部に移動を行った状態に変化しており、像高の増加と共に発生する光線ケラレが生じている。   FIG. 6A shows a state before image blur correction is performed. FIG. 6B shows a state in which the second lens group 103 is moved eccentrically in order to obtain an image blur correction function corresponding to the angle Δω as the amount of change in the angle of view. In the state of FIG. 6B, the effective range of the light beam of the second lens group 103 enters the pupil range of the imaging optical system at the position of the stop 102 due to the eccentricity of the second lens group 103, and as a result, asymmetrical. Light vignetting has occurred. FIG. 6C shows a state in which the image sensor 106 is moved eccentrically and image blur correction is performed, and an image blur correction action corresponding to the angle Δω is obtained as in FIG. 6B. . In the state shown in FIG. 6C, the center of the image sensor 106 apparently changes to a state where the center of the image sensor 106 has moved to the peripheral image height as viewed from the imaging optical system, and the light vignetting that occurs as the image height increases. Has occurred.

撮像素子106の中央部で被写体に対する焦点検出を行う際の図6で示した撮像光学系中の第2レンズ群103又は撮像素子106を偏心移動させた際に生ずる光線ケラレの基線長への影響について、図7及び図8を参照して以下に説明する。なお、図7及び図8を参照する以下の説明では、撮像光学系は円形の開口を有するものとする。   The influence on the baseline length of the light vignetting that occurs when the second lens group 103 or the image sensor 106 in the image pickup optical system shown in FIG. 6 is decentered when performing focus detection on the subject at the center of the image sensor 106. Will be described below with reference to FIGS. In the following description with reference to FIGS. 7 and 8, the imaging optical system is assumed to have a circular aperture.

図7は、焦点検出画素が図3に示した構成となっている場合における、撮像光学系の射出瞳に対する焦点検出画素の瞳投影像の関係を示す図である。図7(A)は、第2レンズ群103又は撮像素子106が無偏心状態にある場合の状態を示しており、図6(A)に対応している。図7(B)は、第2レンズ群103又は撮像素子106を微小に偏心移動させた場合の状態を示している。図7(C)は、第2レンズ群103又は撮像素子106を大きく偏心移動させた場合の状態を示している。なお、図7では、撮像素子106の構成要素として、A像用の焦点検出画素700、B像用の焦点検出画素704、マイクロレンズ701、遮光部材702及び光電変換部703を示している。   FIG. 7 is a diagram showing the relationship of the pupil projection image of the focus detection pixel with respect to the exit pupil of the imaging optical system when the focus detection pixel has the configuration shown in FIG. FIG. 7A shows a state where the second lens group 103 or the image sensor 106 is in an undecentered state, and corresponds to FIG. FIG. 7B shows a state in which the second lens group 103 or the image sensor 106 is slightly decentered. FIG. 7C shows a state in which the second lens group 103 or the image sensor 106 is moved greatly decentered. In FIG. 7, the focus detection pixel 700 for the A image, the focus detection pixel 704 for the B image, the microlens 701, the light shielding member 702, and the photoelectric conversion unit 703 are illustrated as components of the image sensor 106.

図7において、“EP0”と“EPO´”はそれぞれ、光線ケラレの無い状態での撮像光学系の射出瞳を示している。“EP1”は、図6(B),(C)に示した像ブレ補正時に第2レンズ群103又は撮像素子106が偏心移動を行って光線ケラレが発生した際の撮像光学系の射出瞳を示している。“EPa0”と“EPb0”はそれぞれ、A像用とB像用の焦点検出画素の瞳投影像を示し、“EPa1”と“EPb1”はそれぞれ、第2レンズ群103を偏心移動させた際に有効範囲が狭まったA像用とB像用の焦点検出画素の瞳投影像を示している。このような焦点検出画素は、図3を参照して説明したように、一列方向に配置され各焦点検出画素の光電変換信号を補間し、以下に説明する一対の相関演算を行う電気信号波形を成す。   In FIG. 7, “EP0” and “EPO ′” indicate the exit pupil of the imaging optical system in the absence of light vignetting. “EP1” is the exit pupil of the imaging optical system when the second lens group 103 or the image sensor 106 decenters and causes vignetting during the image blur correction shown in FIGS. 6B and 6C. Show. “EPa0” and “EPb0” respectively indicate the pupil projection images of the focus detection pixels for the A image and the B image, and “EPa1” and “EPb1” respectively indicate when the second lens group 103 is moved eccentrically. The pupil projection image of the focus detection pixel for A image and B image in which the effective range was narrowed is shown. As described with reference to FIG. 3, such focus detection pixels are arranged in a line direction, interpolate photoelectric conversion signals of the respective focus detection pixels, and perform an electric signal waveform for performing a pair of correlation operations described below. Make it.

図8は、焦点検出画素が図4又は図5に示した構成となっている場合における、撮像光学系の射出瞳に対する焦点検出画素の瞳投影像の関係を示す図である。図8に示す撮像素子800は、1つのマイクロレンズ801を介して受光を行い、それぞれがA像とB像を形成するための光電変換を行う2つの光電変換部802,803を有する。光電変換部802,803はそれぞれ、マイクロレンズ801の光軸外の有効範囲を通過した光線を受光するため、撮像光学系の射出瞳上の異なる領域部分の透過光線を受光する。これにより、位相差検知方式の焦点検出に必要となる瞳分離光線を得ることができる。   FIG. 8 is a diagram showing the relationship of the pupil projection image of the focus detection pixel with respect to the exit pupil of the imaging optical system when the focus detection pixel has the configuration shown in FIG. 4 or FIG. An image sensor 800 shown in FIG. 8 includes two photoelectric conversion units 802 and 803 that receive light through one microlens 801 and perform photoelectric conversion for forming an A image and a B image, respectively. Since the photoelectric conversion units 802 and 803 each receive a light beam that has passed through an effective range outside the optical axis of the microlens 801, the photoelectric conversion units 802 and 803 receive transmitted light beams in different regions on the exit pupil of the imaging optical system. As a result, it is possible to obtain a pupil-separated ray necessary for focus detection by the phase difference detection method.

図8(A)は、第2レンズ群103又は撮像素子106が無偏心状態にある場合の状態を示しており、図6(A)に対応している。図8(B)は、第2レンズ群103又は撮像素子106を微小に偏心移動させた場合の状態を示している。図8(C)は、第2レンズ群103又は撮像素子106を大きく偏心移動させた場合の状態を示している。   FIG. 8A shows a state where the second lens group 103 or the image sensor 106 is in an undecentered state, and corresponds to FIG. FIG. 8B shows a state in which the second lens group 103 or the image sensor 106 is slightly decentered. FIG. 8C shows a state in which the second lens group 103 or the image sensor 106 is greatly decentered.

なお、図8に示した撮像素子800が図5に示した画素群500の構造を有し、光電変換部802,803が画素503,504の光電変換部と対応している場合、画素501,502のそれぞれの光電変換部は、光電変換部802,803と重なった奥行き方向に存在している。この場合、画素501,503から出力される電気信号の加算と画素502,504から出力される電気信号の加算をそれぞれ行って、焦点検出用の一対の電気信号として用いればよい。   8 has the structure of the pixel group 500 shown in FIG. 5 and the photoelectric conversion units 802 and 803 correspond to the photoelectric conversion units of the pixels 503 and 504, the pixels 501, Each photoelectric conversion unit 502 exists in the depth direction overlapping with the photoelectric conversion units 802 and 803. In this case, the addition of the electric signals output from the pixels 501 and 503 and the addition of the electric signals output from the pixels 502 and 504 may be respectively performed and used as a pair of electric signals for focus detection.

図9(A)は、図7(A)及び図8(A)の状態(第2レンズ群103又は撮像素子106の無偏心状態にあり、光線ケラレが発生していない状態)におけるA像とB像の焦点検出画素の出力波形を示す図である。また、図9(B)は、図7(B)及び図8(B)の状態(第2レンズ群103又は撮像素子106を微小に偏心移動させた場合の状態)におけるA像とB像の焦点検出画素の出力波形を示す図である。   FIG. 9A shows an A image in the state shown in FIGS. 7A and 8A (the second lens group 103 or the image sensor 106 is in an undecentered state and no light vignetting occurs). It is a figure which shows the output waveform of the focus detection pixel of B image. FIG. 9B shows an A image and a B image in the state of FIGS. 7B and 8B (the state in which the second lens group 103 or the image sensor 106 is slightly decentered). It is a figure which shows the output waveform of a focus detection pixel.

図9(A)に示す電気信号波形AI0,BI0はそれぞれ、A像用及びB像用の焦点検出画素群から出力される電気信号を補間合成したものであり、信号強度の重心位置の隔たり量L0が、電気信号波形AI0,BI0のピーク間距離で示される。   The electrical signal waveforms AI0 and BI0 shown in FIG. 9A are obtained by interpolating and synthesizing electrical signals output from the focus detection pixel groups for the A image and the B image, respectively. L0 is indicated by the distance between the peaks of the electric signal waveforms AI0 and BI0.

同様に、図9(B)に示す電気信号波形AI1,BI1はそれぞれ、A像用及びB像用の焦点検出画素群から出力される電気信号を補間合成したものである。図9(B)では、図7(B)や図8(B)に示した通りに、B像用の焦点検出画素の瞳に光線ケラレの生じた状態(撮像光学系の光軸方向に変化を生じた状態)にあるため、電気信号波形AI1と電気信号波形BI1とが非対称な形状となっている。一方、A像用の焦点検出画素の瞳には光線ケラレは生じていないため、電気信号波形AI1は電気信号波形AI0と等価である。電気信号波形AI1,BI1の信号強度の重心位置の隔たり量L1は、図9(A)の電気信号波形AI0,BI0の信号強度の重心位置の隔たり量L0よりも短くなる。   Similarly, electrical signal waveforms AI1 and BI1 shown in FIG. 9B are obtained by interpolating electrical signals output from the focus detection pixel groups for the A and B images, respectively. In FIG. 9B, as shown in FIG. 7B and FIG. 8B, a state in which light vignetting occurs in the pupil of the focus detection pixel for B image (changes in the optical axis direction of the imaging optical system). Therefore, the electric signal waveform AI1 and the electric signal waveform BI1 are asymmetrical. On the other hand, since no light vignetting occurs in the pupil of the focus detection pixel for the A image, the electric signal waveform AI1 is equivalent to the electric signal waveform AI0. The distance L1 between the gravity center positions of the signal strengths of the electric signal waveforms AI1 and BI1 is shorter than the distance L0 between the gravity center positions of the signal strengths of the electric signal waveforms AI0 and BI0 in FIG.

よって、図9(B)の状態では、図9(A)の状態と比較すると、第2レンズ群103又は撮像素子106の偏心移動による光線ケラレの影響により、基線長が短くなるという変化が生じる。そのため、像ブレ補正を行うために第2レンズ群103又は撮像素子106の偏心移動量が規定量を超えてくると、上述した位相差検出方式の焦点検出精度が低下してくる。   Therefore, in the state of FIG. 9B, compared to the state of FIG. 9A, there is a change that the base line length is shortened due to the influence of light vignetting due to the eccentric movement of the second lens group 103 or the image sensor 106. . For this reason, if the amount of decentering movement of the second lens group 103 or the image sensor 106 exceeds the specified amount in order to perform image blur correction, the focus detection accuracy of the above-described phase difference detection method decreases.

そこで、本実施形態では、焦点検出精度に支障があると判断される場合に焦点検出方式を切り替えることとし、その具体的な処理の内容について、図10のフローチャートを参照して以下に説明する。図10は、デジタルカメラ100Aでの焦点検出処理のフローチャートである。図10に示す各種の処理は、CPU121が所定のプログラムをROMから読み出し、RAMのワークエリアに展開、実行して、各種回路及びアクチュエータを駆動することにより実現される。   Therefore, in this embodiment, the focus detection method is switched when it is determined that the focus detection accuracy is hindered, and the specific processing contents will be described below with reference to the flowchart of FIG. FIG. 10 is a flowchart of focus detection processing in the digital camera 100A. The various processes shown in FIG. 10 are realized by the CPU 121 reading a predetermined program from the ROM, developing and executing it in the work area of the RAM, and driving various circuits and actuators.

先ず、撮影者がデジタルカメラ100Aの電源スイッチをオンにすると、CPU121は、各種アクチュエータや撮像素子106の動作確認を行い、メモリ内容や実行プログラムの初期化を行うと共に撮影準備動作を実行する(スタート)。撮影者がシャッタボタンを操作すると、ステップS101〜S104において、位相差検知方式(第1の焦点検出方法)によりデフォーカス量を求める。   First, when the photographer turns on the power switch of the digital camera 100A, the CPU 121 checks the operation of various actuators and the image sensor 106, initializes the memory contents and the execution program, and executes the shooting preparation operation (Start). ). When the photographer operates the shutter button, the defocus amount is obtained by the phase difference detection method (first focus detection method) in steps S101 to S104.

先ず、ステップS101において、CPU121は、撮像光学系を構成する補正レンズ群である第2レンズ群103の偏心移動による像ブレ補正を開始する。また、ステップS101と同時に、ステップS102において、CPU121は、AF信号処理(自動焦点検出のための信号処理)、つまり、オートフォーカス動作を開始する。   First, in step S101, the CPU 121 starts image blur correction by decentering movement of the second lens group 103 which is a correction lens group constituting the imaging optical system. Simultaneously with step S101, in step S102, the CPU 121 starts AF signal processing (signal processing for automatic focus detection), that is, an autofocus operation.

具体的には、ステップS101の像ブレ補正では、CPU121は、姿勢検知部116等からの出力信号に基づいて像ブレ補正量の検出処理を行う。また、ステップS102のAF信号処理では、CPU121は、焦点検出画素に入射した光線を光電変換して出力される電気信号を相関演算のための信号波形にする補間処理を行い、また、必要に応じて信号補正処理を行う。なお、デジタルカメラ100Bの場合には、第2レンズ群103の偏心移動に代えて、撮像素子106の偏心移動を行うによる像ブレ補正を開始すると同時に焦点検出動作を開始する。   Specifically, in the image blur correction in step S101, the CPU 121 performs an image blur correction amount detection process based on an output signal from the attitude detection unit 116 or the like. Further, in the AF signal processing in step S102, the CPU 121 performs an interpolation process for converting an electric signal output by photoelectric conversion of a light beam incident on the focus detection pixel into a signal waveform for correlation calculation, and if necessary. Signal correction processing. In the case of the digital camera 100B, instead of the eccentric movement of the second lens group 103, the focus detection operation is started simultaneously with the start of image blur correction by performing the eccentric movement of the image sensor 106.

次に、ステップS102の後のステップS103において、CPU121は、位相差相関演算(一対の像信号の相関演算)を行って、像ずれ量を算出する。そして、ステップS104において、CPU121は、ステップS103で得られた像ずれ量と予め計算がなされている基線長との関係からデフォーカス量を算出する。   Next, in step S103 after step S102, the CPU 121 performs phase difference correlation calculation (correlation calculation of a pair of image signals) to calculate an image shift amount. In step S104, the CPU 121 calculates the defocus amount from the relationship between the image shift amount obtained in step S103 and the baseline length calculated in advance.

その後、ステップS105において、CPU121は、位相差検知方式による焦点検知方法を用いるのか、それともコントラスト評価による焦点検出方式を用いるのかを選択する。具体的には、ステップS105において、CPU121は、ステップS101で得られた像ブレ補正量が予め設定された所定の閾値を越えていないかを判定する。ステップS105の処理は、ステップS102で得られた像信号が、像ブレ補正によって光学ケラレが発生して相関演算誤差が生じることがないか、また、デフォーカス量を算出するための基線長に誤差が起きていないかを、閾値を設定して判定する処理である。   Thereafter, in step S105, the CPU 121 selects whether to use a focus detection method based on a phase difference detection method or a focus detection method based on contrast evaluation. Specifically, in step S105, the CPU 121 determines whether the image blur correction amount obtained in step S101 exceeds a predetermined threshold value set in advance. In the process of step S105, the image signal obtained in step S102 does not cause an optical vignetting due to image blur correction to cause a correlation calculation error, or an error in the baseline length for calculating the defocus amount. This is a process for determining whether or not a problem has occurred by setting a threshold value.

CPU121は、像ブレ補正量が閾値を超えていない場合(S105でNO)、ステップS104で得られたデフォーカス量は信頼性のあるものと判断して、処理をステップS106へ進める。一方、CPU121は、像ブレ補正量が閾値を超えている場合(S105でYES)、ステップS104で得られたデフォーカス量の信頼性が低いと判断して、コントラスト評価による焦点検出方式(第2の焦点検出方法)に切り替えるために、処理をステップS107へ進める。   If the image blur correction amount does not exceed the threshold (NO in S105), the CPU 121 determines that the defocus amount obtained in step S104 is reliable, and advances the process to step S106. On the other hand, if the image blur correction amount exceeds the threshold value (YES in S105), the CPU 121 determines that the defocus amount obtained in step S104 is not reliable, and determines the focus detection method based on contrast evaluation (second detection). The process proceeds to step S107.

ステップS106において、CPU121は、ステップS104で求めた位相差検知方式によるデフォーカス量に基づいて合焦判定を行う。CPU121は、合焦であると判定した場合(S106でYES)、本処理を終了させ、これにより、露光処理が行われることとなる。一方、CPU121は、合焦でないと判定した場合(S106でNO)、処理をステップS110へ進める。ステップS110において、CPU121は、ステップS104で算出したデフォーカス量を補正して合焦状態にするためのフォーカス量を求め、フォーカスレンズである第3レンズ群104の光軸方向での駆動を行う。その後、CPU121は、処理をステップS101へ戻し、再び、デフォーカス量を算出して合焦を判定する処理を繰り返す。   In step S106, the CPU 121 performs in-focus determination based on the defocus amount obtained by the phase difference detection method obtained in step S104. If the CPU 121 determines that the in-focus state is achieved (YES in S106), the CPU 121 ends the process, and thereby the exposure process is performed. On the other hand, if the CPU 121 determines that it is not in focus (NO in S106), the process proceeds to step S110. In step S110, the CPU 121 corrects the defocus amount calculated in step S104 to obtain a focus amount for achieving a focused state, and drives the third lens group 104, which is a focus lens, in the optical axis direction. Thereafter, the CPU 121 returns the process to step S101 and repeats the process of calculating the defocus amount and determining the in-focus state again.

ステップS107において、CPU121は、コントラスト評価による焦点検出を行うために、フォーカスレンズである第3レンズ群104を微小駆動させる。即ち、ステップS107は、ステップS104で得られたデフォーカス量からピント外れ方向(被写体側へのピント外れなのか像面側へのピント外れなのか)を検知してピント外れを補正する処理である。続くステップS108において、CPU121は、合焦評価を行う被写体像の任意空間周波数でのコントラスト値の評価を行う。その後のステップS109において、CPU121は、ステップS108で評価された被写体のコントラスト値から合焦判定を行う。この合焦判定では、被写体のコントラスト値が規定以上の値になった場合に合焦したと判定してもよい。   In step S107, the CPU 121 finely drives the third lens group 104, which is a focus lens, in order to perform focus detection by contrast evaluation. That is, step S107 is a process of correcting the out-of-focus by detecting the out-of-focus direction (whether the subject is out of focus or the image plane is out of focus) from the defocus amount obtained in step S104. . In subsequent step S108, the CPU 121 evaluates the contrast value at an arbitrary spatial frequency of the subject image to be evaluated for focus. In subsequent step S109, the CPU 121 performs focus determination from the contrast value of the subject evaluated in step S108. In this in-focus determination, it may be determined that the in-focus state is achieved when the contrast value of the subject becomes a value greater than or equal to a specified value.

CPU121は、合焦であると判定した場合(S109でYES)、本処理を終了させ、これにより、露光処理が行われることとなる。一方、CPU121は、合焦でないと判定した場合(S109でNO)、処理をステップS101へ戻す。なお、コントラスト評価による焦点検出方式に変更されている場合、コントラスト値のピーク位置をフォーカスレンズ位置とコントラスト値との関係から導き出す(所謂、山登り方式の)合焦位置検出を、ステップS102又はステップS107からステップS109の間で繰り返すようにしてもよい。   If the CPU 121 determines that the in-focus state is achieved (YES in S109), the CPU 121 ends the process, and thereby the exposure process is performed. On the other hand, if the CPU 121 determines that it is not in focus (NO in S109), the process returns to step S101. When the focus detection method is changed to the contrast evaluation, the focus position detection (of the so-called hill-climbing method) for deriving the peak position of the contrast value from the relationship between the focus lens position and the contrast value is performed in step S102 or step S107. From step S109 to step S109.

以上の説明の通り、本実施形態によれば、位相差検知方式の焦点検出を行う撮像素子を備える撮像装置において、像ブレ補正機構を使用した際の焦点検出精度を高く維持しながら、高速な合焦作動を実現することができる。   As described above, according to the present embodiment, in an imaging device including an imaging device that performs phase difference detection type focus detection, high-speed detection is performed while maintaining high focus detection accuracy when the image blur correction mechanism is used. A focusing operation can be realized.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。例えば、上記実施形態では、位相差検知方式とコントラスト評価方式とを焦点検出方法として用いた。但し、これに限定されるものではなく、コントラスト評価方式に代えて、外部的な測距ユニットを用いた三角測距方式や赤外光の投受光によるアクィブ方式、或いは、外部パッシブ測距方式等を用いてもよい。また、本発明は、デジタルカメラに限定されず、デジタルビデオカメラ、撮像素子による撮影機能を備える携帯電話や携帯ゲーム機等の各種電子機器に適用が可能である。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably. For example, in the above embodiment, the phase difference detection method and the contrast evaluation method are used as the focus detection method. However, the present invention is not limited to this. Instead of the contrast evaluation method, a triangular distance measurement method using an external distance measurement unit, an active method using infrared light projecting and receiving, or an external passive distance measurement method, etc. May be used. Further, the present invention is not limited to a digital camera, and can be applied to various electronic devices such as a digital video camera and a mobile phone or a portable game machine having a photographing function using an image sensor.

101 第1レンズ群
102 絞り機構
103 第2レンズ群(補正レンズ群)
104 第3レンズ群(フォーカスレンズ)
106 撮像素子
113 補正レンズアクチュエータ
114 フォーカスアクチュエータ
116 姿勢検知部
117 撮像素子アクチュエータ
121 CPU
123 姿勢検知回路
126 フォーカス駆動回路
127 補正レンズ駆動回路
130 撮像素子アクチュエータ駆動回路
101 First lens group 102 Aperture mechanism 103 Second lens group (correction lens group)
104 Third lens group (focus lens)
106 Image Sensor 113 Correction Lens Actuator 114 Focus Actuator 116 Posture Detection Unit 117 Image Sensor Actuator 121 CPU
123 posture detection circuit 126 focus drive circuit 127 correction lens drive circuit 130 imaging element actuator drive circuit

Claims (6)

被写体を撮像する撮像手段と、
前記撮像手段を構成する撮像素子に含まれる焦点検出用の画素から出力される電気信号を用いて前記被写体に対する焦点を検出する第1の焦点検出手段と、
前記被写体に対する焦点を検出する、前記第1の焦点検出手段とは異なる第2の焦点検出手段と、
像ブレを補正するための像ブレ補正量を算出する像ブレ補正手段と、
前記像ブレ補正手段が算出する像ブレ補正量に基づいて前記第1の焦点検出手段と前記第2の焦点検出手段のいずれを用いるかを選択する選択手段とを備えることを特徴とする撮像装置。
Imaging means for imaging a subject;
First focus detection means for detecting a focus on the subject using an electrical signal output from a focus detection pixel included in an image sensor included in the imaging means;
Second focus detection means different from the first focus detection means for detecting a focus on the subject;
Image blur correction means for calculating an image blur correction amount for correcting image blur;
An imaging apparatus comprising: a selection unit that selects which of the first focus detection unit and the second focus detection unit to use based on an image blur correction amount calculated by the image blur correction unit. .
前記第2の焦点検出手段は、前記撮像素子に結像される被写体像のコントラスト評価により焦点位置を検出することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second focus detection unit detects a focus position by evaluating a contrast of a subject image formed on the imaging element. 前記第2の焦点検出手段は、前記第1の焦点検出手段により得られるデフォーカス量からピント外れ方向を検知して前記撮像手段の撮像光学系に含まれるフォーカスレンズを駆動することによりピント外れを補正することを特徴とする請求項2記載の撮像装置。   The second focus detection unit detects the out-of-focus direction from the defocus amount obtained by the first focus detection unit, and drives the focus lens included in the imaging optical system of the imaging unit to defocus. The imaging apparatus according to claim 2, wherein correction is performed. 前記像ブレ補正手段は、前記撮像手段の撮像光学系が有する補正レンズ群を偏心移動させることにより像ブレを補正することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. The imaging apparatus according to claim 1, wherein the image blur correction unit corrects image blur by decentering a correction lens group included in an imaging optical system of the imaging unit. 5. . 前記像ブレ補正手段は、前記撮像素子を偏心移動させることにより像ブレを補正することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. The image pickup apparatus according to claim 1, wherein the image blur correction unit corrects the image blur by moving the image pickup device eccentrically. 5. 被写体を撮像する撮像手段を有する撮像装置の制御方法であって、
前記撮像手段を構成する撮像素子に含まれる焦点検出用の画素から出力される電気信号を用いて前記被写体に対する焦点を検出する第1の焦点検出ステップと、
前記第1の焦点検出ステップとは異なる方法で前記被写体に対する焦点を検出する第2の焦点検出ステップと、
像ブレを補正するための像ブレ補正量を算出する像ブレ補正ステップと、
前記像ブレ補正ステップで算出された像ブレ補正量に基づいて前記第1の焦点検出ステップと前記第2の焦点検出ステップのいずれを用いるかを選択する選択ステップとを有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus having imaging means for imaging a subject,
A first focus detection step of detecting a focus on the subject using an electrical signal output from a focus detection pixel included in an image sensor that constitutes the imaging means;
A second focus detection step for detecting a focus on the subject in a manner different from the first focus detection step;
An image blur correction step for calculating an image blur correction amount for correcting the image blur; and
An imaging method comprising: a selection step for selecting which of the first focus detection step and the second focus detection step to use based on the image blur correction amount calculated in the image blur correction step. Control method of the device.
JP2013011186A 2013-01-24 2013-01-24 Imaging apparatus and method for controlling the same Pending JP2014142497A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013011186A JP2014142497A (en) 2013-01-24 2013-01-24 Imaging apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011186A JP2014142497A (en) 2013-01-24 2013-01-24 Imaging apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2014142497A true JP2014142497A (en) 2014-08-07

Family

ID=51423831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011186A Pending JP2014142497A (en) 2013-01-24 2013-01-24 Imaging apparatus and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2014142497A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067648A1 (en) * 2014-10-30 2016-05-06 オリンパス株式会社 Focal point adjustment device, camera system, and focal point adjustment method
CN108933937A (en) * 2017-05-25 2018-12-04 快图有限公司 Method for dynamically calibrating image capture apparatus
JP2019028358A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Imaging apparatus and control method of the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067648A1 (en) * 2014-10-30 2016-05-06 オリンパス株式会社 Focal point adjustment device, camera system, and focal point adjustment method
JP2016090649A (en) * 2014-10-30 2016-05-23 オリンパス株式会社 Focus adjustment device, camera system and focus adjustment method
CN108933937A (en) * 2017-05-25 2018-12-04 快图有限公司 Method for dynamically calibrating image capture apparatus
CN108933937B (en) * 2017-05-25 2022-02-25 快图有限公司 Method for dynamically calibrating an image capture device
JP2019028358A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Imaging apparatus and control method of the same
JP7019337B2 (en) 2017-08-02 2022-02-15 キヤノン株式会社 Image stabilization device, lens device and their control method

Similar Documents

Publication Publication Date Title
JP5791349B2 (en) Imaging apparatus and control method thereof
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
JP5388544B2 (en) Imaging apparatus and focus control method thereof
US8634015B2 (en) Image capturing apparatus and method and program for controlling same
US8634711B2 (en) Image capture apparatus and method
US8848096B2 (en) Image-pickup apparatus and control method therefor
JP5618712B2 (en) Automatic focusing device and imaging device
JP2007322922A (en) Imaging system and camera, and lens unit
JP6405163B2 (en) Focus detection apparatus and control method thereof
US20160006924A1 (en) Image capturing apparatus and control method therefor
JP5963552B2 (en) Imaging device
US9049365B2 (en) Image capturing apparatus and control method thereof
CN106412419B (en) Image pickup apparatus and control method thereof
JP2014142497A (en) Imaging apparatus and method for controlling the same
JP2020046482A (en) Imaging apparatus
JP2014194502A (en) Imaging apparatus and imaging system
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2013025129A (en) Focus detection device and imaging apparatus
JP2016071275A (en) Image-capturing device and focus control program
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2015022028A (en) Imaging device
JP2013015561A (en) Imaging apparatus
JP2009031562A (en) Light receiving element, light receiver, focus detecting device, camera
JP2025040995A (en) Focus adjustment device, focus adjustment method, and program
JP5619227B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE