JP5966299B2 - FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME - Google Patents
FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME Download PDFInfo
- Publication number
- JP5966299B2 JP5966299B2 JP2011213817A JP2011213817A JP5966299B2 JP 5966299 B2 JP5966299 B2 JP 5966299B2 JP 2011213817 A JP2011213817 A JP 2011213817A JP 2011213817 A JP2011213817 A JP 2011213817A JP 5966299 B2 JP5966299 B2 JP 5966299B2
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- detection pixel
- focus
- subject
- line sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 190
- 238000003384 imaging method Methods 0.000 title claims description 16
- 230000003287 optical effect Effects 0.000 claims description 42
- 238000009825 accumulation Methods 0.000 claims description 18
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 38
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 5
- 230000004907 flux Effects 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 101710085715 Defensin-like protein 2 Proteins 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- NRCXNPKDOMYPPJ-HYORBCNSSA-N Aflatoxin P1 Chemical compound C=1([C@@H]2C=CO[C@@H]2OC=1C=C(C1=2)O)C=2OC(=O)C2=C1CCC2=O NRCXNPKDOMYPPJ-HYORBCNSSA-N 0.000 description 2
- 101710085792 Defensin-like protein 1 Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 101710085718 Defensin-like protein 3 Proteins 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、焦点調節装置およびそれを備えた撮像装置に関するものである。 The present invention relates to a focus adjustment apparatus and an imaging apparatus including the same.
従来より、光学系の像面内に設定された複数の焦点検出位置に対する焦点状態を、位相差検出方式により検出する技術が行われている。このような技術において、焦点状態の検出の対象とする特定被写体を認識し、認識した特定被写体位置に対応する焦点検出位置において、焦点状態の検出を行い、検出した焦点状態に基づいて、焦点調節を行なう技術が知られている(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for detecting a focus state for a plurality of focus detection positions set in an image plane of an optical system by a phase difference detection method has been performed. In such a technique, a specific subject as a focus state detection target is recognized, a focus state is detected at a focus detection position corresponding to the recognized specific subject position, and focus adjustment is performed based on the detected focus state. A technique for performing is known (see, for example, Patent Document 1).
上記従来技術においては、通常、複数の焦点検出位置のそれぞれに対して、位相差検出方式により焦点検出を行うための一対の受光素子列が複数設けられており、認識した特定被写体を捕捉している焦点検出位置に対応する複数対の受光素子列からの出力に基づいて、焦点検出が行われている。しかしながら、上記従来技術においては、認識した特定被写体の位置によっては、焦点検出位置に対応して設けられた複数対の受光素子列のうち一部の受光素子列のみと重なった状態となる場合もあるが、このような場合でも、認識した特定被写体と重ならない位置にある受光素子列の出力も用いて焦点検出演算が行われてしまうため、該受光素子列からの出力の影響により、焦点検出が適切に行われない場合があるという課題があった。 In the above prior art, normally, a plurality of pairs of light receiving element arrays for performing focus detection by the phase difference detection method are provided for each of a plurality of focus detection positions, and a recognized specific subject is captured. Focus detection is performed on the basis of outputs from a plurality of pairs of light receiving element arrays corresponding to a focus detection position. However, in the above-described prior art, depending on the position of the recognized specific subject, there may be a case where only a part of the light receiving element arrays overlapped among the plurality of pairs of light receiving element arrays provided corresponding to the focus detection positions. However, even in such a case, the focus detection calculation is performed using the output of the light receiving element array at a position that does not overlap the recognized specific subject. Therefore, the focus detection is performed due to the influence of the output from the light receiving element array. There has been a problem that may not be performed properly.
本発明が解決しようとする課題は、焦点検出を良好に行うことのできる焦点検出装置を提供することにある。 The problem to be solved by the present invention is to provide a focus detection apparatus capable of performing focus detection satisfactorily.
本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は本発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。 The present invention solves the above problems by the following means. In the following description, the reference numerals corresponding to the drawings showing the embodiments of the present invention are used for explanation, but these reference numerals are only for facilitating the understanding of the present invention and are not intended to limit the invention. Absent.
[1]本発明の焦点検出装置は、第1の方向に少なくとも2列に配置され、光学系を介して入射した光を受光して信号を出力する焦点検出画素が複数配置された第1焦点検出画素列と、前記第1の方向と交差する第2の方向に少なくとも2列に配置され、前記光学系を介して入射した光を受光して信号を出力する焦点検出画素が複数配置された第2焦点検出画素列とを有し、前記少なくとも2列に配置される第1焦点検出画素列と前記少なくとも2列に配置される第2焦点検出画素列とが交差する受光素子と、前記光学系による像のうち特定の被写体を認識する認識部と、前記認識部によって認識された被写体の像面内の位置に対応する位置にある前記第1焦点検出画素列または前記第2焦点検出画素列から出力される信号から記光学系による像の結像面と前記受光素子の受光面とのずれ量を検出する検出部を備える。 [1] The focus detection apparatus of the present invention is a first focus in which a plurality of focus detection pixels that are arranged in at least two rows in the first direction and receive light incident through the optical system and output signals are arranged. A plurality of focus detection pixels, which are arranged in at least two rows in a second direction that intersects the first direction with detection pixel rows and receives light incident through the optical system and outputs a signal, are arranged. a light receiving element have a second focus detection pixel row, the second focus detection pixel row to be disposed in the first focus detection pixel row and the at least two rows which are arranged in at least two rows intersect the optical A recognition unit for recognizing a specific subject among images by the system, and the first focus detection pixel row or the second focus detection pixel row at a position corresponding to a position in the image plane of the subject recognized by the recognition unit. from the signal to be output to the serial optical system from Comprising a detector for detecting a shift amount between the light receiving surface of the imaging surface and the light receiving element of the image.
[2]本発明の焦点検出装置において、前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、前記認識部によって認識された被写体の像面内の位置と重なる位置にある焦点検出画素列から出力される信号から前記ずれ量を検出するように構成することができる。 [2] In the focus detection apparatus of the present invention, the detection unit overlaps a position in the image plane of the subject recognized by the recognition unit in the first focus detection pixel row or the second focus detection pixel row. The shift amount can be detected from a signal output from the focus detection pixel row at the position.
[3]本発明の焦点検出装置において、前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、少なくとも2つの焦点検出画素列から出力される信号から前記ずれ量を検出するように構成することができる。 [3] In the focus detection device of the present invention, the detection unit may detect the shift amount from a signal output from at least two focus detection pixel columns of the first focus detection pixel column or the second focus detection pixel column. Can be configured to detect.
[4]本発明の焦点検出装置において、前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、並び方向が同じである少なくとも2つの焦点検出画素列から出力される信号から前記ずれ量を検出するように構成することができる。 [4] In the focus detection apparatus of the present invention, the detection unit outputs from at least two focus detection pixel rows having the same arrangement direction in the first focus detection pixel row or the second focus detection pixel row. The shift amount can be detected from a signal to be detected.
[5]本発明の焦点検出装置において、前記第1焦点検出画素列または前記第2焦点検出画素列の蓄積時間またはゲインを制御する制御部を備え、前記制御部は、前記認識部によって認識された被写体の像面内の位置と、前記第1焦点検出画素列または前記第2焦点検出画素列の像面内の位置との位置関係に基づいて、前記蓄積時間またはゲインを制御するように構成することができる。 [5] The focus detection apparatus of the present invention includes a control unit that controls an accumulation time or a gain of the first focus detection pixel column or the second focus detection pixel column, and the control unit is recognized by the recognition unit. The accumulation time or gain is controlled based on the positional relationship between the position of the subject in the image plane and the position of the first focus detection pixel array or the second focus detection pixel array in the image plane. can do.
[6]本発明の焦点検出装置において、前記受光素子制御部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、前記認識部によって認識された被写体の像面内の位置と重なる位置にある前記第1焦点検出画素列または前記第2焦点検出画素列からの出力に基づいて、前記蓄積時間またはゲインを決定するように構成することができる。
[6] In the focus detection apparatus of the present invention, the light receiving element control unit includes a position in the image plane of the subject recognized by the recognition unit in the first focus detection pixel row or the second focus detection pixel row. The accumulation time or the gain can be determined based on the output from the first focus detection pixel row or the second focus detection pixel row at a position overlapping with the first focus detection pixel row.
[7]本発明の焦点検出装置において、前記受光素子は、複数の前記第1焦点検出画素列と前記第2焦点検出画素列とを有するように構成することができる。
[7] In the focus detection apparatus of the present invention, the light receiving element may be configured to include a plurality of the first focus detection pixel columns and the second focus detection pixel columns.
[8]本発明の撮像装置は、上記焦点検出装置を備えることを特徴とする。 [8] An imaging apparatus of the present invention includes the focus detection apparatus.
本発明の焦点検出装置によれば、焦点検出を良好に行うことができる。 According to the focus detection apparatus of the present invention, focus detection can be performed satisfactorily.
以下においては、本発明を一眼レフデジタルカメラに適用した実施形態を図面に基づいて説明する。ただし本発明は、銀塩フィルムカメラなどのその他の撮像装置にも適用することができる。 In the following, an embodiment in which the present invention is applied to a single-lens reflex digital camera will be described with reference to the drawings. However, the present invention can also be applied to other imaging devices such as a silver salt film camera.
図1は、本実施形態に係る一眼レフデジタルカメラ1を示すブロック図であり、本発明の焦点検出装置および撮像装置に関する構成以外のカメラの一般的構成については、その図示と説明を一部省略する。
FIG. 1 is a block diagram showing a single-lens reflex
本実施形態の一眼レフデジタルカメラ1(以下、単にカメラ1という。)は、カメラボディ100とレンズ鏡筒200とを備え、カメラボディ100とレンズ鏡筒200とは着脱可能に結合されている。本実施形態のカメラ1においては、レンズ鏡筒200は、撮影目的などに応じて、交換可能となっている。
The single-lens reflex
レンズ鏡筒200には、レンズ211,212,213、および絞り220を含む撮影光学系が内蔵されている。
The
フォーカスレンズ212は、レンズ鏡筒200の光軸L1に沿って移動可能に設けられ、エンコーダ260によってその位置が検出されつつフォーカスレンズ駆動モータ230によってその位置が調節される。
The
このフォーカスレンズ212の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒200に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ212を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ230によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ212が光軸L1に沿って直進移動することになる。なお、レンズ鏡筒200にはフォーカスレンズ212以外のレンズ211,213が設けられているが、ここではフォーカスレンズ212を例に挙げて本実施形態を説明する。
The specific configuration of the moving mechanism along the optical axis L1 of the
上述したようにレンズ鏡筒200に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ212は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ230がレンズ鏡筒200に設けられている。フォーカスレンズ駆動モータ230と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ230の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ212が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ230の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ212は光軸L1の逆方向へ直進移動することになる。
As described above, the
フォーカスレンズ212の位置はエンコーダ260によって検出される。既述したとおり、フォーカスレンズ212の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒200に対する回転筒の相対的な回転角を検出すれば求めることができる。
The position of the
本実施形態のエンコーダ260としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。
As the
フォーカスレンズ212は、上述した回転筒の回転によってカメラボディ100側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ260で検出されたフォーカスレンズ212の現在位置情報は、レンズ制御部250を介して後述するカメラ制御部170へ送出される。そして、この情報に基づいて演算されたフォーカスレンズ212の駆動量Δdが、レンズ駆動制御部165からレンズ制御部250を介して送出され、これに基づいて、フォーカスレンズ駆動モータ230は駆動する。
The
絞り220は、上記撮影光学系を通過して、カメラボディ100に備えられた撮像素子110に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り220による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部170からレンズ制御部250を介して送出されることにより行われる。また、カメラボディ100に設けられた操作部150によるマニュアル操作により、設定された開口径がカメラ制御部170からレンズ制御部250に入力される。絞り220の開口径は図示しない絞り開口センサにより検出され、レンズ制御部250で現在の開口径が認識される。
The
一方、カメラボディ100は、被写体からの光束を撮像素子110、ファインダ135、測光センサ137および焦点検出モジュール161へ導くためのミラー系120を備える。このミラー系120は、回転軸123を中心にして被写体の観察位置と撮影位置との間で所定角度だけ回転するクイックリターンミラー121と、このクイックリターンミラー121に軸支されてクイックリターンミラー121の回動に合わせて回転するサブミラー122とを備える。図1においては、ミラー系120が被写体の観察位置にある状態を実線で示し、被写体の撮影位置にある状態を二点鎖線で示す。
On the other hand, the
ミラー系120は、被写体の観察位置にある状態では光軸L1の光路上に挿入される一方で、被写体の撮影位置にある状態では光軸L1の光路から退避するように回転する。
The
クイックリターンミラー121はハーフミラーで構成され、被写体の観察位置にある状態では、被写体からの光束(光軸L1)の一部の光束(光軸L2,L3)を当該クイックリターンミラー121で反射してファインダ135および測光センサ137へ導き、一部の光束(光軸L4)を透過させてサブミラー122へ導く。これに対して、サブミラー122は全反射ミラーで構成され、クイックリターンミラー121を透過した光束(光軸L4)を焦点検出モジュール161へ導く。
The
したがって、ミラー系120が観察位置にある場合は、被写体からの光束(光軸L1)はファインダ135、測光センサ137および焦点検出モジュール161へ導かれ、撮影者により被写体が観察されるとともに、露出演算やフォーカスレンズ212の焦点調節状態の検出が実行される。そして、撮影者がレリーズボタン(不図示)を全押しするとミラー系120が撮影位置に回動し、被写体からの光束(光軸L1)は全て撮像素子110へ導かれ、撮影した画像データを図示しないメモリに保存する。
Therefore, when the
クイックリターンミラー120で反射された被写体からの光束は、撮像素子110と光学的に等価な面に配置された焦点板131に結像し、ペンタプリズム133と接眼レンズ134とを介して観察可能になっている。このとき、透過型液晶表示器132は、焦点板131上の被写体像に焦点検出エリアマークなどを重畳して表示するとともに、被写体像外のエリアにシャッター速度、絞り値、撮影枚数などの撮影に関する情報を表示する。これにより、撮影者は、撮影準備状態において、ファインダ135を通して被写体およびその背景ならびに撮影関連情報などを観察することができる。
The light beam from the subject reflected by the
測光センサ137は、二次元カラーCCDイメージセンサなどで構成され、撮影の際の露出値を演算するため、撮影画面を複数の領域に分割して領域ごとの輝度に応じた測光信号を出力する。また、測光センサ137は、被写体認識用の撮像素子も兼ねており、撮影光学系により焦点板131上に結像された被写体像を電気信号に変換して画像信号を出力する。測光センサ137で検出された信号はカメラ制御部170へ出力され、自動露出制御および被写体認識処理に用いられる。
The
焦点検出モジュール161は、被写体光を用いた位相差検出方式による自動合焦制御を実行するための焦点検出素子であり、サブミラー122で反射した光束(光軸L4)の撮像素子110の撮像面と光学的に等価な位置に固定されている。
The
図2は、図1に示す焦点検出モジュール161の構成例を示す図である。本実施形態の焦点検出モジュール161は、コンデンサレンズ161a、一対の開口が形成された絞りマスク161b、一対の再結像レンズ161cおよび一対のラインセンサ161dを有し、フォーカスレンズ212の射出瞳の異なる一対の領域を通る一対の光束をラインセンサ161dで受光して得られる一対の像信号の位相ずれを周知の相関演算によって求めることにより焦点調節状態を検出する。
FIG. 2 is a diagram illustrating a configuration example of the
そして、図2に示すように被写体Pが撮像素子110の等価面(予定結像面)161eで結像すると合焦状態となるが、フォーカスレンズ212が光軸L1方向に移動することで、結像点が等価面161eより被写体側にずれたり(前ピンと称される)、カメラボディ100側にずれたりすると(後ピンと称される)、ピントずれの状態となる。
As shown in FIG. 2, when the subject P is imaged on the equivalent surface (scheduled imaging surface) 161e of the
なお、被写体Pの結像点が等価面161eより被写体側にずれると、一対のラインセンサ161dで検出される一対の像信号の間隔Wが、合焦状態の間隔Wに比べて短くなり、逆に被写体像Pの結像点がカメラボディ100側にずれると、一対のラインセンサ161dで検出される一対の像信号の間隔Wが、合焦状態の間隔Wに比べて長くなる。
When the imaging point of the subject P is shifted from the
すなわち、合焦状態では一対のラインセンサ161dで検出される像信号がラインセンサの中心に対して重なるが、非合焦状態ではラインセンサの中心に対して各像信号がずれる、すなわち位相差が生じるので、この位相差(ずれ量)に応じた量だけフォーカスレンズ212を移動させることでピントを合わせる。
That is, in the in-focus state, the image signals detected by the pair of
ここで、撮影光学系の撮影画面50内に設定された複数の焦点検出エリアの配置例を図3に示す。図3に示すように、撮影光学系の撮影画面50内には複数の焦点検出エリアAFPが設定されており、後述するように、焦点検出モジュール161には、各焦点検出エリアAFPに対応して、それぞれ4対のラインセンサ161dが複数備えられており、これにより、各焦点検出エリアAFPにおける像信号を取得できるようになっている。本実施形態では、図3にAFP1〜AFP11で示すように、11点の焦点検出エリアAFPが設けられ、それぞれの位置が撮像素子110の撮像範囲の所定位置に対応している。なお、焦点検出エリアAFPの個数および配置は、図3に示す態様に限定されるものではない。
Here, FIG. 3 shows an arrangement example of a plurality of focus detection areas set in the photographing
図4に、本実施形態における、撮影光学系の撮影画面50内における、ラインセンサ161dの配置例を示す。本実施形態においては、図4に示すように、焦点検出モジュール161には、各焦点検出エリアAFPに対応して、それぞれ4対のラインセンサ161dが複数備えられており、これにより、各焦点検出エリアAFPにおける像信号を取得できるようになっている。具体的には、図3に示す焦点検出エリアAFP2を例示して説明すると、図4に示すように、撮影画面50内において、焦点検出エリアAFP2に対応して設けられた4対のラインセンサが、H1,H2,V1,V2で示される位置に存在している。言い換えると、各対となるラインセンサ161dの撮影画面50内における位置(撮影画面50中における、各対となるラインセンサ161dが被写体を捕捉可能な位置)が、図4中における、H1,H2,V1,V2で示される位置に存在しており、これら4対のラインセンサ161dによって、焦点検出エリアAFP2における像信号を取得できるようになっている。同様に、焦点検出エリアAFP2以外のAFP1,AFP3〜AFP11においても、図3、図4に示すように、各焦点検出エリアAFPに対応して、それぞれ4対のラインセンサ161dが配置されており、これにより、各焦点検出エリアAFPにおける像信号を取得できるようになっている。なお、図4に示す例においては、各焦点検出エリアAFPに対して、4対のラインセンサ161dが配置されているような例を示したが、ラインセンサ161dの数は4対に限定されず、任意の数とすることができる。本実施形態においては、以下、これらH1,H2,V1,V2に対応するラインセンサ対を、ラインセンサ対H1,H2,V1,V2とする。
FIG. 4 shows an arrangement example of the
また、ラインセンサ対H1,H2,V1,V2のうち、並び方向が同じ横方向であるラインセンサ対H1,H2、および並び方向が同じ縦方向であるV1,V2は、それぞれ、その出力を平均処理することにより平均値を求めたり、あるいは、その出力を加算することにより加算値を算出できるように構成されている。 Of line sensor pairs H1, H2, V1, and V2, line sensors H1 and H2 that have the same horizontal direction and V1 and V2 that have the same vertical direction have averaged outputs. An average value is obtained by processing, or an addition value can be calculated by adding the outputs.
図1に戻り、AF−CCD制御部162は、オートフォーカスモードにおいて、焦点検出モジュール161のラインセンサ161dのゲインや蓄積時間を制御するもので、焦点検出モジュール161に備えられたラインセンサ161dにて検出された像信号を、各焦点検出エリアAFPに対応させて読み出し、デフォーカス演算部163へ出力する。
Returning to FIG. 1, the AF-CCD control unit 162 controls the gain and accumulation time of the
デフォーカス演算部163は、AF−CCD制御部162から送られてきた各焦点検出エリア51に対応した像信号のずれ量をデフォーカス量dfに変換し、これをレンズ駆動量演算部164へ出力する。 The defocus calculation unit 163 converts the shift amount of the image signal corresponding to each focus detection area 51 sent from the AF-CCD control unit 162 into a defocus amount df, and outputs this to the lens drive amount calculation unit 164. To do.
レンズ駆動量演算部164は、デフォーカス演算部163から送られてきたデフォーカス量に基づいて、当該デフォーカス量に応じたレンズ駆動量Δdを演算し、これをレンズ駆動制御部165へ出力する。 Based on the defocus amount sent from the defocus calculation unit 163, the lens drive amount calculation unit 164 calculates a lens drive amount Δd corresponding to the defocus amount, and outputs this to the lens drive control unit 165. .
レンズ駆動制御部165は、レンズ駆動量演算部164から送られてきたレンズ駆動量Δdに基づいて、レンズ制御部250を介して、フォーカスレンズ駆動モータ230へ駆動指令を送出し、レンズ駆動量Δdだけフォーカスレンズ212を移動させる。
Based on the lens drive amount Δd sent from the lens drive amount calculation unit 164, the lens drive control unit 165 sends a drive command to the focus lens drive motor 230 via the lens control unit 250, and the lens drive amount Δd. Only the
撮像素子110は、カメラボディ100の、被写体からの光束の光軸L1上であって、レンズ211,212,213を含む撮影光学系の予定焦点面となる位置に設けられ、その前面にシャッター111が設けられている。この撮像素子110は、複数の光電変換素子が二次元に配列されたものであって、二次元CCDイメージセンサ、MOSセンサまたはCIDなどで構成することができる。この撮像素子110で光電変換された電気画像信号は、カメラ制御部170で画像処理されたのち図示しないメモリに保存される。なお、撮影画像を格納するメモリは内蔵型メモリやカード型メモリなどで構成することができる。
The
操作部150は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチを備えており、連続撮影モードの選択や、自動露出モード/マニュアル露出モードの切換、さらには、オートフォーカスモード/マニュアルフォーカスモードの切換や、また、オートフォーカスモードの中でも、追尾対象となる特定被写体を認識し、追尾するための被写体追尾モードの設定が行えるようになっている。また、シャッターレリーズボタンのスイッチは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。この操作部150により設定されたシャッターレリーズボタンのスイッチSW1,SW2および各種モードはカメラ制御部170へ送信される。
The
カメラボディ100にはカメラ制御部170が設けられている。カメラ制御部170はマイクロプロセッサとメモリなどの周辺部品から構成され、レンズ制御部250と電気的に接続され、このレンズ制御部250から、レンズ鏡筒200の焦点調節範囲の情報などを含むレンズ情報を受信するとともに、レンズ制御部250へデフォーカス量や絞り制御信号などの情報を送信する。また、カメラ制御部170は、上述したように撮像素子110から画像情報を読み出すとともに、必要に応じて所定の情報処理を施し、図示しないメモリに出力する。さらに、カメラ制御部170は、操作部150により、被写体追尾モードが選択されている場合には、測光センサ137からの画像信号を受信し、受信した画像信号に基づき、撮影画面50内に存在する特定被写体を検知し、これを追尾する被写体追尾処理を行う。また、カメラ制御部170は、これらに加えて、撮影画像情報の補正やレンズ鏡筒200の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。
The
次に、本実施形態に係るカメラ1の動作例を説明する。図5〜図7は、本実施形態に係るカメラ1の動作を示すフローチャートである。以下においては、操作部150により、被写体追尾モードが選択されている場合における、焦点調節動作について説明する。
Next, an operation example of the
まず、ステップS1では、カメラ制御部170が、撮影者によりシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかを判断し、第1スイッチSW1がオンした場合はステップS2へ進み、第1スイッチSW1がオンしていない場合はステップS1で待機する。 First, in step S1, the camera control unit 170 determines whether the photographer has pressed the shutter release button halfway (the first switch SW1 is turned on). If the first switch SW1 is turned on, the process proceeds to step S2. If the first switch SW1 is not turned on, the process waits in step S1.
ステップS2では、図6に示す追尾制御初期処理が実行されたか否かの判定が行なわれる。追尾制御初期処理が実行されていない場合には、ステップS3に進み、追尾制御初期処理が行われる。一方、追尾制御初期処理が既に行実行されている場合には、ステップS4に進む。たとえば、第1スイッチSW1がオンした直後においては、追尾制御初期処理が実行されていないと判断され、ステップS3に進む。 In step S2, it is determined whether or not the tracking control initial process shown in FIG. 6 has been executed. When the tracking control initial process is not executed, the process proceeds to step S3, and the tracking control initial process is performed. On the other hand, if the tracking control initial process has already been executed, the process proceeds to step S4. For example, immediately after the first switch SW1 is turned on, it is determined that the tracking control initial process has not been executed, and the process proceeds to step S3.
ステップS2において、追尾制御初期処理が実行されていないと判断された場合には、ステップS3に進み、図6に示す追尾制御初期処理が実行される。具体的には、まず、図6に示すステップS301において、測光センサ137により被写体追尾用の初期画像の取得が行なわれる。
If it is determined in step S2 that the tracking control initial process is not executed, the process proceeds to step S3, and the tracking control initial process shown in FIG. 6 is executed. Specifically, first, in step S301 shown in FIG. 6, the
次いで、ステップS302では、カメラ制御部170により、測光センサ137により取得された追尾初期画像中において、特定被写体(たとえば、人物の顔など)が存在する焦点検出エリアAFPの位置に対応する位置の画像を、被写体色情報(色情報および輝度情報)として記憶する処理が行なわれる。
Next, in step S302, an image at a position corresponding to the position of the focus detection area AFP where the specific subject (for example, a person's face) exists in the tracking initial image acquired by the
ステップS303では、カメラ制御部170により、特定被写体が存在する焦点検出エリアAFPの位置周辺部において、ステップS302で記憶した被写体色情報と同様の色情報を示す同色情報領域を検出する処理が行われる。 In step S303, the camera control unit 170 performs processing for detecting the same color information region indicating the same color information as the subject color information stored in step S302 in the peripheral portion of the position of the focus detection area AFP where the specific subject exists. .
ステップS304では、カメラ制御部170により、ステップS303において検出された同色情報領域を、初期の追尾被写体領域に設定する処理が行なわれる。 In step S304, the camera control unit 170 performs processing for setting the same color information area detected in step S303 as an initial tracking subject area.
ステップS305では、カメラ制御部170により、追尾初期画像中の追尾被写体領域の画像を次回の追尾処理に用いるテンプレート画像として、記憶する処理が行なわれる。 In step S305, the camera control unit 170 performs a process of storing the image of the tracking subject area in the tracking initial image as a template image used for the next tracking process.
そして、ステップS306では、カメラ制御部170により、ステップS304で設定した追尾被写体領域を中心に前後左右に所定画素(たとえば、2画素)ずつ拡大した領域を探索領域に設定する処理が行なわれる。以上のようにして、追尾制御初期処理が実行される。 In step S306, the camera control unit 170 performs processing for setting an area enlarged by predetermined pixels (for example, two pixels) in the front, rear, left, and right directions around the tracking subject area set in step S304 as a search area. As described above, the tracking control initial process is executed.
一方、図5に示すステップS2において、上述した追尾制御初期処理が実行されていると判断された場合には、ステップS4に進み、図7に示す追尾演算処理が実行される。具体的には、まず、図7に示すステップS401において、測光センサ137により被写体追尾用の画像の取得が行なわれる。
On the other hand, if it is determined in step S2 shown in FIG. 5 that the above-described tracking control initial process is being executed, the process proceeds to step S4, and the tracking calculation process shown in FIG. 7 is executed. Specifically, first, in step S401 shown in FIG. 7, an image for subject tracking is acquired by the
次いで、ステップS402において、カメラ制御部170により、追尾画像の探索領域から、カメラ制御部170に記憶されたテンプレート画像と同じサイズの領域を順次切り出し、切り出した画像とテンプレート画像とについて、対応する画素ごとに画像情報(色情報および輝度情報)の差分を算出し、全画素に対する差分の総和を求める処理が行なわれる。 Next, in step S402, the camera control unit 170 sequentially cuts out a region having the same size as the template image stored in the camera control unit 170 from the tracking image search region, and the cut-out image and the template image correspond to corresponding pixels. Every time, a difference between image information (color information and luminance information) is calculated, and a process for obtaining a sum of differences for all pixels is performed.
次いで、ステップS403では、カメラ制御部170は、画像情報の差分の総和が最も小さい切り出し画像を選択し、選択した切り出し画像の領域を新しい追尾被写体領域に設定する。なお、ここで、新たに設定した追尾被写体領域の画像を新たなテンプレート画像として設定するように構成してもよい。 Next, in step S403, the camera control unit 170 selects a clipped image having the smallest sum of image information differences, and sets the selected clipped image area as a new tracking subject area. Here, a newly set tracking subject area image may be set as a new template image.
ステップS404では、カメラ制御部170により、ステップS403で設定した追尾被写体領域を中心に前後左右に所定画素(たとえば、2画素)ずつ拡大した領域を探索領域に設定する処理が行なわれる。以上のようにして、追尾演算処理が実行される。 In step S404, the camera control unit 170 performs processing for setting an area enlarged by predetermined pixels (for example, two pixels) in the front, rear, left, and right directions around the tracking subject area set in step S403 as a search area. The tracking calculation process is executed as described above.
次いで、ステップS5では、カメラ制御部170により、上述したステップS304またはステップS403で設定された追尾被写体領域と、各ラインセンサ対H1,H2,V1,V2による検出領域との重なりを検出する処理が行われる。以下においては、図3に示す各焦点検出エリアAFPのうち、上述したステップS304またはステップS403で設定された追尾被写体領域と重なっている焦点検出エリアAFPを、被写体捕捉エリアAFP_objとして説明する。ここで、図8(A)〜図8(D)は、追尾被写体領域と、各ラインセンサ対H1,H2,V1,V2による検出領域との重なり方の一例を示す図である。なお、図8(A)〜図8(D)においては、追尾被写体領域の一例として、矩形状の領域を例示して示したが、このような形状に特に限定されるものではない。 Next, in step S5, the camera control unit 170 performs processing for detecting an overlap between the tracking subject region set in step S304 or step S403 described above and the detection region by each line sensor pair H1, H2, V1, and V2. Done. In the following, the focus detection area AFP that overlaps the tracking subject area set in step S304 or S403 described above among the focus detection areas AFP shown in FIG. 3 will be described as the subject capture area AFP_obj . Here, FIGS. 8A to 8D are diagrams illustrating an example of how the tracking subject area overlaps with the detection areas by the line sensor pairs H1, H2, V1, and V2. 8A to 8D illustrate a rectangular area as an example of the tracking subject area, but the shape is not particularly limited to such a shape.
たとえば、図8(A)に示す場面においては、カメラ制御部170は、追尾被写体領域と、被写体捕捉エリアAFP_objに対応して設けられた全てのラインセンサ対H1,H2,V1,V2とが重なっていると判断する。一方、図8(B)に示す場面においては、カメラ制御部170は、被写体捕捉エリアAFP_objに対応して設けられた各ラインセンサ対H1,H2,V1,V2のうち、ラインセンサ対H1,H2,V1のみが追尾被写体領域と重なっており、ラインセンサ対V2については、追尾被写体領域と重なっていないと判断する。また、図8(C)に示す場面においては、カメラ制御部170は、被写体捕捉エリアAFP_objに対応する各ラインセンサ対H1,H2,V1,V2のうち、ラインセンサ対H1,H2のみが追尾被写体領域と重なっており、ラインセンサ対V1,V2については、追尾被写体領域と重なっていないと判断する。さらに、図8(D)に示す場面においては、カメラ制御部170は、焦点検出エリアAFPに対応して設けられた各ラインセンサ対H1,H2,V1,V2のうち、ラインセンサ対H1のみが追尾被写体領域と重なっており、ラインセンサ対H2,V1,V2については、追尾被写体領域と重なっていないと判断する。このように、ステップS5では、カメラ制御部170は、追尾被写体領域と、各ラインセンサ対H1,H2,V1,V2による検出領域との重なりを検出する。なお、図8(A)〜図8(D)においては、各ラインセンサ対H1,H2,V1,V2による検出領域のうち、追尾被写体領域と重なっているものについて、ハッチングを付して示した。また、本実施形態では、追尾被写体領域と、各ラインセンサ対の検出領域とがその少なくとも一部において重なっているものについて、これらが重なっていると判断したが、たとえば、重なっている面積が所定面積未満(たとえば、焦点検出が可能であると判断できるような面積未満)である場合には、これらが重なっていないと判断するような構成としてもよい。 For example, in the scene shown in FIG. 8A, the camera control unit 170 determines that the tracking subject area and all the line sensor pairs H1, H2, V1, and V2 provided corresponding to the subject capturing area AFP_obj. Judge that they overlap. On the other hand, in the scene shown in FIG. 8B, the camera control unit 170 selects the line sensor pair H1, among the line sensor pairs H1, H2, V1, and V2 provided corresponding to the subject capturing area AFP_obj . Only H2 and V1 overlap with the tracking subject area, and it is determined that the line sensor pair V2 does not overlap with the tracking subject area. In the scene shown in FIG. 8C, the camera control unit 170 tracks only the line sensor pair H1, H2 among the line sensor pairs H1, H2, V1, V2 corresponding to the subject capturing area AFP_obj. It is determined that the line sensor pair V1 and V2 does not overlap the tracking object area. Further, in the scene shown in FIG. 8D, the camera control unit 170 has only the line sensor pair H1 among the line sensor pairs H1, H2, V1, and V2 provided corresponding to the focus detection area AFP. It is determined that the line sensor pair H2, V1, and V2 does not overlap with the tracking subject area. As described above, in step S5, the camera control unit 170 detects an overlap between the tracking subject area and the detection areas by the line sensor pairs H1, H2, V1, and V2. In FIGS. 8A to 8D, of the detection areas by the line sensor pairs H1, H2, V1, and V2, those that overlap with the tracking subject area are hatched. . In the present embodiment, it is determined that the tracking subject area and the detection area of each line sensor pair overlap each other at least partially. However, for example, the overlapping area is predetermined. When the area is less than the area (for example, less than an area where it can be determined that focus detection is possible), it may be determined that these do not overlap.
次いで、ステップS6では、AF−CCD制御部162による、焦点検出モジュール161のラインセンサ161dの蓄積時間の設定およびゲインの調整が行なわれ、これに基づいて、ラインセンサ161dによる電荷の蓄積が行われる。
Next, in step S6, the AF-CCD control unit 162 sets the accumulation time of the
ここで、本実施形態においては、追尾被写体領域と重なっている焦点検出エリアAFP(被写体捕捉エリアAFP_obj)に対応する各ラインセンサ対H1,H2,V1,V2の蓄積時間およびゲインは、上述したステップS5の検出結果に基づいて決定される。具体的には、本実施形態では、上述したステップS5の検出結果に基づいて、被写体捕捉エリアAFP_objに対応する各ラインセンサ対H1,H2,V1,V2の蓄積時間およびゲインを設定する際に用いるラインセンサ対の優先度を設定し、設定した優先度に基づいて、蓄積時間およびゲインの設定を行なう。表1に、ラインセンサ対の優先度の設定方法の一例を示す。
すなわち、たとえば、図8(A)に示す場面においては、カメラ制御部170は、被写体捕捉エリアAFP_objに対応する全てのラインセンサ対H1,H2,V1,V2が追尾被写体領域と重なっているため、全てのラインセンサ対H1,H2,V1,V2について、優先度を「高」に設定する。また、図8(B)に示す場面においては、カメラ制御部170は、ラインセンサ対H1,H2,V1のみが追尾被写体領域と重なっており、ラインセンサ対V2については、追尾被写体領域と重なっていないため、ラインセンサ対H1,H2,V1については、優先度を「高」に設定する一方で、ラインセンサ対V2については、優先度を「低」に設定する。同様に、図8(C)に示す場面においては、ラインセンサ対H1,H2については、優先度を「高」に設定する一方で、ラインセンサ対V1,V2については、優先度を「低」に設定し、さらには、図8(D)に示す場面においては、ラインセンサ対H1については、優先度を「高」に設定する一方で、ラインセンサ対V1については、優先度を「低」に設定する。 That is, for example, in the scene shown in FIG. 8A, the camera control unit 170 has all the line sensor pairs H1, H2, V1, and V2 corresponding to the subject capturing area AFP_obj overlap the tracking subject region. The priority is set to “high” for all the line sensor pairs H1, H2, V1, and V2. In the scene shown in FIG. 8B, the camera control unit 170 has only the line sensor pair H1, H2, and V1 overlapped with the tracking subject area, and the line sensor pair V2 overlapped with the tracking subject area. Therefore, the priority is set to “high” for the line sensor pair H1, H2, and V1, while the priority is set to “low” for the line sensor pair V2. Similarly, in the scene shown in FIG. 8C, the priority is set to “high” for the line sensor pair H1 and H2, while the priority is set to “low” for the line sensor pair V1 and V2. Further, in the scene shown in FIG. 8D, the priority is set to “high” for the line sensor pair H1, while the priority is set to “low” for the line sensor pair V1. Set to.
そして、本実施形態では、たとえば、上記方法にしたがって、各ラインセンサ対H1,H2,V1,V2のうち、優先度が「高」と設定されたラインセンサ対による出力が適正なものとなるように、追尾被写体領域と重なっている焦点検出エリアAFPに対応する全てのラインセンサ対H1,H2,V1,V2の蓄積時間およびゲインの設定を行なう。具体的には、各ラインセンサ対H1,H2,V1,V2のうち、優先度が「高」と判断されたラインセンサ対の前回処理時の出力に基づいて、ラインセンサ対H1,H2,V1,V2の蓄積時間およびゲインの設定を行なう。すなわち、たとえば、図8(C)に示す場面においては、ラインセンサ対H1,H2,V1,V2のうち、ラインセンサ対H1,H2のみの前回処理時の出力に基づいて、被写体捕捉エリアAFP_objに対応する全てのラインセンサ対H1,H2,V1,V2の蓄積時間およびゲインを設定する。 In this embodiment, for example, according to the above method, the output from the line sensor pair whose priority is set to “high” among the line sensor pairs H1, H2, V1, and V2 is appropriate. In addition, the accumulation times and gains of all line sensor pairs H1, H2, V1, and V2 corresponding to the focus detection area AFP overlapping the tracking subject area are set. Specifically, among the line sensor pairs H1, H2, V1, and V2, the line sensor pairs H1, H2, and V1 are based on the output of the line sensor pair that has been determined to be “high” in the previous processing. , V2 accumulation time and gain are set. That is, for example, in the scene shown in FIG. 8C , the subject capturing area AFP_obj is based on the output of the line sensor pair H1, H2, V1, and V2 only during the previous processing of the line sensor pair H1 and H2. The accumulation times and gains of all line sensor pairs H1, H2, V1, and V2 corresponding to are set.
ステップS7では、AF−CCD制御部162が、ラインセンサ161dで蓄積された信号情報を、撮影画面50内に設定された各焦点検出エリアAFPに対応させて読み出し、デフォーカス演算部163へ出力する。
In step S7, the AF-CCD control unit 162 reads out the signal information accumulated by the
ステップS8では、デフォーカス演算部163により、撮影光学系の撮影画面50中に設定された各焦点検出エリアAFPについて、位相差検出方式による像ズレ量の演算が行われ、各焦点検出エリアのデフォーカス量dfが算出される。算出されたデフォーカス量dfは、カメラ制御部170およびレンズ駆動量演算部164に出力される。
In step S8, the defocus calculation unit 163 calculates an image shift amount by the phase difference detection method for each focus detection area AFP set in the
ここで、本実施形態においては、追尾被写体領域と重なっている焦点検出エリアAFP(被写体捕捉エリアAFP_obj)におけるデフォーカス量dfを算出する際には、上述したステップS5の検出結果を考慮して算出を行う。具体的には、本実施形態では、上述したステップS5の検出結果に基づいて、上述したステップS6と同様にして、各ラインセンサ対H1,H2,V1,V2について優先度を設定し、設定した優先度に基づいて、デフォーカス量dfの算出を行なう。 Here, in the present embodiment, when calculating the defocus amount df in the focus detection area AFP (subject capture area AFP_obj ) overlapping the tracking subject region, the detection result in step S5 described above is taken into consideration. Perform the calculation. Specifically, in the present embodiment, the priority is set and set for each of the line sensor pairs H1, H2, V1, and V2, based on the detection result of step S5 described above, similarly to step S6 described above. Based on the priority, the defocus amount df is calculated.
たとえば、図8(A)に示す場面においては、被写体捕捉エリアAFP_objに対応して設けられた全てのラインセンサ対H1,H2,V1,V2の優先度が「高」に設定されるため、全てのラインセンサ対H1,H2,V1,V2の出力に基づいて、デフォーカス量dfの算出を行なう。具体的には、この図8(A)に示す場面においては、並び方向が同じ横方向であるラインセンサ対H1,H2の出力を、単純平均する処理を行なうとともに、並び方向が同じ縦方向であるラインセンサ対V1,V2の出力を、単純平均する処理を行なう。そして、この図8(A)に示す場面においては、得られたラインセンサ対H1,H2の出力の単純平均値およびラインセンサ対V1,V2の出力の単純平均値に基づいて、デフォーカス量dfの算出を行なう。 For example, in the scene shown in FIG. 8A, the priority of all line sensor pairs H1, H2, V1, and V2 provided corresponding to the subject capturing area AFP_obj is set to “high”. The defocus amount df is calculated based on the outputs of all the line sensor pairs H1, H2, V1, and V2. Specifically, in the scene shown in FIG. 8A, the output of the pair of line sensors H1, H2 having the same horizontal direction is subjected to a simple averaging process, and the vertical direction is the same. A process of simply averaging the outputs of a certain line sensor pair V1, V2 is performed. In the scene shown in FIG. 8A, the defocus amount df is based on the obtained simple average value of the output of the line sensor pair H1, H2 and the simple average value of the output of the line sensor pair V1, V2. Is calculated.
一方、図8(B)に示す場面においては、ラインセンサ対H1,H2,V1については、優先度が「高」に設定される一方で、ラインセンサ対V2については、優先度が「低」に設定される。そのため、この図8(B)に示す場面においては、優先度が「高」であるラインセンサ対H1,H2,V1の出力に基づいて、デフォーカス量dfの算出を行なう。具体的には、この図8(B)に示す場面においては、並び方向が同じ横方向であるラインセンサ対H1,H2の出力を、単純平均する処理を行なう。そして、この図8(B)に示す場面においては、得られたラインセンサ対H1,H2の出力の単純平均値およびラインセンサ対V1の出力値に基づいて、デフォーカス量dfの算出を行なう。すなわち、この図8(B)に示す場面においては、デフォーカス量dfの算出を行なう際には、並び方向が同じ横方向であり、かつ、ともに優先度が「高」に設定されたラインセンサ対H1,H2については出力を単純平均する処理を行ない、得られた単純平気値を用いる一方で、並び方向が縦方向のラインセンサ対V1,V2については、ラインセンサ対V2の優先度が「低」となるため、ラインセンサ対V2の出力を用いず、ラインセンサ対V1の出力値のみを用いる。 On the other hand, in the scene shown in FIG. 8B, the priority is set to “high” for the line sensor pair H1, H2, and V1, while the priority is set to “low” for the line sensor pair V2. Set to Therefore, in the scene shown in FIG. 8B, the defocus amount df is calculated based on the outputs of the pair of line sensors H1, H2, and V1 having the priority “high”. Specifically, in the scene shown in FIG. 8B, a process of simply averaging the outputs of the pair of line sensors H1 and H2 having the same horizontal direction is performed. In the scene shown in FIG. 8B, the defocus amount df is calculated based on the obtained simple average value of the outputs of the line sensor pair H1 and H2 and the output value of the line sensor pair V1. That is, in the scene shown in FIG. 8B, when the defocus amount df is calculated, the line sensors having the same horizontal direction and the priority set to “high” are used. For the pair H1 and H2, the output is simply averaged, and the obtained simple average value is used. On the other hand, for the line sensor pair V1 and V2 whose alignment direction is the vertical direction, the priority of the line sensor pair V2 is “ Therefore, only the output value of the line sensor pair V1 is used without using the output of the line sensor pair V2.
また、図8(C)に示す場面においては、ラインセンサ対H1,H2については、優先度が「高」に設定される一方で、ラインセンサ対V1,V2については、優先度が「低」に設定される。そのため、この図8(C)に示す場面においては、優先度が「高」であるラインセンサ対H1,H2の出力に基づいて、デフォーカス量dfの算出を行なう。具体的には、この図8(C)に示す場面においては、並び方向が同じ横方向であるラインセンサ対H1,H2の出力を、単純平均する処理を行なう。そして、この図8(C)に示す場面においては、得られたラインセンサ対H1,H2の出力の単純平均値に基づいて、デフォーカス量dfの算出を行なう。すなわち、この図8(C)に示す場面においては、並び方向が同じ横方向であり、かつ、ともに優先度が「高」であるラインセンサ対H1,H2については出力を単純平均する処理を行ない、得られた単純平気値のみを用いて、デフォーカス量dfの算出を行なうものであり、並び方向が縦方向のラインセンサ対V1,V2については、いずれも優先度が「低」であるため、これらラインセンサ対V1,V2については、デフォーカス量dfの算出には用いない。 In the scene shown in FIG. 8C, the priority is set to “high” for the line sensor pair H1, H2, while the priority is “low” for the line sensor pair V1, V2. Set to Therefore, in the scene shown in FIG. 8C, the defocus amount df is calculated based on the outputs of the pair of line sensors H1 and H2 having the priority “high”. Specifically, in the scene shown in FIG. 8C, a process of simply averaging the outputs of the pair of line sensors H1 and H2 having the same horizontal direction is performed. In the scene shown in FIG. 8C, the defocus amount df is calculated based on the obtained simple average value of the outputs of the line sensor pairs H1 and H2. That is, in the scene shown in FIG. 8C, the output sensor is simply averaged for the line sensor pairs H1 and H2 that have the same horizontal direction and both have a high priority. The defocus amount df is calculated using only the obtained simple peace value, and the priority is “low” for the line sensor pair V1 and V2 whose arrangement direction is the vertical direction. These line sensor pairs V1 and V2 are not used for calculating the defocus amount df.
さらに、図8(D)に示す場面においては、ラインセンサ対H1については、優先度が「高」に設定される一方で、ラインセンサ対H2,V1,V2については、優先度が「低」に設定される。そのため、この図8(D)に示す場面においては、優先度が「高」であるラインセンサ対H1の出力値のみに基づいて、デフォーカス量dfの算出を行なう。すなわち、この図8(D)に示す場面においては、優先度が「高」であるラインセンサ対H1の出力値のみを用いて、デフォーカス量dfの算出を行なうものであり、優先度が「低」であるラインセンサ対H2,V1,V2については、デフォーカス量dfの算出には用いない。 Further, in the scene shown in FIG. 8D, the priority is set to “high” for the line sensor pair H1, while the priority is “low” for the line sensor pairs H2, V1, and V2. Set to Therefore, in the scene shown in FIG. 8D, the defocus amount df is calculated based only on the output value of the line sensor pair H1 having the priority “high”. That is, in the scene shown in FIG. 8D, the defocus amount df is calculated using only the output value of the line sensor pair H1 having the priority “high”, and the priority is “ The line sensor pairs H2, V1, and V2 that are “low” are not used to calculate the defocus amount df.
本実施形態では、以上のようにして、被写体捕捉エリアAFP_objにおけるデフォーカス量dfの算出を行なう。なお、上述した例では、並び方向が同じであり、かつ、ともに優先度が「高」であるラインセンサ対について、その出力を単純平均する処理を行なうような構成を例示したが、単純平均処理に代えて、加算処理や加算平均処理を行なうような構成としてもよい。 In the present embodiment, the defocus amount df in the subject capturing area AFP_obj is calculated as described above. In the above-described example, the configuration in which the outputs are simply averaged for the line sensor pairs having the same arrangement direction and the priority of both is “high” is illustrated. Instead of this, a configuration in which addition processing or addition averaging processing is performed may be employed.
次いで、ステップS9では、図3に示す焦点検出エリアAFPのうち、予め定められた所定数の焦点検出エリアについて、デフォーカス量演算が終了したか否かの判定が行なわれる。予め定められた所定数の焦点検出エリアについて、デフォーカス量演算が終了した場合には、ステップS11に進み、一方、終了していない場合には、ステップS7に戻り、ステップS7、S8において、AFF−CCD信号の読出しおよびデフォーカス量演算が繰り返し実行される。なお、予め定められた所定数の焦点検出エリアについて、デフォーカス量演算が終了したか否かの判定は、たとえば、追尾被写体領域と重なっている全ての焦点検出エリアAFPについて、デフォーカス量演算が終了したか否かに基づいて判断してもよいし、あるいは、図3に示す全ての焦点検出エリアAFP(合計11点)について、デフォーカス量演算が終了したか否かに基づいて判断してもよい。 Next, in step S9, it is determined whether or not the defocus amount calculation has been completed for a predetermined number of focus detection areas in the focus detection area AFP shown in FIG. If the defocus amount calculation is completed for a predetermined number of focus detection areas, the process proceeds to step S11. If not, the process returns to step S7. In steps S7 and S8, AFF is performed. -The readout of the CCD signal and the defocus amount calculation are repeatedly executed. Whether or not the defocus amount calculation has been completed for a predetermined number of focus detection areas determined in advance is determined by, for example, the defocus amount calculation for all focus detection areas AFP overlapping the tracking subject area. The determination may be made based on whether or not the defocus amount calculation has been completed for all the focus detection areas AFP (total 11 points) shown in FIG. Also good.
ステップS10では、カメラ制御部170により、ステップS8で算出されたデフォーカス量dfに基づいて、図3に示す焦点検出エリアAFPのうち、焦点調節に用いるための焦点検出エリアを決定する処理が行なわれる。本実施形態では、たとえば、追尾被写体領域と重なっている焦点検出エリアAFP(被写体捕捉エリアAFP_obj)が存在する場合には、被写体捕捉エリアAFP_objを、焦点調節に用いるための焦点検出エリアとして決定することができる。また、被写体捕捉エリアAFP_objが複数存在する場合には、たとえば、ステップS8で算出されたデフォーカス量dfに基づいて、焦点状態が最も至近側に位置する被写体捕捉エリアAFP_objを、焦点調節に用いるための焦点検出エリアとして決定することができる。また、被写体捕捉エリアAFP_objが存在しない場合には、前回処理以前に、追尾被写体領域と重なっている焦点検出エリアAFPにおいて算出されたデフォーカス量dfと最も近いデフォーカス量が算出された焦点検出エリアを、焦点調節に用いるための焦点検出エリアとして決定したり、あるいは、焦点状態が最も至近側に位置する焦点検出エリアAFPを、焦点調節に用いるための焦点検出エリアとして決定することができる。 In step S10, the camera control unit 170 performs a process of determining a focus detection area to be used for focus adjustment from the focus detection area AFP shown in FIG. 3 based on the defocus amount df calculated in step S8. It is. In the present embodiment, for example, when there is a focus detection area AFP (subject capture area AFP_obj ) that overlaps the tracking subject area, the subject capture area AFP_obj is determined as a focus detection area for use in focus adjustment. can do. When there are a plurality of subject capture areas AFP_obj , for example, the subject capture area AFP_obj whose focus state is closest to the closest side is used for focus adjustment based on the defocus amount df calculated in step S8. It can be determined as a focus detection area for use. If the subject capture area AFP_obj does not exist, the focus detection in which the defocus amount closest to the defocus amount df calculated in the focus detection area AFP overlapping the tracking subject region is calculated before the previous process. The area can be determined as a focus detection area for use in focus adjustment, or the focus detection area AFP in which the focus state is located closest to the focus detection area can be determined as a focus detection area for use in focus adjustment.
ステップS11では、レンズ駆動量演算部164が、ステップS10にて選択された焦点調節に用いるための焦点検出エリアのデフォーカス量dfに応じたレンズ駆動量Δdを演算し、これをレンズ駆動制御部165へ出力する。 In step S11, the lens drive amount calculation unit 164 calculates a lens drive amount Δd corresponding to the defocus amount df of the focus detection area to be used for the focus adjustment selected in step S10, and this is calculated as a lens drive control unit. To 165.
ステップS12では、レンズ駆動制御部165により、ステップS11にて算出されたレンズ駆動量Δdに基づいて、レンズ制御部250を介して、フォーカスレンズ駆動モータ230へ駆動指令が送出され、フォーカスレンズ212の移動が行われる。そして、再び、ステップS1に戻り、上述した処理が繰り返し行なわれる。 In step S12, the lens drive control unit 165 sends a drive command to the focus lens drive motor 230 via the lens control unit 250 based on the lens drive amount Δd calculated in step S11. A move is made. And it returns to step S1 again and the process mentioned above is performed repeatedly.
以上のように、本実施形態に係るカメラ1は動作する。
As described above, the
本実施形態においては、追尾被写体領域と重なっている焦点検出エリアAFPにおけるデフォーカス量dfを算出する際に、追尾被写体領域と、各ラインセンサ対H1,H2,V1,V2による検出領域との重なりを検出し、各ラインセンサ対H1,H2,V1,V2のうち、追尾被写体領域と重なっているものを優先度「高」に設定し、重なっていなものを優先度「低」に設定し、設定した優先度に基づいて、デフォーカス量dfの算出を行なう。具体的には、各ラインセンサ対H1,H2,V1,V2のうち、優先度「高」に設定されたラインセンサ対のみを用いて、デフォーカス量dfの算出を行なう。そのため、本実施形態によれば、追尾被写体領域と重なっている焦点検出エリアAFPにおけるデフォーカス量dfを算出する際に、追尾被写体領域と重なっておらず、優先度「低」に設定されたラインセンサ対を、デフォーカス量dfから除くことができ、これにより、追尾被写体領域と重なっていないラインセンサ対からのデータの影響を受けることなく、デフォーカス量dfを算出することができ、その結果として、デフォーカス量dfの算出精度を向上させることができる。また、追尾被写体領域と重なっておらず、優先度「低」に設定されたラインセンサ対をデフォーカス量dfから除くことにより、優先度「低」に設定されたラインセンサ対の出力データに対する演算負荷を軽減することができ、これにより、デフォーカス量dfを演算する際の演算時間を短縮することができる。 In the present embodiment, when the defocus amount df in the focus detection area AFP that overlaps the tracking subject area is calculated, the tracking subject area overlaps the detection areas by the line sensor pairs H1, H2, V1, and V2. Among the line sensor pairs H1, H2, V1, and V2, those that overlap the tracking subject area are set to priority “high”, and those that do not overlap are set to priority “low”. Based on the set priority, the defocus amount df is calculated. Specifically, the defocus amount df is calculated using only the line sensor pair set to the priority “high” among the line sensor pairs H1, H2, V1, and V2. Therefore, according to the present embodiment, when calculating the defocus amount df in the focus detection area AFP that overlaps the tracking subject area, the line that does not overlap the tracking subject area and is set to the priority “low”. The sensor pair can be removed from the defocus amount df, so that the defocus amount df can be calculated without being affected by the data from the line sensor pair that does not overlap the tracking subject area. As a result, the calculation accuracy of the defocus amount df can be improved. In addition, the line sensor pair that does not overlap with the tracking subject area and has the priority “low” is excluded from the defocus amount df, thereby calculating the output data of the line sensor pair that has the priority “low”. The load can be reduced, and thereby the calculation time for calculating the defocus amount df can be shortened.
加えて、本実施形態においては、追尾被写体領域と重なっている焦点検出エリアAFPにおける各ラインセンサ対H1,H2,V1,V2の蓄積時間およびゲイン(受光条件)を設定する際に、追尾被写体領域と重なっており、優先度「高」に設定されたラインセンサ対の前回処理時の出力に基づいて、蓄積時間およびゲインの設定を行なう。そのため、本実施形態によれば、デフォーカス量dfを演算する際に用いるラインセンサ対に対して適切な蓄積時間およびゲインを設定することができ、これにより、追尾被写体に基づく像信号を適切に取得することができ、その結果として、デフォーカス量dfを演算する際の演算精度を向上させることができる。 In addition, in the present embodiment, when setting the accumulation time and gain (light receiving condition) of each line sensor pair H1, H2, V1, and V2 in the focus detection area AFP that overlaps the tracking subject area, the tracking subject area The accumulation time and the gain are set on the basis of the output of the pair of line sensors set to the priority “high” in the previous process. Therefore, according to the present embodiment, it is possible to set an appropriate accumulation time and gain for the line sensor pair used when calculating the defocus amount df, and accordingly, an image signal based on the tracking subject can be appropriately set. As a result, the calculation accuracy when calculating the defocus amount df can be improved.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
たとえば、上述した実施形態では、追尾被写体領域と重なっている焦点検出エリアAFPにおけるデフォーカス量dfを算出する際に、優先度「高」に設定されたラインセンサ対のみを用いて、デフォーカス量dfを算出する態様を例示したが、優先度「高」に設定されたラインセンサ対に加えて、優先度「低」に設定されたラインセンサ対を用いて、デフォーカス量dfを算出するような態様としてもよい。 For example, in the above-described embodiment, when calculating the defocus amount df in the focus detection area AFP that overlaps the tracking subject area, only the line sensor pair set to the priority “high” is used to determine the defocus amount. Although an example of calculating df has been illustrated, the defocus amount df is calculated using the line sensor pair set to the priority “low” in addition to the line sensor pair set to the priority “high”. It is good also as an aspect.
すなわち、たとえば、図8(B)に示す場面において、並び方向が同じ縦方向であり、かつ、優先度がそれぞれ「高」および「低」であるラインセンサ対V1,V2について、優先度「高」であるラインセンサ対V1の出力と、優先度「低」であるラインセンサ対V2の出力とを、重み付け処理をして、加算または加算平均するような処理をしてもよい。具体的には、優先度「高」であるラインセンサ対V1の出力の重みを、優先度「低」であるラインセンサ対V2の出力の重みよりも高く設定し、これらを加算または加算平均するような処理をしてもよい。 That is, for example, in the scene shown in FIG. 8B, the priority “high” is applied to the line sensor pair V1 and V2 having the same vertical direction and the priorities “high” and “low”, respectively. ”And the output of the line sensor pair V2 having the priority“ low ”may be weighted and added or averaged. Specifically, the weight of the output of the line sensor pair V1 having the priority “high” is set higher than the weight of the output of the line sensor pair V2 having the priority “low”, and these are added or averaged. Such processing may be performed.
また、たとえば、図8(C)に示す場面において、並び方向が同じ縦方向であり、かつ、ともに優先度「低」であるラインセンサ対V1,V2の出力の単純平均値(あるいは、加算値や加算平均値)を算出し、ラインセンサ対V1,V2の出力の単純平均値(あるいは、加算値や加算平均値)と、並び方向が同じ横方向であり、かつ、ともに優先度「高」であるラインセンサ対H1,H2の出力の単純平均値とに基づいて、デフォーカス量dfを算出してもよい。なお、この場合においては、優先度「低」であるラインセンサ対V1,V2の出力の単純平均値よりも、優先度「高」であるラインセンサ対H1,H2の出力の単純平均値を優先するような処理を施すことが望ましい。また、図8(D)に示す場面においても、上記図8(B)、図8(C)と同様とすることももちろん可能である。 Further, for example, in the scene shown in FIG. 8C, the simple average value (or the addition value) of the outputs of the line sensor pair V1 and V2 having the same vertical direction and the priority “low”. Or the addition average value), and the horizontal direction is the same as the simple average value (or addition value or addition average value) of the outputs of the pair of line sensors V1 and V2, and both have a high priority. The defocus amount df may be calculated based on the simple average value of the outputs of the line sensor pair H1, H2. In this case, priority is given to the simple average value of the output of the line sensor pair H1, H2 having the priority “high” over the simple average value of the output of the line sensor pair V1, V2 having the priority “low”. It is desirable to perform such processing. Further, in the scene shown in FIG. 8D, it is of course possible to make the same as in FIGS. 8B and 8C.
あるいは、図8(B)、図8(C)および図8(D)に示す各場面において、優先度が「高」であるラインセンサ対に基づいて、デフォーカス量dfを算出した結果、十分な信頼性を有するデフォーカス量が得られなかった場合にのみ、優先度が「低」であるラインセンサ対に基づいて、デフォーカス量dfを算出するような構成としてもよい。 Alternatively, as a result of calculating the defocus amount df based on the line sensor pair having the priority “high” in each of the scenes illustrated in FIGS. 8B, 8 </ b> C, and 8 </ b> D, The defocus amount df may be calculated based on the line sensor pair having the priority “low” only when the defocus amount having high reliability is not obtained.
また、上述した実施形態においては、位相差検出方式による焦点検出を行うための焦点検出モジュール161を、撮像素子110とは別に設けるような構成を例示したが、たとえば、撮像素子110を構成する撮像画素のうち一部を、位相差検出方式による焦点検出を行うための焦点検出用の画素列で置換し、これにより、図4に示すような位置に焦点検出用の画素列が配置されるような態様としてもよい。
In the above-described embodiment, the
さらに、上述した実施形態においては、レンズ一体型のデジタルカメラ1を例示して説明したが、レンズ交換型のデジタルカメラや、携帯電話機などに内蔵される小型カメラモジュールなどにも適用することができる。
Furthermore, in the above-described embodiment, the lens-integrated
1…一眼レフデジタルカメラ
100…カメラボディ
110…撮像素子
150…操作部
161…焦点検出モジュール
161d…ラインセンサ
H1,H2,V1,V2…ラインセンサ対
162…AF−CCD制御部
163…デフォーカス演算部
164…レンズ駆動量演算部
165…レンズ駆動量制御部
170…カメラ制御部
200…レンズ鏡筒
212…フォーカスレンズ
230…フォーカスレンズ駆動モータ
250…レンズ制御部
DESCRIPTION OF
Claims (8)
前記光学系による像のうち特定の被写体を認識する認識部と、
前記認識部によって認識された被写体の像面内の位置に対応する位置にある前記第1焦点検出画素列または前記第2焦点検出画素列から出力される信号から記光学系による像の結像面と前記受光素子の受光面とのずれ量を検出する検出部を備える焦点検出装置。 A first focus detection pixel array that is arranged in at least two rows in the first direction and receives a plurality of focus detection pixels that receive light incident through the optical system and output signals; and the first direction; arranged in at least two rows in a second direction crossing, it has a second focus detection pixel row to the focus detection pixels for outputting a signal by receiving the light incident through the optical system has a plurality of arranged, A light receiving element that intersects the first focus detection pixel rows arranged in at least two rows and the second focus detection pixel rows arranged in at least two rows ;
A recognizing unit for recognizing a specific subject in the image by the optical system;
An image formation plane of an image by the optical system from a signal output from the first focus detection pixel row or the second focus detection pixel row at a position corresponding to the position in the image plane of the subject recognized by the recognition unit. And a focus detection device including a detection unit that detects a shift amount between the light receiving element and the light receiving surface of the light receiving element .
前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、前記認識部によって認識された被写体の像面内の位置と重なる位置にある焦点検出画素列から出力される信号から前記ずれ量を検出する焦点検出装置。 The focus detection apparatus according to claim 1,
The detection unit is output from a focus detection pixel column at a position overlapping with a position in the image plane of the subject recognized by the recognition unit in the first focus detection pixel column or the second focus detection pixel column. A focus detection device that detects the shift amount from a signal.
前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、少なくとも2つの焦点検出画素列から出力される信号から前記ずれ量を検出する焦点検出装置。 The focus detection apparatus according to claim 1 or 2,
The said detection part is a focus detection apparatus which detects the said deviation | shift amount from the signal output from at least 2 focus detection pixel row | line | column among the said 1st focus detection pixel row | line | column or the said 2nd focus detection pixel row | line | column.
前記検出部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、並び方向が同じである少なくとも2つの焦点検出画素列から出力される信号から前記ずれ量を検出する焦点検出装置。 The focus detection apparatus according to claim 3,
The detection unit detects the shift amount from a signal output from at least two focus detection pixel rows having the same arrangement direction in the first focus detection pixel row or the second focus detection pixel row. apparatus.
前記第1焦点検出画素列または前記第2焦点検出画素列の蓄積時間またはゲインを制御する制御部を備え、
前記制御部は、前記認識部によって認識された被写体の像面内の位置と、前記第1焦点検出画素列または前記第2焦点検出画素列の像面内の位置との位置関係に基づいて、前記蓄積時間またはゲインを制御する焦点検出装置。 In the focus detection apparatus in any one of Claims 1-4,
A control unit for controlling an accumulation time or gain of the first focus detection pixel row or the second focus detection pixel row;
The control unit is based on a positional relationship between a position in the image plane of the subject recognized by the recognition unit and a position in the image plane of the first focus detection pixel row or the second focus detection pixel row. A focus detection device for controlling the accumulation time or gain.
前記受光素子制御部は、前記第1焦点検出画素列または前記第2焦点検出画素列のうち、前記認識部によって認識された被写体の像面内の位置と重なる位置にある前記第1焦点検出画素列または前記第2焦点検出画素列からの出力に基づいて、前記蓄積時間またはゲインを決定する焦点検出装置。 The focus detection apparatus according to claim 5,
The light receiving element control unit includes the first focus detection pixel at a position overlapping with a position in the image plane of the subject recognized by the recognition unit in the first focus detection pixel row or the second focus detection pixel row. A focus detection apparatus that determines the accumulation time or the gain based on an output from the column or the second focus detection pixel column.
前記受光素子は、複数の前記第1焦点検出画素列と前記第2焦点検出画素列とを有する焦点検出装置。 In the focus detection apparatus in any one of Claims 1-6,
The focus detection device, wherein the light receiving element includes a plurality of the first focus detection pixel rows and the second focus detection pixel rows.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213817A JP5966299B2 (en) | 2011-09-29 | 2011-09-29 | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213817A JP5966299B2 (en) | 2011-09-29 | 2011-09-29 | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013073140A JP2013073140A (en) | 2013-04-22 |
JP5966299B2 true JP5966299B2 (en) | 2016-08-10 |
Family
ID=48477665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011213817A Active JP5966299B2 (en) | 2011-09-29 | 2011-09-29 | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5966299B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6346484B2 (en) * | 2014-03-31 | 2018-06-20 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP6415196B2 (en) * | 2014-09-08 | 2018-10-31 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
JP6506560B2 (en) * | 2015-01-20 | 2019-04-24 | キヤノン株式会社 | Focus control device and method therefor, program, storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008199486A (en) * | 2007-02-15 | 2008-08-28 | Olympus Imaging Corp | Single lens reflex type electronic imaging device |
JP2009053540A (en) * | 2007-08-28 | 2009-03-12 | Olympus Imaging Corp | Imaging device |
JP5361502B2 (en) * | 2009-04-08 | 2013-12-04 | キヤノン株式会社 | Focus detection apparatus and method, and imaging apparatus |
-
2011
- 2011-09-29 JP JP2011213817A patent/JP5966299B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013073140A (en) | 2013-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5195506B2 (en) | Imaging apparatus and image composition method | |
US8754979B2 (en) | Focus adjustment device and imaging device | |
JP4766133B2 (en) | Imaging device | |
US20120268613A1 (en) | Image capturing apparatus and control method thereof | |
JP2009115921A (en) | Imaging apparatus | |
JP2009192774A (en) | Focus adjustment device and imaging device | |
JP5206292B2 (en) | Imaging apparatus and image recording method | |
JP5966299B2 (en) | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME | |
JP4992761B2 (en) | LENS DRIVE DEVICE AND IMAGING DEVICE | |
JP5776191B2 (en) | Focus detection apparatus and imaging apparatus | |
JP6561437B2 (en) | Focus adjustment device and imaging device | |
JP6398250B2 (en) | Focus detection device | |
JP2017118212A (en) | Imaging apparatus | |
JP5309661B2 (en) | Exposure calculation device and imaging device | |
JP2006251065A (en) | Hybrid af camera | |
JP5256847B2 (en) | Imaging device | |
JP5402189B2 (en) | Focus adjustment device and imaging device provided with the same | |
JP5391587B2 (en) | Imaging device | |
JP5458860B2 (en) | Imaging device | |
JP5803065B2 (en) | Focus detection apparatus and imaging apparatus | |
JP5402129B2 (en) | Focus detection device, focus adjustment device, and imaging device | |
JP5493470B2 (en) | Focus adjustment device and imaging device provided with the same | |
JP5115324B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2007240566A (en) | Focus detecting device, optical apparatus and camera | |
JP2013190569A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5966299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |