JP4504031B2 - Camera system - Google Patents
Camera system Download PDFInfo
- Publication number
- JP4504031B2 JP4504031B2 JP2004014303A JP2004014303A JP4504031B2 JP 4504031 B2 JP4504031 B2 JP 4504031B2 JP 2004014303 A JP2004014303 A JP 2004014303A JP 2004014303 A JP2004014303 A JP 2004014303A JP 4504031 B2 JP4504031 B2 JP 4504031B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- light source
- amount
- process proceeds
- correction amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
この発明はカメラシステムに関し、より詳しくは撮影レンズ等の色収差の影響を低減するために、撮影レンズに入射する光源に応じて合焦点の位置を補正するようにしたカメラシステムに関するものである。 The present invention relates to a camera system, and more particularly to reduce the effects of chromatic aberration such as imaging lenses, relates to a camera system which is adapted to correct the position of the focus point depending on the light source incident on the photographing lens It is.
従来より、撮影の際に被写体の輝度及び背景光を検出して測距時の補正を行う技術が開発されている。例えば、一対の受光素子列に結像する一対の像の位置関係から測定対象の焦点状態を検出し、その検出結果に応じて撮影レンズの焦点調節を行う、いわゆる位相差AF(オートフォーカス)方式の自動焦点調節装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a technique has been developed that detects the luminance and background light of a subject at the time of shooting and corrects the distance during distance measurement. For example, a so-called phase difference AF (autofocus) system that detects a focus state of a measurement target from a positional relationship between a pair of images formed on a pair of light receiving element arrays and adjusts the focus of the photographing lens according to the detection result. Is known (for example, see Patent Document 1).
このような特許文献1に記載のAF方式を採用したカメラ等に於いては、一般的に撮影レンズ等を透過した光束によって被写体像が結像されるようになっている。しかしながら、このとき、被写体像の合焦点の位置は、撮影レンズ等に入射する光源の波長によって異なる現象が見られることは周知である。
In a camera or the like that employs the AF method described in
例えば、室内に於いて写真撮影を行う場合には、例えばタングステンランプやフラッドランプ等の人工光源を用いて被写体を照明することがある。この場合には、撮影レンズ等の有する光学特性、すなわち、色収差等の影響によって被写体像の合焦点の位置にズレが生じてしまうことがある。上記問題を改善したものとして、交換レンズ内に基準波長に対する特定波長の色収差補正データをメモリしており、被写体光の色を測定する測色手段で測定した被写体光の主要色に基づいて補正データを算出しピント補正を行う焦点検出装置が知られている(例えば、特許文献2参照)。
ところが、上記特許文献2に記載の装置は、基準波長に対する特定波長の色収差補正データと、被写体光の色を測定する測色手段で測定した被写体光の主要色に基づいて複雑な計算を行い補正値を算出するようにしている。このため、交換レンズ内のメモリ容量が増大し、カメラ内処理回路が大型化してコストアップするという課題を有している。
However, the apparatus described in
したがって本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、補正方法を簡略化して、メモリ、処理回路を小型化することにより、交換レンズ、カメラ等をコストダウンすると共に、高精度なピントずれ補正を可能としたカメラシステムを提供することにある。 Accordingly, the present invention has been made in view of the above-described points. The object of the present invention is to simplify the correction method and reduce the size of the memory and processing circuit, thereby reducing the cost of an interchangeable lens, a camera, and the like. while down, is to provide a camera system which enables highly accurate defocus correction.
すなわち、請求項1に記載の発明は、撮影レンズを含むレンズ鏡筒と、該レンズ鏡筒を装着可能なカメラボディとを有するカメラシステムであって、上記レンズ鏡筒の内部に配置され、被写体を照明する光源の種類に応じて焦点ずれを補正するための上記光源の種類に応じた補正量を記憶している補正量記憶手段と、上記レンズ鏡筒の内部に配置され、上記カメラボディと通信するためのレンズ通信手段と、上記カメラボディの内部に配置され、上記レンズ鏡筒と通信するためのボディ通信手段と、少なくとも被写体の赤外光若しくは近赤外光の光量と可視光の光量とをそれぞれ検出する光量検出手段と、上記光量検出手段によって検出された赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて上記被写体を照明する光源を検出し、該光源の種類に応じた信号を出力する光源検出手段と、上記撮影レンズの焦点検出を行う焦点検出手段と、上記レンズ通信手段と上記ボディ通信手段との通信によって上記補正量記憶手段から取得された光源の種類に応じた補正量を記憶する記憶手段と、上記記憶手段に記憶されている光源の種類に応じた補正量の中から、上記光源検出手段から出力された光源の種類に応じた信号に対応した補正量を選択する補正量選択手段と、上記補正量選択手段によって選択された補正量に基づいて、上記焦点検出手段の出力を補正する補正手段と、を有し、上記光源検出手段は、赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて判定される2種類の光源の種類及び2種類の光源の混合割合に関する検出信号を出力し、上記補正量選択手段は、上記検出信号に基づく2種類の光源に対応する上記補正量記憶手段の補正量を選択し、上記補正手段は、上記選択された2種類の光源に対応する補正量と2種類の光源の混合割合とに基づいて上記焦点検出手段の出力を補正することを特徴とする。
That is, the invention according to
本発明によれば、交換レンズ内の焦点補正データを光源種類に応じて設けたことにより、補正方法が非常に簡略化されメモリ、処理回路を小型化することができるので交換レンズ、カメラ等をコストダウンすると共に、高精度なピントずれ補正を可能とするカメラシステムを提供することが可能となる。 According to the present invention, since the focus correction data in the interchangeable lens is provided according to the light source type, the correction method is greatly simplified, and the memory and processing circuit can be miniaturized. while cost, it is possible to provide a camera system that enables highly accurate defocus correction.
以下、図面を参照して、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の焦点検出装置が適用されたデジタルカメラの概略構成を示すブロック図である。 FIG. 1 is a block diagram showing a schematic configuration of a digital camera to which a focus detection apparatus of the present invention is applied.
図1に於いて、本デジタルカメラは、カメラボディ1と、交換レンズ2とから構成されている。上記交換レンズ2は、光源の種類に応じて焦点ずれを補正するための補正値を記憶するメモリ3を有している。一方、カメラボディ1は、上記光源に応じた信号を出力する光源検知部4と、交換レンズ2の焦点検出を行うAF制御部5とを有している。
In FIG. 1, the digital camera includes a
このような構成に於いて、被写体を照明する光源がカメラボディ1内の光源検知部4で検知されると、該光源検知部4から当該光源に応じた信号が出力される。また、メモリ3に記憶されている光源の種類に応じて焦点ずれを補正するための補正値が、補正データとして読み出される。AF制御部5では、光源検知部4からの信号と上記メモリ3から読出された補正データとに基づいて、焦点検出が実行される。
In such a configuration, when the light source that illuminates the subject is detected by the light
(第1の実施形態)
図2は、本発明の第1の実施形態に係るデジタルカメラの一部を切断してその内部構成を概略的に示す斜視図である。
(First embodiment)
FIG. 2 is a perspective view schematically showing an internal configuration of a part of the digital camera according to the first embodiment of the present invention.
図2に於いて、本実施形態のデジタルカメラ10は、それぞれが別体に構成されるカメラボディ11と、レンズ鏡筒12とから成り、これらカメラボディ11とレンズ鏡筒12とは、互いに着脱自在に構成されてなるものである。
In FIG. 2, the
上記レンズ鏡筒12は、複数の撮影レンズやその駆動機構等から成る撮影光学系12aを内部に保持して構成されている。この撮影光学系12aは、被写体からの光束を透過させることで当該被写体光束により形成される被写体の像を、所定の位置(後述する撮像素子40の光電変換面上)に結像せしめるように、例えば、複数の光学レンズ等によって構成されるものである。そして、このレンズ鏡筒12は、カメラボディ11の前面に向けて突出するように配設されている。
The
尚、このレンズ鏡筒12については、従来のカメラ等に於いて一般的に利用されているものと同様のものが適用される。したがって、その詳細な構成についての説明は省略する。
The
カメラボディ11は、内部に各種の構成部材等を備えて構成され、且つ、撮影光学系12aを保持するレンズ鏡筒12を着脱自在となるように配設するための連結部材である撮影光学系装着部(撮影レンズ装着部とも称する)をその前面に備えて構成されてなる、いわゆる一眼レフレックス方式のカメラである。
The
つまり、カメラボディ11の前面側の略中央部には、被写体光束を当該カメラボディ11の内部へと導き得る所定の口径を有する露光用開口が形成されている。この露光用開口の周縁部には、撮影光学系装着部(図示せず)が形成されている。
That is, an exposure opening having a predetermined aperture capable of guiding the subject light flux into the
カメラボディ11の外面側には、その前面に上述の撮影光学系装着部が配設されているほか、上面部や背面部等の所定の位置にカメラボディ11を動作させるための各種の操作部材、例えば撮影動作を開始せしめるための指示信号等を発生させるためのレリーズ釦13と、カメラボディ11のグリップ部とレンズ鏡筒12の間で内部に後述する光源センサ55が配設された拡散板14等が配設されている。上記拡散板14は、カメラボディ11の撮影光学系接続部の側に設けられており、撮影する被写体及びその周辺の光が入射する構成となっている。
On the outer surface side of the
尚、上述した操作部材については、この発明とは直接関連しない部分であるので、図面の煩雑化を避けるために、レリーズ釦13以外の操作部材については、その図示及び説明を省略する。
Since the above-described operation members are not directly related to the present invention, the illustration and description of the operation members other than the
カメラボディ11の内部には、図2に示されるように、各種の構成部材、例えば、ファインダ装置16と、シャッタ部17と、撮像ユニット18と、主回路基板19を始めとした複数の回路基板(図2では主回路基板19のみが図示されている)とが、それぞれ所定の位置に配設されている。
In the
上記ファインダ装置16は、上記撮影光学系12aによって形成される所望の被写体像を撮像素子40(図2参照)の光電変換面上とは異なる所定の位置に形成させるべく設けられたもので、いわゆる観察光学系を構成する。
The
ファインダ装置16は、クイックリターンミラー16aと、ペンタプリズム16bと、接眼レンズ16cとから構成されている。
The
上記クイックリターンミラー16aは、撮影光学系12aを透過した被写体光束の光軸を折り曲げて観察光学系の側へと導き得るようにしたものである。ペンタプリズム16bは、上記クイックリターンミラー16aから出射する光束を受けて正立正像を形成する。また、接眼レンズ16cは、上記ペンタプリズム16bにより形成される像を拡大して観察するのに最適な形態の像を結像させるためのものである。
The
また、クイックリターンミラー16aは、撮影光学系12aの光軸から退避する露光退避位置と当該光軸上の所定の位置との間で移動自在に構成され、通常状態に於いては撮影光学系12aの光軸上に於いて当該光軸に対して所定の角度、例えば、角度45度を有して配置されている。これにより、撮影光学系12aを透過した被写体光束は、当該デジタルカメラ10が通常状態にある場合には、クイックリターンミラー16aによってその光軸が折り曲げられて、当該クイックリターンミラー16aの上方に配置されるペンタプリズム16bの側へと反射されるようになっている。すなわち、これがクイックリターンミラー(可動ミラー)16aのファインダ観察位置である。
The
一方、本デジタルカメラ10が撮影動作の実行中に於いて、その実際の露光動作中には、当該クイックリターンミラー16aは、撮影光学系12aの光軸から退避する所定の位置に移動するようになっている。これによって、被写体光束は、撮像素子40の側へと導かれ、その光電変換面を照射するようになっている。
On the other hand, while the
上記シャッタ部17は、撮像素子40の光電変換面への被写体光束の照射時間等を制御するもので、シャッタ機構等を備えて構成されている。
The
撮像ユニット18は、上記シャッタ部17と、このシャッタ部17を含み撮影光学系12aを透過した被写体光束に基づいて形成される被写体像に対応した画像信号を得る撮像素子40を含んだアッセンブリで構成される。
The imaging unit 18 includes an assembly including the
また、上記主回路基板19は、撮像素子40により取得した画像信号に対して各種の信号処理を施す画像信号処理回路(図示せず)答の電気回路を構成する各種の電気部材が実装されている。更に、カメラボディ11の上部には、図示されないストロボ接点が設けられており、外部ストロボを取付け可能であると共に、外部ストロボと通信して所定の光量、タイミングでストロボを発光可能な構成となっている。
The
上記シャッタ部17は、例えばフォーカルプレーン方式のシャッタ機構や、このシャッタ機構の動作を制御する駆動回路等、従来のカメラ等に於いて一般的に利用されているものと同様のものが適用される。したがって、その詳細な構成についての説明は省略する。
As the
図3は、本デジタルカメラの主に電気的な構成を概略的に示すブロック構成図である。 FIG. 3 is a block diagram schematically showing mainly the electrical configuration of the digital camera.
図3に於いて、このデジタルカメラは、上述したように、カメラボディ11と、交換レンズとしてのレンズ鏡筒12とから主に構成されており、カメラボディ11の前面に対して、所望のレンズ鏡筒12が着脱自在に設定されている。
In FIG. 3, as described above, this digital camera is mainly composed of a
上記レンズ鏡筒12の制御は、レンズ制御用マイクロコンピュータ(以下、Lμcomと称する)25によって行われる。一方、カメラボディ11の制御は、ボディ制御用マイクロコンピュータ(以下、Bμcomと称する)50によって行われる。
The
尚、これらLμcom25とBμcom50とは、合体時に於いて通信コネクタ63を介して、通信可能に電気的接続がなされる。そしてカメラシステムとして、Lμcom25がBμcom50に従属的に協働しながら稼動するようになっている。
The
レンズ鏡筒12内には、撮影レンズ21と絞り22が設けられている。撮影レンズ21は、レンズ駆動機構23内に存在する図示されないDCモータによって駆動される。また、絞り22は、絞り駆動機構24内に存在する図示されないステッピングモータによって駆動される。Lμcom25は、Bμcom50の指令に従って、これら各モータを制御する。
In the
また、レンズ鏡筒12内には、後述するピントズレ量を補正するための補正データを記憶している補正値メモリ27が設けられている。この補正値メモリ27に記憶されている補正データは、Lμcom25により読み出される。その後、通信により、Bμcom50に送信される。
The
一方、カメラボディ11内には、次の構成部材が図示のように配設されている。
On the other hand, the following components are arranged in the
例えば、光学系としての一眼レフ方式の構成部材(クイックリターンミラー16a、ペンタプリズム16b、接眼レンズ16c、フォーカシングスクリーン31、サブミラー35)と、光軸上のフォーカルプレーン式のシャッタ部17と、上記サブミラー35からの反射光束を受けて自動測距するためのAFセンサユニット36が設けられている。
For example, a single-lens reflex type structural member (
また、カメラボディ内には、上記ペンタプリズム16bからの光束に基づき測光センサ(光検出手段)32を介して測光処理する測光回路33と、上記AFセンサユニット36を駆動制御するためのAFセンサ駆動回路37と、上記クイックリターンミラー16aを駆動制御するミラー駆動機構38と、上記シャッタ部17の先幕と後幕を駆動するバネをチャージするシャッタチャージ機構47と、それら先幕と後幕の動きを制御するシャッタ制御回路48とが設けられている。
Further, in the camera body, a
また、光軸上には、上記光学系を通過した被写体像を光電変換するための撮像手段であるCCDユニット(撮像素子)40が、光電変換素子として設けられている。 On the optical axis, a CCD unit (imaging device) 40 that is an imaging means for photoelectrically converting the subject image that has passed through the optical system is provided as a photoelectric conversion device.
このデジタルカメラには、また、CCDユニット40に接続されたCCDインターフェイス回路41と、液晶モニタ43と、記憶領域として設けられたSDRAM44と、FlashROM45及び記録メディア46等を利用して画像処理する画像処理コントローラ(画像形成手段)42とが設けられ、電子撮像機能と共に電子記録表示機能を提供できるように構成されている。
The digital camera also includes image processing for image processing using a
その他の記憶領域としては、カメラ制御に必要な所定の制御パラメータを記憶するもので、補正量記憶手段として、例えば、EEPROMから成る不揮発性メモリ49が、Bμcom50からアクセス可能に設けられている。
The other storage area stores predetermined control parameters necessary for camera control. As a correction amount storage means, for example, a
また、上記測光センサ32は、接眼レンズ16cの上部の、フォーカシングスクリーン31をやぶにらむ位置に配設されている。この測光センサ32は、撮影光学系21、クイックリターンミラー16a、フォーカシングスクリーン31、ペンタプリズム16bを介して得られる被写体光を、測光用のレンズで該センサに集光して明るさを測定するものである。
In addition, the photometric sensor 32 is disposed at a position on the upper portion of the
この測光センサ32はシリコンフォトダイオードで構成されており、センサと測光レンズ(図示せず)の間には赤外カットフィルタが挿入されている。これらの光学系と合わせた測光センサ32の分光感度は、ほぼ視感度に等しいものとなっている。 The photometric sensor 32 is composed of a silicon photodiode, and an infrared cut filter is inserted between the sensor and a photometric lens (not shown). The spectral sensitivity of the photometric sensor 32 combined with these optical systems is substantially equal to the visual sensitivity.
更に、シャッタ部17をやぶにらむ位置(光路よりクイックリターンミラー16aが退避した状態でシャッタ幕をカメラ横からやぶにらむ位置)には、白または灰色のシャッタ幕への反射光量を測定するためのストロボ測光センサ51が配設されている。ストロボ発光するような撮影条件の場合には、絞り22が絞り込み動作を終了し、クイックリターンミラー16aが光路より退避した後、撮影に先立ち、外部ストロボ装置64をプリ発光させたときの明るさを、このストロボ測光センサ51で検出し、その出力は、ストロボ光検出回路52を介してBμcom50に供給される。
Further, a strobe for measuring the amount of light reflected on the white or gray shutter curtain at a position where the
Bμcom50は、この出力に応じてストロボ発光量を求め、ストロボ通信回路61を介して外部ストロボ装置64に送信し、本撮影時のストロボ発光量とタイミングを制御する。上記ストロボ測光センサ51もシリコンフォトダイオードで構成されており、ストロボ測光センサ51と測光レンズ(図示せず)の間には、赤外カットフィルタ(図示せず)が挿入されている。これらの光学系と合わせたストロボ測光センサ51の分光感度は、ほぼ視感度に等しいものとなっている。
The
上述した光源センサ55は、本実施形態では外光式のセンサで構成される光源検出手段であり、レンズ鏡筒12を通過していない被写体光を拡散板14を介して検出する。この光源センサ55は、可視光センサ69及び赤外光センサ68から構成されており、拡散板14を介して被写体光が入射される構成のため、センサの視野は同一であり、広い画角を有している。
The light source sensor 55 described above is a light source detection unit configured by an external light sensor in the present embodiment, and detects subject light that has not passed through the
可視光センサ69は、正しくは可視及び近赤外の分光感度を有しているが、可視光センサ69と拡散板14との間には、赤外カットフィルタ(図示せず)が挿入されており、最終的に可視光のみを受光するような構成となっている。光源センサ55は、各分光感度のセンサに応じた光電流を圧縮、電流電圧変換して出力する。光源検出センサの出力は光源検出回路54でA/D変換され、各センサの分光感度に応じた被写体全域の明るさが検出可能な構成となっている。
The
また、Bμcom50には、当該カメラの動作状態を表示出力によってユーザへ告知するための動作表示用LCD57と、カメラ操作スイッチ(SW)58と、ストロボ通信回路61が設けられている。上記カメラ操作スイッチ58は、例えばレリーズスイッチ、モード変更スイッチ、測光モード変更スイッチ及びパワースイッチ等、当該カメラを操作するために必要な操作釦を含むスイッチ群で構成される。
Further, the
上記ストロボ通信回路61は、上述したストロボ測光センサ51で得られBμcom50で算出したストロボの発光量に基づいた信号を受ける。そして、通信コネクタ62を経てストロボ装置64に信号を出力して、ストロボ装置64が所定光量で発光する。
The
更に、カメラボディ11内には、電源としての電池60と、この電源の電圧を当該デジタルカメラを構成する各回路ユニットが必要とする電圧に変換して供給するための電源回路59とが設けられている。
Further, the
上述したように構成されたデジタルカメラでは、各部が次のように稼動する。 In the digital camera configured as described above, each unit operates as follows.
画像処理コントローラ42により、Bμcom50の指令に従って、CCDインターフェイス回路41が制御され、CCDユニット40から画像データが取り込まれる。この画像データは、画像処理コントローラ42でビデオ信号に変換され、液晶モニタ43にて出力表示される。ユーザは、この液晶モニタ43の表示画像から、撮影された画像イメージが確認可能である。
The
SDRAM44は画像データの一時的保管用メモリであり、画像データが変換される際のワークエリア等に使用される。また、この画像データは、JPEGデータに変換された後に、記録メディア50に保管されるように設定されている。
The
ミラー駆動機構38は、クイックリターンミラー16aのUP(アップ)位置とDOWN(ダウン)位置へと駆動するための機構である。上記クイックリターンミラー16aがDOWN位置にある時、撮影レンズ21からの光束は、AFセンサユニット36側とペンタプリズム16b側へと分割されて導かれる。
The
AFセンサユニット36内のAFセンサからの出力は、AFセンサ駆動回路37を介してBμcom50へ送信されて周知の測距処理が行われる。
The output from the AF sensor in the AF sensor unit 36 is transmitted to the
ここで、被写体を照明する光源の種類によって、AFセンサユニット36による測距結果にどのような影響があるのかを説明する。 Here, how the distance measurement result by the AF sensor unit 36 is affected by the type of the light source that illuminates the subject will be described.
初めに、光源の波長特性について説明する。 First, the wavelength characteristics of the light source will be described.
図4は、被写体を照明する各種の照明光源の分光特性を示す概略図である。照明光源としては、図示されるように、A;蛍光灯、B;白熱電球、C;ブルーフラッドランプ、D;昼光の各特性曲線を例示している。 FIG. 4 is a schematic diagram illustrating spectral characteristics of various illumination light sources that illuminate a subject. Illustrative examples of illumination light sources include A: fluorescent lamp, B: incandescent lamp, C: blue flood lamp, D: daylight.
図4に示されるように、蛍光灯の分光特性は、略500nm付近を頂点として略300nm付近から略800nm付近の範囲にある。また、白熱電球の分光特性は、略1000nm付近を頂点に略300nm付近より長波長寄りの領域にある。ブルーフラッドランプの分光特性は、略800nm付近に急峻な感度を有し、略300nm付近から略850nm付近の領域にある。そして、一般的な自然光(昼光)の分光特性は、略300nm付近より長波長寄りの領域から比較的全範囲にわたる分光特性を有している。 As shown in FIG. 4, the spectral characteristics of the fluorescent lamp are in the range from about 300 nm to about 800 nm with the peak at about 500 nm. Further, the spectral characteristics of the incandescent lamp are in a region closer to a longer wavelength than the vicinity of about 300 nm with the vicinity of about 1000 nm as the apex. The spectral characteristics of the blue flood lamp have a steep sensitivity in the vicinity of about 800 nm and are in a region from about 300 nm to about 850 nm. And the spectral characteristic of general natural light (daylight) has a spectral characteristic over a relatively entire range from a region closer to a longer wavelength than about 300 nm.
図5は、被写体を照明している光源の種類によって、AFセンサユニット36の受光部に結像される2つの像の間隔にズレが生じている状態を示した図である。 FIG. 5 is a diagram illustrating a state in which a gap between two images formed on the light receiving unit of the AF sensor unit 36 is shifted depending on the type of the light source that illuminates the subject.
例えば、2つの像の間隔が昼光に於いて合焦状態で結像しているものとした場合、この同一被写体をブルーフラッドランプで照明して撮影すると、以下のようになる。すなわち、図5に示されるように、昼光に於ける合焦状態に比べて、測距センサ28の受光面上に於いて、約+0.2画素分のズレが生じることがわかる。これは、AF検出光束の波長成分が異なると撮影レンズやAF光学系の光学的な作用が異なるため、上記のズレが発生する。この詳細については、特許第2666274号公報に開示されているので、ここでの説明は省略する。 For example, assuming that the interval between two images is focused in daylight, and the same subject is illuminated with a blue flood lamp and photographed, the following occurs. That is, as shown in FIG. 5, it can be seen that a deviation of about +0.2 pixels occurs on the light receiving surface of the distance measuring sensor 28 as compared with the focused state in daylight. This is because the optical components of the photographic lens and the AF optical system are different when the wavelength component of the AF detection light beam is different. Since this is disclosed in Japanese Patent No. 2666274, description thereof is omitted here.
尚、上記約+0.2画素は、ピント位置に換算して、例えば+0.1mmに相当する。測距センサは、ラインセンサを有しており、その画素を意味する。 The above approximately +0.2 pixel corresponds to, for example, +0.1 mm in terms of the focus position. The distance measuring sensor has a line sensor and means the pixel.
このように照明光源によって合焦位置にズレが生じてしまうと、いわゆるピンボケ写真が生成されることとなり問題となる。このため、本発明では、光源センサ55により、光源の種類を判別し、それに応じてレンズ鏡筒12内の補正値メモリ27の補正値を使用して、上記ズレを補正することにより、上記問題を解決している。
In this way, when the in-focus position is shifted by the illumination light source, a so-called out-of-focus photograph is generated, which becomes a problem. For this reason, in the present invention, the type of the light source is discriminated by the light source sensor 55, and the above-mentioned problem is corrected by using the correction value in the
図6は、本実施形態のカメラに於ける焦点検出装置の一部を構成するAFセンサユニット36の検出エリアと、光源センサ55の検出エリアとを概略的に示し、これらの検出エリアの撮影画面(撮影画角)57aに対する関係をそれぞれ示したものである。 FIG. 6 schematically shows a detection area of the AF sensor unit 36 and a detection area of the light source sensor 55 that constitute a part of the focus detection device in the camera of the present embodiment, and a photographing screen of these detection areas. The relationship with respect to (shooting angle of view) 57a is shown.
図6に於いて、領域56(図6に於いて斜線で示される領域)は、AFセンサユニット36の検出エリアを示している。同様に、領域57bは、光源センサ55の検出エリアを示している。
In FIG. 6, a region 56 (a region indicated by hatching in FIG. 6) indicates a detection area of the AF sensor unit 36. Similarly, a
また、ペンタプリズム16bに隣接する接眼レンズ16cからは、ユーザが被写体を目視できる。一方、このペンタプリズム16bを通過した光束の一部は、測光センサ32へ導かれ、ここで検知された光量に基づいて周知の測光処理が行われる。
In addition, the user can view the subject from the
上記測光センサ32は、各測光パターンに応じた光電流を圧縮電流電圧変換し、出力する。測光センサ32の出力は、測光回路33でA/D変換され、各パターンに応じた被写体輝度が検出可能になる。
The photometric sensor 32 converts the photocurrent corresponding to each photometric pattern into a compressed current and outputs it. The output of the photometric sensor 32 is A / D converted by the
また、ファインダ測光による測光結果に基づいて、露出値(シヤッタ速度、絞り、ISO感度)が決定される。 Further, the exposure value (shutter speed, aperture, ISO sensitivity) is determined based on the photometric result obtained by the finder photometry.
このデジタルカメラは、複数の撮影モード(P;プログラムモード、A;絞り優先モード、S;シャッタ速度優先モード、M;マニュアルモード)を有しており、撮影者により選択された撮影モードに応じて、露出値が演算されて決定される。そして、決定された露出値に基いて、シャッタ速度制御、絞り制御、感度制御が行われる。 This digital camera has a plurality of shooting modes (P: program mode, A: aperture priority mode, S: shutter speed priority mode, M: manual mode), depending on the shooting mode selected by the photographer. The exposure value is calculated and determined. Based on the determined exposure value, shutter speed control, aperture control, and sensitivity control are performed.
また、ここで、被写体輝度が暗く、外部ストロボ装置64が接続されている状態で発光可能な場合には、Bμcom50がストロボ発光必要と判断し、ストロボ発光制御が行われる。
If the subject brightness is low and light can be emitted while the
上記シャッタ速度は、シャッタ部17のフォーカルプレーンシャッタにより生成される。ストロボ装置64の閃光発光の同調秒時は、1/180秒である。
The shutter speed is generated by the focal plane shutter of the
絞り22はレンズ鏡筒12内にあり、Bμcom50とLμcom25間の通信によって、絞り駆動がレンズに指示されることにより実現される。
The
感度制御は、CCDユニット40の出力データにアナログゲインをかけることにより実現されるもので、インターフェイス回路41により行われる。
The sensitivity control is realized by applying an analog gain to the output data of the
また、ストロボ装置64の発光量はストロボ測光センサ51により行われる。
The amount of light emitted from the
上述したように、ストロボ測光センサ51はシャッタ部17をやぶにらむ位置に、白または灰色のシャッタ幕の反射光を測定するように配設されている。このストロボ測光センサ51は、クイックリターンミラー16aがアップされた後に、ストロボ装置64のプリ発光により得られるシャッタ幕で反射された光について測定する。Bμcom50は、測定光量から発光量を算出し、ストロボ通信回路61を介してストロボ装置62に通信する。これにより、撮影時のストロボ装置64の本発光の光量に反映される。
As described above, the strobe photometric sensor 51 is disposed at a position where the
次に、光源の種類を検出する原理について説明する。 Next, the principle of detecting the type of light source will be described.
図7は、本実施形態のカメラに於いて、被写体を照明する照明光を測定するもので後述する可視光センサ69の分光感度特性と、後述する赤外光センサ68の分光感度特性をそれぞれ示した図である。
FIG. 7 shows the spectral sensitivity characteristic of a
本実施形態のカメラに於ける可視光センサ69の分光感度特性は、図7の符号Eで示されるように、略500nm付近を頂点(ピーク;最大値)とした短波長領域寄りの分光感度特性を有し、可視光領域に感度を有している。また、同カメラに於ける赤外光センサ68の分光感度特性は、図7の符号Fで示されるように、略600nm付近を頂点として1000nm付近の長波長領域までの分光感度特性を有している。
The spectral sensitivity characteristic of the
尚、以下の説明に於いて、可視光センサ69による測光を可視測光と称し、赤外光センサ69による測光を赤外測光と称するものとする。
In the following description, photometry by the
図8は、上述した光源による赤外測光と可視測光の差(ΔBV)を、タングステンランプを基準として規格化して表した図であり、本実施形態に於ける光源判定の方法を示した図である。 FIG. 8 is a diagram showing the difference (ΔBV) between infrared photometry and visible photometry by the above-mentioned light source, normalized using a tungsten lamp as a reference, and is a diagram showing a light source determination method in this embodiment. is there.
図8に於いては、基準光源がタングステンランプとされているので、輝度差ΔBVは、タングステンランプで0.0、太陽光で−1.1、白色蛍光灯で−7.1、3波昼白蛍光灯で−7.5、昼白蛍光灯で−6.2、3波昼光蛍光灯で−7.5、そしてブルーフラッドランプで+1.3である。ここで、“タングステンランプで規格化”とは、各光源光をカメラに照射した場合の輝度差からタングステンランプをカメラに照射した場合の輝度差を引いた値である。 In FIG. 8, since the reference light source is a tungsten lamp, the luminance difference ΔBV is 0.0 for a tungsten lamp, −1.1 for sunlight, −7.1 for a white fluorescent lamp, and 3 daylight. -7.5 for white fluorescent lamps, -6.2 for daylight white fluorescent lamps, -7.5 for 3-wave daylight fluorescent lamps, and +1.3 for blue flood lamps. Here, “standardized with a tungsten lamp” is a value obtained by subtracting the luminance difference when the camera is irradiated with the tungsten lamp from the luminance difference when the camera is irradiated with each light source light.
ここで、例えば、輝度差−3及び+0.5の位置に閾値を設けた場合、上記輝度差ΔBVの値が−3を越えると蛍光灯であると判定し、+0.5を越えるとブルーフラッドランプと判定することができる。 Here, for example, in the case where threshold values are provided at positions where the luminance difference is −3 and +0.5, when the value of the luminance difference ΔBV exceeds −3, it is determined that the lamp is a fluorescent lamp. It can be determined as a lamp.
図9は光源センサ55の配置について示した図であり、図10はこの光源センサ55の構成を示した平面図である。 FIG. 9 is a diagram showing the arrangement of the light source sensor 55, and FIG. 10 is a plan view showing the configuration of the light source sensor 55.
光源センサ55は、カメラ本体11のカメラ外装65より内側で、拡散板14の後方に配置されている。そして、この光源センサ55は、クリアモールド66上に、赤外センサ68及び可視赤外センサ(SPD)69と、これらのセンサを制御する制御IC72が搭載された構成となっている。更に、可視赤外光センサ68の前面部、すなわち拡散板14と対向する側には、赤外カットフィルタ70が配置されている。この赤外カットフィルタ70により、赤外光がカットされるので、可視赤外光センサ69は可視光に近い分光感度を有した可視光センサとなる。
The light source sensor 55 is disposed behind the
本実施形態では、可視測光を行うために、赤外可視域に分光感度を有するセンサと赤外カットフィルタとを組み合わせている。このような構成の場合、赤外カットフィルタの位置により、微少ではあるが赤外カットされずにセンサに入射する光が発生する。そして、カメラの組み立て誤差等により、この量が異なるため、各光源の光をカメラに照射した場合の可視光と赤外光の輝度差の絶対量は相違する。 In this embodiment, in order to perform visible photometry, a sensor having spectral sensitivity in the infrared visible region and an infrared cut filter are combined. In the case of such a configuration, light that is incident on the sensor without being cut by infrared rays is generated depending on the position of the infrared cut filter. Since this amount varies depending on the assembly error of the camera and the like, the absolute amount of the luminance difference between visible light and infrared light when the light from each light source is irradiated on the camera is different.
しかし、基準の光源(本実施形態ではタングステン光)を基に輝度差を規格化した値は、カメラ個体差によらず一定となる。よって、図8に示される原理に基づいて、安定して光源を判定することができる。 However, the value obtained by standardizing the luminance difference based on the reference light source (in this embodiment, tungsten light) is constant regardless of the individual camera difference. Therefore, the light source can be determined stably based on the principle shown in FIG.
次に、このように構成されたカメラの動作について説明する。尚、以下に述べる種々の動作は、Bμcom50により制御される。
Next, the operation of the camera configured as described above will be described. The various operations described below are controlled by the
初めに、図11のフローチャートを参照して、カメラ本体に電池装填やA/Dアダプタ等の電源投入、または電源スイッチがオンされた場合の動作について説明する。 First, with reference to the flowchart of FIG. 11, the operation when the camera body is loaded with a battery, the A / D adapter or the like is turned on, or the power switch is turned on will be described.
先ず、ステップS1にて、カメラボディ11内で、Bμcom50によって、回路全体の初期化動作が実行される。次いで、ステップS2に於いて、電源スイッチ(SW)の状態が判定される。ここで、電源スイッチがオフの場合はカメラの動作が終了する。一方、電源スイッチがオンされている場合は、ステップS3に移行して、Bμcom50とLμcom25との間で通信が行われて、レンズ鏡筒12内の初期化動作や、該レンズ鏡筒12内の補正値メモリ27のピント補正データ、レンズの焦点距離情報等の各種データの授受が行われる。
First, in step S <b> 1, the entire circuit is initialized by the
そして、ステップS4に於いて、レリーズスイッチ(SW)の状態が判定される。ここで、レリーズスイッチがオフであれば、上記ステップS2へ移行して、再度電源スイッチの状態が判定される。一方、レリーズスイッチがオンされていれば、ステップS5へ移行して、サブルーチン「レリーズ」が実行される。その後、上記ステップS2へ移行する。 In step S4, the state of the release switch (SW) is determined. If the release switch is off, the process proceeds to step S2, and the state of the power switch is determined again. On the other hand, if the release switch is on, the process proceeds to step S5, and the subroutine “release” is executed. Thereafter, the process proceeds to step S2.
図12は、本実施形態のカメラの作用のうち写真撮影を行う際に行われるサブルーチン「レリーズ」の動作を説明するフローチャートである。 FIG. 12 is a flowchart for explaining the operation of the subroutine “Release” performed when taking a picture out of the actions of the camera of the present embodiment.
本カメラの電源がオン状態にあり、撮影動作を行い得る撮影準備状態にあるときに、使用者によってカメラ操作スイッチ58のうちファーストレリーズスイッチに連動する操作部材が操作される。すると、この操作に応じた所定の指令信号(ファーストレリーズ信号)が発生されることによって、図12のレリーズ動作のサブルーチンが呼び出されて、同シーケンスが開始される。 When the power of the camera is on and the camera is in a shooting preparation state in which a shooting operation can be performed, the user operates an operation member that is linked to the first release switch among the camera operation switches 58. Then, when a predetermined command signal (first release signal) corresponding to this operation is generated, the release operation subroutine of FIG. 12 is called and the same sequence is started.
先ず、ステップS11に於いて、Bμcom50によって、ファーストレリーズ信号が受信されて、測光回路33を介して測光センサ32が駆動制御され、測光が行われる。これにより、その測光結果である測光データが取得される。次いで、ステップS12にて、Bμcom50により、同様に光源検出回路54による光源検出が行われて、その結果である光源検出データが取得される。このようにして取得された光源検出データは、Bμcom50に内蔵されたRAM(図示せず)の所定の領域(BVA、BVB)に格納される。
First, in step S11, the first release signal is received by the
続いて、ステップS13にて、Bμcom50により、ストロボ装置64に含まれるストロボ用コンデンサ(図示せず)の充電電圧の状態が確認されて、ストロボ発光動作が行われ得るレベルの充電がなされているか否かの判定が行われる(充電チェックの処理)。この充電チェックの処理は、ステップS14の測距動作のシーケンスが行われる際に、被写体が低輝度である場合には、ストロボ装置64を含む閃光発光装置が用いられて補助光が被写体に向けて照射される必要があることから、この段階で予めストロボ用コンデンサの電圧チェックが行われるようにしているものである。
Subsequently, in step S13, the state of the charging voltage of the strobe capacitor (not shown) included in the
尚、測距動作時に被写体が低輝度であるか否かが判定され、測距動作時に於いて補助光の照射が必要であるか否かの判定は、上述したステップS12に於ける測光結果に基づいて行われる。 Note that it is determined whether or not the subject has low brightness during the distance measuring operation, and whether or not the auxiliary light needs to be irradiated during the distance measuring operation is determined based on the photometric result in step S12 described above. Based on.
ステップS14では、Bμcom50によって焦点検出装置が駆動制御されて、サブルーチン「測距動作」のシーケンスが実行される。尚、このサブルーチン「測距動作」の詳細は後述する。続いて、ステップS15に於いて、上述したステップS14の測距動作の測距結果が参照されて、焦点位置の検出が不能であったか否かの判定が行われる。
In step S14, the focus detection device is driven and controlled by
ここで、焦点位置の検出が不能であった場合には、ステップS22に移行する。このステップS22では、合焦位置が検出できなかった旨の表示が、所定の情報表示装置(図示せず)等が用いられて行われる非合焦表示の処理が実行される。その後、本レリーズ処理のシーケンスが終了する。 If the focal position cannot be detected, the process proceeds to step S22. In step S22, a non-focus display process is performed in which a display indicating that the in-focus position cannot be detected is performed using a predetermined information display device (not shown) or the like. Thereafter, the sequence of the release process ends.
一方、上記ステップS15にて、上記ステップS14の測距動作の結果、焦点位置が検出されたことが確認された場合には、ステップS16に移行する。ステップS16では、上記ステップS14(図13参照)に於ける測距動作時に閃光発光装置が用いられた補助光が発光されたか否かの確認が行われる。ここで、測距動作時に補助光が発光されたと判定された場合にはステップS17に移行し、補助光の発光が実行されていないと判断された場合にはステップS18に移行する。 On the other hand, if it is confirmed in step S15 that the focal position has been detected as a result of the distance measuring operation in step S14, the process proceeds to step S16. In step S16, it is confirmed whether or not the auxiliary light used by the flash light emitting device is emitted during the distance measuring operation in step S14 (see FIG. 13). If it is determined that the auxiliary light is emitted during the distance measuring operation, the process proceeds to step S17. If it is determined that the auxiliary light is not emitted, the process proceeds to step S18.
ステップS17に於いては、測距動作時にて補助光が発光されたことで、適正となる露光量に比べて光量過多(オーバ)または光量不足(アンダー)が生じたか否かが判定される。ここで、光量オーバまたはアンダーと判定された場合には、このような状況下で実行された測距動作による測距結果には信頼性がないものと考えられる。したがって、このような場合には、上記ステップS14に移行して、以降の処理に於いて補助光の光量が変更れて、再度同様の測距動作が実行される。 In step S17, it is determined whether or not an excessive amount of light (over) or an insufficient amount of light (under) has occurred as a result of the auxiliary light being emitted during the distance measuring operation, compared to the appropriate exposure amount. Here, when it is determined that the light amount is over or under, it is considered that the distance measurement result obtained by the distance measurement operation performed under such circumstances is not reliable. Therefore, in such a case, the process proceeds to step S14, and the amount of auxiliary light is changed in the subsequent processing, and the same distance measuring operation is executed again.
尚、測距動作時に於ける補助光の光量調整等、所定の動作については、本件出願人による特開平6−289281公報等によって詳細な説明を行っている。本実施形態のカメラに於いても、これらの従来より用いられている手段に従って測距動作時に於ける補助光照射がなされるものとする。したがって、本実施の形態に於いて、その詳細な説明は省略する。 The predetermined operation such as the adjustment of the amount of auxiliary light during the distance measuring operation is described in detail in Japanese Patent Application Laid-Open No. Hei 6-289281 by the present applicant. Also in the camera of the present embodiment, it is assumed that auxiliary light irradiation is performed during the distance measuring operation in accordance with these conventionally used means. Therefore, detailed description thereof is omitted in the present embodiment.
次に、ステップS18に於いて、測距動作による測距結果に基づいて移動させられた撮影レンズにより結像される被写体像が合焦状態にあるか否かが判断される。ここで、合焦状態にあるものと判断された場合はステップS19に移行し、合焦状態にないものと判断された場合にはステップS20に移行する。 Next, in step S18, it is determined whether or not the subject image formed by the photographic lens moved based on the distance measurement result of the distance measurement operation is in focus. If it is determined that the subject is in focus, the process proceeds to step S19. If it is determined that the subject is not in focus, the process proceeds to step S20.
ステップS19では合焦状態にある場合であるので、Bμcom50により、ファインダLED表示やブザの発音等の図示されない表示・警告装置等が用いられて、合焦状態になった旨の情報が使用者に告知される(合焦表示の処理)。その後、本ルーチンが終了する(リターン)。
In step S19, since it is in the in-focus state, the
一方、ステップS20では非合焦状態である場合なので、所定のレンズ駆動の処理が実行される。この場合は、上記ステップS14の測距結果が、レンズ鏡筒12内のLμcom25に送信される。このLμcom25により、測距結果に基づいて撮影レンズが所定の位置に移動されるよう駆動制御がなされる。
On the other hand, since it is a case where it is an out-of-focus state in step S20, a predetermined lens driving process is executed. In this case, the distance measurement result in step S14 is transmitted to Lμcom 25 in the
そして、ステップS21にて、Bμcom50により、上記ステップS20のレンズ駆動処理の結果、合焦状態になったか否かが判定される。ここで、合焦状態になったものと判定された場合にはステップS19に移行する。そして、このステップS19に於いて合焦表示処理が実行された後、一連の動作が終了する(リターン)。また、ステップS21に於いて、未だ非合焦状態にあるものと判断された場合には、上記ステップS14に移行して、再度同様の測距動作が繰り返される。 In step S21, it is determined by Bμcom50 whether or not the lens has been in focus as a result of the lens driving process in step S20. Here, when it is determined that the in-focus state is obtained, the process proceeds to step S19. Then, after the focus display process is executed in step S19, a series of operations is completed (return). If it is determined in step S21 that the lens is still out of focus, the process proceeds to step S14 and the same distance measuring operation is repeated again.
次に、図13のフローチャートを参照して、上述した図12のフローチャートのステップS14に於けるサブルーチン「測距」の動作を説明する。 Next, the operation of the subroutine “ranging” in step S14 of the flowchart of FIG. 12 described above will be described with reference to the flowchart of FIG.
上述したように、図12のフローチャートのステップS14に於いて、サブルーチン「測距」のシーケンスが実行されると、先ずステップS31に於いて、積分が実行される。尚、測距動作時に於ける積分動作についても、上述した特開平6−289281号公報等によって、従来より開示がなされている。したがって、ここではその詳細な説明は省略する。 As described above, when the subroutine “ranging” is executed in step S14 of the flowchart of FIG. 12, integration is first executed in step S31. Incidentally, the integration operation during the distance measuring operation has also been conventionally disclosed by the above-mentioned Japanese Patent Application Laid-Open No. 6-289281. Therefore, detailed description thereof is omitted here.
次に、ステップS32にて、Bμcom50によって、AFセンサユニット36から測距結果である測距データが読み出される。続いて、ステップS33にて、上記ステップS32の処理によってAFセンサユニット36から読み出されたセンサデータに基づいて、所定の演算処理により測光データが算出される。この測光データは、Bμcom内の図示されないRAMの所定の領域(BVAF)に格納される。
Next, in step S32, distance measurement data as a distance measurement result is read out from the AF sensor unit 36 by
尚、ここで実行される所定の測光演算については、上述した特開平6−289281号公報等によって開示されている手段に従うものとする。 It should be noted that the predetermined photometric calculation executed here is in accordance with the means disclosed in the above-mentioned JP-A-6-289281.
次に、ステップS34にて、上記ステップS31の処理に於けるAFセンサユニット36の積分動作時に、低輝度環境である等の理由によって光量が不足である場合に、閃光発光装置が用いられて、被写体に対して補助光を照射する必要があるか否かの判定及びその場合に於ける補助光の発光光量を設定する等の所定の処理が行われる。 Next, in step S34, if the amount of light is insufficient due to a low-luminance environment or the like during the integration operation of the AF sensor unit 36 in the processing of step S31, the flash light emitting device is used. Predetermined processing such as determining whether or not it is necessary to irradiate the subject with auxiliary light and setting the light emission amount of the auxiliary light in that case is performed.
ステップS35では、測距動作により測距結果の検出が不能であるか否かの判定が行われる。その結果、検出が不能であると判定された場合にはステップS50に移行する。このステップS50では、非合焦フラグが設定(セット)された後、この一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。 In step S35, it is determined whether or not the distance measurement result cannot be detected by the distance measurement operation. As a result, when it is determined that the detection is impossible, the process proceeds to step S50. In step S50, after the out-of-focus flag is set (set), the series of the distance measuring operation sequence is terminated, and the process returns to the predetermined process in the flowchart of FIG. 12 described above (return).
一方、上記ステップS35にて測距結果が検出された場合には、ステップS36に移行する。そして、このステップS36に於いて、閃光発光装置(ストロボ装置64)による補助光が照射されて積分が行われた結果が光量オーバであるか否かが判定される。ここで、光量オーバであると判定された場合には、一連の測距動作のシーケンスが終了し、上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われることになる。 On the other hand, if a distance measurement result is detected in step S35, the process proceeds to step S36. Then, in step S36, it is determined whether or not the result of the integration by the application of the auxiliary light from the flash light emitting device (strobe device 64) is excessive. Here, when it is determined that the light amount is over, a series of distance measuring operation sequence ends, and the process returns to the predetermined processing of the flowchart of FIG. 12 described above (return). Then, the distance measuring operation is performed again according to a predetermined procedure.
上記ステップS36にて光量オーバでないと判断された場合は、ステップS37に移行して照度分布補正の処理が実行される。この照度分布補正処理とは、センサデータの感度偏差を補正するための処理である。続いて、ステップS38にて、相関演算の処理が実行される。これにより、いわゆる二像間隔の検出がなされる。 If it is determined in step S36 that the light amount is not over, the process proceeds to step S37, and the illuminance distribution correction process is executed. This illuminance distribution correction process is a process for correcting the sensitivity deviation of the sensor data. Subsequently, in step S38, a correlation calculation process is executed. Thereby, a so-called two-image interval is detected.
尚、この相関演算の処理についても、上述した特開平6−289281号公報等によって、その詳細が開示されているので、本実施形態に於いても従来の手段に従って相関演算処理が実行されるものとする。 Since the details of this correlation calculation process are disclosed in the above-mentioned Japanese Patent Laid-Open No. Hei 6-289281, etc., the correlation calculation process is executed according to the conventional means also in this embodiment. And
ステップS39では、上記ステップS38に於ける相関演算処理の結果が判定される。ここで、相関性を有するものと判定された場合にはステップS40に移行し、相関性が無いものと判断された場合にはステップS47に移行する。 In step S39, the result of the correlation calculation process in step S38 is determined. If it is determined that there is a correlation, the process proceeds to step S40. If it is determined that there is no correlation, the process proceeds to step S47.
ステップS40では、像ずれ量の演算処理が実行される。次いで、ステップS41にて、上記ステップS40の処理にて算出された像ずれ量から、光軸上の撮像素子面に対する結像位置のずれ量、すなわち、デフォーカス量を算出する演算処理が実行される。 In step S40, an image shift amount calculation process is executed. Next, in step S41, a calculation process is performed to calculate a shift amount of the imaging position with respect to the image sensor surface on the optical axis, that is, a defocus amount, from the image shift amount calculated in the process of step S40. The
次に、ステップS42にて、光源センサ55による検出結果(図12のフローチャートのステップS12の光源検出による)に基づいて、サブルーチン「光源判定」の処理(図15参照)が実行される。尚、このサブルーチン「光源判定」の詳細な動作については後述する。 Next, in step S42, based on the detection result by the light source sensor 55 (by the light source detection in step S12 in the flowchart of FIG. 12), the subroutine “light source determination” processing (see FIG. 15) is executed. The detailed operation of this subroutine “light source determination” will be described later.
ステップS43では、上記ステップS42の処理に於けるサブルーチン「光源判定」の処理の結果に基づいて、サブルーチン「デフォーカス補正」の処理(図14参照)が実行される。尚、このサブルーチン「デフォーカス補正」の処理の後は、ステップS44に移行する。 In step S43, the subroutine “defocus correction” (see FIG. 14) is executed based on the result of the subroutine “light source determination” in the process of step S42. After the subroutine “defocus correction”, the process proceeds to step S44.
ステップS44では、算出されたデフォーカス量が焦点深度の範囲内にあるか否か、すなわち合焦許容範囲内にあるか否かが判定される。ここで、合焦許容範囲内にあると判定された場合にはステップS46へ移行し、合焦許容範囲内に無いと判定された場合にはステップS45へ移行する。 In step S44, it is determined whether or not the calculated defocus amount is within the depth of focus range, that is, whether or not it is within the focus tolerance range. Here, if it is determined that it is within the focus allowable range, the process proceeds to step S46, and if it is determined that it is not within the focus allowable range, the process proceeds to step S45.
ステップS45では、Bμcom50により、Lμcom25に対して、補正後のデフォーカス量が送信される。その後、一連の測距動作のシーケンスが終了し、上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われる。 In step S45, the corrected defocus amount is transmitted to Lμcom 25 by Bμcom50. Thereafter, a series of distance measuring operation sequence ends, and the process returns to the predetermined process of the flowchart of FIG. 12 described above (return). Then, the distance measuring operation is performed again according to a predetermined procedure.
一方、ステップS46に於いては、合焦フラグの設定(セット)処理が実行された後、一連の測距動作のシーケンスが終了する。これにより、同様に上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われる。 On the other hand, in step S46, after the focusing flag setting (setting) process is executed, a series of distance measuring operation sequence ends. As a result, the process returns to the predetermined process of the flowchart of FIG. Then, the distance measuring operation is performed again according to a predetermined procedure.
上記ステップS39に於いて、相関演算処理の結果、相関性を有しないものと判定された場合は、ステップS47に移行して、センサ積分動作時に補助光による照明が行われたか否かの判定がなされる。ここで、補助光の照明が行われたものと判定された場合にはステップS48に移行し、補助光の照明が行われていないものと判定された場合にはステップS50に移行する。 If it is determined in step S39 that there is no correlation as a result of the correlation calculation process, the process proceeds to step S47 to determine whether illumination with auxiliary light has been performed during the sensor integration operation. Made. If it is determined that the auxiliary light is illuminated, the process proceeds to step S48. If it is determined that the auxiliary light is not illuminated, the process proceeds to step S50.
ステップS48では、補助光光量を増加して照明を行う処理が実行される。そして、ステップS49に於いて、測距結果の検出が不能であるか否かの判定がなされる。ここで、補助光の光量を増加したにも関わらず測距結果に改善が見られないものと判定された場合には、上述したステップS50に移行して、非合焦フラグが設定(セット)される。その後、この一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。 In step S48, processing for increasing the amount of auxiliary light and performing illumination is executed. In step S49, it is determined whether or not the distance measurement result cannot be detected. If it is determined that there is no improvement in the distance measurement result despite the increase in the amount of auxiliary light, the process proceeds to step S50 described above, and the out-of-focus flag is set (set). Is done. Thereafter, the series of the distance measuring operation sequence is terminated, and the process returns to the predetermined process of the flowchart of FIG. 12 described above (return).
一方、上記ステップS49に於いて、補助光の光量を増加したことで測距結果に改善が見られたと判定された場合、すなわち測距結果が検出された場合には、一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。 On the other hand, if it is determined in step S49 that the distance measurement result has been improved by increasing the amount of auxiliary light, that is, if the distance measurement result is detected, a series of distance measurement operations are performed. The sequence is terminated, and the process returns to the predetermined process in the flowchart of FIG. 12 described above (return).
尚、上記ステップS34にて、補助光が使用されて測距動作が行われる場合は、補助光フラグ(F_HOJO)がセットされ、補助光が使用されなかった場合は補助光フラグはクリアされる。 In step S34, when the auxiliary light is used and the distance measuring operation is performed, the auxiliary light flag (F_HOJO) is set, and when the auxiliary light is not used, the auxiliary light flag is cleared.
図14は、図13のフローチャートのステップS43に於けるサブルーチン「デフォーカス補正」のシーケンスを示すフローチャートである。 FIG. 14 is a flowchart showing the sequence of the subroutine “defocus correction” in step S43 of the flowchart of FIG.
本ルーチンに入ると、先ず、ステップS61に於いて、ストロボ装置64による補助光が使用されて測距されたか否かが、フラグ[F_HOJO]が参照されて判定される。ここで、フラグ[F_HOJO]がセットされている場合は、ステップS62へ移行して、収差補正量を格納するメモリ[D_SYUSA]に対して、後述する焦点距離毎に相違する関数gで決定される値の、撮影レンズの球面収差量[f]及び補助光によって発生する色収差量[hojo]の値が格納される。その後、ステップS70へ移行する。
When this routine is entered, first, in step S61, it is determined by referring to the flag [F_HOJO] whether or not the distance is measured using the auxiliary light from the
ここで関数gは、撮影レンズの特性によって決定されるものであり、レンズ鏡筒12内の補正値メモリ27に格納されている。
Here, the function g is determined by the characteristics of the photographing lens, and is stored in the
下記表1は、上記補正値メモリ27に予め格納されているピント補正データを表したものである。
撮影レンズ21の焦点距離に対応して、関数gn 、球面収差補正量fn 、色収差補正量として、蛍光灯用fluon 、昼光用sunn 、白熱灯用infrn 、ブルーフラッドランプ用brufn 、補助光用hojon が、それぞれ格納されている。これらのデータは、Bμcom50とLμcom25間の通信により、SDRAM44等のカメラボディ11内のメモリに格納される。
Corresponding to the focal length of the taking
撮影レンズ21の焦点距離も上記通信によってBμcom50にて判定され、関数gn 及び球面収差量fn が選択される。また、光源判定結果に応じて色収差量が選択され、収差補正量D_SYUSAが作成される。
The focal length of the
上記ステップS61にて、フラグ[F_HOJO]がセットされない場合は、ステップS63へ移行する。 If the flag [F_HOJO] is not set in step S61, the process proceeds to step S63.
ステップS63では、上述した光源判定処理(図12または図13のフローチャートのステップS42)の結果が参照されて、被写体を照明している光源がブルーフラッドランプであるか否かの確認が行われる。すなわち、フラグ[F_BRUF]がセットされているか否かの確認が行われる。 In step S63, the result of the light source determination process described above (step S42 in the flowchart of FIG. 12 or FIG. 13) is referred to, and it is confirmed whether or not the light source illuminating the subject is a blue flood lamp. That is, it is confirmed whether or not the flag [F_BRUF] is set.
ここで、フラグ[F_BRUF]がセットされており、ブルーフラッドランプであることが確認された場合には、ステップS64へ移行する。ステップS64では、収差補正量を格納するメモリ[D_SYUSA]に対して焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及びブルーフラッドランプによって発生する色収差量[bruf]の値が格納される。ここで関数gは、撮影レンズの特性によって決定されるものである。その後、後述するステップS70に移行する。 If the flag [F_BRUF] is set and it is confirmed that the flag is a blue flood lamp, the process proceeds to step S64. In step S64, the spherical aberration amount [f] of the taking lens determined by the function g that differs for each focal length with respect to the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [bruf] generated by the blue flood lamp. The value of is stored. Here, the function g is determined by the characteristics of the taking lens. Thereafter, the process proceeds to step S70 described later.
一方、上記ステップS63に於いてブルーフラッドランプではないと判定された場合には、ステップS65へ移行する。このステップS65では、光源判定処理の結果が参照されて、被写体を照明している光源が白熱電球であるか否か、すなわち、フラグ[F_INFR]がセットされているか否かの確認がなされる。 On the other hand, if it is determined in step S63 that the lamp is not a blue flood lamp, the process proceeds to step S65. In step S65, the result of the light source determination process is referred to, and it is confirmed whether or not the light source illuminating the subject is an incandescent bulb, that is, whether or not the flag [F_INFR] is set.
ここで、フラグ[F_INFR]がセットされており、白熱電球であることが確認された場合には、ステップS66に移行する。そして、このステップS66にて、収差補正量を格納するメモリ[D_SYUSA]に焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び白熱電球によって発生する色収差量[infr]が格納される。その後、後述するステップS70に移行する。 If the flag [F_INFR] is set and it is confirmed that the light bulb is an incandescent lamp, the process proceeds to step S66. In step S66, the spherical aberration amount [f] of the photographing lens determined by the function g that differs for each focal length in the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [infr] generated by the incandescent bulb. ] Is stored. Thereafter, the process proceeds to step S70 described later.
また、上記ステップS65に於いて、白熱電球ではないと判断された場合には、ステップS67に移行する。このステップS67では、光源判定処理の結果が参照されて、被写体を照明している光源が蛍光灯であるか否か、すなわち、フラグ[F_FLUO]がセットされているか否かの確認がなされる。 If it is determined in step S65 that the light bulb is not an incandescent lamp, the process proceeds to step S67. In step S67, the result of the light source determination process is referred to, and it is confirmed whether or not the light source illuminating the subject is a fluorescent lamp, that is, whether or not the flag [F_FLUO] is set.
ここで、フラグ[F_FLUO]がセットされており、蛍光灯であることが確認された場合には、ステップS68に移行する。そして、このステップS68にて、収差補正量を格納するメモリ[D_SYUSA]に焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び蛍光灯によって発生する色収差量[fluo]が格納される。その後、ステップS70に移行する。 If the flag [F_FLUO] is set and it is confirmed that the lamp is a fluorescent lamp, the process proceeds to step S68. In this step S68, the spherical aberration amount [f] of the taking lens determined by the function g that differs for each focal length in the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [fluo generated by the fluorescent lamp] ] Is stored. Thereafter, the process proceeds to step S70.
一方、上記ステップS67に於いて蛍光灯ではないと判断された場合には、被写体が照明されている光源は、白熱電球、蛍光灯、ブルーフラッドランプの何れでもないので、太陽光(昼光)である。したがって、収差補正量を格納するメモリ[D_SYUSA]に、焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び昼光によって発生する色収差量[sun]が格納される。その後、後述するステップS70に移行する。 On the other hand, if it is determined in step S67 that the light source is not a fluorescent lamp, the light source on which the subject is illuminated is neither an incandescent lamp, a fluorescent lamp, nor a blue flood lamp. It is. Accordingly, the spherical aberration amount [f] of the photographing lens determined by the function g that differs for each focal length and the chromatic aberration amount [sun] generated by daylight are stored in the memory [D_SYUSA] that stores the aberration correction amount. . Thereafter, the process proceeds to step S70 described later.
また、ステップS70に於いては、メモリ[D_DF]に対してメモリ[D_SYUSA]に格納されたデータが加算される。その後、一連のデフォーカス補正処理が終了する(リターン)。 In step S70, the data stored in the memory [D_SYUSA] is added to the memory [D_DF]. Thereafter, a series of defocus correction processing ends (return).
このようにして、Bμcom50は、所定の演算処理の結果、算出した合焦点位置に関する各種の情報を補正する機能も有している。そして、補正された情報がLμcom25へと出力され、これにより撮影レンズ21が所定のレンズ駆動量で移動される。
In this way, the
次に、図15のフローチャートを参照して、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の詳細な動作について説明する。 Next, the detailed operation of the subroutine “light source detection” in step S42 in the flowchart of FIG. 13 will be described with reference to the flowchart of FIG.
本ルーチンに入ると、ステップS81にて、先ず光源の種類を表すフラグF_FLUO、F_SUN、F_INFR、F_BRUFがクリアされ、光源センサ55の出力が読み出される。次いで、ステップS82にて上記光源センサ55の出力から、光源の輝度が算出される。更に、ステップS83にて、可視光及び赤外光の輝度値が、それぞれ算出される。 When this routine is entered, first in step S81, flags F_FLUO, F_SUN, F_INFR, and F_BRUF indicating the type of light source are cleared, and the output of the light source sensor 55 is read. Next, the luminance of the light source is calculated from the output of the light source sensor 55 in step S82. Further, in step S83, luminance values of visible light and infrared light are respectively calculated.
ステップS84では、可視光(BV_eye)と赤外光(BV_ir)の差が、下記式に従って算出される。
D_BV←BV_ir−BV_eye
D_BV←D_BV−DBV_REF
ここで、DBV_REFは、基準のタングステン光(白熱灯)照射時の可視光と赤外光の輝度差であり、カメラ個体に応じて異なる値としてBμcom50内に調整値として記憶されている。
In step S84, the difference between visible light (BV_eye) and infrared light (BV_ir) is calculated according to the following equation.
D_BV ← BV_ir-BV_eye
D_BV ← D_BV-DBV_REF
Here, DBV_REF is a luminance difference between visible light and infrared light at the time of reference tungsten light (incandescent lamp) irradiation, and is stored as an adjustment value in
このように、タングステン光(白熱灯)を基準にして上記算出された差が規格化される。 In this way, the calculated difference is normalized based on tungsten light (incandescent lamp).
次に、ステップS85に於いて、上述した可視光の輝度値が使用可能な値であるか否かが判定される。これは、輝度が明るすぎる場合や暗すぎる場合は、その光源センサの光源検出精度が悪化するため、光源検出の出力があまり信用できないからである。この場合、ステップS85では、可視光の輝度値が−2より小さいか、または8より大きいかが判定される。 Next, in step S85, it is determined whether or not the above-described luminance value of visible light is a usable value. This is because when the luminance is too bright or too dark, the light source detection accuracy of the light source sensor deteriorates, and the output of the light source detection is not very reliable. In this case, in step S85, it is determined whether the luminance value of visible light is less than −2 or greater than 8.
ここで、上記可視光の輝度値が−2より小または8より大であれば、ステップS84へ移行して光源が不明であるとされる。一方、上記輝度値が−2以上で且つ8以下であれば、ステップS86へ移行する。 Here, if the luminance value of the visible light is smaller than −2 or larger than 8, the process proceeds to step S84 and the light source is unknown. On the other hand, if the luminance value is −2 or more and 8 or less, the process proceeds to step S86.
ステップS86では、上記ステップS84で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと比較される。ここで、上記輝度差D_BVの方が蛍光灯の閾値BV_TH_keiよりも小さければステップS90へ移行し、大きければステップS87へ移行する。 In step S86, the luminance difference D_BV calculated in step S84 is compared with the fluorescent lamp threshold value BV_TH_kei. If the brightness difference D_BV is smaller than the fluorescent lamp threshold BV_TH_kei, the process proceeds to step S90, and if greater, the process proceeds to step S87.
ステップS87では、上記ステップS84で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと太陽光の閾値BV_TH_sunの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS91へ移行し、両者の閾値の範囲外であればステップS88へ移行する。 In step S87, it is determined whether or not the brightness difference D_BV calculated in step S84 is between the fluorescent lamp threshold BV_TH_kei and the sunlight threshold BV_TH_sun. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S91, and if it is outside the range of both thresholds, the process proceeds to step S88.
また、ステップS88では、上記ステップS84で算出された輝度差D_BVが、太陽光の閾値BV_TH_sunとタングステン光の閾値BV_TH_flの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS92へ移行し、両者の閾値の範囲外であればステップS89へ移行する。 In step S88, it is determined whether or not the luminance difference D_BV calculated in step S84 is between the sunlight threshold value BV_TH_sun and the tungsten light threshold value BV_TH_fl. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S92, and if it is outside the range of both thresholds, the process proceeds to step S89.
ステップS89では、上記ステップS84で算出された輝度差D_BVと、タングステン光の閾値BV_TH_flとが比較される。ここで、上記輝度差D_BVの方がタングステン光の閾値BV_TH_flよりも大きければステップS93へ移行し、小さければステップS94へ移行する。 In step S89, the brightness difference D_BV calculated in step S84 is compared with the tungsten light threshold value BV_TH_fl. If the luminance difference D_BV is larger than the tungsten light threshold BV_TH_fl, the process proceeds to step S93, and if smaller, the process proceeds to step S94.
上述した各光源の閾値は、下記表2に示されるように、例えば、蛍光灯の閾値BV_TH_keiが−3、太陽光の閾値BV_TH_sunが−0.5、タングステン光の閾値BV_TH_flが+0.5と設定される。
そして、ステップS90では、光源は蛍光灯であるとみなされる(フラグ[F_FLUO]に1がセットされる)。同様に、ステップS91では光源が太陽光であるとみなされ、ステップS92では光源がタングステン光であるとみなされる。更に、ステップS93では、光源がブルーフラッドランプであるとみなされる。また、ステップS94では、上述したように、光源が不明であるとされる。光源が不明の場合は、レンズ内ピントズレ補正値を調整するときの基準光源である蛍光灯の補正値が使用されるため、フラグ[F_FLUO]がセットされる。 In step S90, the light source is regarded as a fluorescent lamp (1 is set in the flag [F_FLUO]). Similarly, in step S91, the light source is regarded as sunlight, and in step S92, the light source is regarded as tungsten light. Further, in step S93, the light source is regarded as a blue flood lamp. In step S94, the light source is unknown as described above. When the light source is unknown, the flag [F_FLUO] is set because the correction value of the fluorescent lamp that is the reference light source when adjusting the in-lens defocus correction value is used.
こうして光源が検出されると、本ルーチンを抜ける。 When the light source is thus detected, the routine is exited.
このように、第1の実施形態によれば、カメラの焦点調節精度の高精度化に寄与することができる。 As described above, according to the first embodiment, it is possible to contribute to the improvement of the focus adjustment accuracy of the camera.
(第2の実施形態)
次に、本発明の第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
上述した第1の実施形態では、光源の種類を何れか1つに選択する場合を例にしていたが、実際には蛍光灯室内の窓際での撮影等の用に、光源が複数存在するような撮影状況も少なくない。以下に述べる第2の実施形態は、光源が複数種類の混合である場合でも適正な露光量となるような構成となっている。 In the first embodiment described above, the case where one of the types of light sources is selected is taken as an example. However, in reality, there are a plurality of light sources for shooting at a window in a fluorescent lamp room. There are not a few situations of shooting. The second embodiment described below is configured so that an appropriate exposure amount is obtained even when the light source is a mixture of a plurality of types.
尚、この第2の実施形態は、上述した第1の実施形態とは制御動作が異なるだけであり、カメラの構成及び基本的な動作等については、基本的に図1乃至図14に示されたものと同様であるので、同一の部分には同一の参照番号を付して、その図示及び説明は省略する。 The second embodiment is different from the first embodiment only in the control operation, and the configuration and basic operation of the camera are basically shown in FIGS. The same reference numerals are assigned to the same parts, and illustration and description thereof are omitted.
先ず、本第2の実施形態の特徴である補正量の算出について、図16を参照して説明する。 First, calculation of the correction amount, which is a feature of the second embodiment, will be described with reference to FIG.
本第2の実施形態では、補正量を算出する際に、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」に於いて求めた光源の混合割合に相当する量(以下、ミックスレベルと記す)を基に、光源の混合割合に応じた補正を行うことが特徴である。 In the second embodiment, when calculating the correction amount, an amount (hereinafter referred to as the mix level) corresponding to the light source mixing ratio obtained in the subroutine “light source detection” in step S42 in the flowchart of FIG. It is a feature that correction is performed in accordance with the mixing ratio of the light sources.
ある光源、例えば太陽光の場合、同じ太陽光が光源であっても、蛍光灯に近い側とタングステン光に近い側が考えられる。そのため、本実施形態では、その光源が他の何れの光源に近いかを光源のミックスレベルとして表すものとする。 In the case of a certain light source, for example, sunlight, even if the same sunlight is a light source, a side close to a fluorescent lamp and a side close to tungsten light are considered. For this reason, in the present embodiment, it is assumed that the other light source is closer to the light source as a mix level of the light sources.
図16に於いて、横軸は後述する赤外光と可視光の輝度差を基準光で規格化した値であるD_BVであり、縦軸は収差補正量を示している。また、0,100,200等の数値は、各光源に於けるミックスレベル量の値を示している。 In FIG. 16, the horizontal axis represents D_BV, which is a value obtained by standardizing the luminance difference between infrared light and visible light, which will be described later, with reference light, and the vertical axis represents the aberration correction amount. Numerical values such as 0, 100, and 200 indicate the value of the mix level amount in each light source.
例えば、太陽光の場合のミックスレベル算出式は、
ミックスレベル=((D_BV−BV_kei)
/(BV_TH_sun−BV_TH_kei))
×200
である。
For example, the formula for calculating the mix level for sunlight is:
Mix level = ((D_BV−BV_kei)
/ (BV_TH_sun-BV_TH_kei))
× 200
It is.
このミックスレベルは、他の光源との判定閾値の1/2の輝度を100としている。そして、例えば、太陽光が主光源であってタングステン光に近いと100より大きく、蛍光灯に近いと100より小さい値となる。 In this mix level, the luminance that is 1/2 of the determination threshold with other light sources is set to 100. For example, when sunlight is the main light source and close to tungsten light, the value is larger than 100, and when close to a fluorescent lamp, the value is smaller than 100.
つまり、太陽光の基準値であるBV_sun_REFを100とすると、タングステンと太陽光の閾値であるBV_TH_sunの場合はミックスレベルが200、太陽光と蛍光灯の閾値であるBV_TH_keiのミックスレベルは0となる。そして、これらの間は、リニアに変化する値となる。つまり、ミックスレベルが50であれば、主光源は太陽光であるが蛍光灯の光が少し混合されたことを表している。 That is, assuming that BV_sun_REF, which is the reference value of sunlight, is 100, the mix level is 200 in the case of BV_TH_sun, which is the threshold value of tungsten and sunlight, and the mix level of BV_TH_kei, which is the threshold value of sunlight and fluorescent lamp, is 0. Between these values, the value changes linearly. In other words, if the mix level is 50, the main light source is sunlight, but the light from the fluorescent lamp is mixed a little.
こうして得られたミックスレベルに基づいて、各光源の収差補正量gが求められる。 Based on the mix level thus obtained, the aberration correction amount g of each light source is obtained.
例えば、太陽光のミックスレベルが100の場合は、g(f,sun)の値が収差補正量である。また、蛍光灯のミックスレベルが100の場合は、g(f,fluo)の値が収差補正量である。 For example, when the mix level of sunlight is 100, the value of g (f, sun) is the aberration correction amount. When the fluorescent lamp mix level is 100, the value of g (f, fluo) is the aberration correction amount.
そして、太陽光のミックスレベルが0の場合、すなわち、BV_TH_keiの場合は、(g(f,fluo)+g(f,sun))/2の値が収差補正量となる。更に、上述したように、太陽光のミックスレベルが50の場合は、BV_TH_keiの補正値と太陽光のミックスレベルが100の場合の補正値を直線補間した値が収差補正量となる。 When the sunlight mix level is 0, that is, BV_TH_kei, the value of (g (f, fluo) + g (f, sun)) / 2 is the aberration correction amount. Furthermore, as described above, when the sunlight mix level is 50, the aberration correction amount is a value obtained by linearly interpolating the correction value of BV_TH_kei and the correction value when the sunlight mix level is 100.
このように、光源毎の補正量を算出するにあたり、直線補間を利用して光源のミックスレベルから補正量を算出するようにしている。 Thus, in calculating the correction amount for each light source, the correction amount is calculated from the mix level of the light sources using linear interpolation.
次に、図17のフローチャートを参照して、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の第2の実施形態による詳細な動作について説明する。 Next, the detailed operation according to the second embodiment of the subroutine “light source detection” in step S42 in the flowchart of FIG. 13 will be described with reference to the flowchart of FIG.
本ルーチンに入ると、先ず、ステップS101にて、光源センサ55の出力が読み出される。次いで、ステップS102にて上記光源センサ55の出力から、光源の輝度が算出される。更に、ステップS103にて、可視光及び赤外光の輝度値が、それぞれ算出される。 When this routine is entered, first, in step S101, the output of the light source sensor 55 is read. Next, the luminance of the light source is calculated from the output of the light source sensor 55 in step S102. Further, in step S103, the luminance values of visible light and infrared light are respectively calculated.
ステップS104では、可視光(BV_eye)と赤外光(BV_ir)の差が算出され、タングステン光を基準にして上記算出された差が規格化される。 In step S104, a difference between visible light (BV_eye) and infrared light (BV_ir) is calculated, and the calculated difference is normalized with reference to tungsten light.
次に、ステップS105に於いて、上述した可視光の輝度値が使用可能な値であるか否かが判定される。これは、輝度が明るすぎる場合や暗すぎる場合は、その光源センサの精度が悪化し、出力値があまり信用できないからである。この場合、ステップS105では、可視光の輝度値が−2より小さいか、または8より大きいかが判定される。 Next, in step S105, it is determined whether or not the above-described luminance value of visible light is a usable value. This is because when the luminance is too bright or too dark, the accuracy of the light source sensor deteriorates and the output value is not very reliable. In this case, in step S105, it is determined whether the luminance value of visible light is less than −2 or greater than 8.
ここで、上記可視光の輝度値が−2より小または8より大であれば、ステップS104へ移行して光源が不明であるとされる。一方、上記ステップS105にて、上記輝度値が−2以上で且つ8以下であれば、ステップS106へ移行する。 Here, if the luminance value of the visible light is less than −2 or greater than 8, the process proceeds to step S104 and the light source is determined to be unknown. On the other hand, if the luminance value is not less than −2 and not more than 8 in step S105, the process proceeds to step S106.
ステップS106では、上記ステップS104で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと比較される。ここで、上記輝度差D_BVの方が蛍光灯の閾値BV_TH_keiよりも小さければステップS110へ移行し、大きければステップS107へ移行する。 In step S106, the luminance difference D_BV calculated in step S104 is compared with a fluorescent lamp threshold value BV_TH_kei. If the brightness difference D_BV is smaller than the fluorescent lamp threshold BV_TH_kei, the process proceeds to step S110, and if greater, the process proceeds to step S107.
ステップS107では、上記ステップS104で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと太陽光の閾値BV_TH_sunの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS111へ移行し、両者の閾値の範囲外であればステップS108へ移行する。 In step S107, it is determined whether or not the luminance difference D_BV calculated in step S104 is between the fluorescent lamp threshold BV_TH_kei and the sunlight threshold BV_TH_sun. Here, if the luminance difference D_BV is within the range of both threshold values, the process proceeds to step S111, and if it is outside the range of both threshold values, the process proceeds to step S108.
また、ステップS108では、上記ステップS104で算出された輝度差D_BVが、太陽光の閾値BV_TH_sunとタングステン光の閾値BV_TH_flの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS112へ移行し、両者の閾値の範囲外であればステップS109へ移行する。 In step S108, it is determined whether the luminance difference D_BV calculated in step S104 is between the sunlight threshold BV_TH_sun and the tungsten light threshold BV_TH_fl. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S112, and if it is outside the range of both thresholds, the process proceeds to step S109.
ステップS109では、上記ステップS104で算出された輝度差D_BVと、タングステン光の閾値BV_TH_flとが比較される。ここで、上記輝度差D_BVの方がタングステン光の閾値BV_TH_flよりも大きければステップS113へ移行し、小さければステップS114へ移行する。 In step S109, the brightness difference D_BV calculated in step S104 is compared with the tungsten light threshold value BV_TH_fl. If the luminance difference D_BV is larger than the tungsten light threshold BV_TH_fl, the process proceeds to step S113, and if smaller, the process proceeds to step S114.
尚、各光源の閾値は、上述した例と同様である。 In addition, the threshold value of each light source is the same as that of the example mentioned above.
ステップS110では、光源が蛍光灯を含む場合の光源の混合割合を示す量、すなわちミックスレベルが算出される。そして、ミックスレベルに対応する収差補正量gが算出される(図16参照)。ミックスレベルの算出式や考え方は、上述したとおりである。同様に、ステップS111では光源が太陽光を含む場合のミックスレベルが算出され、ステップS112では光源がタングステン光を含む場合のミックスレベルが算出される。更に、ステップS113では、光源がブルーフラッドランプを含む場合のミックスレベルが算出され、同様に収差補正量gが算出される。 In step S110, an amount indicating a mixing ratio of light sources when the light source includes a fluorescent lamp, that is, a mix level is calculated. Then, an aberration correction amount g corresponding to the mix level is calculated (see FIG. 16). The calculation formula and concept of the mix level are as described above. Similarly, in step S111, a mix level when the light source includes sunlight is calculated, and in step S112, a mix level when the light source includes tungsten light is calculated. In step S113, the mix level when the light source includes a blue flood lamp is calculated, and the aberration correction amount g is calculated in the same manner.
このように、光源検出及び収差補正量gが求められると、図13のフローチャートのステップS42へ移行し、図18に示される第2の実施形態に於けるサブルーチン「デフォーカス補正」が実行される。 When the light source detection and aberration correction amount g are obtained in this way, the process proceeds to step S42 in the flowchart of FIG. 13, and the subroutine “defocus correction” in the second embodiment shown in FIG. 18 is executed. .
図18は、第2の実施形態に於けるサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。 FIG. 18 is a flowchart for explaining the operation of the subroutine “defocus correction” in the second embodiment.
本サブルーチンに入ると、ステップS121に於いて、光源のミックスレベルに応じて算出された収差補正量gが、フラグ[D_SYUSA]に入力される。次いで、ステップS122にて、検出されたデフォーカス量D_DFに対して、収差補正量gであるD_SYUSAが加算されたものが、D_DFに入力される。これにより、収差補正されたデフォーカス量が算出される。その後、本ルーチンを抜ける。 When this subroutine is entered, in step S121, the aberration correction amount g calculated according to the light source mix level is input to the flag [D_SYUSA]. Next, in step S122, the detected defocus amount D_DF plus D_SYUSA that is the aberration correction amount g is input to D_DF. Thereby, the aberration-corrected defocus amount is calculated. Thereafter, the routine is exited.
このように、第2の実施形態によれば、光源センサ55の出力輝度差に応じて、同じ光源であっても補正量を変化させているので、例えば、光源が室内の窓際等のように、蛍光灯と太陽光の混合光のように光源判定の閾値に極めて近い場合であっても、光源の混合割合に応じた補正を可能にしている。更に、補正量が光源センサ55の出力に応じて連続的に変化する構成となっているため、連続撮影する場合でも、光源判定結果に応じて急に補正量が変化することなく安定した露出が得られる。 As described above, according to the second embodiment, the correction amount is changed even for the same light source in accordance with the output luminance difference of the light source sensor 55. Even if it is a case that is very close to the light source determination threshold, such as a mixed light of a fluorescent lamp and sunlight, correction according to the mixing ratio of the light sources is possible. Further, since the correction amount is continuously changed according to the output of the light source sensor 55, even when continuous shooting is performed, a stable exposure can be obtained without abruptly changing the correction amount according to the light source determination result. can get.
以上のようにして、光源に応じて適切なAFを行い、撮影を行うことができる。 As described above, appropriate AF can be performed according to the light source, and photographing can be performed.
尚、上述した第1及び第2の実施形態は、一眼レフレックスタイプのデジタルカメラに適用された例について述べたが、これに限られるものではなく、レンズ一体型のカメラであっても良い。 In the first and second embodiments described above, an example applied to a single-lens reflex digital camera has been described. However, the present invention is not limited to this, and a lens-integrated camera may be used.
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
この第3の実施形態は、被写体距離による補正を加えた例である。 The third embodiment is an example in which correction by subject distance is added.
光源によって発生するピントずれ量は、フォーカスレンズの位置によって異なることは公知である。これは、フォーカスレンズ位置、すなわちフォーカスレンズの繰り出し量により球面収差が変化することに起因することも知られている(図19参照)。 It is known that the amount of focus deviation generated by the light source varies depending on the position of the focus lens. It is also known that this is caused by the change of spherical aberration depending on the focus lens position, that is, the amount of extension of the focus lens (see FIG. 19).
フォーカスレンズ位置は被写体距離に対応するので、以下、同じ意味として説明する。尚、フォーカスレンズ位置は、レンズ駆動機構23内の図示されないフォーカスエンコーダによって検出される。
Since the focus lens position corresponds to the subject distance, the following description will be given with the same meaning. The focus lens position is detected by a focus encoder (not shown) in the
下記表3は、レンズ鏡筒12内の補正値メモリ27に格納されている光源に対応したピントずれ補正データを表したものである。
このフォーカスレンズは、例えば最至近撮影距離が0.5mであり、0.5m〜無限の被写体距離を4つの領域に分割して、ピントずれ補正データを有している。 This focus lens has, for example, a closest shooting distance of 0.5 m, and has a focus deviation correction data obtained by dividing a subject distance of 0.5 m to infinity into four areas.
図19は、1種類の光源についてのみの特性を示したもので、上記各領域内の平均値のピントずれ量を補正データgとしている。 FIG. 19 shows the characteristics of only one type of light source, and the average defocus amount in each area is used as the correction data g.
図20及び図21は、第3の実施形態に於いて、上記表3のピントずれ補正データを用いてピントずれを補正するサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。 FIGS. 20 and 21 are flowcharts for explaining the operation of the subroutine “defocus correction” for correcting the focus shift using the focus shift correction data shown in Table 3 in the third embodiment.
以下、この動作について説明する。 Hereinafter, this operation will be described.
図13のフローチャートのステップS43のサブルーチン「デフォーカス補正」に入ると、図20及び図21フローチャートのステップS131に於いて、先ずフラグ[F_HOJO]が判定される。ここで、フラグ[F_HOJO]がセットされている場合は、ステップS132へ移行して被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS133へ移行して、上記表3の補正データに従って、収差補正量g1hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 When the subroutine “defocus correction” in step S43 in the flowchart of FIG. 13 is entered, the flag [F_HOJO] is first determined in step S131 of the flowcharts of FIGS. Here, when the flag [F_HOJO] is set, the process proceeds to step S132, and it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S133, and the aberration correction amount g 1h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
一方、上記ステップS132にて被写体距離Lが5m未満であれば、ステップS134に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS135へ移行して、上記表3の補正データに従って、収差補正量g2hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S132, the process proceeds to step S134 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S135, and the aberration correction amount g 2h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
更に、上記ステップS134にて被写体距離Lが2m未満であれば、ステップS136に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS137へ移行して、上記表3の補正データに従って、収差補正量g3hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S134, the process proceeds to step S136, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S137, and the aberration correction amount g 3h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
そして、上記ステップS136にて被写体距離Lが1m未満であれば、ステップS138へ移行して、上記表3の補正データに従って、収差補正量g4hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S136, the process proceeds to step S138, and the aberration correction amount g 4h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
これに対し、上記ステップS131に於いて、フラグ[F_HOJO]がセットされていない場合は、ステップS139へ移行して、フラグ[F_BRUF]がセットされているか否かが判定される。ここで、フラグ[F_BRUF]がセットされている場合は、ステップS140へ移行する。 On the other hand, if the flag [F_HOJO] is not set in step S131, the process proceeds to step S139 and it is determined whether or not the flag [F_BRUF] is set. If the flag [F_BRUF] is set, the process proceeds to step S140.
ステップS140では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS141へ移行して、上記表3の補正データに従って、収差補正量g1bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S140, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S141, and the aberration correction amount g 1b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
一方、上記ステップS140にて被写体距離Lが5m未満であれば、ステップS142に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS143へ移行して、上記表3の補正データに従って、収差補正量g2bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S140, the process proceeds to step S142 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S143, and the aberration correction amount g 2b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
更に、上記ステップS142にて被写体距離Lが2m未満であれば、ステップS144に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS145へ移行して、上記表3の補正データに従って、収差補正量g3bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S142, the process proceeds to step S144, and it is determined whether or not the subject distance L is between 1 m and 2 m. Here, if the subject distance L is between 1 m and 2 m, the process proceeds to step S145, and the aberration correction amount g 3b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
そして、上記ステップS144にて被写体距離Lが1m未満であれば、ステップS146へ移行して、上記表3の補正データに従って、収差補正量g4bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S144, the process proceeds to step S146, and the aberration correction amount g 4b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
上記ステップS139に於いて、フラグ[F_BRUF]がセットされていない場合は、ステップS147へ移行して、フラグ[F_INFR]がセットされているか否かが判定される。ここで、フラグ[F_INFR]がセットされている場合は、ステップS149へ移行する。 If the flag [F_BRUF] is not set in step S139, the process proceeds to step S147 to determine whether or not the flag [F_INFR] is set. If the flag [F_INFR] is set, the process proceeds to step S149.
ステップS149では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS150へ移行して、上記表3の補正データに従って、収差補正量g1iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S149, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S150, and the aberration correction amount g 1i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
一方、上記ステップS149にて被写体距離Lが5m未満であれば、ステップS151に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS152へ移行して、上記表3の補正データに従って、収差補正量g2iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S149, the process proceeds to step S151 and it is determined whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S152, and the aberration correction amount g 2i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
更に、上記ステップS151にて被写体距離Lが2m未満であれば、ステップS153に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS154へ移行して、上記表3の補正データに従って、収差補正量g3iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S151, the process proceeds to step S153 to determine whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S154, and the aberration correction amount g 3i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
そして、上記ステップS153にて被写体距離Lが1m未満であれば、ステップS155へ移行して、上記表3の補正データに従って、収差補正量g4iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S153, the process proceeds to step S155, and the aberration correction amount g 4i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
また、上記ステップS147に於いて、フラグ[F_INFR]がセットされていない場合は、ステップS148へ移行して、フラグ[F_FLUO]がセットされているか否かが判定される。ここで、フラグ[F_FLUO]がセットされている場合は、ステップS156へ移行する。 If the flag [F_INFR] is not set in step S147, the process proceeds to step S148 to determine whether or not the flag [F_FLUO] is set. If the flag [F_FLUO] is set, the process proceeds to step S156.
ステップS156では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS157へ移行して、上記表3の補正データに従って、収差補正量g1fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S156, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S157, and the aberration correction amount g 1f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
一方、上記ステップS156にて被写体距離Lが5m未満であれば、ステップS158に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS159へ移行して、上記表3の補正データに従って、収差補正量g2fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S156, the process proceeds to step S158 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S159, and the aberration correction amount g 2f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
更に、上記ステップS158にて被写体距離Lが2m未満であれば、ステップS160に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS161へ移行して、上記表3の補正データに従って、収差補正量g3fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Further, if the subject distance L is less than 2 m in step S158, the process proceeds to step S160, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S161, and the aberration correction amount g 3f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
そして、上記ステップS160にて被写体距離Lが1m未満であれば、ステップS162へ移行して、上記表3の補正データに従って、収差補正量g4fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S160, the process proceeds to step S162, and the aberration correction amount g 4f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
上記ステップS148に於いて、フラグ[F_FLUO]がセットされていない場合は、ステップS163へ移行する。この場合は、上記補助光、ブルーフラッドランプ、白熱灯、蛍光灯の何れでもないので、光源は太陽光と判定される。 If the flag [F_FLUO] is not set in step S148, the process proceeds to step S163. In this case, since the auxiliary light, the blue flood lamp, the incandescent lamp, and the fluorescent lamp are not included, the light source is determined to be sunlight.
ステップS163では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS164へ移行して、上記表3の補正データに従って、収差補正量g1sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S163, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S164, and the aberration correction amount g 1s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
一方、上記ステップS164にて被写体距離Lが5m未満であれば、ステップS165に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS166へ移行して、上記表3の補正データに従って、収差補正量g2sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S164, the process proceeds to step S165 to determine whether the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S166, and the aberration correction amount g 2s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
更に、上記ステップS165にて被写体距離Lが2m未満であれば、ステップS167に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS168へ移行して、上記表3の補正データに従って、収差補正量g3sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Further, if the subject distance L is less than 2 m in step S165, the process proceeds to step S167, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S168, and the aberration correction amount g 3s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
そして、上記ステップS167にて被写体距離Lが1m未満であれば、ステップS169へ移行して、上記表3の補正データに従って、収差補正量g4sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S167, the process proceeds to step S169, and the aberration correction amount g 4s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.
ステップS170では、このように光源の種類及び被写体距離Lに応じて検出されたデフォーカス量D_DFにD_SYUSAが加算されたものが、D_DFに入力される。これにより、収差補正されたデフォーカス量が算出される。その後、本ルーチンを抜ける。 In step S170, a value obtained by adding D_SYUSA to the defocus amount D_DF detected according to the type of the light source and the subject distance L is input to D_DF. Thereby, the aberration-corrected defocus amount is calculated. Thereafter, the routine is exited.
また、上述した第1乃至第3の実施形態では、太陽光、蛍光灯、タングステン光(白熱灯)、ブルーフラッドランプの4種類の光源について検出するようにしているが、これら4種類だけでなく、より細かな光源を検出して精度の良い補正を行うことも可能である。 In the first to third embodiments described above, four types of light sources such as sunlight, fluorescent lamp, tungsten light (incandescent lamp), and blue flood lamp are detected, but not only these four types. It is also possible to detect a finer light source and perform accurate correction.
以上、この発明の実施形態について説明したが、この発明の主旨を逸脱しない範囲で変形可能であることはもちろんである。 The embodiment of the present invention has been described above, but it goes without saying that the present invention can be modified without departing from the gist of the present invention.
1、11…カメラボディ、2…交換レンズ、3…メモリ、4…光源検知部、5…オートフォーカス(AF)制御部、10…デジタルカメラ、12…レンズ鏡筒、12a…撮影光学系、13…レリーズ釦、14…拡散板、16…ファインダ装置、16a…クイックリターンミラー、16b…ペンタプリズム、16c…接眼レンズ、17…シャッタ部、18…撮像ユニット、21…撮影レンズ、22…絞り、25…レンズ制御用マイクロコンピュータ(Lμcom)、27…補正値メモリ、32…測光センサ、33測光回路、35…サブミラー、36…AFセンサユニット、40…CCDユニット(撮像素子)、41…CCDインターフェイス回路、42…画像処理コントローラ、43…液晶モニタ、49…不揮発性メモリ(EEPROM)、50…ボディ制御用マイクロコンピュータ(Bμcom)、51…ストロボ測光センサ、52…ストロボ光検出回路、53…ストロボ光制御回路、54…光源検出回路、55…光源センサ、61…ストロボ通信回路、62、63…通信コネクタ、64…ストロボ装置。
DESCRIPTION OF
Claims (1)
上記レンズ鏡筒の内部に配置され、被写体を照明する光源の種類に応じて焦点ずれを補正するための上記光源の種類に応じた補正量を記憶している補正量記憶手段と、
上記レンズ鏡筒の内部に配置され、上記カメラボディと通信するためのレンズ通信手段と、
上記カメラボディの内部に配置され、上記レンズ鏡筒と通信するためのボディ通信手段と、
少なくとも被写体の赤外光若しくは近赤外光の光量と可視光の光量とをそれぞれ検出する光量検出手段と、
上記光量検出手段によって検出された赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて上記被写体を照明する光源を検出し、該光源の種類に応じた信号を出力する光源検出手段と、
上記撮影レンズの焦点検出を行う焦点検出手段と、
上記レンズ通信手段と上記ボディ通信手段との通信によって上記補正量記憶手段から取得された光源の種類に応じた補正量を記憶する記憶手段と、
上記記憶手段に記憶されている光源の種類に応じた補正量の中から、上記光源検出手段から出力された光源の種類に応じた信号に対応した補正量を選択する補正量選択手段と、
上記補正量選択手段によって選択された補正量に基づいて、上記焦点検出手段の出力を補正する補正手段と、
を有し、
上記光源検出手段は、赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて判定される2種類の光源の種類及び2種類の光源の混合割合に関する検出信号を出力し、
上記補正量選択手段は、上記検出信号に基づく2種類の光源に対応する上記補正量記憶手段の補正量を選択し、
上記補正手段は、上記選択された2種類の光源に対応する補正量と2種類の光源の混合割合とに基づいて上記焦点検出手段の出力を補正することを特徴とするカメラシステム。 A camera system having a lens barrel including a photographic lens and a camera body to which the lens barrel can be attached,
A correction amount storage unit that is disposed inside the lens barrel and stores a correction amount according to the type of the light source for correcting defocus according to the type of light source that illuminates the subject;
A lens communication means disposed inside the lens barrel for communicating with the camera body;
A body communication means disposed inside the camera body for communicating with the lens barrel;
A light amount detection means for detecting at least the amount of infrared light or near infrared light of the subject and the amount of visible light, respectively;
A light source that illuminates the object is detected based on the difference between the light amount of infrared light or near infrared light detected by the light amount detection means and the light amount of visible light, and a signal corresponding to the type of the light source is output. Light source detection means;
Focus detection means for detecting the focus of the photographing lens;
Storage means for storing a correction amount corresponding to the type of light source acquired from the correction amount storage means by communication between the lens communication means and the body communication means;
A correction amount selection means for selecting a correction amount corresponding to a signal according to the type of light source output from the light source detection means from among correction amounts according to the type of light source stored in the storage means;
Correction means for correcting the output of the focus detection means based on the correction amount selected by the correction amount selection means;
I have a,
The light source detection means outputs a detection signal relating to two types of light sources and a mixing ratio of the two types of light sources determined based on a difference between the light amount of infrared light or near infrared light and the light amount of visible light. ,
The correction amount selection means selects the correction amount of the correction amount storage means corresponding to two types of light sources based on the detection signal,
The camera system according to claim 1, wherein the correction means corrects the output of the focus detection means based on a correction amount corresponding to the selected two types of light sources and a mixing ratio of the two types of light sources.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004014303A JP4504031B2 (en) | 2004-01-22 | 2004-01-22 | Camera system |
CNB2004101027313A CN1327291C (en) | 2004-01-22 | 2004-12-23 | Camera and focus detection device |
US11/037,102 US7260322B2 (en) | 2004-01-21 | 2005-01-18 | Changeable-lens camera, camera system, and focus detection device |
US11/827,325 US20070258708A1 (en) | 2004-01-21 | 2007-07-11 | Changeable-lens camera, camera system, and focus detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004014303A JP4504031B2 (en) | 2004-01-22 | 2004-01-22 | Camera system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005208300A JP2005208300A (en) | 2005-08-04 |
JP4504031B2 true JP4504031B2 (en) | 2010-07-14 |
Family
ID=34879007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004014303A Expired - Fee Related JP4504031B2 (en) | 2004-01-21 | 2004-01-22 | Camera system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4504031B2 (en) |
CN (1) | CN1327291C (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10122911B2 (en) | 2016-02-09 | 2018-11-06 | Canon Kabushiki Kaisha | Image pickup apparatus, control method, and non-transitory computer-readable storage medium with aberration and object information acquisition for correcting automatic focus detection |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8411196B2 (en) * | 2005-12-06 | 2013-04-02 | Panasonic Corporation | Digital camera with movable mirror for AF in live view mode and optical viewfinder mode |
US9508190B2 (en) | 2006-06-09 | 2016-11-29 | Thomson Licensing | Method and system for color correction using three-dimensional information |
JP5034429B2 (en) * | 2006-10-16 | 2012-09-26 | ソニー株式会社 | Lens device, imaging device, and aberration correction method |
WO2008063167A1 (en) * | 2006-11-21 | 2008-05-29 | Thomson Licensing | Methods and systems for color correction of 3d images |
JP4950634B2 (en) * | 2006-11-22 | 2012-06-13 | キヤノン株式会社 | Imaging apparatus and imaging system |
JP5020651B2 (en) * | 2007-02-02 | 2012-09-05 | キヤノン株式会社 | Imaging apparatus and imaging system |
JP4986764B2 (en) * | 2007-08-09 | 2012-07-25 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP2009053568A (en) * | 2007-08-29 | 2009-03-12 | Canon Inc | Imaging apparatus and imaging system |
CN101408660B (en) * | 2007-10-08 | 2010-10-13 | De&T株式会社 | Automatic multiple-focus focusing device and method thereof |
JP5115324B2 (en) * | 2008-05-15 | 2013-01-09 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
JP5821187B2 (en) * | 2010-12-24 | 2015-11-24 | ソニー株式会社 | Imaging system, mount adapter, imaging apparatus, and program |
JP5794665B2 (en) * | 2011-02-16 | 2015-10-14 | キヤノン株式会社 | Imaging device |
JP6562693B2 (en) * | 2015-04-27 | 2019-08-21 | キヤノン株式会社 | Control device, imaging device, control method, program, and storage medium |
JP6664177B2 (en) * | 2015-09-28 | 2020-03-13 | キヤノン株式会社 | Focus detection device, prediction method, program, and storage medium |
CN106231203A (en) * | 2016-09-29 | 2016-12-14 | 深圳聚融科技股份有限公司 | Can the method and apparatus of exact focus during shooting under visible ray and non-visible light |
CN108957914B (en) * | 2018-07-25 | 2020-05-15 | Oppo广东移动通信有限公司 | Laser projection module, depth acquisition device and electronic equipment |
JP7112777B2 (en) * | 2020-07-06 | 2022-08-04 | 株式会社タブチ | How to install a dual meter unit |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0695237A (en) * | 1992-09-14 | 1994-04-08 | Olympus Optical Co Ltd | Camera |
JP2000292682A (en) * | 1999-04-09 | 2000-10-20 | Olympus Optical Co Ltd | Automatic focus adjustment device |
JP3206913B2 (en) * | 1990-09-14 | 2001-09-10 | 旭光学工業株式会社 | Camera auto focus device |
JP2003241064A (en) * | 2002-02-14 | 2003-08-27 | Pentax Corp | Focus detection device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1042775A (en) * | 1996-07-29 | 1998-02-17 | Hatsupou Denki Seisakusho:Kk | Automatic noodle cutter for handmade noodle |
JPH10148752A (en) * | 1996-11-20 | 1998-06-02 | Canon Inc | Lens barrel and cameras |
JP2000121922A (en) * | 1998-10-19 | 2000-04-28 | Asahi Optical Co Ltd | Object display device for camera |
JP2000171685A (en) * | 1998-12-09 | 2000-06-23 | Olympus Optical Co Ltd | Focus detector |
JP2000258681A (en) * | 1999-03-05 | 2000-09-22 | Olympus Optical Co Ltd | Focusing device |
JP2001166200A (en) * | 1999-12-08 | 2001-06-22 | Olympus Optical Co Ltd | Electronic camera provided with auto-fucusing function |
US7084907B2 (en) * | 2001-01-15 | 2006-08-01 | Nikon Corporation | Image-capturing device |
US20030016885A1 (en) * | 2001-07-23 | 2003-01-23 | Cornelius Chow | Closure device and method of manufacture |
JP3630149B2 (en) * | 2002-06-14 | 2005-03-16 | カシオ計算機株式会社 | Imaging apparatus, white balance control method, and white balance control program |
-
2004
- 2004-01-22 JP JP2004014303A patent/JP4504031B2/en not_active Expired - Fee Related
- 2004-12-23 CN CNB2004101027313A patent/CN1327291C/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3206913B2 (en) * | 1990-09-14 | 2001-09-10 | 旭光学工業株式会社 | Camera auto focus device |
JPH0695237A (en) * | 1992-09-14 | 1994-04-08 | Olympus Optical Co Ltd | Camera |
JP2000292682A (en) * | 1999-04-09 | 2000-10-20 | Olympus Optical Co Ltd | Automatic focus adjustment device |
JP2003241064A (en) * | 2002-02-14 | 2003-08-27 | Pentax Corp | Focus detection device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10122911B2 (en) | 2016-02-09 | 2018-11-06 | Canon Kabushiki Kaisha | Image pickup apparatus, control method, and non-transitory computer-readable storage medium with aberration and object information acquisition for correcting automatic focus detection |
Also Published As
Publication number | Publication date |
---|---|
JP2005208300A (en) | 2005-08-04 |
CN1327291C (en) | 2007-07-18 |
CN1645181A (en) | 2005-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4504031B2 (en) | Camera system | |
US20070258708A1 (en) | Changeable-lens camera, camera system, and focus detection device | |
JP5020651B2 (en) | Imaging apparatus and imaging system | |
JP2006098771A (en) | Focus detecting device, imaging apparatus, imaging system, and lens unit | |
JP4325158B2 (en) | Flash control device, electronic flash device, and photographing system | |
US7925150B2 (en) | Camera system, camera body, flash device, and illumination method | |
JP2003114456A (en) | Photometric device with strobe light control device | |
CN109327688B (en) | Image pickup apparatus, control method thereof, and light emission control apparatus | |
JP4350199B2 (en) | camera | |
JP4460904B2 (en) | Camera system, camera, and interchangeable lens | |
US20010036362A1 (en) | Strobe control device | |
JP5430125B2 (en) | Imaging apparatus, strobe system, and light emission control method | |
JP2005208235A5 (en) | ||
JP5163498B2 (en) | Camera system | |
JP4426812B2 (en) | Digital camera | |
EP1404124B1 (en) | Image pickup apparatus and image pickup method | |
CN109387992B (en) | Image pickup apparatus capable of sufficiently ensuring light emission accuracy and control method thereof | |
JP2006072084A (en) | Automatic focus detecting device and camera system | |
JP4422442B2 (en) | Digital camera | |
JP2003043549A (en) | Dimming controller for camera | |
JP2006003533A (en) | Imaging apparatus, focusing control method and program | |
JP2014137449A (en) | Imaging device, control method and program | |
JP2005165186A (en) | Camera | |
JP4810768B2 (en) | camera | |
JP2011059406A (en) | Photographing system, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100422 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4504031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140430 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |